Zurück in die Zukunft: Intel setzt wieder auf Hyper-Threading

116
News Sven Bauduin
Zurück in die Zukunft: Intel setzt wieder auf Hyper-Threading
Quelle: Intel

Intel hat erkannt, dass seine CPUs ohne SMT ("Simultaneous Multithreading"), welches beim einstigen Chip-Giganten unter der Bezeichnung HTT ("Hyper-Threading Technology") läuft, Wettbewerbsnachteile haben und bringt die Technologie zurück.

Wie Intel-CEO Lip-Bu Tan nun im Rahmen der Verkündung der Quartalsergebnisse einräumen musste, hat das Unternehmen aus Santa Clara erkannt, dass seine CPUs ohne SMT ("Simultaneous Multithreading"), das beim einstigen Chip-Giganten unter der Bezeichnung Intel HTT ("Hyper-Threading Technology") firmierte und mit den Prozessoren aus der Serie Core Ultra 200S ("Arrow Lake") aufgegeben wurde, Wettbewerbsnachteile haben und bringt die Technologie deshalb zurück.

Ohne die Technologie, welche zur Verdopplung der Threads einer CPU führt, sei das Unternehmen aktuell viel zu schlecht aufgestellt und müsse diesen Umstand mit den kommenden Prozessorserien korrigieren. Damit vollzieht Intel eine vergleichsweise rasante Kehrtwende, da HT/SMT erst mit den hybriden Core Ultra der ersten und zweiten Generationen alias Meteor Lake, Arrow Lake und Lunar Lake aus dem Featureset entfernt wurden. Im Desktop boten zuletzt die Core-i-14000 die Verdopplung der Threads von Performance-Cores, während die kleinen energiesparenden E-Cores ohnehin kein Intel HTT unterstützen. Die Konkurrenzfähigkeit habe darunter gelitten, so Intels CEO Tan.

Um dies zu unterstützen, führen wir das simultane Multithreading wieder ein. Der Verzicht auf SMT hat uns einen Wettbewerbsnachteil verschafft. Die Rückkehr zu SMT wird uns helfen, die Leistungsunterschiede zu verringern. - Lip-Bu Tan, CEO von Intel -

So schnell lässt sich das Vorhaben aber nicht in die Tat umsetzen respektive in bereits weit vorangeschrittene CPU-Designs implementieren, sodass für die kommenden Server-Prozessoren der 7. Generation alias Xeon 7 ("Diamond Rapids") nicht anzunehmen ist, dass diese mit Hyper-Threading aufwarten können.

Lip-Bu Tan betonte, dass man Intel bei den Server-CPUs zuletzt auf einen Marktanteil von 55 Prozent abgestürzt sei. Die jüngsten Prognosen und Aussichten lassen bislang auch nicht auf eine Trendwende schließen. Die ersten CPUs, welche wieder auf HTT setzen werden, dürften die Xeon 8 ("Coral Rapids") sein. Ob auch Desktop-CPUs zukünftig wieder mit Hyper-Threading aufwarten können, ist noch offen.

Ihre Meinung ist gefragt!

Wie stehen Sie zu diesem Thema? Die PCGH-Redaktion freut sich über Ihre fundierte Meinung in den Kommentaren zu dieser Meldung. Um zu kommentieren, müssen Sie auf PCGH.de oder im Extreme-Forum eingeloggt sein. Sollten Sie bisher noch keinen Account haben, könnten Sie sich hier unverbindlich registrieren. Beachten Sie beim Kommentieren dieser Meldung aber bitte auch die geltenden Forenregeln.

Quelle: Intel

    • Kommentare (116)

      Zur Diskussion im Forum
      • Von latiose88 BIOS-Overclocker(in)
        Ja das kommt noch dazu zu der verwendeten Software,die Einstellung . Also genauso halt wie der Codec. Naja egal wie man es dreht und wendet ,bei mir ist das halt so .
      • Von latiose88 BIOS-Overclocker(in)
        Ja das kommt noch dazu zu der verwendeten Software,die Einstellung . Also genauso halt wie der Codec. Naja egal wie man es dreht und wendet ,bei mir ist das halt so .
      • Von empy Lötkolbengott/-göttin
        Zitat von latiose88
        Handbrake scheint da echt besser zu skalieren weil sogar ein 32 kerner da noch super davon profitiert .
        Es kommt auch auf den Codec an. Manche Codecs lassen sich besser parallelisieren als andere.
      • Von latiose88 BIOS-Overclocker(in)
        [Ins Forum, um diesen Inhalt zu sehen] Ja gut dann habe ich so ein Glück nicht wie du . Macht aber nix ,Handbrake scheint da echt besser zu skalieren weil sogar ein 32 kerner da noch super davon profitiert . Das scheint wohl das einzige Programm zu sein wo mehr Threads was bringen . Allerdings gefiel mir dabei das Ergebnis nicht . Alle andere Programme scheinen da deutlich schlechter zu skalieren was die Threadzahl angeht .Sofern man die Einstellung ausklammert die man so fährt . Ich habe mich dran gewöhnt weil hat ja auch was gutes weil Mann braucht man nicht so viele Threads bzw kerne mehr zu achten .
        Es gibt auch klar noch mehr Programme anderer Richtung. Das ist aber nun bessere Beispiele.

        Und ja deines ist klar das es dann keine Rolle mehr spielt ob mit oder ohne hypertrading weil es Lastet auch diese super aus . Du erschafft halt gerne neue Videos und ich wandle sie nur von einem zum anderen Format um und das wars dann .
      • Von empy Lötkolbengott/-göttin
        Zitat von MechUnit
        Generell nutze ich Anwendungen (primär 3D), die immer CPU's komplett mit allen Threads voll Auslasten. Dabei spielt es keine Rolle, auf welcher Architektur diese CPU's basieren.
        Vermutlich schon, aber eben andersrum. Rohleistung lässt sich viel einfacher auf die Straße bringen, wenn man einfach so viele Aufgaben in die Pipeline schmeißen kann, dass man immer alle Recheneinheiten ausgelastet bekommt. Dann sind simplere Architekturen, die mehr Fläche für Rechenwerke nutzen können, einfach leistungsfähiger. Das Extrem sind GPUs.
      • Von MechUnit Software-Overclocker(in)
        Zitat von DarkWing13
        Viele Kunden lesen nur "Effizienz-Kerne" und denken sich, war da nicht mal was mit Atom-CPUs, die "furchtbar" langsam waren und höchstens in Billig-Notebooks, NAS, oder Mini-PCs eingebaut wurden?
        "Effizienz" ist auch häufig ein Negativ-Begriff, weil dies gleichbedeutend mit weniger Leistung einhergeht.
        Solche Begriffe setzen sich in den Köpfen der Leute fest.
        Ein 40W Lötkolben der aufgrund der neuen, besseren Heiz- und Lötspitzentechnologie mindesten so gut ist wie ein 60W Lötkolben, bekommst du auch nicht verkauft, weil die Leute nur 40 zu 60 Watt sehen.
        Also beim 3D-Rendering bin ich froh, wenn die CPU oder GPU effizient arbeitet - vor allem die CPU bei 100% Auslastung auf allen Threads. Da zahlen sich nicht nur IPC und Fertigungsverfahren, sondern eben auch Effizienz besonders aus.

        Zitat von latiose88
        [Ins Forum, um diesen Inhalt zu sehen] stimmt war wohl zu allgemein gewesen . Klar kann ich das auch konkreter machen .

        Anwendung A sagen wir mal egal welches Umwandlungs Programm das x264 das ist ja ein Codec der entscheidet mit .
        Je nach Einstellung kann dieser 8-16 Kerne gut Auslasten und das meist mit HT bzw smt .
        Wenn man 2 davon verwendet dann sind das schon 16-20 Kerne .
        Ob mit oder ohne smt bzw HT ist auch kommt drauf an .
        Der 8 Kerner von Intel enspräche bei der Leistung eines 6 Kerners mit HT .
        Pro Anwendung schafft meine Software 18 Threads macht zusammen also 36 aber das sagt ja nichts aus weil alleine ein 4 Kerner mit HT schon 12 konnte.
        Naja die Aussage sollte wohl heißen das es so fein eben nicht mehr geht .
        So wie bei mir wird es wohl mehr Software so gehen . Würde ab einer gewissen Anzahl also Intel wieder HT rein tuen würde das so wen wie mir nix nützen. Am Ende sagt ja die Anzahl an Threads nicht immer was aus.
        Es kommt eben auf den Anwendungszweck an, wie gesagt.

        Generell nutze ich Anwendungen (primär 3D), die immer CPU's komplett mit allen Threads voll Auslasten. Dabei spielt es keine Rolle, auf welcher Architektur diese CPU's basieren.
      Direkt zum Diskussionsende
  • Print / Abo
    Apps
    PCGH Magazin 05/2026 PC Games 05/2026 PC Games MMore 03/2026 play5 05/2026 N-Zone 01/2026 Linux Magazin 05/2026 LinuxUser 05/2026 Raspberry Pi Geek 05/2026
    PC Games Hardware PC Games PC Games MMORE Linux Magazin Raspberry Pi Geek Computec Kiosk