Intel Core i7-11700K: Geekbench-Eintrag entdeckt, im Singlecore acht Prozent schneller als Ryzen 9 5950X

58
News Valentin Sattler
Intel Core i7-11700K: Geekbench-Eintrag entdeckt, im Singlecore acht Prozent schneller als Ryzen 9 5950X
Quelle: Intel

In der Geekbench-Datenbank ist der Eintrag eines Intel Core i7-11700K aufgetaucht. Dieser soll mit dem i9-10900K gleichziehen und AMDs Flaggschiff, den Ryzen 9 5950X, bei der Singlecore-Performance überholen.

Nachdem in den vergangenen Tagen ständig neue Gerüchte zu Intels Rocket-Lake-CPUs aufkamen, wurde nun der i7-11700K vom Twitter-Nutzer Leakbench in der Geekbench-Datenbank entdeckt. Damit gibt es nun einerseits einen Anhaltspunkt für die Leistung des Prozessors, und andererseits eine weitere Quelle für die Taktraten.

Acht Prozent vor dem Ryzen 9 5950X

Mit den Rocket Lake-CPUs, zu denen auch der Core i7-11700K gehört, will Intel im ersten Quartal 2021 endlich die alte Skylake-Architektur ablösen, die schon seit vielen Jahren immer wieder für "neue" Produkte herhalten musste. Als Nachfolger kommen nun Sunny-Cove-Kerne zum Einsatz, die von Intel bereits im Notebook eingesetzt werden.

Durch den Architekturwechsel wäre es denkbar, dass sich nicht nur die IPC sondern auch die Taktraten mit Rocket Lake ändern. Wenn der Geekbench-Eintrag stimmt, werden diese aber nicht so drastisch absinken, wie manche Leaks es vermuten lassen. Die Rede ist von 3,60 GHz Basistakt und, laut Videocardz, 5,0 GHz im Boost. Das sind 200 beziehungsweise 100 MHz weniger als beim Vorgänger, der aber eben eine ältere Architektur nutzt.

Auch interessant: Intel Rocket Lake soll auch auf bestehenden Sockel-1200-Mainboards funktionieren

Laut den Leistungsdaten soll der i7-11700K den i7-10700K im Geekbench deutlich überholen: Während der i7-10700K im Singlecore auf 1.349 Punkte kommt, liegt der i7-11700K mit 1.807 Punkten deutlich darüber. Er würde sogar einen AMD Ryzen 9 5950X um acht Prozent schlagen, der nur auf 1.672 Punkte kommt.

Empfohlener redaktioneller InhaltAn dieser Stelle finden Sie externe Inhalte von [PLATTFORM]. Zum Schutz Ihrer persönlichen Daten werden externe Einbindungen erst angezeigt, wenn Sie dies durch Klick auf "Alle externen Inhalte laden" bestätigen:Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. Mehr dazu in unserer Datenschutzerklärung.
Externe Inhalte Mehr dazu in unserer Datenschutzerklärung.

Auch im Multicore soll es, wenn der Eintrag korrekt ist, deutliche Fortschritte geben. Hier werden 10.673 Punkte angegeben, die nur knapp unter den 10.967 Punkten des bisherigen Intel-Flaggschiffs, des i9-10900K liegen. Mit AMDs Flaggschiff kann sich der Intel-Prozessor hier aber nicht anlegen - dafür hat der Ryzen 9 5950X zu viele Kerne.

CPUKerne / ThreadsBasis-/Boost-TaktSinglecore-ScoreMulticore-Score
Ryzen 9 5950X16 / 323,40 / 4,90 GHz167216515
Ryzen 7 5800X8 / 163,80 / 4,70 GHz166310361
i7-11700K8 / 163,60 / 5,00 GHz180710673
i7-10900K10 / 203,70 / 5,30GHz140510967
i7-10700K8 / 163,80 / 5,10 GHz13498973

Wie immer gilt, dass die Daten des Eintrags mit entsprechender Vorsicht genossen werden sollten. Fehleintragungen oder Vorserienmodellen sind beliebte Fehlerquellen. Zumindest für Intel wäre es aber wohl wünschenswert, wenn das Unternehmen zumindest mit dem Punkt Singlecore-Performance wieder ein Kaufargument für sich beanspruchen könnte.

Quelle: via Videocardz, Geekbench-Rangliste

17:01
Crysis Remastered: Performance und Grafik auf RTX 3080 und Ryzen 9 3900X
    • Kommentare (58)

      Zur Diskussion im Forum
      • Von MechUnit Freizeitschrauber(in)
        Zitat von gerX7a
        Dann musst du richtig lesen, da du auf [Ins Forum, um diesen Inhalt zu sehen] 's Post geantwortet hast, der explizit vom "T" schrieb.
        Darüber hinaus trifft das "Stromfresser" aber auch bei Mainstream-Workloads eher weniger zu und dies wird gar oftmals aus einer ganz anderen Motivation heraus krampfhaft hervorgestrichen. Der Mehrverbrauch ist noch vergleichsweise überschaubar, so bspw. im Gaming, teilweise gar selbst, wenn man die CPUs mit einem sehr hohen AllCore-OC betreibt, was schlicht an der geringen CPU-Auslastung im Gaming liegt.

        Beim 3D-Reneding ist grundsätzlich zwischen den Anforderungen und dem Niveau zu unterscheiden. Hier im PCGH-Forum treffen wir wohl bestenfalls auf vereinzelte, semiprofessionelle Anwender. Zwar mögen sich hier auch dann und wann ein paar CG-Artists, die auch gerne zocken, in dieses Forum verlaufen, jedoch wird das eher die Ausnahme sein, sodass ein GPU-Rendering hier bei nur ein klein wenig finzanzieller Flexibilität oftmals die bessere Wahl sein wird, das zudem nur in wenigen Fällen qualitativ anders ausfallen wird. Renderfarmen nutzen nicht umsonst auch vielfach RTX 2080 Ti's oder Titan RTX Karten.
        Im professionellen Umfeld können komplexe Szenen dann auch mal leicht die 48 GiB einer RTX 8000 oder neueren A6000 überfordern oder aber Szenenbestandteile sind unvorteilhaft für ein GPU-Rendering, sodass es hier vielfach beim universell nutzbaren CPU-Rendering bleibt, zumal diese Ressourcen auch historisch gewachsen sind und daher nicht so einfach verworfen werden und zudem auch die Frage ist, welcher Software-Stack verwendet wird, denn nicht jede Software (und jeder Workload) skaliert gut auf GPUs.
        Darüber hinaus sind AMDs GPUs durchgehend leistungsschwächer (kann man zudem bspw. etwas wie OptiX verwenden gar deutlich langsamer). AMD ist hier aktuell nur aus einer P/L-Sichtweise heraus eine Überlegung wert, jedoch bei den Radeon Pro's braucht man sich aktuell gar nicht umzusehen, solange nicht die ersten BigNavi-Chips in die Pro-Serie überführt wurden (die stärkste GPU bei den Radeon Pro's ist derzeit die angestaubte Vega 20 und die kann leistungstechnisch nicht mal ansatzweise mithalten).
        ok, es ging um den T - mea culpa.

        ansonsten sprichst du das gleiche aus wie ich, nur etwas ausführlicher. das mit den dateigrößen ist richtig, vor allem bei vielen mehrschichtigen texturen und partikeleffekten z.b...

        mit den worksation-GPU's hast du recht. habe da schon länger nicht mehr bei AMD geguckt. aber das reine rendering selbst übernehmen ja im GPU-bereich die shadereinheiten. je mehr vorhanden, umso mehr iterationen können pro sec gerendert werden. bei schnelleren shadern die gleiche anzahl natürlich schneller. da sehe ich, wenn wir mal bei den consumer-karten bleiben, keinen nachteil gegenüber Nvidia, was rein die shader-renderleistung der aktuellen generation betrifft. oder hast du einen direktvergleich?

        es ist natürlich davon auszugehen, dass AMD auch eine neue Radeon Pro-gen bringt.
      • Von MechUnit Freizeitschrauber(in)
        Zitat von gerX7a
        Dann musst du richtig lesen, da du auf [Ins Forum, um diesen Inhalt zu sehen] 's Post geantwortet hast, der explizit vom "T" schrieb.
        Darüber hinaus trifft das "Stromfresser" aber auch bei Mainstream-Workloads eher weniger zu und dies wird gar oftmals aus einer ganz anderen Motivation heraus krampfhaft hervorgestrichen. Der Mehrverbrauch ist noch vergleichsweise überschaubar, so bspw. im Gaming, teilweise gar selbst, wenn man die CPUs mit einem sehr hohen AllCore-OC betreibt, was schlicht an der geringen CPU-Auslastung im Gaming liegt.

        Beim 3D-Reneding ist grundsätzlich zwischen den Anforderungen und dem Niveau zu unterscheiden. Hier im PCGH-Forum treffen wir wohl bestenfalls auf vereinzelte, semiprofessionelle Anwender. Zwar mögen sich hier auch dann und wann ein paar CG-Artists, die auch gerne zocken, in dieses Forum verlaufen, jedoch wird das eher die Ausnahme sein, sodass ein GPU-Rendering hier bei nur ein klein wenig finzanzieller Flexibilität oftmals die bessere Wahl sein wird, das zudem nur in wenigen Fällen qualitativ anders ausfallen wird. Renderfarmen nutzen nicht umsonst auch vielfach RTX 2080 Ti's oder Titan RTX Karten.
        Im professionellen Umfeld können komplexe Szenen dann auch mal leicht die 48 GiB einer RTX 8000 oder neueren A6000 überfordern oder aber Szenenbestandteile sind unvorteilhaft für ein GPU-Rendering, sodass es hier vielfach beim universell nutzbaren CPU-Rendering bleibt, zumal diese Ressourcen auch historisch gewachsen sind und daher nicht so einfach verworfen werden und zudem auch die Frage ist, welcher Software-Stack verwendet wird, denn nicht jede Software (und jeder Workload) skaliert gut auf GPUs.
        Darüber hinaus sind AMDs GPUs durchgehend leistungsschwächer (kann man zudem bspw. etwas wie OptiX verwenden gar deutlich langsamer). AMD ist hier aktuell nur aus einer P/L-Sichtweise heraus eine Überlegung wert, jedoch bei den Radeon Pro's braucht man sich aktuell gar nicht umzusehen, solange nicht die ersten BigNavi-Chips in die Pro-Serie überführt wurden (die stärkste GPU bei den Radeon Pro's ist derzeit die angestaubte Vega 20 und die kann leistungstechnisch nicht mal ansatzweise mithalten).
        ok, es ging um den T - mea culpa.

        ansonsten sprichst du das gleiche aus wie ich, nur etwas ausführlicher. das mit den dateigrößen ist richtig, vor allem bei vielen mehrschichtigen texturen und partikeleffekten z.b...

        mit den worksation-GPU's hast du recht. habe da schon länger nicht mehr bei AMD geguckt. aber das reine rendering selbst übernehmen ja im GPU-bereich die shadereinheiten. je mehr vorhanden, umso mehr iterationen können pro sec gerendert werden. bei schnelleren shadern die gleiche anzahl natürlich schneller. da sehe ich, wenn wir mal bei den consumer-karten bleiben, keinen nachteil gegenüber Nvidia, was rein die shader-renderleistung der aktuellen generation betrifft. oder hast du einen direktvergleich?

        es ist natürlich davon auszugehen, dass AMD auch eine neue Radeon Pro-gen bringt.
      • Von Mahoy Volt-Modder(in)
        Zitat von fotoman
        Wieviel Aufwand sollen die Portale denn in solche Benchmarks stecken, die dann noch nicht einmal über 2-3 CPU-Generationen vergleichbar wären, weil es die SW schon lange nicht mehr gibt.
        Genau das machen sie ja - und zwar ohne Aufwand. Oder meinst du, dort würden Ergebnisse, die mit obsoleter Software zustande gekommen sind, nicht mehr in die Statistik einfließen? Die werfen nichts weg oder rebenchen das komplette Alt-Portfolio. Wohlgemerkt, die Beispiel betraf aggregierte Benchmarks realer Anwendungen, das sollte man mit ...

        Zitat von fotoman
        Die Werte oder Relationen von CB15, CB20 und CB23 sind nicht so einfach mit einander vergleichbar. Wobei das Beispiel schlecht ist, da es CB15 immer noch gibt, ein Spiel von vor 4-5 Jahren im damals getesteten Patchlevel u.U. nicht mehr.
        ... synthetischen Benchmarks mit spezifischer Aussagekraft pro Version nicht in einen Topf werfen. Diese sind nämlich pro Version sehr wohl vergleichbar und die Ergebnisse gelten für diesen spezifischen Benchmark, der wiederum - um bei deinem Beispiel zu bleiben - repäsentativ für Cinema 4D und strukturell vergleichbare reale Anwendungen ist. Dass man CineBench-Ergebnisse beispielsweise nicht 1:1 auf (alle) Spiele übertragen kann, sollte man DAUs gegenüber allerdings auch gelegentlich erwähnen.

        Zitat von fotoman
        Würden die 30 Spiele und 10 Anwendungen von PCGH (Zahlen geschätzt) genügen, oder müssen es dann die aktuell 100 beliebtesten Spiele sein?
        PCGH ist, da du es erwähnst, transparent: Man kann den Einzeltest zu Rate ziehen und schauen, wie sich die CPU in spezifischen getesteten Spielen und Anwendungen verhält und für sich das stärker gewichten, was einem persönlich wichtiger ist. Das, wofür keine Daten verfügbar sind, kann man selbsterklärend nicht selektieren.

        Vergleiche das aber mal mit - gehen wir mal direkt auf das Schlimme - mit UserBenchmark. Was der Benchmark genau treibt, welchen Parameter dahinter stehen und welche Gewichtung welche Technologien haben ist ebenso wenig ersichtlich wie der Bezug zu realen Anwendungen.
        Das Wenige, was man sieht, lässt die Vermutung aufkommen, dass der Benchmark seit seiner ersten Anwendung nicht mehr geändert wurde, also aktuelle Befehlssätze und sonstige Änderungen überhaupt nicht berücksichtigt. Aber weil das nur eine Vermutung ist, kann man nicht einmal das als gesicherte Baseline nutzen, um vielleicht doch noch so etwas mit Relevanz zu abstrahieren.

        Zitat von fotoman
        Dass solche Vergleiche nie funktionieren, zeigen ja die unendlichen Diskussionen hier über die Testkriterien bei Spielen. Wer kapiert hat, warum PCGH mit 720p testet, braucht solche Test nicht mit seinem Traumspiel. Und wer es nicht kapiert hat, für den müsste mit seiner Traumauflösung und den Traumsettings getestet werden. Also jedes der 100 Spiele mit mind 20 Settings. Da ist der Test noch nicht vorbei, wenn der Hersteller die nächste CPU auf den Markt bringt.
        Das ist ein Problem, jedoch wiederum ein anderes.

        Zitat von fotoman
        Persönlich bringen mir noch nicht einmal die konkreten Benchmarks von PCGH mit HandBrake wirklich viel. HandBrake reagiert bei anderen Videoauflösungen und/oder anderen Video-Einstellungen in Sachen Performance komplett anders und die Version wurde bei PCGH recht spät aktualisiert (womit die alten Testergebnisse nicht mehr vergleichbar sind). Entweder, ich kann aus solchen Benchmarks Rückschlüsse auf meine eigenen Anwendungen ziehen (dann brauche ich auch nur Benchmarkts zu 2-3 gut ausgewählten Anwendungen, bei Spielen wird es ähnlich sein) oder ich kann es nicht.
        Zuallererst ist Handbrake ja nur ein GUI, welches Encoder von Dritten mit spezifischen Presets anspricht. Dementsprechend ändert sich zwischen den Versionen - neben offensichtlichen Dingen wie Bedienbarkeit etc. - auch eher, welche Encoder überhaupt unterstützt werden. Das selbe Preset des selben Encoders ist über Versionen hinweg bemerkenswert gut vergleichbar.

        Aber dennoch hast du recht, das ist ein kritisches Thema, weil gerade hier so wahnsinnig viele andere Faktoren (Source- und Target-Datenträger, RAM-Größe und -geschwindigkeit usw.) mit hineinspielen, die sich nicht so gut normieren lassen wie die Auflösung der Grafikkarte.

        Hier kommt dann das ins Spiel, was du selbst ansprichst: Die finale Abstraktionsleistung muss der Anwender erbringen. Das allerdings kann er um so besser, je zugänglicher ihm die ermittelten Daten gemacht werden und je transparenter die Testmethodik ist.
      • Von mcmarky Software-Overclocker(in)
        Zitat von DaHell63
        Wie kommst Du auf AVX512? Mit AVX512 reichen schon @4GHz um ZEN3im Singlecore zu schlagen.
        Mit meinem alten i9 7920X @3.8GHz AVX512 schlage ich mal einen R9 5900X locker...ausser mit LN2.
        Geekbench nutzt sicher kein AVX512. Gerade getestet und das selbe Krötenergebniss wie vorher.

        Jetzt wird Zeit dem Consumermarkt dafür auch die Anwendungen zu geben....könnte das Leben des alten Intel
        wohl noch ein wenig verlängern .
        Hier steht es: "Improve AES-XTS workload performance on processors with AVX512 support."
      • Von Incredible Alk Moderator
        Zitat von DaHell63
        Jetzt wird Zeit dem Consumermarkt dafür auch die Anwendungen zu geben....könnte das Leben des alten Intel
        wohl noch ein wenig verlängern .
        Die gibts schon seit vielen Jahren. Beispielsweise für AVC und HEVC Videoencoder - als Beispiel was AVX512-Unterstützung für Geschwindigkeitszuwächse bietet:
        https://extreme.pcgameshardware.de/attachments/skl_vs_bdw_speedup-png.1332114/

        Das Bild ist schon viele Jahre alt, Broadwell-CPUs ja genauso. Auch die entsprechenden h.264/h.265 Encoder gibts schon ewig. Nur eben nicht als 0€-Freeware für die Zielgruppe "Google nach Video konvertieren kostenlos", und leider, so schade das auch ist, auch oft noch immer nicht in den teilweise sauteuren Profiprogrammen wie Vegas, AdobePremiere und wie sie alle heißen - die hängen da auch oft Jahre hinterher.

        Aber ja, prinzipiell sind praktische Geschwindigkeitszuwächse von 50% und mehr machbar durch AVX512-Nutzung.
      • Von DaHell63 Volt-Modder(in)
        Zitat von mcmarky
        Das Ergebnis ist doch ernüchternd, wenn man bedenkt, dass Rocket Lake AVX-512 unterstützt, was auch von Geekbench 5 genutzt wird. Der Ryzen 9 kann AVX-512 eben nicht, wozu auch. Die Frage ist, wie groß ist die Rocket Lake Singlecore-Leistung im Alltag ohne AVX-512...
        Wie kommst Du auf AVX512? Mit AVX512 reichen schon @4GHz um ZEN3im Singlecore zu schlagen.
        Mit meinem alten i9 7920X @3.8GHz AVX512 schlage ich mal einen R9 5900X locker...ausser mit LN2.
        Geekbench nutzt sicher kein AVX512. Gerade getestet und das selbe Krötenergebniss wie vorher.

        Hab mal CPU-Z und Time Spy extreme mit AVX512 laufen lassen.
        Zwischen den beiden CPU-z Ergebnissen (AVX2/AVX512) sind 800MHz Taktunterschied.
        Im Time Spy extreme CPU Ranking komme ich mit @3.8GHz schon in die Regionen eines R9 5950X.

        Jetzt wird Zeit dem Consumermarkt dafür auch die Anwendungen zu geben....könnte das Leben des alten Intel
        wohl noch ein wenig verlängern .
      Direkt zum Diskussionsende
  • Print / Abo
    Apps
    PCGH Magazin 05/2024 PC Games 05/2024 PC Games MMore 04/2024 play5 05/2024 Games Aktuell 01/2024
    PCGH Magazin 05/2024 PC Games 05/2024 PC Games MMORE Computec Kiosk