Fallout 4 mit Patch 1.03: Neue Benchmarks - Drawcall-Limit als Fps-Killer [Test der Woche]

Nachdem sowohl Nvidia als auch AMD neue Treiber herausgebracht haben und Bethesda das Rollenspiel auf Version 1.3 gepatcht hat, werfen wir einen erneuten Blick auf Fallout 4. Dabei steht uns mit dem Tool ENB-Series erstmals ein Werkzeug zur Verfügung, mit dem sich die Drawcalls auslesen lassen. Somit können wir eine Unbekannte aus der Performance-Gleichung praktisch komplett eliminieren: den berühmt-berüchtigten API-Overhead. Data-Bomb incoming!

72
Special Philipp Reuther 6,25 €
Fallout 4 v1.3 - Drawcall- und GPU-Benchmarks (14)
Quelle: PC Games Hardware

Fallout 4 ist ein durchaus gutes Spiel geworden, auch wenn sich der eine oder andere eingefleischte Fan über den Verlust von Rollenspielelementen der Vorgänger grämt. So auch wir, dennoch haben wir bisher viel Spaß im postapokalyptischen Ödland rund um die Stadt Boston gehabt und mittlerweile gut 100 Stunden dort verbracht, etwa 40 davon mit technischem Hintergrund.

Die verwendete Creation-Engine, die für Fallout 4 mit Direct X 11, 64-Bit, einem physikbasierten Renderer, einer gelungenen und kostengünstigen temporalen Kantenglättung sowie einigen Nvidia-Effekten aufgemotzt wurde, jedoch noch klar ihre Skyrim-Wurzeln erkennen lässt, stimmt uns hingegen etwas verdrießlich: Das 60-Fps-Framelock nervt und funktioniert in einigen Fällen nicht korrekt (z.B. mit 144-Hz-WQHD-Displays), schaltet man es gewaltsam per Ini-Eingriff ab, gerät das Spiel aus den Fugen.

Nicht nur wir wunderten uns zudem über scheinbar willkürlich auftretende Leistungseinbrüche, besonders in städtischen Gebieten. Zeit für eine Analyse.

07:17
Fallout 4: Video-Review der PC-Fassung

Fallout 4 - Patch + neue Grafikkartentreiber = bessere Performance?

Leider brachte weder der Patch 1.03 noch neue Grafikkartentreiber von AMD und Nvidia eine klare Besserung. Zwar können einige Grafikkarten gegenüber unseren Benchmarks zu Release ein paar Fps gut machen, leider betrifft dies hauptsächlich schnelle GPUs wie die GTX 980 Ti und fast ausschließlich Full HD. So legt die kräftige Palit GTX 980 Ti Jetstream in 1080p um ordentliche 8 Prozent zu, in WQHD sind es immerhin noch 3 Prozent. In Ultra HD bleibt die Leistung gleich. Das Problem dabei: Sowohl in Full HD als auch WQHD liefert die Karte sowieso schon weit über 60 Bilder die Sekunde, aufgrund des quasi erzwungenen 60-Fps-Framelocks verpufft dieser Zugewinn. Auch die R9 Fury kann ein paar Prozentpünktchen gut machen, ab WQHD kann man immerhin ein tatsächlich nutzbares Plus von knapp 6 Prozent einfahren, in Ultra HD sind es noch beinahe 2 Prozent. Ähnliches gilt für die restlichen Grafikkarten. Immerhin fühlt sich Fallout 4 aber etwas runder an, kleinere Stocker treten gefühlt seltener auf.

Fallout 4 Grafikkarten-Benchmarks

  • Auflösung im Drop-Down Menü wählen
Game/Version Fallout 4, Steam Version 1.3
Details Ultra-Preset, 16:1 HQ-AF, Nvidia Flex off
Software/Drivers Geforce 361.91 WHQL, Radeon Crimson Software 16.1.1 Hotfix 2; Win 10 x64
  • Resolution/AA (1 von 3)

  • 0 von 11 Produkten sichtbar

126.6
108
93.6
79
80.3
65
80.1
64
74.7
60
67.5
54
64.6
52
57.4
46
52.5
39
48.2
36
47.8
39
0
10
20
30
40
50
60
70
80
90
100
110
120
130
Name
1.920 × 1.080, TAA (Average Fps)
2.560 × 1.440, TAA (Average Fps)
3.840 × 2.160, TAA (Average Fps)
Minimum Fps

System

Intel Core i7-6700K @ 4,5 GHz, 16 GiByte DDR4-2400 RAM

Resultate nicht unbedingt vergleichbar mit früheren Reviews/Results not necessarily comparable with earlier reviews

Zudem lässt sich die Optik nun mit der neu hinzugekommenen Umgebungsverdeckung HBAO+ etwas aufhübschen, Nvidia-Besitzer dürfen sich zudem über herumfliegende Bröckchen dank der Geforce-exklusiven und von Physx auf Flex umgetauften GPU-beschleunigten Rigid-Body-Physik erfreuen und die über 60 Fps hinausgehende Leistung so immerhin halbwegs sinnvoll verpulvern. Für unsere nun folgenden Standard-GPU-Benchmarks wählen wir wie gehabt Ultra- beziehungsweise Extreme-Details, hierbei bleiben HBAO+ und Flex deaktiviert, der von Nvidia stammende volumetrische Nebel (maximale Stufe) sowie die tessellierten Gameworks-Godrays (hoch) bleiben hingegen an. Diese Effekte sind in niedriger Qualität auch auf den Konsolen aktiv, also bleiben sie das auch für unsere PC-Benchmarks. Allerdings sollten AMD-Nutzer vor allem die tessellierten Godrays etwas kritisch sehen, denn diese können mit Radeon-GPUs extrem viel Leistung kosten. Unser Tipp: Einfach im Menü der Radeon Software Crimson den Tessellations-Schalter im Fallout-4-Profil auf 8x stellten, das spart gegenüber der vollen Qualität in Worst-Case-Situationen gut 50 Prozent Leistung. Zwar verlieren die schicken Sonnenstrahlen so etwas Präzision, dafür können Sie sogar die höchste Stufe ohne heftige Performance-Einbußen wählen.

Fallout 4: Draw-Call-Limitierung als Fps-Killer und Leistungsanalysen

Eventuell haben Sie sich schon über die an einigen Stellen kräftig abfallende Performance gewundert. Wir sind dem Übeltäter auf die Schliche gekommen. Es handelt sich um eine Drawcall-Limitierung, mit anderen Worten: den berühmt-berüchtigten API- beziehungsweise Direct-X-11-Overhead. Dank des von Boris Vorontsov entwickelten Tools ENB-Series, das vor allem durch Skyrim und die Möglichkeit, dort neue Shader und Effekte zu injizieren, bekannt wurde, können wir die Anzahl der Draw-Calls, die von der CPU an die GPU verschickt werden, auslesen. Dies sind Renderanweisungen; müssen durch die Spiele-Engine zu viele davon verschickt werden, entsteht zwischen dem Prozessor und der Grafikkarte gewissermaßen ein Stau, die Kommunikation zwischen den Komponenten ist gestört. Bis dieser abgearbeitet werden kann, drehen sowohl CPU als auch GPU Däumchen, die Performance bricht zusammen. Als kritisch gelten für ausgefeilte DX11-Engines rund 10.000 Drawcalls. Offenbar ist der von der aus Morrorwind bekannte Gamebryo-Engine abgeleitete Creation-Grafikmotor mittlerweile weit über seinen Leistungszenit hinaus und durch die für Fallout 4 aufgemotzte Grafik ziemlich überfrachtet, denn wir sehen nicht nur häufig weit über 10.000 Draw-Calls, sondern auch mit steigenden Drawcalls teils ins Bodenlose abstürzende Bildraten.

Dank ENB-Series können wir so erstmals klar durch API-Overhead limitierte Szenarien aufstöbern und einige interessante Daten sammeln. So interessant, dass wir uns dafür mitten in der Abgabewoche eine R9 Fury und eine GTX 980 Ti geschnappt und die komplette (!) Nacht um die Ohren geschlagen, um bis in die nicht mal mehr frühen Morgenstunden an diesem Artikel zu arbeiten. Zuerst aber mal ein Impressionen. Um ein Limit klar zu identifizieren und möglichst im vollen Umfang zu erfassen, ist die Auflösung in allen folgenden Shots auf 1.280 × 720 Pixel reduziert, dafür sind alle Effekte auf maximaler Stufe aktiv. Soweit nicht anders gekennzeichnet, schließt dies auch die Nvidia-Effekte mit ein - eine Ausnahme bildet das nur auf Geforce-GPUs laufende Flex. Für ein möglichst ausgeglichenes Spielfeld bleibt der Effekt auf der GTX 980 Ti deaktiviert (nur der eine Bildvergleich zeigt es in maximaler Stufe aktiv). Alle ENB-Effekte sind zudem deaktiviert, in den Messungen ist der Injektor nicht implementiert, um eine Beeinflussung auszuschließen. Unsere Impressionen:

Drawcall-Limitierung durch mäßiges Culling (GTX 980 Ti)
Fallout 4 v1.3 - Drawcall- und GPU-Benchmarks (10)
Fallout 4 v1.3 - Drawcall- und GPU-Benchmarks (10) Fallout 4 v1.3 - Drawcall- und GPU-Benchmarks (11)

Diese Limitierung ist leicht zu erklären. Im ersten Bild ist das Culling nicht aktiv, im zweiten dagegen schon. Culling bedeutet, dass die Engine verdeckte Objekte nicht berechnen lässt, das spart nicht nur Leistung, sondern auch viele Drawcalls. Das Culling der Creation-Engine arbeitet aber offenbar sehr grob, denn auch wenn die Hausfassade das Blickfeld komplett verdeckt, wird es erst aktiv, wenn wir quasi unsere Nase an der Pixeltapete reiben.

Drawcall-Limitierung (Grund unbekannt, GTX 980 Ti)
Fallout 4 v1.3 - Drawcall- und GPU-Benchmarks (13)
Fallout 4 v1.3 - Drawcall- und GPU-Benchmarks (13) Fallout 4 v1.3 - Drawcall- und GPU-Benchmarks (12)

Hier sind wir dagegen ratlos. Erstens wissen wir nicht, was die extrem hohe Anzahl Drawcalls verursachen könnte; Rauch, Feuer, Spiegelungen, Schattenwurf - all das fällt eigentlich flach, denn diese Elemente sind allesamt auch im zweiten Bild zu sehen. Wir haben lediglich den Blickwinkel um ein paar Pixel verschoben - und prompt liefert die GTX 980 Ti über 30 Prozent mehr Leistung.

Drawcall-Limitierung (teils offenbar durch mangelndes Culling, GTX 980 Ti)
Fallout 4 v1.3 - Drawcall- und GPU-Benchmarks (7)
Fallout 4 v1.3 - Drawcall- und GPU-Benchmarks (7) Fallout 4 v1.3 - Drawcall- und GPU-Benchmarks (8) Fallout 4 v1.3 - Drawcall- und GPU-Benchmarks (9)

Zum Teil entsteht die Limitierung offenbar durch mangelndes Culling. Doch solche Schutthäufen aus vielen Polygonen haben sich schon mehrfach als offenbar Drawcall-kritisch herausgestellt. Eventuell spielt auch die Verschattung hier eine Rolle.

Drawcall Limitierung (Grund: Unbekannt, GTX 980 Ti)
Fallout 4 v1.3 - Drawcall- und GPU-Benchmarks (5)
Fallout 4 v1.3 - Drawcall- und GPU-Benchmarks (5) Fallout 4 v1.3 - Drawcall- und GPU-Benchmarks (6)

Eine effizientere Engine würde die hinter dem Nebel verborgenen Objekte und Landschaft zumindest zum Teil einfach nicht rendern. Die Creation Engine ist dazu offenbar nicht in der Lage - wozu die vielen Renderanweisungen überhaupt benötigt werden, ist uns ebenfalls schleierhaft.

Drawcall-Test Nvidia Flex (GTX 980 Ti)
Fallout 4 v1.3 - Drawcall- und GPU-Benchmarks (1)
Fallout 4 v1.3 - Drawcall- und GPU-Benchmarks (1) Fallout 4 v1.3 - Drawcall- und GPU-Benchmarks (2)
Drawcall-Test Gameworks on/off (R9 Fury)
Fallout 4 v1.3 - Drawcall- und GPU-Benchmarks (3)
Fallout 4 v1.3 - Drawcall- und GPU-Benchmarks (3) Fallout 4 v1.3 - Drawcall- und GPU-Benchmarks (4)

Offenbar benötigen weder die Beleuchtung, HBAO+ noch Nvidia Flex mehr als eine Handvoll Drawcalls. Dies erscheint uns jedoch ein wenig befremdlich. Dadurch, dass Gameworks-Bibliotheken durch eine eigene API gesteuert werden, könnten uns allerdings zusätzliche, durch die Effekte verursachte Drawcalls komplett verborgen bleiben. Gameworks ist und bleibt undurchsichtig.

Nachdem wir Ihnen nun einige Szenarien gezeigt haben, präsentieren wir Ihnen im folgenden Video unseren Drawcall-Benchmark. Es gelten die gleichen Settings wie oben, allerdings haben wir unseren Testrechner von erst 4,5 GHz auf 3,0 GHz schrittweise heruntergetaktet und zudem nach und nach Threads deaktiviert, um das Verhalten genauer zu studieren. Beachten Sie außerdem: Ein Drawcall ist nicht gleichbedeutend mit Last - eine schnelle CPU kann einen Stau aus aufgehäuften Drawcalls schneller lösen beziehungsweise an die GPU versenden, Last entsteht dort allerdings erst durch das Verarbeiten der Drawcalls. Kommen diese dort nur langsam an, wird die Grafikkarte nicht vernünftig ausgelastet. Zudem "wiegt" nicht jeder Drawcall gleich viel: Von der Anzahl allein kann man nicht auf den Aufwand für die GPU schließen.

00:34
Fallout 4: Der Drawcall-Benchmark im Video

Die Performance-Einbrüche kommen zum großen Teil durch den API-Overhead, der Rest fällt auf die tatsächliche Grafiklast bei der GPU und beim Prozessor durch Berechnungen beispielsweise der Spielphysik etc. zurück. Das heißt, wenn zusätzlich zu der Drawcall-Limitierung auch noch anspruchsvolle Effekte und/oder eine höhere Auflösung dargestellt werden müssen, kann die Leistung nochmals deutlich stärker einbrechen. Werfen Sie außerdem einmal ein Auge auf die GPU-Auslastung, hier kann man sehr schön erahnen, wie unterschiedlich die Architekturen arbeiten. Der AMD-GPU schmeckt die serielle Fütterung mit Daten offenbar überhaupt nicht, sie schaltet sich quasi ständig zwischen Volllast und Idle-Betrieb hin und her - das ist sicherlich ineffizient. Die Nvidia-GPU schaltet sich bei mäßiger Fütterung offenbar nur teilweise ab und verhält sich eher wie die CPU. Extrem viel Leistung liegt hier wie dort brach.

Fallout 4 Drawcall-Benchmarks

  • Sapphire R9 Fury OC/4G
  • Palit GTX 980 Ti Superjetstream
Game/Version Fallout 4, Steam Version 1.3
Details Max. Details, 16:1 HQ-AF, Nvidia Flex off
Software/Drivers Radeon Crimson Software 16.1.1 Hotfix 2; Win 10 x64
  • 0 von 5 Produkten sichtbar

CPU @ 4,5 GHz, 4C/8T, GW off
94.3
56
CPU @ 4,5 GHz, 4C/8T
89.0
62
CPU @ 3,5 GHz, 4C/8T
78.4
53
CPU @ 3,0 GHz, 4C/4T
66.3
46
CPU @ 3,0 GHz, 2C/4T
51.3
36
0
10
20
30
40
50
60
70
80
90
100
Name
1.280 × 720, TAA (Average Fps)
Minimum Fps

System

Intel Core i7-6700K, 16 GiByte DDR4-2400 RAM

Resultate nicht unbedingt vergleichbar mit früheren Reviews/Results not necessarily comparable with earlier reviews

Außerdem beliebt bei PCGH-Lesern:

Fallout 4 Next-Gen-Update: "Bethesda hat die Community in den Müll geworfen" [Update]

Fallout 4 Next-Gen-Update: "Bethesda hat die Community in den Müll geworfen" [Update]

74
Die Spieler aus der Community von Fallout 4 sind empört und die Rezensionen zum Next-Gen-Update lesen sich zum Teil vernichtend.
Der Next-Gen-Patch für Fallout 4 wurde kürzlich von Bethesda veröffentlicht. Im Speziellen für PC-Spieler scheint das Update kein Glanzstück zu sein.

Fallout 4 "Next-Gen"-Patch: Wurden PC-Spieler weniger berücksichtigt?

9
Der Next-Gen-Patch für Fallout 4 wurde kürzlich von Bethesda veröffentlicht. Im Speziellen für PC-Spieler scheint das Update kein Glanzstück zu sein.
Dank TV-Serie: Fallout 4 und Co. schaffen fünf Millionen Spieler - an einem Tag

Dank TV-Serie: Fallout 4 und Co. schaffen fünf Millionen Spieler - an einem Tag

12
Bethesda feiert einen weiteren Meilenstein: Über eine Million Spieler waren gleichzeitig in Fallout 76 online.

Fallout 4 und die Drawcall-Limitierung - Fazit

Bethesda braucht eine neue Engine und wir Spieler endlich zumindest eine bessere API - hier zeigt sich das "Drama" von Direct X 11 einmal in vollem Ausmaß, weder mit der AMD- noch Nvidia-GPU wird das System bei vollem Prozessortakt auch nur ansatzweise ausgelastet. Beim Heruntertakten und Abschalten von Threads wird zwar die CPU stärker ausgelastet, doch die abgerufene Leistung verschwindet nicht nur im spurlos Overhead-Nirvana, sondern die Frameraten und GPU-Auslastung stürzen daraufhin noch weiter ab. Problematisch beziehungsweise noch kritischer könnte die Performance zudem mit Mods werden - vor allem, wenn diese zusätzliche Details hinzufügen. In der Galerie finden Sie neben den einzelnen Graphen einige mit einer ENB/Reshade-Kombination erstellte Bilder, denn mit diesem feinen Tool kann man wesentlich mehr machen, als nur Drawcalls auslesen.

Bildergalerie

    • Kommentare (72)

      Zur Diskussion im Forum
      • Von restX3 BIOS-Overclocker(in)
        Zitat von Atma
        Es würde schon reichen, wenn die alte Gammelengine endlich mal ins Museum wandern würde. DX11 ist nicht das primäre Problem, die Engine die sich selbst überlebt hat ist es.
        Dito.
        Die Engine ist eine Katastrophe.
      • Von restX3 BIOS-Overclocker(in)
        Zitat von Atma
        Es würde schon reichen, wenn die alte Gammelengine endlich mal ins Museum wandern würde. DX11 ist nicht das primäre Problem, die Engine die sich selbst überlebt hat ist es.
        Dito.
        Die Engine ist eine Katastrophe.
      • Von unl34shed Schraubenverwechsler(in)
        Zitat von PCGH_Phil
        Nicht mal so richtig in Ashes of the Singularity, wo einem die Zeit im Treiber aka Overhead auch mal angezeigt wird, im Gegensatz zu fast allen anderen Benchmarks - da ist aber kaum ein Unterschied auszumachen, nur in Szenarien mit geringer Last ist der AMD-Treiber deutlich langsamer - da ist auch die GPU wesentlich langsamer, was wiederum für ein Auslastungsproblem spricht. Mit Direct X 12 und entfallender Drawcall-Limitierung revidiert sich das Ganze dann.

        >bilder<

        Allerdings ist ein Blick auf solche Details natürlich interessant - aber eben auch zeitaufwendig wie die Seuche - das macht man nicht mal eben so nebenher, das kostet für ein einziges Spiel allermindestens(!) einen vollen Arbeitstag. Ich beispielsweise habe für sowas nur Zeit, wenn ich dafür auch die Zeit eingeräumt bekomme - oder wie hier neben dem eigentlichen Arbeitstag für Artikel plus GPU-Benchmarks nochmal gute 15 Stunden meiner Freizeit mit anschließendem Schlafmangel extra dranhänge (das war ein 23-Stunden-Arbeitstag - komplett durch!). Anders geht's nicht, ich habe nämlich auch noch anderes zu tun... beispielsweise ein Heft schreiben (wo man so einen Artikel tatsächlich mal bringen könnte - falls man denn die Zeit dafür finden könnte), der Schwesterzeitschrift aushelfen, Hardware-Tests, Entwickler-Interviews machen, etc.
        vielleicht könntest du auch mal das hier nachstellen, wenn du die Zeit findest:
        [Ins Forum, um diesen Inhalt zu sehen]

        die Nvidia scheint deutlich weniger von den Effekten zu rendern.
        Die Schweif der Triebwerke, Rauch bei den Mörsern, Nebel in den Schluchten, ...
      • Von PCGH_Phil Audiophil
        Zitat von Laggy.NET
        So ist es. Wird hier aber ständig ignoriert oder nur halbherzig behandelt.

        Digital Foundry hat heute wieder ein Video mit dem alten 2500K online gestellt, in dem an einer Stelle ach mit AMD Karte getestet wurde. Die Frametimes im CPU limit sind bei AMD z.B. in Rise of The Tomb Raider völlig fürn Popo.
        Im darauf folgenden Video zeigt sich, dass selbst die 3770K extrem vom AMD Treiber ruuntergezogen wird und um CPU limit mit AMD Karte deutlich schlechter Performt, als mit Nvidia Karte.

        Das Ergebnis ist in einigen Titel dermaßen gravierend, dass man mittlerweile einfach keine AMD Karte empfehlen kann um nicht zu sagen, man muss davor warnen. Die Einbrüche sind einfach zu krass.

        Aber in diesem Forum wird man bei solchen Aussagen wie immer auf Granit stoßen. Das Problem wird heruntergespielt oder man wird als Fanboy hingestellt.
        Na ja, soll jeder nutzen, was er für richtig hält. Ich kauf mir jedenfalls vorerst keine AMD Karte mehr. Wer die leistung seines i7 auf die Leistung eines i3 kastrieren will, der kann das ja trotzdem tun....

        Finds nur schade, dass man solche drmatischen Erkenntnisse nicht mehr bei PCGH findet. Da wird immer mit nem 6700k im GPU limit gebencht. Das overhead Problem wird seit Monaten ignoriert oder nur halbherzig behandelt.
        Nun, jetzt auch nicht mehr so wichtig, die Kollegen haben den Beweis nun schon zig mal erbracht, dass die AMD Treiber in manchen games, in denen CPU performance wichtig ist einfach nur Mist sind.

        Trotzdem macht mich das irgendwie wütend, dass das Thema ständig ignoriert wird. Es ist schließlich kein Theoretisches, sondern ein praktisches.
        Ähm, das habe ich doch gerade alles hier gemacht - sogar noch deutlich ausführlicher, als die Kollegen.
        Die CPU untertaktet, Threads deaktiviert, Frametimes sowie Auslastung in Graphen festgehalten - und das auch noch im vollen "CPU-Limit" (das eigentlich ein Drawcall-Limit ist) - die Auswirkungen kann man in allen Graphen beobachten, die Benchmarks zeigen die Unterschiede bei der Effizienz - würden die Drawcalls gleichermaßen limitieren, dann wäre das Ergebnis in den Benchmarks absolut gleich. Hier hat Nvidia aber einen kleinen Vorteil - kann man alles sehen. Die Nvidia wird mies ausgelastet, ebenso die CPU - genau das gleiche bei der AMD, nur ist die Auslastung bei der offenbar architekturbedingt nochmals ineffizienter.

        Kann man die Limitierung aber nicht genau auf die Drawcalls festlegen (wie in quasi allen anderen Spielen und in Fallout 4 ist dies auch nur wegen eines externen Tools möglich), so kann man sich auch nie sicher sein, was denn da genau limitiert - Ist GW zugeschaltet, ist es in dem einen(!) Bild mit der Fury eindeutig GW (bzw. die eventuell dadurch ansteigenden Drawcalls, die ich aber wegen der externen API wohl nicht sehen kann)... In Rise of the Tomb Raider könnten es auch die Texturen sein, weil die CPU nicht mehr mit dem Streaming hinterherkommt, eine Nvidia eine andere Speicherverwaltung hat und offenbar mit dem Texturformat besser klar kommt (HQ-AF kostet auf AMD-GPUs aus wahrscheinlich dem gleichen Grund massiv Leistung). Oder es ist ein Auslastungsproblem der GPU, das eventuell auf einen der Grafikeffekte zurückzuführen ist - und wiederum dadurch verstärkt werden könnte, dass die CPU vielleicht zusätzlich die Auslastung herunterzieht. Die sind auf den Konsolen immerhin so konzeptioniert, dass sie teilweise asynchron berechnet werden, was zum effizienten Auslasten einer AMD aufgrund ihrer Architektur sehr hilfreich sein könnte.

        Zudem läuft das Spiel sowieso schon schlechter auf AMD-GPUs und wurde zudem durch zumindest Mithilfe (wenn nicht gleich abgestellte Techniker) von Nvidia im Rahmen des TWIMTBP-Programm gesondert für Nvidia-GPUs optimiert. Einen offiziellen AMD-Fix, wie von Square Enix angekündigt, gab es hingegen noch nicht. Es ist sind zu viele Faktoren, um da eindeutig einen Schuldigen ausmachen zu können. - Mir ist nicht ganz klar, wie man mit so vielen Unbekannten auf einen ominösen Treiber-Overhead schließen kann, von dem bisher quasi noch nie einen stichhaltigen Beweis gesehen habe.

        Nicht mal so richtig in Ashes of the Singularity, wo einem die Zeit im Treiber aka Overhead auch mal angezeigt wird, im Gegensatz zu fast allen anderen Benchmarks - da ist aber kaum ein Unterschied auszumachen, nur in Szenarien mit geringer Last ist der AMD-Treiber deutlich langsamer - da ist auch die GPU wesentlich langsamer, was wiederum für ein Auslastungsproblem spricht. Mit Direct X 12 und entfallender Drawcall-Limitierung revidiert sich das Ganze dann.

        [Ins Forum, um diesen Inhalt zu sehen][Ins Forum, um diesen Inhalt zu sehen]

        Allerdings ist ein Blick auf solche Details natürlich interessant - aber eben auch zeitaufwendig wie die Seuche - das macht man nicht mal eben so nebenher, das kostet für ein einziges Spiel allermindestens(!) einen vollen Arbeitstag. Ich beispielsweise habe für sowas nur Zeit, wenn ich dafür auch die Zeit eingeräumt bekomme - oder wie hier neben dem eigentlichen Arbeitstag für Artikel plus GPU-Benchmarks nochmal gute 15 Stunden meiner Freizeit mit anschließendem Schlafmangel extra dranhänge (das war ein 23-Stunden-Arbeitstag - komplett durch! Das war allerdings auch komplett freiwillig, weil es mich selbst interessiert hat ). Anders geht's nicht, ich habe nämlich auch noch anderes zu tun... beispielsweise ein Heft schreiben (wo man so einen Artikel tatsächlich mal bringen könnte - falls man denn die Zeit dafür finden könnte), der Schwesterzeitschrift aushelfen, Hardware-Tests, Entwickler-Interviews machen, etc.

        Einen RAM-Test haben wir außerdem im kommenden Heft PCGH 04/2015.

        EDIT: Das hab ich übrigens in keinster Weise übel genommen... also bitte auch nicht so auffassen.

        Gruß,
        Phil
      • Von Locuza Lötkolbengott/-göttin
        Zitat von Atma
        Dafür ist der Unterbau ziemlich im Eimer wie man bei den Benches sieht
        Und/oder die Umsetzung mit DX11.

        Also Gammel kann ich allgemein nicht erkennen. Das die Engine nicht überall gut dasteht ist offensichtlich, aber ich habe wie manch anderer das Gefühl es wird etwas zu weit ausgeholt.
      • Von Laggy.NET
        Zitat von jadiger
        Komisch das es genau jetzt auffällt Digital Foundry hat doch schon oft gezeigt das AMD Karten wenn man keine High-End Cpu OC hat oft
        wesentlich langsamer laufen. Das ist z.b. auch so im hier gelobten Rise of the Tomb Raider hat man wie viele eine CPU wie den 2500K@4,5Ghz
        ist eine GTX970 ein gutes Stück schneller wie eine 390. Wogen hier in den Benchmarks etwas anderes zu sehen ist auf einer High-End CPU die so gut wie keiner hat.

        Vielleicht sollte man das ganze wirklich viel Objektiver untersuchen und AMDs Probleme sind mehr als nur ab zu vorhanden. Das die Fallout 4 Engine veraltet
        ist hat man schon in Skyrim gesehen das kommt aber nur noch dazu. Ihr sollte euch echt mehr an Digital Foundry richten dort wurde z.b. auch gezeigt das Ram speed in
        der heutigen Zeit viel mehr Einfluss hat als man auch nur annehmen würde. Dort ist auch schon länger bekannt das AMD Karten mit schwächern CPUs massiv abfallen
        und das der 2500K auf 4,5Ghz zwar noch gut ist aber eben nicht mehr sehr gut. Das diese CPU mit Overclocking wahrscheinlich schneller ist als 90% der User ist es doch viel wichtiger
        wie so eine CPU mit erschwinglichen GPUs skaliert oder etwa nicht. Ich finde da sollte man generell die Benchmarks überdenken, weil so eben nicht die schwächen der AMD Karten zusehen
        sind aber der Standard User sie durchaus sehen wird.
        So ist es. Wird hier aber ständig ignoriert oder nur halbherzig behandelt.

        Digital Foundry hat heute wieder ein Video mit dem alten 2500K online gestellt, in dem an einer Stelle auch mit AMD Karte getestet wurde. Die Frametimes im CPU limit sind bei AMD z.B. in Rise of The Tomb Raider völlig fürn Popo.
        Im darauf folgenden Video zeigt sich, dass selbst der 3770K extrem vom AMD Treiber runtergezogen wird und im CPU limit mit AMD Karte deutlich schlechter Performt, als mit Nvidia Karte.

        Das Ergebnis ist in einigen Titeln dermaßen gravierend, dass man mittlerweile einfach keine AMD Karte empfehlen kann um nicht zu sagen, man muss davor warnen. Die Einbrüche sind einfach zu krass.

        Aber in diesem Forum wird man bei solchen Aussagen wie immer auf Granit stoßen. Das Problem wird heruntergespielt oder man wird als Fanboy hingestellt.
        Na ja, soll jeder nutzen, was er für richtig hält. Ich kauf mir jedenfalls vorerst keine AMD Karte mehr. Wer die Leistung seines i7 auf die Leistung eines i3 kastrieren will, der kann das ja trotzdem tun....

        Finds nur schade, dass man solche dramatischen Erkenntnisse nicht mehr bei PCGH findet. Da wird immer mit nem 6700k im GPU limit gebencht. Das overhead Problem wird seit Monaten ignoriert oder nur halbherzig behandelt.
        Nun, jetzt auch nicht mehr so wichtig, die Kollegen haben den Beweis nun schon zig mal erbracht, dass die AMD Treiber in manchen games, in denen CPU Performance wichtig ist einfach nur Mist sind.

        Trotzdem macht mich das irgendwie wütend, dass das Thema ständig ignoriert wird. Es ist schließlich kein theoretisches, sondern ein praktisches. Ich frag mich manchmal wirklich, wie einige Tester reinen Gewissens AMD Karten empfehlen können.
        Gerade Budget PCs mit i3 und i5 leiden einfach extrem unter dem AMD Treiber. Als Digital Foundry den "Konsolen PC" zusammenstellte, der aus einem i3 und einer 750ti besteht mussten sie sogar extra auf AMD verzichten, weil der i3 sonst kein Land gegen eine PS4 sehen würde.
      Direkt zum Diskussionsende
  • Print / Abo
    Apps
    PCGH Magazin 06/2024 PC Games 05/2024 PC Games MMore 04/2024 play5 06/2024 Games Aktuell 01/2024
    PCGH Magazin 06/2024 PC Games 05/2024 PC Games MMORE Computec Kiosk