The Last of Us Part I review: Laptop en desktop benchmarks
Top 10 Testrapporten
» Top 10 Multimedia Notebooks
» Top 10 Gaming-Notebooks
» Top 10 Budget Gaming Laptops
» Top 10 Lichtgewicht Gaming-Notebooks
» Top 10 Premium Office/Business-Notebooks
» Top 10 Budget Office/Business-Notebooks
» Top 10 Workstation-Laptops
» Top 10 Subnotebooks
» Top 10 Ultrabooks
» Top 10 Notebooks tot €300
» Top 10 Notebooks tot €500
» Top 10 Notebooks tot € 1.000De beste notebookbeeldschermen zoals getest door Notebookcheck
» De beste notebookbeeldschermen
» Top Windows Alternatieven voor de MacBook Pro 13
» Top Windows Alternatieven voor de MacBook Pro 15
» Top Windows alternatieven voor de MacBook 12 en Air
» Top 10 best verkopende notebooks op Amazon
» Top 10 Convertible Notebooks
» Top 10 Tablets
» Top 10 Tablets tot € 250
» Top 10 Smartphones
» Top 10 Phablets (>90cm²)
» Top 10 Camera Smartphones
» Top 10 Smartphones tot €500
» Top 10 best verkopende smartphones op Amazon
Technische aspecten
Een wachtsimulator met absurd VRAM-verbruik: Zo kan de pc-versie van The Last of Us momenteel worden samengevat. Geen wonder dat de action-adventure game op Steam wordt bestookt met negatieve recensies. De verwarring begint al binnen de eerste seconden: Het duurt minstens een half uur voordat de shaders geïnstalleerd zijn - zelfs op top-pc's. Dit is een nieuw record - en niet op een goede manier. Maar de lange laadtijden voelen onschuldig in vergelijking.
Het exorbitante VRAM-verbruik blijkt net zo hinderlijk te zijn als de tijd die nodig is om shaders te installeren. Vooral grafische kaarten met 6 GB of minder komen snel in de problemen. Dit leidde ertoe dat ons testapparaat met eenGeForce RTX 3060 om consequent te crashen wanneer het spel probeerde te draaien op 1.920 x 1.080 pixels met de ultra preset. Dit wordt niet geholpen door het feit dat Nvidia hun grafische kaarten al jaren te weinig VRAM geeft - al moet gezegd worden dat The Last of Us op deze manier gewoon over het algemeen slecht geprogrammeerd is.
Op het eerste gezicht komt dit slecht presterende spel als een verrassing, aangezien Sony's vorige PC-adaptaties (bijv. Spider-Man Miles Morales,Days Gone&God of War) maakten allemaal een vrij goede indruk. Het probleem lijkt hier te liggen bij Iron Galaxy, de ontwikkelaar die verantwoordelijk is voor de PC-port, die in het verleden niet altijd even netjes werk heeft afgeleverd (trefwoord: Batman Arkham Knight). Maar ongeacht wie verantwoordelijk is voor dit technische probleem, is onze mening dat The Last of Us nooit in deze vorm op de PC had mogen worden uitgebracht. We moeten maar hopen dat toekomstige updates al deze problemen aanpakken.
Als het erop aankomt, heeft het spel zeker het potentieel om van te genieten - zolang je een sterke grafische kaart hebt met veel VRAM. De graphics van de remake zien er over het algemeen modern en up-to-date uit. De texturen, evenals de effecten op hogere niveaus (rook, vuur, reflecties, ...) en personages, zijn geweldig. Het spel scoort enkele echte punten met zijn detailniveau en geweldige sfeer. We hielden van de filmische productie en de grotendeels dynamische overgangen tussen videosequenties en gameplay. Een ander positief aspect is de boeiende storytelling van het spel.
De producenten zijn duidelijk te ver gegaan met het grafische menu. The Last of Us biedt zo veel opties (zie screenshots) dat je eeuwenlang moet scrollen en heel snel het overzicht verliest over wat wat is. Gelukkig zijn er enkele praktische presets die wat van het harde werk wegnemen en de kwaliteit van het spel met één klik verbeteren. Wijzigingen worden onmiddellijk doorgevoerd, dus zonder het spel opnieuw te moeten opstarten. Zoals verwacht van een modern spel, ondersteunt het verschillende upscaling-opties, zoals FSR en het Nvidia-exclusieve DLSS (ray tracing ontbreekt echter).
In vergelijking met de consoleversie wordt de FPS-snelheid alleen beperkt als je daarvoor kiest. Een ander positief punt zijn de gedetailleerde beschrijvingen met de invloed van CPU, GPU en VRAM, die soms zelfs handige vergelijkingsbeelden bevatten. Het enige wat we misten was een "klassieke" schermvullende modus. De grote CPU-behoefte bij een matige resolutie is er waarschijnlijk debet aan dat het spel nauwelijks beter presteert ondanks het verlagen van de instellingen, wat leidt tot zichtbaar slechtere graphics.
Benchmark
We gebruikten een mix van in-game videofragmenten en "echte" gameplay voor onze benchmarkmetingen. De exacte passage die we gebruikten, die zich afspeelt aan het begin van het spel en waarin veel voorbijgangers en effecten voorkomen, is te zien in de onderstaande video. We hebben de framerate ongeveer een minuut lang opgenomen met het programma CapframeX.
Resultaten
FHD (1.920 x 1.080)
Als het gaat om het gebruik van iGPU's, kun je The Last of Us wel vergeten. Zelfs de Radeon 680M slaagde er niet in om de 30 FPS te halen in Full HD met minimale instellingen (1.280 x 720 pixels waren net speelbaar). Je hebt minstens een mid-range apparaat nodig om het spel op 1.920 x 1.080 pixels te spelen. ARadeon RX 6600M haalt bijna 60 FPS met de instellingen medium en high.
The Last of Us | |
1920x1080 Low Preset 1920x1080 Medium Preset 1920x1080 High Preset 1920x1080 Ultra Preset | |
NVIDIA GeForce RTX 4080, i9-12900K | |
AMD Radeon RX 7900 XTX, i9-12900K | |
AMD Radeon RX 7900 XT, i9-12900K | |
NVIDIA GeForce RTX 3080, i9-12900K | |
NVIDIA GeForce RTX 3080 Ti Laptop GPU, i9-12900HX | |
NVIDIA GeForce RTX 3070, i9-12900K | |
AMD Radeon RX 6800M, R9 5900HX | |
NVIDIA GeForce RTX 3060 Laptop GPU, i7-12700H | |
AMD Radeon RX 6600M, R7 5800H | |
AMD Radeon 680M, R9 6900HS |
QHD (2.560 x 1.440)
The Last of Us | |
2560x1440 Ultra Preset | |
NVIDIA GeForce RTX 4080, i9-12900K | |
AMD Radeon RX 7900 XTX, i9-12900K | |
AMD Radeon RX 7900 XT, i9-12900K | |
NVIDIA GeForce RTX 3080, i9-12900K | |
NVIDIA GeForce RTX 3080 Ti Laptop GPU, i9-12900HX | |
NVIDIA GeForce RTX 3070, i9-12900K | |
AMD Radeon RX 6800M, R9 5900HX | |
AMD Radeon RX 6600M, R7 5800H |
UHD (3.840 x 2.160)
Als je het spel speelt op 3.840 x 2.160 pixels en maximale instellingen, kunnen zelfs de beste chips zoals deGeForce RTX 3080 Ti echt moeite hebben. Hier is het zinvol om bijvoorbeeld DLSS te gebruiken, zoals in de onderstaande tabel staat.
The Last of Us | |
3840x2160 Ultra Preset + Quality DLSS 3840x2160 Ultra Preset | |
NVIDIA GeForce RTX 4080, i9-12900K | |
AMD Radeon RX 7900 XTX, i9-12900K | |
AMD Radeon RX 7900 XT, i9-12900K | |
NVIDIA GeForce RTX 3080, i9-12900K | |
NVIDIA GeForce RTX 3080 Ti Laptop GPU, i9-12900HX | |
NVIDIA GeForce RTX 3070, i9-12900K | |
AMD Radeon RX 6800M, R9 5900HX | |
AMD Radeon RX 6600M, R7 5800H |
Opmerking
Omdat gaming tests zeer tijdrovend zijn en vaak beperkt worden door installatie- of activeringslimieten, kunnen we u bij de publicatie van dit artikel slechts een deel van de benchmarkresultaten geven. We zullen de komende dagen en weken meer grafische kaarten toevoegen.
Overview
Testsystemen
We gebruiken deze laptops momenteel voor onze gaming benchmarks. Door op de foto's te klikken kom je op de pagina van de betreffende fabrikant. Alle andere testsystemen (tower pc's, mini pc's, ...) vindt u in de volgende lijst.
Apparaat | Grafische kaart | Processor | RAM |
---|---|---|---|
Laptops | |||
MSI Titan GT77 12UHS | Nvidia GeForce RTX 3080 Ti @175 W TGP (16 GB GDDR6) | Intel Core i9-12900 | 2 x 16 GB DDR5 |
Lenovo Legion 5 Pro | Nvidia GeForce RTX 3060 @140 W TGP (6 GB GDDR6) | Intel Core i7-12700H | 2 x 8 GB DDR5 |
Asus ROG Strix G15 | AMD Radeon RX 6800M (12 GB GDDR6) | AMD Ryzen 9 5900HX | 2 x 8 GB DDR4 |
Lenovo Legion 5 | AMD Radeon RX 6600M (8 GB GDDR6) | AMD Ryzen 7 5800H | 2 x 8 GB DDR4 |
Asus ROG Zephyrus G14 | AMD Radeon 680M | AMD Ryzen 9 6900HS | 2 x 16 GB DDR5 |
Toren-PC's | |||
Custom I | AMD Radeon RX 7900 XTX (24 GB GDDR6) AMD Radeon RX 7900 XT (20 GB GDDR6) MSI GeForce RTX 3080 (10 GB GDDR6X) MSI GeForce RTX 3070 (8 GB GDDR6) |
Intel Core i9-12900K | 2 x 16 GB DDR4 |
Custom II | Palit GeForce RTX 4090 GameRock OC (24 GB GDDR6X) Nvidia GeForce RTX 3090 FE (24 GB GDDR6X) Nvidia GeForce RTX 3060 Ti (8 GB GDDR6X) NvidiaTitan RTX (24 GB GDDR6) lNvidia GeForce RTX2070 Super (8 GB GDDR6) Nvidia GeForce RTX 2060 Super (8 GB GDDR6) KFA2 GeForce GTX 1660 Super (6 GB GDDR6) PNY GeForce GTX 1660 (6 GB GDDR5) KFA2 GeForce GTX 1650 Super (4 GB GDDR6) AMD RadeonRX 6950 XT (16 GB DDR6) AMD Radeon RX 6800 (16 GB DDR6) AMD Radeon RX 6700 XT (12 GB DDR6) AMD Radeon RX 6650 XT (8 GB GDDR6) AMD Radeon RX 6600 (8 GB GDDR6) AMDRadeon RX 5700 XT (8 GB GDDR6) AMD Radeon RX 5700 (8 GB GDDR6) AMD Radeon RX 5600 XT (6 GB GDDR6) AMD Radeon RX 5500 XT (8 GB GDDR6) |
AMD Ryzen 9 7950X | 2 x 16 GB DDR5 |
Custom III | Nvidia GeForce RTX 2080 Super FE | Intel Core i9-11900K | 2 x 8 GB DDR4 |
Mini PC's | |||
Zotac ZBOX CI665 Nano | Intel Iris Xe Graphics G7 (96 CU's) | Intel Core i7-1165G7 | 2 x 8 GB DDR4 |
Morefine S500+ | AMD Radeon RX Vega 8 | AMD Ryzen 9 5900HX | 2 x 16 GB DDR4 |
Minisforum NUCXi7 | Nvidia GeForce RTX 3070 @125 W TGP (8 GB GDDR6) | Intel Core i7-11800H | 2 x 8 GB DDR4 |
Minisforum HX99G | AMD Radeon RX 6600M @100 W TGP (8 GB GDDR6) | AMD Ryzen 9 6900HX | 2 x 16 GB DDR5 |
4K monitors | Besturingssysteem | Nvidia driver | AMD driver |
---|---|---|---|
Philips Brilliance 329P9H, Gigabyte M32U | Windows 11 | ForceWare | Adrenalin |