Het opschalen van beelden is geen optioneel “extra” meer in modern PC-gaming: het is uitgegroeid tot een fundamenteel onderdeel van de prestaties, vooral bij grote releases. Technologieën zoals DLSS (NVIDIA) en FSR (AMD) maken bijna onmiskenbaar deel uit van AAA-titels — en steeds vaker in AA- en indie-games — omdat ze hoge resoluties en hoge verversingssnelheden mogelijk maken zonder de GPU te veel te belasten per frame. Het probleem is dat diezelfde ‘ontlasting’ van de grafische kaart de druk kan verschuiven naar een andere component: de CPU.
De gedachtegang is eenvoudig: wanneer een opscaler wordt ingezet, werkt de GPU met een interne resolutie die lager is dan de uitvoerresolutie. Dit verkort de renderingstijd per frame en maakt een hogere framesnelheid mogelijk. Maar om die hogere snelheid te blijven halen, moet de GPU instructies (zoals draw calls, spelseerlogica, fysica, streaming van assets, etc.) sneller ontvangen van de CPU. Als de CPU dat niet aankan, verandert de situatie abrupt: de GPU stopt met het vormen van de beperkende factor en de prestaties worden beperkt door de processor, zelfs wanneer je bijvoorbeeld op 1440p of 4K speelt op je monitor.
Dit ondermijnt de veel voorkomende mythe dat “de CPU er niet meer toe doet vanaf 1440p”. In een typische native 4K-situatie worden games niet veel zwaarder op CPU’s bij hogere prestaties, omdat de belasting vooral op de GPU ligt. Maar de analyse die aan dit artikel ten grondslag ligt, herinnert eraan dat in het tijdperk van opschaling, native 4K niet noodzakelijk de overwegende gameplay-resolutie is. En wanneer de interne resolutie laag genoeg wordt, krijgt de CPU weer een hoofdrol in de prestatiebepaling.
Waarom DLSS je spel mogelijk onder de 1080p laat draaien zonder dat je het merkt
De sleutel ligt in de percentage van de interne rendering. Bij Quality-modus van DLSS ligt de renderingschaal rond de 66,7%, terwijl in Performance-modus de schaal daalt naar ongeveer 50%. Dit beïnvloedt niet alleen het aantal frames dat je ziet, maar ook de aard van de belasting die het systeem krijgt.
Het interne resolutieschema en de uitgaande resolutie maken de verschillen duidelijk:
- Bij een 3.840 × 2.160 (4K)-uitgang rendeert DLSS in Quality intern op 2.560 × 1.440, en in Performance op 1.920 × 1.080.
- Bij een 2.560 × 1.440-uitgang wordt in Quality gerendeerd op 1.706 × 960, en in Performance op 1.280 × 720.
- Bij een 1.920 × 1.080-uitgang kan in Performance intern worden gerenderd op 960 × 540.
In de praktijk betekent dit dat spelen op “1440p met DLSS” inhoudt dat de GPU vooral dicht bij 720p aan het verwerken is, waardoor de fps flink omhoog schiet… totdat de CPU de zooi niet meer aankan en het system bottleneck wordt.
Wat is het doel van deze analyse: wanneer wordt ‘CPU scaling’ met DLSS niet meer merkbaar?
In plaats van enkel te kijken naar de voor de hand liggende situatie — een CPU-bottleneck bij zeer lage interne resoluties — richt deze studie zich op een subtielere vraag: hoek wanneer bij hogere uitgaande resoluties met DLSS actief, de verschillen tussen CPU’s niet meer merkbaar zijn. Met andere woorden: op welk punt zorgt opschaling ervoor dat de GPU weer de belangrijkste beperkende factor wordt, en verandert het upgraden van je processor nauwelijks nog iets aan de fps?
Om dat te onderzoeken, worden tests ontworpen die eerst duidelijk GPU-gebonden scenario’s creëren. Daarna wordt bepaald wanneer de invloed van de CPU weer op het systeem moet terugkeren door DLSS te activeren en de prestaties te vergelijken.
Testopstelling: een RTX 4080 Super en vier CPU’s voor effectmetingen
Voor de testopstelling wordt een RTX 4080 Super gebruikt, samen met CPUs van Intel en AMD:
- Intel Core i5-14400
- Intel Core i7-14700K
- AMD Ryzen 5 9600X
- AMD Ryzen 5 9850X3D
De tests worden uitgevoerd op moederborden MSI MPG Z790 Carbon Wi-Fi (LGA1700) en MSI MPG X870E Carbon Wi-Fi (AM5), met waterkoeling Corsair iCUE Link H150i Elite Cappalix. Opslag is 2 TB Sabrent Rocket 4 Plus, geheugen DDR5-6000 (2×16 GB) en voeding MSI MPG A1000GS. Tijdens het gamen worden instellingen gebruikt in een mix van High/Ultra.
De focus ligt op twee gangbare opschalingsmodi: DLSS Quality (66,7%) en DLSS Performance (50%). De modus Ultra Performance wordt slechts sporadisch genoemd en is niet in alle games beschikbaar; daarom wordt deze niet meegenomen in de kernanalyse.
DLSS is niet hetzelfde: versies, presets en de sprong naar het Transformer-model
Een ander belangrijk punt is dat DLSS niet slechts verandert op basis van “Quality / Balanced / Performance”. Intern hangt de kwaliteit ook af van de DLSS-versie en het preset dat de ontwikkelaar kiest, dat kan prioriteren op scherpte, stabiliteit, prestaties of artifactcontrole.
De genoemde voorbeelden laten zien:
- Cyberpunk 2077: DLSS v310.1.0, Preset J
- Doom: The Dark Ages: DLSS v310.2.1, Preset K
- Flight Simulator 2024: DLSS v310.1.0, Preset E
- Marvel’s Spider-Man 2: DLSS v310.1.0, Preset J
- The Last of Us Part One: DLSS v3.1.2, Preset A
De presets A–F worden geassocieerd met het CNN-model (convolutionele neurale netwerk) van eerdere generaties, terwijl de presets J en K het eerste Transformer-model gebruiken. Dit nieuwe model biedt doorgaans betere kwaliteit, maar vraagt ook meer rekenkracht. In dat kader wordt Preset K als stabieler maar minder scherp beschreven, terwijl Preset J scherper is maar minder stabiel.
Daarnaast wordt genoemd dat DLSS 4.5 ( tweede generatie Transformer) gebruikmaakt van FP8-instructies, en dat GPU’s uit de RTX 20- en RTX 30-serie geen FP8-ondersteuning hebben, wat kan leiden tot prestatieverlies bij nieuwere presets zoals L of M. Om conclusies over CPU’s niet te vertekenen, is ervoor gekozen de standaardaanslagen van elk spel te respecteren.
Wat moet de gamer vooral weten: de CPU wordt weer relevant bij hoge fps
De kernboodschap is niet dat opschalen “slecht” is, maar dat het de balans binnen de PC verandert. DLSS kan van een scenario dat duidelijk GPU-gebonden is, maken dat de GPU niet meer de bottleneck is, en dat de game weer wordt beperkt door de snelheid van de CPU.
Dit wordt duidelijk bij drie situaties:
- High-refresh-monitors (120/144/240 Hz), waar elk extra frame meer van de processor vraagt.
- DLSS Performance-modus (of agressieve opschaling), die de interne resolutie zo verlaagt dat de GPU ‘overdreven’ presteert voordat de CPU dat doet.
- Games met hoge CPU-belasting (bijvoorbeeld simulaties, complexe open werelden, zwaar streamingverkeer, AI van NPC’s), waar vaak de hoofdthread de fps-beperking oplegt.
In de praktijk betekent dit dat men de standaardrichtlijnen moet heroverwegen, zoals “voor 4K maakt de CPU niet uit”. Dat kan kloppen bij native 4K, maar niet wanneer je speelt op 1080p-interne resolutie (bijvoorbeeld door opschaling). Opschaling verbetert niet alleen de soepelheid, maar kan ook een limiet blootleggen die voorheen verborgen bleef.
Veelgestelde vragen
Waarom kan DLSS de CPU-knelpunten doen toenemen bij games op 1440p of 4K?
Omdat het de interne renderresolutie verlaagt, duurt het minder tijd om een frame te renderen en moet de CPU meer werk per seconde leveren om de fps hoog te houden.
Welke DLSS-modus veroorzaakt het meest de CPU-beperking: Quality of Performance?
Over het algemeen is Performance meer vatbaar, omdat het intern op een lagere resolutie rendeert (bijvoorbeeld 1280×720 bij 1440p), waardoor de GPU minder belast wordt.
Hoe weet ik of de prestaties door de CPU beperkt worden bij het gebruik van DLSS?
Een teken is een laag of onregelmatig GPU-gebruik terwijl de fps niet verder stijgt, gecombineerd met pieken in CPU-belasting op enkele threads. Ook kan vergelijken van fps bij verschillende DLSS-instellingen helpen; als het verlagen van de interne resolutie niet leidt tot hogere fps, is de CPU waarschijnlijk de bottleneck.
Hoe beïnvloeden verschillende DLSS-versies en presets de prestaties los van Quality/Performance?
Ze maken zeker verschil. Het artikel stelt dat verschillende games verschillende versies en presets gebruiken (CNN versus Transformer), en dat die presets prioriteiten kunnen stellen op het vlak van stabiliteit, scherpte of snelheid, wat de rekentijd en het gedrag beïnvloedt.
Bron: tomshardware
