PC-hårdvara är otroligt varierande. Vissa spelare har helt nya, toppmoderna speldatorer med de senaste grafikkorten, processorerna och snabba SSD-enheterna. Andra klarar sig med betydligt mindre. De potentiella lösningarna på dålig prestanda i nästan alla spel är desamma: uppgradera hårdvaran, skruva ner inställningarna och/eller sänka upplösningen. Det är den sista biten jag vill diskutera idag.
I en perfekt värld vill du köra alla dina spel i skärmens ursprungliga upplösning. Jag började spela när vi kopplade upp bulliga TV-apparater till våra datorer (C-64), och vi var nöjda med att spela i 320×200. Numera har jag flera 4K- och ultrawide-skärmar, och skillnaden i grafikkvalitet är fantastisk. Ändå finns det gott om spel där även den snabbaste nuvarande hårdvaran helt enkelt inte klarar av att köra ett nytt spel i 4K, maximal kvalitet och 60 fps. Titta inte längre än till Control, Gears of War 5 och Borderlands 3 om du vill ha exempel.
Avhängigt av spelet kan det vara möjligt att spela i 4K med en lägre kvalitetsinställning, och skillnaden mellan ultra- och höginställningar är ofta mer av placebo än något som du faktiskt skulle märka utan att jämföra skärmdumpar eller köra benchmarks. Att gå ner från ultra till medium kan å andra sidan vara en för stor kompromiss för vissa. Det finns också spel som Rage 2 där till och med en övergång från maximal till minimal kvalitet endast förbättrar frameraten med 50 procent eller så.
Outöver uppgradering av hårdvara återstår att sänka upplösningen, och detta kan öka prestandan enormt. 1440p går vanligtvis nästan dubbelt så snabbt som 4K vid samma inställningar (om du är GPU-begränsad), och 1080p är vanligtvis cirka 30-40 procent snabbare än 1440p. Att spela i 1080p istället för 4K, även på en 4K-skärm, kommer att mer än fördubbla din framerate på allt annat än en 2080 Ti. Det är därför vi fortsätter att rekommendera 1440p som den bästa spellösningen – den är ofta inom räckhåll för grafikkort i mellanklass eller lägre high-end och ser fortfarande bra ut.
Men vad händer om du vill ha en 4K- eller 1440p-skärm för allmän användning – för arbete och kanske filmer – men du vill också spela spel på den? Ser det sämre ut att spela i 1080p på en 4K- eller 1440p-skärm än om du helt enkelt använder en 1080p-skärm i stället? Svaret är ja, det ser lite sämre ut (främst är det suddigare), men för många människor spelar det inte så stor roll. Ansvarsfriskrivning: Jag är en av dessa människor.
Förr när vi alla använde CRT-skärmar var det vanligt att köra med en lägre upplösning än den ursprungliga upplösningen på din bildskärm. CRT-skärmar var dock av naturliga skäl mindre precisa och hade alltid en viss oskärpa, så vi märkte det inte riktigt. Jag hatade att hantera pin cushioning, trapezoidal distorsion och andra artefakter som orsakades av CRT-tekniken mycket mer än den potentiella oskärpa som det innebar att inte köra med högre upplösning.
När vi övergick till LCD-skärmar och digitala signaler var plötsligt alla pixlar perfekt fyrkantiga och att köra med en annan upplösning än den ursprungliga innebar mer synliga problem.
Tänk på ett enkelt exempel med en bildskärm med en upplösning på 160×90 och med ett diagonalt svart band som löper genom skärmen. Försök nu att sträcka den bilden till 256×144. Vi stöter på problemet att det inte är lätt att skala bilden, och det finns olika tekniker. Ett alternativ är att använda interpolation av närmaste granne, eller så kan du använda bilinjär eller bikubisk interpolation. Det finns för- och nackdelar med alla dessa, men alla ser sämre ut än den ursprungliga bilden.
Jag har tagit en källbild på 160×90 och blåst upp den till 1280×720 (med hjälp av nearest neighbor och bicubic interpolation) i Photoshop. Sedan har jag skalat den till 256×144 med hjälp av flera NN och bicubic, och därefter blåst upp den till 720p via NN (så att du kan se hur de enskilda pixlarna skulle se ut). Resultatet är en närbild av hur ”native” rendering ser ut på en LCD-skärm, jämfört med de två olika skalningsalgoritmerna för icke-nativa upplösningar.
Originalbild som inte är interpolerad och som blåsts upp till 720p
160×90 skalad till 256×144 via närmaste granne, och sedan blåst upp till 720p
160×90 skalat till 256×144 via bicubisk interpolering, sedan uppblåst till 720p
LCD-skärmar och videodrivrutiner måste sköta interpoleringen, och även om resultaten kan se hyfsade ut går det inte att förneka bristerna med både närmsta granne och bicubisk skalning. NN resulterar i att vissa pixlar dubbleras och andra inte, medan bikubisk skalning orsakar en förlust av skärpa. Jag började avsiktligt med ett extremt exempel där jag använde svart på vitt – med spelbilder är det betydligt mindre problematiskt. Den andra faktorn är vilken upplösning du använder i förhållande till den ursprungliga upplösningen.
Att köra 1080p på en 4K-skärm slutar med att vara en fjärdedel av den ursprungliga upplösningen. Om ditt grafikkorts drivrutiner stöder helhetsskalning kan du fördubbla bredden och höjden och få en ”skarpare” bild. Intel och Nvidia har nu stöd för heltalsskalning, men det kräver en Ice Lake 10th Gen CPU för Intel (bärbara datorer) eller en Turing GPU för Nvidia. Annars får man den bicubiska oskärpa som vissa människor ogillar.
Det är kanske bättre att visa hur detta ser ut när man hanterar riktiga upplösningar, som 1080p skalat till 1440p och 4K, med användning av Integer Scaling (närmsta granne) jämfört med bicubisk filtrering. Integer scaling är en bra funktion för pixelkonstspel, men den är ofta mindre viktig (och kanske till och med oönskad) när man hanterar andra spel och annat innehåll.
1080p skalat till 4K via närmaste granne (heltalsskalning)
1080p skalat till 4K via bilinear filtrering
1080p skalat till 4K via bikubisk filtrering
1080p skalat till 1440p via närmaste granne
1080p skalat till 1440p via bikubisk filtrering
Varför pratar jag om helhetsskalning och olika filtreringstekniker i drivrutinerna när jag började med att diskutera spelande av spel i lägre upplösningar än de ursprungliga? Det beror på att de två ämnena är sammanflätade. Helhetsskalning kan ibland användas när man kör i lägre upplösningar, om man har rätt hårdvara, eller så kan man skicka signalen vidare till skärmen och låta den sköta skalningen. De flesta skärmar nuförtiden gör någon form av bikubisk uppskalning – vissa riktigt gamla LCD-skärmar använde sig av interpolering av närmaste granne och det kunde se hemskt ut (t.ex. när man skalar text med hög kontrast som i exemplet ovan med svart linje på vit bakgrund) och har sedan dess försvunnit.
Om du tittar på bilderna ovan kan du definitivt se skillnaderna mellan skalningslägena, och när du inte kör i skärmens ursprungliga upplösning hamnar du vanligen med någon form av interpolering – antingen från GPU:n eller från skärmens skalare. Att köra med den ursprungliga upplösningen är nästan alltid det bästa alternativet, om din maskinvara kan leverera spelbar prestanda i den önskade upplösningen. Men om du har en 1440p- eller 4K-skärm är det ofta inte fallet.
Så varför inte bara köpa en 1080p-skärm? Därför att de flesta människor inte använder sina datorer enbart för spel. Om du har använt en 1440p- eller 4K-skärm för webbsurfning och kontorsarbete kan det göra dig mer produktiv att ha flera fönster öppna och du vänjer dig vid att växla mellan dem. Att gå ner till 1080p på ett skrivbord kan vara smärtsamt. Och ju högre upplösning du har på skärmen, desto mindre sannolikt är det att du märker skalningsartefakter – pixlarna blir så små att du inte ser dem.
Kort sagt, även om det är idealiskt att köra med skärmens ursprungliga upplösning är det ofta inte praktiskt för spel. Det finns en anledning till att 1080p fortfarande är allmänt förekommande. Många vill dock fortfarande ha en skärm med högre upplösning för andra uppgifter. Om du har en 4K-skärm och hamnar att köra spel i 1440p eller 1080p, kommer du om du inte har riktigt skarpa ögon förmodligen inte att märka det efter en stund – särskilt när spelet är i rörelse. Och om du gör det och det är för störande kan du väl antingen uppgradera ditt grafikkort eller köpa en andra bildskärm.
Relevanta nyheter