Sehen Spiele mit 1080p auf einem Monitor mit höherer Auflösung schlechter aus?

PC-Hardware ist unglaublich vielfältig. Einige Gamer haben brandneue, erstklassige Gaming-PCs mit den neuesten Grafikkarten, CPUs und schnellen SSDs. Andere kommen mit weit weniger aus. Die möglichen Lösungen für eine schlechte Leistung in fast jedem Spiel sind dieselben: Aktualisieren Sie Ihre Hardware, verringern Sie die Einstellungen und/oder reduzieren Sie die Auflösung. Auf den letzten Punkt möchte ich heute eingehen.

In einer perfekten Welt sollte man alle Spiele mit der nativen Auflösung des Monitors spielen. Ich habe mit dem Spielen angefangen, als wir noch dicke Fernseher an unsere Computer angeschlossen haben (C-64), und wir waren froh, mit 320×200 zu spielen. Heutzutage habe ich mehrere 4K- und Ultrawide-Monitore, und der Unterschied in der Grafikqualität ist erstaunlich. Dennoch gibt es viele Spiele, bei denen selbst die schnellste aktuelle Hardware einfach nicht in der Lage ist, ein neues Spiel in 4K, maximaler Qualität und 60 fps auszuführen. Beispiele dafür sind Control, Gears of War 5 und Borderlands 3.

Abhängig vom Spiel kann es möglich sein, bei 4K mit einer niedrigeren Qualitätseinstellung zu spielen, und der Unterschied zwischen Ultra- und hohen Einstellungen ist oft eher ein Placebo als etwas, das man ohne den Vergleich von Screenshots oder Benchmarks tatsächlich bemerkt. Von Ultra auf Medium zu wechseln, könnte für manche ein zu großer Kompromiss sein. Es gibt auch Spiele wie Rage 2, bei denen selbst der Wechsel von maximaler zu minimaler Qualität die Framerate nur um etwa 50 Prozent verbessert.

Abgesehen von der Aufrüstung der Hardware bleibt nur noch die Senkung der Auflösung, und das kann die Leistung massiv steigern. 1440p läuft in der Regel fast doppelt so schnell wie 4K bei den gleichen Einstellungen (wenn Sie GPU-beschränkt sind), und 1080p ist in der Regel etwa 30-40 Prozent schneller als 1440p. Das Spielen mit 1080p anstelle von 4K, selbst auf einem 4K-Monitor, verdoppelt die Framerate auf allen Systemen, die nicht mit einer 2080 Ti ausgestattet sind. Aus diesem Grund empfehlen wir weiterhin 1440p als beste Gaming-Lösung – sie ist oft in Reichweite von Mittelklasse- oder niedrigeren High-End-Grafikkarten und sieht immer noch großartig aus.

Aber was ist, wenn Sie einen 4K- oder 1440p-Bildschirm für den allgemeinen Gebrauch – für die Arbeit und vielleicht für Filme – benötigen, aber auch Spiele darauf spielen möchten? Sieht es schlechter aus, mit 1080p auf einem 4K- oder 1440p-Display zu spielen, als wenn Sie stattdessen einfach einen 1080p-Monitor verwenden? Die Antwort lautet: Ja, es sieht ein bisschen schlechter aus (vor allem unschärfer), aber für viele Leute spielt das keine große Rolle. Disclaimer: Ich gehöre zu diesen Leuten.

(Bildnachweis: Sony)

Als wir alle noch Röhrenmonitore verwendeten, war es üblich, mit einer niedrigeren Auflösung als der nativen Bildschirmauflösung zu arbeiten. Allerdings waren Röhrenmonitore von Natur aus weniger präzise und hatten immer eine gewisse Unschärfe, so dass wir das nicht wirklich bemerkten. Ich hasste den Umgang mit Nadelkissen, trapezförmigen Verzerrungen und anderen Artefakten, die durch die CRT-Technologie verursacht wurden, weit mehr als die potenzielle Unschärfe, die dadurch entstand, dass man nicht mit einer höheren Auflösung arbeitete.

Als wir zu LCDs und digitalen Signalen übergingen, waren plötzlich alle Pixel perfekt quadratisch, und der Betrieb mit einer anderen Auflösung als der nativen brachte mehr sichtbare Probleme mit sich.

Betrachten Sie ein einfaches Beispiel eines Bildschirms mit einer Auflösung von 160×90 mit einem diagonal verlaufenden schwarzen Streifen. Versuchen Sie nun, dieses Bild auf 256×144 zu strecken. Es ist nicht einfach, das Bild zu skalieren, und es gibt verschiedene Techniken. Eine Möglichkeit ist die Interpolation mit dem nächsten Nachbarn, oder Sie können bilineare oder bikubische Interpolation verwenden. Jede dieser Methoden hat ihre Vor- und Nachteile, aber alle sehen schlechter aus als das Originalbild.

Ich habe ein Quellbild von 160×90 genommen und es in Photoshop auf 1280×720 vergrößert (unter Verwendung von Nearest Neighbour und bikubischer Interpolation). Dann habe ich das Bild auf 256×144 skaliert, wobei ich mehrere NN und bikubische Interpolation verwendet habe, und es anschließend per NN auf 720p vergrößert (damit Sie sehen können, wie die einzelnen Pixel aussehen würden). Das Ergebnis ist eine Nahaufnahme davon, was „native“ Rendering sieht aus wie auf einem LCD, im Vergleich zu den beiden verschiedenen Skalierungsalgorithmen für nicht-native Auflösungen.

(Bildnachweis: Future)

Ursprüngliches, nicht interpoliertes Bild auf 720p vergrößert

(Bildnachweis: Future)

160×90 skaliert auf 256×144 über den nächsten Nachbarn, dann auf 720p vergrößert

(Bildnachweis: Future)

160×90 mittels bikubischer Interpolation auf 256×144 skaliert und dann auf 720p vergrößert

LCDs und Videotreiber müssen sich um die Interpolation kümmern, und obwohl die Ergebnisse anständig aussehen können, lassen sich die Unzulänglichkeiten von Nearest Neighbor und bikubischer Skalierung nicht leugnen. NN führt dazu, dass einige Pixel verdoppelt werden und andere nicht, während die bikubische Skalierung einen Verlust an Schärfe verursacht. Ich habe absichtlich mit einem extremen Beispiel begonnen, bei dem Schwarz auf Weiß verwendet wurde – bei Spielbildern ist das weit weniger problematisch. Ein weiterer Faktor ist die Auflösung, die Sie im Verhältnis zur nativen Auflösung verwenden.

Wenn Sie 1080p auf einem 4K-Display ausführen, entspricht das einem Viertel der nativen Auflösung. Wenn Ihre Grafikkartentreiber eine ganzzahlige Skalierung unterstützen, können Sie die Breite und Höhe verdoppeln und erhalten ein „schärferes“ Bild. Intel und Nvidia unterstützen jetzt Integer-Skalierung, allerdings ist dafür eine Ice Lake 10th Gen CPU für Intel (Laptops) oder eine Turing GPU für Nvidia erforderlich. Andernfalls erhalten Sie die bikubische Unschärfe, die einige Leute nicht mögen.

Es ist vielleicht besser zu zeigen, wie dies aussieht, während mit realen Auflösungen zu tun, wie 1080p skaliert auf 1440p und 4K, mit Integer-Skalierung (nächster Nachbar) vs. bikubische Filterung. Integer-Skalierung ist eine großartige Funktion für Pixel Art-Spiele, aber es ist oft weniger wichtig (und vielleicht sogar unerwünscht), wenn es um andere Spiele und Inhalte.

(Bildnachweis: Microsoft)

1080p skaliert auf 4K via Nearest Neighbour (Integer Scaling)

(Bildnachweis: Microsoft)

1080p auf 4K skaliert über bilineare Filterung

(Bildnachweis: Microsoft)

1080p auf 4K skaliert über bikubische Filterung

(Bildnachweis: Microsoft)

1080p skaliert auf 1440p via Nearest Neighbor

(Bildnachweis: Microsoft)

1080p skaliert auf 1440p via bikubische Filterung

Warum spreche ich über Integer-Skalierung und verschiedene Filtertechniken in den Treibern, wenn ich mit der Diskussion über das Spielen von Spielen mit niedrigeren als nativen Auflösungen begonnen habe? Das liegt daran, dass die beiden Themen miteinander verknüpft sind. Integer-Skalierung kann manchmal bei niedrigeren Auflösungen verwendet werden, wenn man die richtige Hardware hat, oder man kann das Signal an den Bildschirm weiterleiten und ihn die Skalierung übernehmen lassen. Die meisten Bildschirme verwenden heutzutage eine Form der bikubischen Hochskalierung – einige sehr alte LCDs verwendeten Nearest Neighbor Interpolation, die schrecklich aussehen konnte (z. B. bei der Skalierung von kontrastreichem Text wie im obigen Beispiel schwarze Linie auf weißem Hintergrund) und inzwischen nicht mehr verwendet wird.

Wenn Sie sich die obigen Bilder ansehen, können Sie definitiv die Unterschiede zwischen den Skalierungsmodi erkennen, und wenn Sie nicht mit der nativen Auflösung Ihres Bildschirms arbeiten, werden Sie in der Regel mit einer Form der Interpolation enden – entweder von der GPU oder vom Display-Scaler. Die Verwendung der nativen Auflösung ist fast immer die beste Option, wenn Ihre Hardware bei der gewünschten Auflösung eine spielbare Leistung erbringen kann. Aber wenn Sie einen 1440p- oder 4K-Monitor haben, ist das oft nicht der Fall.

Warum also nicht einfach einen 1080p-Monitor kaufen? Weil die meisten Leute ihren PC nicht nur zum Spielen verwenden. Wenn Sie einen 1440p- oder 4K-Bildschirm für das Surfen im Internet und für Büroarbeiten verwendet haben, können Sie mit mehreren geöffneten Fenstern produktiver sein und sich daran gewöhnen, zwischen ihnen zu wechseln. Ein Abstieg auf 1080p auf einem Desktop kann schmerzhaft sein. Und je höher die Auflösung Ihres Bildschirms ist, desto unwahrscheinlicher ist es, dass Sie die Skalierungsartefakte bemerken – die Pixel werden so klein, dass Sie sie nicht mehr sehen.

Kurz gesagt: Die native Auflösung Ihres Bildschirms ist zwar ideal, aber für Spiele oft nicht geeignet. 1080p ist nicht ohne Grund allgegenwärtig. Dennoch wollen viele Menschen für andere Aufgaben einen Bildschirm mit höherer Auflösung. Wenn Sie einen 4K-Monitor haben und Spiele mit 1440p oder 1080p laufen lassen, werden Sie es wahrscheinlich nach einer Weile nicht mehr bemerken, es sei denn, Sie haben sehr scharfe Augen – vor allem, wenn das Spiel in Bewegung ist. Und wenn Sie es doch merken und es Sie stört, können Sie entweder Ihre Grafikkarte aufrüsten oder einen zweiten Monitor kaufen.

Aktuelle Nachrichten

{{ Artikelname }}

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.