Est-ce que les jeux à 1080p ont l’air pire sur un moniteur de plus haute résolution ?

Le matériel PC est incroyablement diversifié. Certains joueurs ont des PC de jeu flambant neufs, haut de gamme, arborant les dernières cartes graphiques, processeurs et SSD rapides. D’autres s’en sortent avec beaucoup moins. Les solutions potentielles aux mauvaises performances dans presque tous les jeux sont les mêmes : améliorer votre matériel, réduire les paramètres et/ou diminuer la résolution. C’est de cette dernière partie que je veux discuter aujourd’hui.

Dans un monde parfait, vous voulez exécuter tous vos jeux à la résolution native de votre moniteur. J’ai commencé à jouer à l’époque où nous accrochions des téléviseurs volumineux à nos ordinateurs (C-64), et nous étions heureux de jouer à 320×200. Aujourd’hui, je possède plusieurs moniteurs 4K et ultra-large, et la différence de qualité graphique est étonnante. Pourtant, il existe de nombreux jeux pour lesquels même le matériel actuel le plus rapide n’est tout simplement pas capable de faire tourner un nouveau jeu en 4K, en qualité maximale et à 60 fps. Ne cherchez pas plus loin que Control, Gears of War 5 et Borderlands 3 si vous voulez des exemples.

Selon le jeu, il pourrait être possible de jouer à 4K avec un paramètre de qualité inférieure, et la différence entre les paramètres ultra et élevés est souvent plus un placebo que quelque chose que vous remarqueriez réellement sans comparer les captures d’écran ou exécuter des benchmarks. En revanche, passer d’ultra à moyen pourrait être un compromis trop important pour certains. Il y a aussi des jeux comme Rage 2 où même passer de la qualité maximale à la qualité minimale n’améliorera les framerates que de 50 % environ.

En dehors de la mise à niveau du matériel, il ne reste plus qu’à baisser la résolution, et cela peut augmenter massivement les performances. 1440p fonctionne généralement près de deux fois plus vite que 4K aux mêmes paramètres (si vous êtes limité par le GPU), et 1080p est généralement environ 30-40 pour cent plus rapide que 1440p. Jouer en 1080p au lieu de 4K, même sur un écran 4K, fera plus que doubler votre framerate sur tout ce qui n’est pas une 2080 Ti. C’est pourquoi nous continuons à recommander le 1440p comme la meilleure solution pour les jeux – il est souvent à la portée des cartes graphiques de milieu ou de bas de gamme et il a quand même l’air génial.

Mais que se passe-t-il si vous voulez un écran 4K ou 1440p pour un usage général – pour le travail et peut-être les films – mais que vous voulez aussi jouer à des jeux dessus ? Est-ce que cela semble pire de jouer à 1080p sur un écran 4K ou 1440p que si vous utilisiez simplement un moniteur 1080p à la place ? La réponse est oui, l’image est un peu moins bonne (elle est surtout plus floue), mais pour beaucoup de gens, cela n’a pas beaucoup d’importance. Clause de non-responsabilité : je fais partie de ces personnes.

(Crédit photo : Sony)

À l’époque où nous utilisions tous des tubes cathodiques, fonctionner à une résolution inférieure à celle de votre écran natif était monnaie courante. Cependant, les CRT étaient par nature moins précis et présentaient toujours un peu de flou, si bien que nous ne le remarquions pas vraiment. J’ai détesté avoir à gérer le coussin d’épingle, la distorsion trapézoïdale et les autres artefacts causés par la technologie CRT bien plus que le flou potentiel de ne pas fonctionner à une résolution plus élevée.

Lorsque nous sommes passés aux LCD et aux signaux numériques, tous les pixels étaient soudainement parfaitement carrés et fonctionner à une résolution différente de la résolution native présentait des problèmes plus visibles.

Prenez un exemple simple d’un écran de résolution 160×90 avec une bande noire diagonale qui le traverse. Essayez maintenant d’étirer cette image à 256×144. Nous nous heurtons au problème de ne pas pouvoir facilement mettre l’image à l’échelle, et il existe différentes techniques. L’une d’elles consiste à utiliser l’interpolation du plus proche voisin, ou encore l’interpolation bilinéaire ou bicubique. Il y a des avantages et des inconvénients à chacune de ces techniques, mais toutes semblent pires que l’image native.

J’ai pris une image source à 160×90 et je l’ai agrandie à 1280×720 (en utilisant le voisin le plus proche et l’interpolation bicubique) dans Photoshop. Ensuite, je l’ai mise à l’échelle en 256×144 en utilisant plusieurs NN et bicubiques, puis je l’ai agrandie en 720p via NN (pour que vous puissiez voir à quoi ressemblent les pixels individuels). Le résultat est un gros plan de ce à quoi ressemble le rendu « natif » sur un LCD, comparé aux deux algorithmes de mise à l’échelle différents pour les résolutions non natives.

(Crédit image : Future)

Image originale non interpolée agrandie à 720p

(Crédit image : Future)

160×90 mise à l’échelle à 256×144 via le plus proche voisin, puis agrandie à 720p

(Crédit image : Future)

160×90 mis à l’échelle en 256×144 par interpolation bicubique, puis agrandi en 720p

Les écrans LCD et les pilotes vidéo doivent s’occuper de l’interpolation, et bien que les résultats puissent paraître décents, on ne peut nier les déficiences du plus proche voisin et de l’échelle bicubique. Le NN fait en sorte que certains pixels sont doublés et d’autres non, tandis que la mise à l’échelle bicubique entraîne une perte de netteté. J’ai intentionnellement commencé par un exemple extrême en utilisant le noir sur blanc – avec les images de jeux, c’est beaucoup moins problématique. L’autre facteur est la résolution que vous utilisez par rapport à la résolution native.

Faire tourner 1080p sur un écran 4K finit par représenter un quart de la résolution native. Si les pilotes de votre carte graphique prennent en charge la mise à l’échelle entière, vous pouvez doubler la largeur et la hauteur et obtenir une image plus « nette ». Intel et Nvidia prennent désormais en charge la mise à l’échelle des nombres entiers, mais cela nécessite un processeur Ice Lake 10e génération pour Intel (ordinateurs portables) ou un GPU Turing pour Nvidia. Sinon, vous obtenez le flou bicubique que certaines personnes n’aiment pas.

Il est peut-être préférable de montrer à quoi cela ressemble tout en traitant des résolutions réelles, comme 1080p mis à l’échelle à 1440p et 4K, en utilisant la mise à l’échelle entière (plus proche voisin) par rapport au filtrage bicubique. La mise à l’échelle entière est une excellente fonctionnalité pour les jeux de pixel art, mais elle est souvent moins importante (et peut-être même indésirable) lorsqu’on traite d’autres jeux et contenus.

(Image credit : Microsoft)

1080p mis à l’échelle en 4K via le plus proche voisin (integer scaling)

(Image credit : Microsoft)

1080p mis à l’échelle en 4K via un filtrage bilinéaire

(Crédit image : Microsoft)

1080p mis à l’échelle en 4K via un filtrage bicubique

(Crédit image : Microsoft)

1080p mis à l’échelle en 1440p via le plus proche voisin

(Image credit : Microsoft)

1080p mis à l’échelle en 1440p via un filtrage bicubique

Pourquoi est-ce que je parle de la mise à l’échelle des entiers et des différentes techniques de filtrage dans les pilotes alors que j’ai commencé par discuter du fait de jouer à des jeux à des résolutions inférieures aux résolutions natives ? C’est parce que les deux sujets sont entremêlés. La mise à l’échelle des nombres entiers peut parfois être utilisée avec des résolutions inférieures, si vous avez le bon matériel, ou vous pouvez transmettre le signal à l’écran et le laisser gérer la mise à l’échelle. La plupart des écrans de nos jours font une certaine forme de mise à l’échelle bicubique – certains très vieux LCD faisaient l’interpolation du plus proche voisin, et cela pouvait avoir l’air horrible (par exemple, lors de la mise à l’échelle d’un texte à fort contraste comme dans l’exemple ci-dessus de ligne noire sur fond blanc) et a depuis disparu.

Si vous regardez les images ci-dessus, vous pouvez certainement voir les différences dans les modes de mise à l’échelle, et lorsque vous ne courez pas à la résolution native de votre écran, vous vous retrouverez généralement avec une certaine forme d’interpolation – soit du GPU, soit du mesureur d’affichage. L’exécution à la résolution native est presque toujours la meilleure option, si votre matériel peut fournir des performances jouables à la résolution désirée. Mais si vous avez un écran 1440p ou 4K, ce ne sera souvent pas le cas.

Alors pourquoi ne pas simplement acheter un écran 1080p ? Parce que la plupart des gens n’utilisent pas leur PC uniquement pour jouer. Si vous avez utilisé un écran 1440p ou 4K pour la navigation sur le Web et le travail de bureau, le fait d’avoir plusieurs fenêtres ouvertes peut vous rendre plus productif et vous vous habituez à passer de l’une à l’autre. Le passage à une résolution de 1080p sur un ordinateur de bureau peut être douloureux. Et plus la résolution de votre écran est élevée, moins vous êtes susceptible de remarquer les artefacts de mise à l’échelle – les pixels deviennent suffisamment petits pour que vous ne les voyiez pas.

En bref, si l’exécution à la résolution native de votre écran est idéale, elle n’est souvent pas pratique pour les jeux. Le 1080p reste omniprésent pour une raison. Cependant, de nombreuses personnes souhaitent toujours un écran de plus haute résolution pour d’autres tâches. Si vous avez un écran 4K et que vous finissez par exécuter des jeux en 1440p ou 1080p, à moins d’avoir des yeux très aiguisés, vous ne le remarquerez probablement pas au bout d’un moment, surtout lorsque le jeu est en mouvement. Et si c’est le cas et que c’est trop gênant, je suppose que vous pouvez soit mettre à niveau votre carte graphique, soit acheter un deuxième moniteur.

Nouvelles récentes

{{nom de l’article }}

.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.