Je suis actuellement en train d'évaluer l'achat d'un écran d'ordinateur 4K pour l'utiliser en natif en 2160p tout en codant ou en travaillant avec Windows, mais je prévois de jouer à mes jeux en 1080p car le rendu 4K est bien sûr une tâche très lourde pour tout CPU et GPU. Actuellement, je suis très content de jouer en 1080p et ce serait génial pour moi d'avoir un seul écran pour ces deux modes.
Cependant, je sais que les algorithmes de mise à l'échelle ne sont pas juste "1 pixel en 1080p équivaut à 2x2 pixels en 2160p - donc tout serait parfait ..." comme on le dit dans de nombreux forums. C'est simplement faux car normalement l'image à l'écran devient floue en fonction des algorithmes de mise à l'échelle appliqués par le GPU et/ou l'écran.
Maintenant, je suis tombé sur la technologie Dynamic Super Resolution de nvidia et je me demandais (mais je n'ai pas vraiment pu le découvrir) si elle (ou toute autre technologie) pouvait être utilisée pour dire au GPU de rendre une image en 2160p exactement en gonflant une image en 1080p à la taille doublée de chaque côté. Ainsi, il n'y aurait pas besoin d'interpoler des pixels et l'image en 2160p aurait simplement l'air nette comme la 1080p sur un écran 1080p (bien sûr avec le même niveau de détail non 4K).
Jetez un œil à l'image ci-jointe que j'ai volée sur http://linustechtips.com/ et que j'ai complétée avec mes commentaires :
EDIT : Je sais que le DSR est censé effectuer un sous-échantillonnage des images haute résolution vers un écran de résolution inférieure. Donc c'est le contraire de ce que je voulais avoir. Mais peut-être que le pilote nvidia peut aussi faire l'inverse (peut-être que ça ne s'appelle pas DSR alors, mais je ne sais pas).
0 votes
En réalité, le DSR de Nvidia trompe le jeu en lui faisant croire que votre écran a une résolution plus élevée qu'il n'en a vraiment. Il vous permet donc de jouer à une résolution plus élevée et de réduire les graphismes pour qu'ils s'adaptent à votre écran. Dans votre cas, le DSR vous permettrait de jouer à 5431x3055 ou 7680x4320.
1 votes
Vous devriez pouvoir indiquer à votre carte vidéo de redimensionner le rendu en 1080p à 2160p en sortie, mais je ne pense pas que vous aurez un contrôle sur le filtrage utilisé. Il est cependant possible que votre carte vidéo le fasse déjà, donc vous pourriez vouloir vérifier si vous ne pouvez pas le désactiver dans la carte vidéo et voir si l'affichage s'en sort mieux. Considérez également le fait que si vous ne jouez pas à des jeux de style graphique pixelisé ancien, vous ne partez pas de base avec des graphismes 1080p "nets". Les bords seront déjà flous (à travers diverses techniques d'anti-aliasing), et un simple redimensionnement 1:2 exagérera cela.
0 votes
Qu'est-ce qui vous fait penser que le passage de 1080p à 2160p sera flou ? Avez-vous des sources affirmant qu'il y a une sorte de filtrage de mise à l'échelle appliqué ? Je connais des personnes qui affirment que le 720p sur un écran 1440p est aussi net que du 1440p ; Pourquoi cela serait-il différent ?
0 votes
J'ai lu cela sur certains sites de test comme celui-ci (voir "interpolation et mise à l'échelle" dans le dernier tiers de l'article) : pcmonitors.info/reviews/asus-pb279q
0 votes
@Chippies. Je me posais aussi la question, alors j'ai lancé Half-Life 2 en 1080p sur mon écran 4k. À ma grande surprise, j'ai réalisé que l'image est vraiment floue.
0 votes
@Nolonar, avez-vous eu l'occasion d'essayer le DSR de Nvidia ? J'ai ouvert un ticket de support là-bas et ils ont répondu : "D'après votre demande, je comprends que vous vouliez des images nettes qui sont en 1080p mais l'écran est en 4K. La seule option pour cela est le DSR et l'article que vous avez fourni en parle également.". De plus, ils m'ont donné ce lien mais je ne peux pas le vérifier sans un écran 4K pour le moment : nvidia.custhelp.com/app/answers/detail/a_id/3587/kw/DSR