261 votes

Pourquoi les taux de rafraîchissement des jeux vidéo doivent-ils être tellement plus élevés que ceux de la télévision et du cinéma ?

Il semble que les jeux vidéo doivent avoir quelque chose comme 60 images par seconde pour être fluides et réalistes. Mais la télévision et les films n'en ont que 24 ou 25. Pourquoi cette différence ?

14 votes

Les films ont 24-25 parce qu'Hollywood nous a habitués à penser que 24-25 FPS, c'est "bien". Je suppose qu'il s'agissait à l'origine d'une mesure de réduction des coûts (moins d'images, moins de dépenses).

17 votes

+1 parce qu'il s'avère que c'est un sujet vraiment intéressant. Après avoir étudié la question pour ma réponse, j'ai continué à creuser pour voir si la TVHD avait eu un impact sur ce sujet (je m'attendais à une fréquence d'images plus élevée en raison de la meilleure qualité), mais il semble que 24/25/30 soit la norme. Cependant, 60fps est possible. Encore une fois, d'après Wikipedia sur la TVHD : fr.wikipedia.org/wiki/High-definition_television - 720p60 et 1080p-60fps (ce dernier semble ne pas être disponible actuellement).

1 votes

@Strix Je pensais que c'était clair dans ma réponse, mais la raison pour laquelle les jeux utilisent 60fps est qu'ils ont été conçus à l'origine pour la télévision (taux de rafraîchissement de 60fps).

193voto

DuckMaestro Points 2620

Pour deux raisons :

1. Réactivité de l'apport

Il y a une grande différence dans la sensation de jeu lorsque l'entrée et la réponse se produisent seulement 24 fois par seconde contre 60 fois par seconde, surtout pour les jeux rapides comme les jeux de tir à la première personne.

Les tampons réseau et les tampons d'entrée sont remplis sur des threads séparés, ce qui signifie que les nouveaux états provenant du serveur de jeu, ou les pressions sur les boutons de votre manette de jeu, doivent être remplis par le serveur de jeu. attendre jusqu'à la prochaine itération de la "boucle de mise à jour" du moteur de jeu. Cette attente peut atteindre 42 ms pour 24 mises à jour par seconde, et seulement 16 ms pour 60 mises à jour par seconde. Cela représente une différence de 26 ms, soit environ 25 % du "décalage" que l'on observe sur une connexion serveur de 150 ms par rapport à une connexion serveur de 50 ms.

2. Absence de flou de mouvement physiquement précis

Les appareils photo du monde réel ont ce qu'on appelle un obturateur, qui est ouvert pour une gamme continue de temps La durée d'ouverture de l'obturateur est déterminée par l'"angle d'obturation" ou la "vitesse d'obturation". Par exemple, une image en mouvement capturée à 24 images par seconde peut avoir l'obturateur ouvert pendant 0,02083 seconde par image (1/48 de seconde, ou angle d'obturation de 180°). Cet intervalle de temps continu capture et mixe tous les mouvements qui s'y produit, conduisant à ce que nous voyons comme un flou de mouvement.

Les jeux, quant à eux, ne rendent qu'une moment instantané du temps . Il n'y a pas d'intervalle équivalent où le mouvement est enregistré et mélangé, et au lieu de cela vous créez ce qui est essentiellement un échantillon clair comme du cristal du monde à un instant particulier - quelque chose qui n'est pas possible dans le monde réel. Étant donné qu'aucun mouvement n'est enregistré dans l'image rendue, les mouvements à l'écran peuvent sembler saccadés, à moins que la fréquence d'images ne soit augmentée pour compenser (en capturant davantage de mouvements intermédiaires). En augmentant la fréquence d'images, vous vous rapprochez essentiellement des "fréquences d'images" de la vie réelle, ce qui nous laisse avec le flou de mouvement biologique que nous obtenons de nos yeux (qui sont comme des volets toujours ouverts).

Bien que les jeux modernes soient désormais dotés d'une fonction de "flou de mouvement", celle-ci ne permet de capturer le flou de mouvement que dans certaines hypothèses, et ne recrée pas (encore) complètement le flou de mouvement que nous voyons dans les films ou dans les rendus CGI de haute qualité.

Démos

Pour 15fps vs. 30fps vs. 60fps voir cette démo ou cette vidéo .

Voir aussi

0 votes

Déplacement automatique vers le chat. continuer cette discussion dans le chat

144voto

Bill Points 7824

Je pense qu'il y a une partie de l'histoire que vous manquez ici, alors permettez-moi d'essayer de la remplir.

Si vous cherchez sur Google 60fps vs 24fps vous trouverez des fils interminables de personnes demandant quelle est la différence. La plupart des gens vous diront que 24 images par seconde est la norme depuis les années 20, mais ils n'expliquent pas pourquoi.

Si l'on remonte à la création du film, on remarquera que la norme n'a pas toujours été de 24 images par seconde. Edison lui-même recommandait à l'origine 48 images par seconde, déclarant que "tout ce qui est inférieur fatiguera l'œil". Les films d'Edison, cependant, ne suivaient pas cette norme, et ne semblaient pas du tout être normalisés (certains films présentant une variation de plus de 10 images par seconde au cours du film). L'American Mutoscope, l'un des rivaux d'Edison, utilisait en fait 40 images par seconde, mais la caméra qui en résultait pesait presque une tonne.

Cependant, ces films au rythme rapide consommaient trop de pellicule (un luxe à l'époque) et en Victor Milner l'époque, la norme était de 16 fps. Au-delà des considérations pratiques, de nombreux cinéphiles critiquaient les films plus rapides que 16 ips, les jugeant "trop rapides". La naissance d'une nation par exemple, a été aussi lent que 12fps dans certaines sections.

Le problème majeur de la période entre 1910 et 1920 est que la vitesse des films varie énormément. Même pour un seul cinéaste, la fréquence des images tendait à varier d'un film à l'autre. Au milieu des années 20, les caméramans ont commencé à s'enorgueillir de la régularité de leur vitesse et de leur capacité à atteindre approximativement 16 images par seconde (ce qu'ils mesuraient plus généralement en pieds de pellicule). Entre-temps, les cinémas ont commencé à exiger des vitesses de plus en plus élevées. Bien que la vitesse de 16 images par seconde ait pu paraître plus professionnelle, dans un cinéma bondé (ou un petit cinéma), le public semblait plus à même de décerner le film à 24 images par seconde.

Lorsque Annapolis a été tourné en 1928, le studio exigeait 24 images par seconde. De nombreuses équipes de tournage n'appréciaient pas les rechargements plus fréquents de la caméra (16 images par seconde correspondent à environ 1 000 pieds en 16 minutes). Au moment où les caméras motorisées sont devenues courantes, les 24 images étaient devenues une norme de facto.

Il est important de noter qu'il ne s'agissait pas d'une limitation technique, ni (souvent) d'une limitation financière. C'était le résultat final de deux forces opposées (équipes de tournage et acteurs contre studios et théâtres) désirant une vitesse différente.

Alors pourquoi pas 60 ?

Il est intéressant de noter que de nombreux téléviseurs (par exemple NTSC) utilisent 59,94 images par seconde (60 Hz/1,001) en comptant l'entrelacement. Si vous ne tenez pas compte de l'entrelacement, c'est 29,97 images par seconde. Cela a à voir avec la façon dont l'entrelacement est réellement mis en œuvre (spécifiquement, pour supprimer les battements basés sur les sources d'alimentation 60hz que l'on trouve aux États-Unis). À l'origine, ils ont choisi 60 images par seconde pour s'adapter à la source d'alimentation, mais cela provoque en fait une intermodulation (battement), qui apparaît comme un scintillement.

Il y a quelques preuves pour suggérer que l'acuité visuelle humaine chute brutalement après environ 30 images par seconde, bien que la plupart des êtres humains puissent encore détecter des discontinuités dans l'illusion de mouvement jusqu'à 60-75 images par seconde. De plus, il existe un grand nombre de preuves que l'œil humain peut détecter la gigue à plus de 300 images par seconde (Steinmetz 1996). Il est donc légitime de se demander pourquoi pas 60 ? La fréquence de 60 images par seconde est un artefact de différentes technologies (la télévision utilise 30 images par seconde et la télévision numérique 30 images par seconde). cadres d'entrelacement ).

Ok, donc nous avons été forcés de faire du 60fps, pourquoi garder notre standard 24 fps ?

Lorsque la réalisation de films familiaux est devenue envisageable (lire les caméscopes VCR, mon père en a eu un pendant des années, ce truc prenait une cassette VCR et écrivait dessus), ils étaient optimisés pour la production télévisuelle (c'est-à-dire 60 images par seconde). Par conséquent, les films familiaux avaient une fréquence d'images largement supérieure à celle des films standard. Malheureusement, cette caractéristique a rapidement été associée à une production amateur (ce qui était le cas de la plupart des films familiaux). Prenons l'exemple des films tournés avec une caméra à main. La plupart des gens remarquent immédiatement que la fréquence d'images est beaucoup plus rapide, mais le plus surprenant est que la plupart des gens vous diront que la qualité est inférieure.

La vérité est que nous pensons que les 24 images par seconde sont plus belles parce que nous y avons été entraînés.

Un certain nombre de réalisateurs ont essayé de s'éloigner de la norme 24 images par seconde (Peter Jackson tournant à 48, James Cameron à 60), mais ils sont presque toujours obligés de montrer ces films à l'ancienne norme. Les gens pensent simplement que c'est plus beau. La vitesse des films (comme beaucoup de choses) est un phénomène social.

0 votes

Un autre point mineur concerne les ressources : un taux de rafraîchissement plus élevé nécessiterait plus d'espace pour le stocker et un processeur plus rapide pour le décoder.

11 votes

Ce n'est pas que je ne te fasse pas confiance, tzenes, mais je pense que cette réponse a besoin de plus de sources ; cela fait beaucoup d'affirmations.

12 votes

J'ai l'impression que ça ne répond pas du tout à la question, franchement.

60voto

James Skemp Points 1385

Je déteste citer l'entrée Wikipedia pour la fréquence d'images mais ça a du sens :

Dans les jeux d'action modernes où les joueurs doivent suivre visuellement des objets animés et réagir rapidement, des fréquences d'images comprises entre 30 et 60 FPS sont considérées comme acceptables par la plupart des joueurs, bien que cela puisse varier considérablement d'un jeu à l'autre.

Regarder un film ou la télévision est une activité extrêmement passive.

Jouer à un jeu vidéo, en revanche, exige une participation active.

Cependant, vous avez alors Combien d'images les humains peuvent-ils voir ? qui note que le vrai problème est le flou de mouvement.

Si vous pouviez voir votre main en mouvement de manière très claire et nette, votre œil devait en faire plus de clichés pour qu'elle paraisse fluide. Si vous aviez un film avec 50 images très nettes et précises par seconde, votre œil distinguerait de temps en temps de nombreux détails et vous auriez l'impression que le film bégaie.

Il suffit de penser aux jeux modernes : Avez-vous déjà joué à Quake avec 18 images par seconde ? Il n'y a pas de flou de mouvement dans ces jeux, donc vous avez besoin de beaucoup plus d'images par seconde.

0 votes

Êtes-vous en train de dire qu'une fréquence d'images plus basse sera meilleure si le flou de mouvement est présent ? Si c'est le cas, je me demande si certains moteurs de jeux exploitent ce phénomène, en appliquant le flou de mouvement pour rendre les jeux plus réalistes (ou du moins plus proches du cinéma), et avec quels résultats !

0 votes

Eh bien, définissez mieux :) On dirait que ça aura l'air plus fluide à l'œil humain, mais je ne suis pas sûr que la qualité le serait. De la même entrée Wikipedia ci-dessus : "Sans un flou de mouvement réaliste, les jeux vidéo et les animations informatiques ne semblent pas aussi fluides que les films, même avec une fréquence d'images plus élevée. Lorsqu'un objet en mouvement rapide est présent sur deux images consécutives, un écart entre les images des deux images contribue à une séparation notable de l'objet et de sa post-image dans l'œil. Le flou de mouvement atténue cet effet, puisqu'il tend à réduire l'écart entre les images lorsque les deux trames sont enchaînées."

9 votes

@Wikiwocket ; Oui - Crysis avait un excellent flou de mouvement dans l'espace écran, et cela se voyait. Le taux de rafraîchissement a baissé de manière significative, mais tant que vous pouviez maintenir un taux de rafraîchissement suffisamment élevé pour que le jeu se déroule dans les meilleures conditions possibles, il n'y avait pas de problème. entrée pour être lisse, l'image résultante semblait plus lisse.

14voto

staticsan Points 201

Je ne suis pas un expert en la matière, mais voici pourquoi il me semble logique que les enregistrements du monde réel puissent fonctionner à moins d'images par seconde que les animations tout en étant de meilleure qualité : Une image animée montre un seul instant dans le temps alors qu'une image enregistrée montre un petit intervalle de temps. Ce n'est pas la même chose que de rendre floues les parties de l'image contenant du mouvement.

Voilà pourquoi : Supposons que l'intervalle de temps que vous obtenez dans une image enregistrée est de 1 milliseconde et supposons que l'univers fonctionne à, disons, 1 milliard de fps (le nombre réel est le temps de planck, mais ne nous égarons pas). L'image enregistrée est alors la moyenne de 1 million de points de temps, de sorte que cette image est en fait basée sur une énorme quantité d'informations. En revanche, l'image animée ne contient que l'information d'un seul instant dans le temps. Ne considérez donc pas l'image enregistrée comme une seule image, mais comme un résumé d'un million d'images.

De ce point de vue, il est tout à fait logique que les animations doivent tourner à une fréquence plus élevée que les enregistrements ne le nécessitent. On pourrait simuler l'effet en faisant tourner l'ordinateur à 1 milliard d'images par seconde et en ramenant la moyenne à seulement 24 images par seconde. Je suis sûr qu'un milliard d'images par seconde serait excessif dans ce cas, et il serait intéressant de savoir à quel moment les rendements décroissants se manifestent. Cela pourrait être un nombre très bas, comme 60 ou 100.

Les images enregistrées sont donc plus floues que les images animées. Le flou des images enregistrées contient beaucoup d'informations supplémentaires sur ce qui se passe entre les images, alors que le simple fait d'ajouter du flou à une image animée supprime des informations. Cela ressemble à la différence entre le flou et l'anticrénelage, sauf que nous travaillons avec le temps et non l'espace.

6voto

Rory Alsop Points 1410

Vous avez besoin de fréquences d'images plus élevées parce que la résolution et la clarté des moniteurs sont bien supérieures à celles de la télévision et du cinéma, et vous essayez de repérer le moindre mouvement ou détail, car il peut être crucial dans le jeu.

La télévision et le cinéma ont essayé de s'appuyer sur le flou, et pour des panoramiques lents ou des conversations, cela fonctionne très bien, mais un segment avec une action dramatique est déjà un cauchemar. Le judder/blurring a ruiné Avatar pour moi sur le grand écran.

Vous ne pouvez pas flouter un jeu si vous voulez offrir la clarté et les détails que les gens attendent sur un ordinateur, vous devez donc fournir plus d'images afin de conserver l'illusion du mouvement.

3 votes

La résolution et la clarté d'un moniteur sont supérieures à celles du cinéma ? Je pense qu'il est temps de changer de cinéma !

0 votes

Les cinémas sont toujours un problème - le taux de rafraîchissement est hideux, à tel point que même si j'emmène les enfants voir au moins un blockbuster par an, dans les cinémas les plus modernes, je ne peux pas les regarder.

AlleGamers.com

AlleGamers est une communauté de gamers qui cherche à élargir la connaissance des jeux vidéo.
Pour cela nous avons les plus grands doutes résolus en français et vous pouvez aussi poser vos propres questions ou résoudre celles des autres.

Powered by:

X