La première chose à définir est : « Qu'est-ce que le taux de rafraîchissement ? » Heureusement, c'est assez simple. Le taux de rafraîchissement correspond au nombre de fois par seconde où un écran actualise l'image affichée. On peut le comprendre en le comparant à la fréquence d'images dans les films ou les jeux vidéo. Si un film est tourné à 24 images par seconde (comme au cinéma), le contenu source affiche 24 images différentes par seconde. De même, un écran avec un taux de rafraîchissement de 60 Hz affiche 60 « images » par seconde. Il ne s'agit pas réellement d'images, car l'écran se rafraîchit 60 fois par seconde même si aucun pixel ne change, et il n'affiche que le contenu source. Cependant, cette analogie permet de comprendre facilement le concept de base du taux de rafraîchissement. Un taux de rafraîchissement plus élevé signifie donc la capacité à gérer une fréquence d'images plus élevée. N'oubliez pas que l'écran n'affiche que le contenu source ; par conséquent, un taux de rafraîchissement plus élevé n'améliorera pas forcément votre expérience si votre taux de rafraîchissement est déjà supérieur à la fréquence d'images de votre source.
Lorsque vous connectez votre moniteur à une carte graphique (GPU), celui-ci affichera les données que la carte graphique lui envoie, à la fréquence d'images qu'elle lui transmet, dans la limite de sa propre fréquence d'images maximale. Une fréquence d'images plus élevée permet un rendu plus fluide des mouvements à l'écran (Fig. 1), réduisant ainsi le flou de mouvement. Ceci est particulièrement important pour le visionnage de vidéos ou de jeux rapides.
Date de publication : 16 décembre 2021
