Nvidia G-SYNC en test : les jeux fluides dès 40 fps ?
Publié le 30/12/2013 par Damien Triolet
Avec G-SYNC, Nvidia s'attaque à nouveau à la problématique du confort de jeu sur PC avec la promesse d'améliorer fluidité, latence et qualité. Pour y parvenir le spécialiste du GPU se glisse dans les écrans pour leur permettre de se débarrasser d'une de leurs limitations : la fréquence de rafraîchissement fixe. De quoi apporter une vraie amélioration ?
Depuis quelques temps, Nvidia a décidé de s'attaquer au problème du confort et particulièrement de la fluidité ressentie par les joueurs PC, qui ne colle pas toujours aux chiffres de performances brutes. Différentes optimisations ont découlé de ces travaux et ont été introduites dans les pilotes, citons le frame metering qui consiste à s'assurer d'une cadence d'affichage aussi régulière que possible en multi-GPU ou encore le logiciel GeForce Experience qui aide le néophyte à configurer les options graphiques de ses jeux. Globalement, la stratégie de Nvidia est de faire en sorte que la plateforme PC, équipée en GeForce, soit à-même de profiter de toutes ses capacités graphiques pour offrir une expérience de jeu supérieure à celle des consoles.
Au cours de ses recherches et phases de réflexion, Nvidia en est venu à la conclusion qu'il était temps d'essayer de venir à bout du vieux compromis de la synchronisation verticale fixe, vestige des écrans CRT, qui est restée au cœur des moteurs d'affichage en grande partie pour des raisons de rétrocompatibilité. Le balayage des tubes cathodiques imposait de nombreuses contraintes là où les technologies LCD et dérivées sont bien plus flexibles.
Parmi les contraintes héritées des écrans CRT, nous retrouvons la fréquence de rafraîchissement fixe, source de bien des problèmes pour les GPU, forcés de jouer aux contorsionnistes pour s'y adapter. Soit ils se synchronisent avec l'écran, ce qui peut réduire les performances, entrainer des saccades importantes ou augmenter la latence, soit ils ignorent le rythme de l'écran et des défauts visuels apparaissent dans les images affichées avec dans certains cas quelques saccades également. En désactivant la synchronisation verticale, la plupart des joueurs voient dans cette seconde option un moindre mal.
Quelle solution pour venir à bout de ces problèmes ? Le triple buffering ? Pas vraiment, il entraîne lui aussi son lot de désavantages. Voici ce qu'indiquait au printemps 2012 un célèbre développeur à ce sujet :
La fluidité et la latence sont deux aspects importants pour John Carmack, d'autant plus depuis qu'il travaille sur le système Oculus Rift, très sensible sur ce point. Ce qu'il propose ici, le rafraîchissement non-isochrone de l'affichage, c'est en fait ce que Nvidia a décidé d'implémenter sous le nom de Fréquence de Rafraîchissement Variable (FRV) et sous la marque G-SYNC.
Avec une fréquence de rafraichissement variable, c'est cette fois l'écran qui doit s'adapter au rythme du GPU, ce qui promet de se débarrasser d'une vieille contrainte pour offrir un meilleur compromis entre fluidité, saccades et latence d'affichage. Dès que le GPU a terminé de calculer une image, l'écran l'affiche, c'est aussi simple que cela. Ce n'est pas bien compliqué à implémenter, les moteurs d'affichage des GPU sont devenus très flexibles, mais encore fallait-il le faire et surtout pousser les écrans à évoluer eux aussi. C'est avant tout là qu'intervient Nvidia qui a décidé de prendre le taureau par les cornes et de développer le premier contrôleur pour écran capable de gérer cette fréquence de rafraîchissement variable.
Depuis quelques temps, Nvidia a décidé de s'attaquer au problème du confort et particulièrement de la fluidité ressentie par les joueurs PC, qui ne colle pas toujours aux chiffres de performances brutes. Différentes optimisations ont découlé de ces travaux et ont été introduites dans les pilotes, citons le frame metering qui consiste à s'assurer d'une cadence d'affichage aussi régulière que possible en multi-GPU ou encore le logiciel GeForce Experience qui aide le néophyte à configurer les options graphiques de ses jeux. Globalement, la stratégie de Nvidia est de faire en sorte que la plateforme PC, équipée en GeForce, soit à-même de profiter de toutes ses capacités graphiques pour offrir une expérience de jeu supérieure à celle des consoles.
Au cours de ses recherches et phases de réflexion, Nvidia en est venu à la conclusion qu'il était temps d'essayer de venir à bout du vieux compromis de la synchronisation verticale fixe, vestige des écrans CRT, qui est restée au cœur des moteurs d'affichage en grande partie pour des raisons de rétrocompatibilité. Le balayage des tubes cathodiques imposait de nombreuses contraintes là où les technologies LCD et dérivées sont bien plus flexibles.
Parmi les contraintes héritées des écrans CRT, nous retrouvons la fréquence de rafraîchissement fixe, source de bien des problèmes pour les GPU, forcés de jouer aux contorsionnistes pour s'y adapter. Soit ils se synchronisent avec l'écran, ce qui peut réduire les performances, entrainer des saccades importantes ou augmenter la latence, soit ils ignorent le rythme de l'écran et des défauts visuels apparaissent dans les images affichées avec dans certains cas quelques saccades également. En désactivant la synchronisation verticale, la plupart des joueurs voient dans cette seconde option un moindre mal.
Quelle solution pour venir à bout de ces problèmes ? Le triple buffering ? Pas vraiment, il entraîne lui aussi son lot de désavantages. Voici ce qu'indiquait au printemps 2012 un célèbre développeur à ce sujet :
@JScheltema No. Triple buffering adds latency and jitter; it should be avoided. The Answer is non-isochronous display updates.
— John Carmack (@ID_AA_Carmack) 11 Avril 2012
La fluidité et la latence sont deux aspects importants pour John Carmack, d'autant plus depuis qu'il travaille sur le système Oculus Rift, très sensible sur ce point. Ce qu'il propose ici, le rafraîchissement non-isochrone de l'affichage, c'est en fait ce que Nvidia a décidé d'implémenter sous le nom de Fréquence de Rafraîchissement Variable (FRV) et sous la marque G-SYNC.
Avec une fréquence de rafraichissement variable, c'est cette fois l'écran qui doit s'adapter au rythme du GPU, ce qui promet de se débarrasser d'une vieille contrainte pour offrir un meilleur compromis entre fluidité, saccades et latence d'affichage. Dès que le GPU a terminé de calculer une image, l'écran l'affiche, c'est aussi simple que cela. Ce n'est pas bien compliqué à implémenter, les moteurs d'affichage des GPU sont devenus très flexibles, mais encore fallait-il le faire et surtout pousser les écrans à évoluer eux aussi. C'est avant tout là qu'intervient Nvidia qui a décidé de prendre le taureau par les cornes et de développer le premier contrôleur pour écran capable de gérer cette fréquence de rafraîchissement variable.
Rappel : CRT et LCD, VBLANK
Sommaire
Vos réactions
Contenus relatifs
- [+] 11/01: CES: Un écran OLED 4K 21.6 pouces c...
- [+] 09/01: CES: Silence sur l'après Pascal che...
- [+] 20/01: AOC lance un 35" UWQHD 100 Hz à 900...
- [+] 06/01: Un 1er moniteur HP compatible G-Syn...
- [+] 05/01: 1er moniteur 4K en 144 Hz G-SYNC po...
- [+] 04/01: HDMI 2.1 : 48 Gbps, Dynamic HDR et ...
- [+] 04/01: Acer : 3 écrans G-SYNC à 200 Hz et ...
- [+] 21/12: AMD FreeSync : Efficace et pas chèr...
- [+] 01/06: G-SYNC passe sur mobile, sans modul...
- [+] 01/06: Pilotes GeForce 353.06, G-SYNC évol...