Nvidia GeForce GTX Titan en test : big Kepler débarque enfin !
Publié le 21/02/2013 par Damien Triolet
Déjà commercialisé dans le monde professionnel à travers les Tesla K20, le GK110, ou big Kepler et ses 7.1 milliards de transistors, débarque enfin dans une carte graphique grand public, ou plutôt devrions nous dire "petit public" compte tenu de sa tarification ultra haut de gamme. Avec la GeForce GTX Titan, Nvidia compte bien s'assurer la première place, sans faire exploser la consommation et, mieux, en réduisant les nuisances sonores. C'est ce que nous allons vérifier à travers notre test complet !
C'est exactement la même stratégie qui est visée avec le GK110 en version GeForce : proposer un produit exclusif pour les joueurs les plus exigeants. Le tarif sera ainsi le même, 1000€ (en réalité 800€ HT), bien que les performances visées soient inférieures à celle de la GTX 690 qui fait appel au bi-GPU. Nvidia estime qu'un gros GPU a plus de valeur puisqu'il permet d'éviter les aléas du multi-GPU, ce avec quoi nous sommes d'accord, ce qui ne veut pas dire que dans un cas comme dans l'autre nous n'ayons pas de réserves sur le niveau tarifaire.
Si certains avaient pu spéculer sur une nomenclature de type GeForce GTX 780 ou GeForce GTX 685, c'est finalement quelque chose de totalement différent qui a été retenu par Nvidia. Un nom spécial pour un produit spécial : GeForce GTX Titan. Nous pouvons supposer que cette GTX Titan restera le fer de lance par rapport à la future gamme GeForce 700, ce qui explique en partie pourquoi elle est positionnée en dehors des gammes actuelles et à venir.
Le GK110, plus de puissance brute avant tout.
S'il y a bien un commentaire concernant le GK110 qui a beaucoup circulé, finissant presque par être vu comme un fait avéré, autant dans de nombreux médias spécialisés que dans différents forums, c'est qu'avec ce GPU, Nvidia aurait négligé l'aspect performances en jeu au profit du GPU computing et de CUDA. Après tout, ce n'est pas pour rien que la priorité a été de sortir ce GPU en tant que Tesla ?
S'il est vrai que Nvidia avait besoin en priorité de ce GPU dans le monde du calcul massivement parallèle, les choix qui ont été faits lors de son développement se placent purement dans la lignée traditionnelle des gros GPU de la société, tels que les GT200 et autres GF100. Largement avant tout autre considération, l'objectif avec le GK110 était de proposer un GPU plus "large", avec plus d'unités d'exécutions de tous types, ce qui profite directement au rendu en temps réel et donc aux jeux vidéo. Autrement dit, le GK110 a toute sa place dans la famille GeForce, quoi qu'en disent ses détracteurs et la compétition, à condition bien entendu d'arriver à maîtriser la bête sur le plan de la consommation et des nuisances.
1000€, deuxièmeSi la sortie de la GeForce GTX 690 au tarif délirant de 1000€ avait pu choquer certains, elle représente cependant un succès commercial relatif. Nvidia est en effet parvenu à viser juste et à trouver un public pour cette carte graphique de luxe.
C'est exactement la même stratégie qui est visée avec le GK110 en version GeForce : proposer un produit exclusif pour les joueurs les plus exigeants. Le tarif sera ainsi le même, 1000€ (en réalité 800€ HT), bien que les performances visées soient inférieures à celle de la GTX 690 qui fait appel au bi-GPU. Nvidia estime qu'un gros GPU a plus de valeur puisqu'il permet d'éviter les aléas du multi-GPU, ce avec quoi nous sommes d'accord, ce qui ne veut pas dire que dans un cas comme dans l'autre nous n'ayons pas de réserves sur le niveau tarifaire.
Si certains avaient pu spéculer sur une nomenclature de type GeForce GTX 780 ou GeForce GTX 685, c'est finalement quelque chose de totalement différent qui a été retenu par Nvidia. Un nom spécial pour un produit spécial : GeForce GTX Titan. Nous pouvons supposer que cette GTX Titan restera le fer de lance par rapport à la future gamme GeForce 700, ce qui explique en partie pourquoi elle est positionnée en dehors des gammes actuelles et à venir.
Le GK110, un GPU qui néglige le jeu au profit du compute ? Non !
Le GK110, plus de puissance brute avant tout.
S'il y a bien un commentaire concernant le GK110 qui a beaucoup circulé, finissant presque par être vu comme un fait avéré, autant dans de nombreux médias spécialisés que dans différents forums, c'est qu'avec ce GPU, Nvidia aurait négligé l'aspect performances en jeu au profit du GPU computing et de CUDA. Après tout, ce n'est pas pour rien que la priorité a été de sortir ce GPU en tant que Tesla ?
S'il est vrai que Nvidia avait besoin en priorité de ce GPU dans le monde du calcul massivement parallèle, les choix qui ont été faits lors de son développement se placent purement dans la lignée traditionnelle des gros GPU de la société, tels que les GT200 et autres GF100. Largement avant tout autre considération, l'objectif avec le GK110 était de proposer un GPU plus "large", avec plus d'unités d'exécutions de tous types, ce qui profite directement au rendu en temps réel et donc aux jeux vidéo. Autrement dit, le GK110 a toute sa place dans la famille GeForce, quoi qu'en disent ses détracteurs et la compétition, à condition bien entendu d'arriver à maîtriser la bête sur le plan de la consommation et des nuisances.
Un test… compliquéCertains produits sont plus complexes à tester correctement que d'autres. 75 fps au déballage de la carte, 63 fps 3 minutes plus tard, il s'est rapidement avéré que la GeForce GTX Titan allait nous compliquer la vie et demander une attention particulière dans l'organisation des tests. Vous allez comprendre pourquoi…
Le GK110
Sommaire
1 - Introduction
2 - Le GK110
3 - Spécifications, la GeForce GTX Titan
4 - GPU Boost et overclocking
5 - Bruit et températures
6 - Consommation, efficacité énergétique
7 - Performances théoriques : pixels
8 - Performances théoriques : géométrie
9 - Protocole de test
10 - GPU Boost dans les tests
11 - GTX Titan vs GTX 660 Ti 3 Go SLI
12 - Benchmark : 3DMark et Unigine
13 - Benchmark : Alan Wake
14 - Benchmark : Anno 2070
2 - Le GK110
3 - Spécifications, la GeForce GTX Titan
4 - GPU Boost et overclocking
5 - Bruit et températures
6 - Consommation, efficacité énergétique
7 - Performances théoriques : pixels
8 - Performances théoriques : géométrie
9 - Protocole de test
10 - GPU Boost dans les tests
11 - GTX Titan vs GTX 660 Ti 3 Go SLI
12 - Benchmark : 3DMark et Unigine
13 - Benchmark : Alan Wake
14 - Benchmark : Anno 2070
15 - Benchmark : Assassin's Creed 3
16 - Benchmark : Batman Arkham City
17 - Benchmark : Battlefield 3
18 - Benchmark : Civilization V
19 - Benchmark : Crysis 2
20 - Benchmark : DiRT Showdown
21 - Benchmark : Far Cry 3
22 - Benchmark : Hitman Absolution
23 - Benchmark : Max Payne 3
24 - Benchmark : Sleeping Dogs
25 - Benchmark : The Witcher 2 Enhanced Edition
26 - Benchmark : Total War Shogun 2
27 - Récapitulatif des performances
28 - Conclusion
16 - Benchmark : Batman Arkham City
17 - Benchmark : Battlefield 3
18 - Benchmark : Civilization V
19 - Benchmark : Crysis 2
20 - Benchmark : DiRT Showdown
21 - Benchmark : Far Cry 3
22 - Benchmark : Hitman Absolution
23 - Benchmark : Max Payne 3
24 - Benchmark : Sleeping Dogs
25 - Benchmark : The Witcher 2 Enhanced Edition
26 - Benchmark : Total War Shogun 2
27 - Récapitulatif des performances
28 - Conclusion
Vos réactions
Contenus relatifs
- [+] 04/05: Nvidia abandonne son GeForce Partne...
- [+] 18/04: ASUS AREZ, l'effet GeForce Partner ...
- [+] 10/04: Nvidia : fin du support Fermi et 32...
- [+] 27/03: Pilotes Radeon et GeForce pour Far ...
- [+] 20/03: Pilotes GeForce 391.24 pour Sea of ...
- [+] 20/03: Microsoft annonce DirectX Raytracin...
- [+] 08/03: 3 millions de GPU vendus pour le mi...
- [+] 09/02: Résultats records pour Nvidia
- [+] 30/01: Pilotes GeForce 390.77 pour Metal G...
- [+] 25/01: AMD annonce la restructuration de R...