Actualités informatiques du 15-12-2004
- NVIDIA 6200 et TurboCache
- Baisse des Radeon X800 & X800 XL
- Test : ATI Radeon X800 XL
- Dossier: ATI Radeon X800 XL
- Hausse des prix AMD ?
- Le PCI Express arrive chez SiS
Décembre 2004 | ||||||
---|---|---|---|---|---|---|
L | M | M | J | V | S | D |
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
NVIDIA 6200 et TurboCache
NVIDIA lance ce jour une nouvelle ligne de cartes graphiques, les GeForce 6200 équipées du TurboCache. Derrière cette dénomination se cache en fait une technologie dont le but est d’optimiser l’utilisation de la mémoire centrale en tant que mémoire vidéo. ATI travaille pour rappel sur une technologie similaire, l’HyperMemory.
Pour ce faire, les principales innovations se font à deux niveaux. Le premier, c’est la combinaison d’une mémoire dédiée et d’une zone en mémoire centrale qui est allouée dynamiquement en fonction des besoins de la carte. Gros avantage, en dehors de la 3D la carte n’utilise pas la mémoire centrale. La mémoire reste donc libre à 100% pour le reste de la machine, que ce soit en terme de quantité ou de vitesse.
L’autre innovation se situe au niveau de la vitesse d’utilisation de cette mémoire centrale. Du fait d’une utilisation optimale de l’interface PCI Express x16, NVIDIA indique ainsi pouvoir atteindre 4 Go /s dans un sens comme dans l’autre, soit une bande passante cumulée de 8 Go /s.
Il faut toutefois noter que selon NVIDIA, certains chipsets ne permettent pas d’atteindre de telles performances et que les solutions Intel sont par exemple limitées à 3 Go dans le sens chipset vers carte graphique et 1 Go /s dans le sens inverse. Du coup, en pratique NVIDIA annonce qu’une GeForce 6200 TurboCache peut être 20% plus rapide sur chipset nForce4 que sur chipset Intel i915.
Le GeForce 6200 « TC », précédemment connu sous le nom de NV44, reprends pour sa part les caractéristiques du GeForce 6200 classique qui est un 6600 castré. On retrouve donc 4 pixel pipelines et 3 vertex engines, le tout cadencé à 350 MHz. Les fonctionnalités de la gamme GeForce 6 sont bien entendu intégrées, à savoir le Shader Model 3.0 ainsi que le moteur vidéo PureVidéo, qui devrait (enfin !) bientôt être utilisable.
Plusieurs déclinaisons du GeForce 6200 TC seront trouvables :
- Avec 16 Mo de DDR-SDRAM en 32 bits à 350 MHz (2.8 Go /s)
- Avec 32 Mo de DDR-SDRAM en 64 bits à 350 MHz (5.6 Go /s)
- Avec 64 Mo de DDR-SDRAM en 64 bits à 350 MHz (5.6 Go /s)
Les cartes 16 Mo pourront adresser un total de 128 Mo de mémoire (dont 112 Mo en mémoire centrale), tout comme les 32 Mo, contre 256 Mo pour les cartes 64 Mo. En terme de tarif, selon NVIDIA France, les prix publics de XFX sont par exemple de 74 € pour la carte 16 Mo et 89 € pour la carte 32 Mo. Qu’en est-il des performances ? En fait le TurboCache semble offrir des performances "correctes" (pour de l’entrée de gamme) puisque les versions 16 et 32 Mo se comparent selon NVIDIA respectivement à des X300 SE et X300 128 Mo, avec un avantage souvent important pour le 6200 TC 32 Mo face au X300. De son côté, ATI indique des performances similaires entre une Radeon X300 SE 32 Mo HyperMemory et une X300 SE 128 Mo (cf. cette news).
Bien entendu seul un test de notre part permettra de confirmer ceci, mais faute de mieux on s’en contentera pour le moment. Dans l’absolu les performances ne sont toutefois pas révolutionnaires et il est de notre point de vue important, à partir du moment où l’on veux jouer un minimum de manière confortable (c'est-à-dire en 1024*768 de manière fluide), de ne pas trop économiser sur la carte graphique. Avec ce type de carte, ce sont plus des résolutions telles que 800*600 qui sont accessible, ce qui n’est pas terrible – surtout sur un LCD à l’interpolation médiocre.
D’un point de vue pragmatique l’avantage de ce type de technologie est de réduire l’importance du coût de la mémoire sur les cartes graphiques d’entrée de gamme. L’avantage pour les fabricants de puces est évident puisque cela leur permet de mettre une puce plus chère sur une carte qui aura au final le même coût, soit des revenus pour eux et non pour les fabricants de mémoire. Pour l’utilisateur, qui dit puce plus chère dit généralement puce plus performante et fonctionnelle, ce qui est également un plus à partir du moment ou les technologies HyperMemory et TurboCache sont assez performantes.
En fait le vrai point sensible de ces produits se situe au niveau des dénominations. En effet un GeForce 6200 TurboCache avec 16 Mo de DDR-SDRAM en 32 bits à 350 MHz aura la dénomination officielle de « NVIDIA GeForce 6200 with TurboCache supporting 128MB @ 10.8 GBps ».
Premier point, les 128 Mo. Bien entendu il s’agit de la mémoire adressable par le GPU, mais 112 Mo sont constitués de mémoire centrale. C’est pourtant ce chiffre de 128 Mo qui sera mis en avant sur les boites, ce qui pourrait induire en erreur quelqu’un croyant acheter même si il est indiqué que c’est la taille mémoire « supportée » et non pas « embarquée ».
Second point, les 10.8 Go /s. Pour arriver à ce chiffre, NVIDIA cumule la bande passante de la mémoire sur la carte, 2.8 Go /s, avec la bande passante du PCI Express, 8 Go /s. Hors dans le cadre de l’utilisation de mémoire centrale comme mémoire vidéo, on n’arrivera jamais à ce chiffre puisque un nForce 4 veux dire un Athlon 64 soit de la mémoire PC-3200, et donc 6.4 Go /s dans le meilleur des cas, sans même prendre en compte le fait que le processeur a également besoin de bande passante mémoire et que la carte à besoin de bp PCI-E pour d’autres choses. De plus, dans le cadre d’une configuration à base de chipset Intel, NVIDIA indique lui-même que cette bande passante passe de 8 à 4 Go /s.
Reste qu’au-delà de ces considérations ce sont bien entendu les performances finales qui sont les plus importantes. De ce côté, le GeForce 6200 TurboCache est prometteur puisqu’il devrait permettre d’offrir un meilleur rapport performance / prix sur les cartes d’entrée de gamme, ce qui n’est pas un luxe ... mais ce qui n’est certainement pas suffisant pour en faire des cartes assez performantes pour le jeu.
Baisse des Radeon X800 & X800 XL
Alors que ces solutions ne sont pas encore disponibles – ils devraient l’être en Janvier, ATI vient d’annoncer qu’il avait pu revoir à la baisse les prix indicatifs des Radeon X800 et X800 XL. Pour rappel, ces produits ont été annoncés le 1er Décembre, et nous avons pu tester le X800 XL ce jour. Voici donc les nouveaux tarifs :
- Le Radeon X800 XL passe de 349$ à 299$
- Le Radeon X800 passe de 249$ à 199$
Voilà donc une nouvelle inattendue et plus qu’intéressante. En effet, le Radeon X800 offrira un niveau de performance comparable au 6800, pour le prix du 6600GT, alors que le Radeon X800 XL offrira un niveau de performance comparable au 6800GT pour le prix d’une 6800. On comprends également mieux l’annulation du X700 XT, qui était placé à 199$ : le Radeon X800, avec une bande passante 33% supérieure et une puissance de rendu des pixel 26% supérieure, sera bien plus intéressant.
Reste bien entendu à voir si ces produits seront bien disponibles, comme cela nous est promis, en Janvier. Dans l’affirmative, il est clair que ceci devrait entraîner une baisse des prix de NVIDIA fin de replacer correctement sa gamme de produit. Seul regret, pour le moment il ne s’agit que de cartes PCI Express ...
Test : ATI Radeon X800 XL
Plus de performances, pour moins cher ? C’est ce que ATI nous propose sur le papier avec son Radeon X800 XL annoncé il y’a peu. Qu’en est-il en pratique ? La réponse dans ce test !
> Test : ATI Radeon X800 XL
Dossier : ATI Radeon X800 XL
Plus de performances, pour moins cher ? C’est ce que ATI nous propose sur le papier avec son Radeon X800 XL annoncé il y’a peu. Qu’en est-il en pratique ? La réponse dans ce test !
[+] Lire la suite
Hausse des prix AMD ?
AMD a officiellement annoncé à ses distributeurs et revendeurs français qu’il allait augmenter ses prix à partir du 26 décembre, et qu’il fallait donc passer ses commandes sans tarder pour profiter des meilleurs tarifs. Faut-il pour autant se jeter sur les stocks actuels ?
En fait, il faut savoir que le 26 décembre n’est pas seulement le lendemain de Noël pour AMD, c’est aussi la date ou est clos sont exercice fiscal. Le but de la manœuvre est donc relativement simple puisqu’il s’agit de gonfler le chiffre d’affaires pour ce quatrième trimestre, quitte à rogner un peu sur le trimestre suivant. En fait, ce n’est d’ailleurs pas la première fois que AMD utilise cette méthode somme toute classique.
Dans tous les cas, la hausse qui devrait être de l’ordre de 10% sur les Sempron et les Athlon 64 sera temporaire puisqu’une nouvelle baisse devrait suivre en Janvier, et que selon nos informations par le passé, si ces méthodes avaient eu une influence sur les prix des distributeurs officiels en France, ils n’avaient pas vraiment impactés les tarifs des sources d’approvisionnement étrangères. Bref, il est à priori inutile de céder à la panique ...
Le PCI Express arrive chez SiS
Dans une nouvelle publiée le 10 décembre dernier, nous regrettions l’indisponibilité des chipsets PCI Express SiS, pourtant annoncés en Mars dernier et dont les productions en volume ont été a de multiples reprises repoussées. Selon DigiTimes qui rapporte les dires de SiS, on y est presque puisque cette fois, les livraisons en volume aux fabricants de cartes sont prévus pour cette dernière quinzaine de décembre, et on peut donc compter sur une disponibilité des cartes courant Janvier. Bien entendu, rien n’assure que ce lancement ne sera pas une énième fois repoussé.
Il s’agit dans un premier temps des chipsets SiS649 et SiS656, destinés à la plate-forme Pentium 4. Alors que le 656 gère jusqu’à 4 Go de DDR ou de DDR2 sur deux canaux, le 649 en gère jusqu’à 2 Go sur un seul canal. La production en volume du SiS756, destiné pour sa part aux Athlon 64, devrait pour sa part débuter ce mois.
En dehors des quelques pièces de nForce4 et de VIA K8T890 que l’on devrait trouver dans quelques échoppes avant Noël, il semble clair que les constructeur ont loupés le coche du PCI Express cette année. Seul Intel a su maîtriser cette technologie dans les temps, avec des solutions qui sont maintenant disponibles depuis 6 mois. Un tel délai de la part des autres constructeurs de chipsets laisse forcément perplexe ...