Coûts de développements : HD vs SD
-
- Silicon Mario
- Messages : 24614
- Inscription : dim. 02 mars 2003 - 17:25
- Localisation : Rennes (Bretagne)
Je suis d'accord. Si la Wii reste une console qui n'aura jamais la qualité technique d'une Xbox, ça ne peut pas l'empêcher d'offrir de beau jeu (même si je préfère toujours du beau avec du meilleur techniquement).Akhoran a écrit :Partant de là, y a pas de raisons non plus qu'elle soit en SD (pas taper :p).keoone a écrit :Mais aujourd'hui les technologies de dalles offrent des performances équivalente donc y'a pas de raisons que la Wii soit encore en 24 bits
Ah bah je suis pas d'accord. Ce qui fait toute la différence entre un rendu next-gen et old-gen, ce sont justement les effets je trouve. Et les ombres portés aussi. Des aplats de textures, aussi fines soient elles, il leur manquera toujours quelque chose.TEV ou shaders, peu importe en fait, ce n'est pas tant au niveau des effets que la Wii est dépassé, ce qui fait vraiment la différence visuellement, c'est le niveau de détails des textures, ceci grace à la grosse quantité de mémoire + la bande passante + la puissance de calcul qui stock, transfert et traite les données de ces textures
En fait, c'est un peu comme sur PC à l'époque où on comparait des screens avec et sans shaders. Bah ça faisait une sacrée différence à textures égales.
Ca n'enlève pas qu'en bossant ses textures on peut arriver à des résultats diablement agréables à l'oeil, ce qui reste le principal.
Quand je vois certains jeux sur Ps2
http://www.gametrailers.com/player/24402.html
http://www.gametrailers.com/player/9956.html
http://www.gametrailers.com/player/17394.html
Les tiers développent sur Wii avec des pieds.
Disons que quand la GC est sorti, les dalles "gamers" et les plus répandus était les TN donc Nintendo l'a conçu pour les utiliser.Akhoran a écrit :Partant de là, y a pas de raisons non plus qu'elle soit en SD (pas taper :p).keoone a écrit :Mais aujourd'hui les technologies de dalles offrent des performances équivalente donc y'a pas de raisons que la Wii soit encore en 24 bits
les écrans HD niveau équipement, c'est aujourd'hui environ 30% du marché mondial. De plus, sauf erreur de ma part, l'HDMI c'est du 78 bits > de ce fait Nintendo qui est du genre à limité au max les couts de fabrication n'a pas intégrer ce type de sortie, de plus une sortie HD ne changerait franchement pas grand chose, l'intérêt étant de permettre de voir plus de détails, le 480 est largement suffisant pour le hardware de la Wii ...
la Wii est capable de reproduire à peu près tous les effets qu'offrent les machine HD, étant donné que la quantité d'objets affichables avec la Wii est moindre, le fait qu'elle ne puisse pas proposer autant d'effets simultanément que ses concurrentes n'est pas vraiment un problème puisque de toute façon y'aura moins de surface à filtrer. Au final, ce qui serait intéressant de connaitre c'est le ratio nombre d'objets affichables/nombre d'effets simultanés sur une m^me scène que sont capable chaques consoles, ce ratio "relatif" sera probablement pas si différents d'une machine à l'autre.Ah bah je suis pas d'accord. Ce qui fait toute la différence entre un rendu next-gen et old-gen, ce sont justement les effets je trouve. Et les ombres portés aussi. Des aplats de textures, aussi fines soient elles, il leur manquera toujours quelque chose.TEV ou shaders, peu importe en fait, ce n'est pas tant au niveau des effets que la Wii est dépassé, ce qui fait vraiment la différence visuellement, c'est le niveau de détails des textures, ceci grace à la grosse quantité de mémoire + la bande passante + la puissance de calcul qui stock, transfert et traite les données de ces textures
En fait, c'est un peu comme sur PC à l'époque où on comparait des screens avec et sans shaders. Bah ça faisait une sacrée différence à textures égales.
Ca n'enlève pas qu'en bossant ses textures on peut arriver à des résultats diablement agréables à l'oeil, ce qui reste le principal.
Disons que les dalles TN sont 24 bits (6 bits x 3 couleurs + 6 bits pour la transparence), les appareils type lecteur DVD sont 32 bits (8 bits x 3 couleurs + 8 bits pour la transparence) > ce qui crée ce que l'on appelle du Dithering (fourmillement de l'écran) par ajout de 2 bits (2 zero) pour rentrer dans les champs de 8 bits ...Halouc a écrit :A ma connaissance les dalles TN c'est un peu de la merde.
Après sans aller dans les détails (c'est un sujet que je ne maitrise pas énormément) mais en 32 bits dans le jeux vidéo on parle de RGB-A. Le A (la transparence) est traité avant d'être envoyé dans le FRAME BUFFER qui lui aura bien un code en 24bits pour le RGB.
Pour RGB, le niveau de transparence est déjà inclu dans le code 8 bits de chaques couleurs.
-
- Silicon Mario
- Messages : 24614
- Inscription : dim. 02 mars 2003 - 17:25
- Localisation : Rennes (Bretagne)
Je n'ai pas de détail précis sur les unités TEV mais globalement selon un mec qui bosse sur un SDK WII, c'est juste une copie un peu plus libre mais hautement plus chiante a programmer que le PIXEL SHADER.keoone a écrit :la Wii est capable de reproduire à peu près tous les effets qu'offrent les machine HD, étant donné que la quantité d'objets affichables avec la Wii est moindre, le fait qu'elle ne puisse pas proposer autant d'effets simultanément que ses concurrentes n'est pas vraiment un problème puisque de toute façon y'aura moins de surface à filtrer. Au final, ce qui serait intéressant de connaitre c'est le ratio nombre d'objets affichables/nombre d'effets simultanés sur une m^me scène que sont capable chaques consoles, ce ratio "relatif" sera probablement pas si différents d'une machine à l'autre.
Enfin perso c'est plus proche de la 1er Xbox (qui était capable d'avoir du PIXEL et vertex Shader model 1) que de la Ps360.
Après reste le problème de savoir s'ils seront utilisé car un peu à l'image du CELL. C'est jolie sur le papier mais ça sort des habitudes donc on oublie.
[/quote]Disons que les dalles TN sont 24 bits (6 bits x 3 couleurs + 6 bits pour la transparence), les appareils type lecteur DVD sont 32 bits (8 bits x 3 couleurs + 8 bits pour la transparence) > ce qui crée ce que l'on appelle du Dithering (fourmillement de l'écran) par ajout de 2 bits (2 zero) pour rentrer dans les champs de 8 bits ...Halouc a écrit :A ma connaissance les dalles TN c'est un peu de la merde.
Après sans aller dans les détails (c'est un sujet que je ne maitrise pas énormément) mais en 32 bits dans le jeux vidéo on parle de RGB-A. Le A (la transparence) est traité avant d'être envoyé dans le FRAME BUFFER qui lui aura bien un code en 24bits pour le RGB.
Pour RGB, le niveau de transparence est déjà inclu dans le code 8 bits de chaques couleurs.
Je dormirai moins con se soir (si tu as plus d'info ce serait sympa de balancer un lien).
Les dalles TN c'est un peu le truc a éviter car a par le temps de réponse, le reste c'est.... Puis bon a partir de 8ms en temps de réponse est largement suffisant même pour le jeu donc 2,4,6 voir 1 (en plus qui est théorique).
Après j'aime bien le "Nintendo pensait aux écran TN" alors que tous le monde était en majorité sur un écran cathodique...... [voyez ou je veux en venir]
celui ci pour le généraleJe dormirai moins con se soir (si tu as plus d'info ce serait sympa de balancer un lien).
Code : Tout sélectionner
http://fr.wikipedia.org/wiki/Tramage_(informatique)
http://www.hardware.fr/articles/606-4/t ... s-lcd.html
-
- Super Mario Bros
- Messages : 1044
- Inscription : lun. 06 mars 2006 - 00:00
J'ai trouvé ça mais comme tout est d'ordre assez technique et que c'est en anglais, je n'ai pas fait de traduction (traduction google pas tip top). Alors, si quelqu'un veut se pencher dessus...ça ne me déplairait pas.
http://wiinside.blogspot.com/2007/04/inside-wii.html
http://wiinside.blogspot.com/2007/04/inside-wii.html
dams.smiler bis a écrit :J'ai trouvé ça mais comme tout est d'ordre assez technique et que c'est en anglais, je n'ai pas fait de traduction (traduction google pas tip top). Alors, si quelqu'un veut se pencher dessus...ça ne me déplairait pas.
http://wiinside.blogspot.com/2007/04/inside-wii.html
voici une traduction faite par moi m^me :
Au final, des infos intéressantes qui tordent le coup à la légende de la GC 1.5 !Ce qui suit est une interview avec un acteur de l’industrie qui a travaillé sur Kits de développement 2.1 de la Wii. Je ne donnerais pas le nom de cette source pour des raisons évidentes, vous pouvez croire ou ne pas croire que ce qu'il dit ici est vrai. Libre à vous. Ceci dit, Apprécier.
Qu'avez-vous vu exactement sur les bancs d'essai ?
Les Benchmarks (point de référence servant à effectuer une mesure.) pour le CPU de la Wii sous Linux par rapport à ceux de la X360 et PS3 ... En effet, je trouve ça un peu drôle que le CPU de la Wii est presque égal à celui d'un seul core de la X360 (qui en possèdent 3) ... Le GPU de la Wii a lui aussi environ 1/3 du cache de la X360 (comprendre mémoire interne, 3 Mo contre 10)... Faut’ il y voir une tendance ? 1/3 semble être un chiffre magique lorsque l'on compare la Wii et X360 ... Ne comprenez pas que cela signifie que le x360 est 3 fois plus puissante que la Wii, car elle ne l'est pas ... La X360 est entre 2 et 2,5 fois la vitesse globale de la Wii (j’imagines qu’il parle de la fréquence du GPU) ... La PS3 est à peu près égale à la x360, mais il donne les mêmes scores en raison de la virgule flottante des unités SPE ... globalement pour comparer les CPU de la PS3 et X360 à un ordinateur, je dirais environ un P4 3.2GHz d’Intel non-DualCore ... La Wii est quelque part entre le P4 2.4 et 2.6 GHz d’Intel non-DualCore ... Les repères pour les GPUs sont en cours d'élaboration, mais si peu de choses sont connus pour les 3 GPU en question que je doute que les chiffres seront suffisamment précis pour être utile ... En fait la PS3 est la plus puissante, mais la programmation des SPE est plutôt dur ... La X360 est deuxième, mais encore une fois vous avez besoin de programmer les 3 cores du CPU (plus facile que ceux de Sony) ... Enfin, la Wii, elle est simple de conception avec son mono-core et avec une largeur de bande de mémoire offrant un bon équilibre ... Dans l'ensemble une bonne machine, mais tout simplement pas ce que certaines personnes ont voulu ... Je pense que la Wii est ce qui est connu comme un « chef de file en produits » ... Cela signifie qu’elle casse un nouveau seuil radicalement, mais peut encore revenir à la normale si nécessaire (c'est-à-dire : la Wiimote n'est pas nécessaire pour tous les jeux) ... C'est pourquoi il n'y a pas de bond dans d'autres matériels ... Si la Wii avait échoué, les pertes dues à une machine puissante aurait pu être très mauvais pour Nintendo ... Toutefois, maintenant que nous pouvons voir le marché, la Wiimote est accepté, la prochaine console de Nintendo comprendra une version révisée améliorant les CPU/GPU comme les autres l’ont voulu ... Le DS est un chef de file en produits, nous devons encore voir ce que Nintendo a appris d'elle mais Bien sûr, tous les produits de ce type ne sont pas bien (c'est-à-dire: VirtualBoy) ...
Parlons des kits de développements...
Fondamentalement, il y a eu beaucoup d'informations sur le matériel comme les Plans de la Mémoire du GPU ... Nous savions déjà que les 3 Mo ont été divisé en 2 sections (Frame Buffer 2 Mo de cache et 1 Mo de textures), GPU et CPU peuvent copier leurs contenus dans les 24 Mo de Ram et Vice Versa, ceci permettant beaucoup de mémoire pour les graphismes ou la mise en cache des textures (pour les gens qui se demandait pourquoi les 24 Mo d’1T-SRAM était intégrer sur le Wafer du GPU) ... Les kits de développement de la Wii ont 128 Mo au lieu des 64 Mo de mémoire principale type GDDR3 de la Wii (commerciale) ...
Note intéressante : Afin de faire tourner certains jeux en douceur avec la révision finale des kits de développement GC, un ralentissement des MHz (350 au lieu des 485 MHz) a été nécessaire par rapport à la GC commercialisé ...
Encore plus intéressant: Mario Galaxy "Live Demo" qui a été présenté à l'E3 a été exécuté sur une GC modifié, non pas sur le Hardware final de la Wii ... espérant beaucoup de ce titre ... (Edition de la Note: cet entretien a été fait avant que le nouveau trailer de MG ait été montré) La « renaissance » Demo est donnée ici à titre d'exemple de code et il utilisait seulement 32 Mo de taille pour le rendu en temps réel...
Alors pourquoi les kits de développement wii ont 128MB au lieu de 64 ?
C’est un espace « aéré » ... il permet de faire un codage « mal optimisé » et le tester avant de l’améliorer pour s'adapter aux 64 Mo de la version commerciale ... les textures non-compressé et les sons peuvent également être utilisés dans les essais ... Le Kit GC était très restrictif la dessus car il avait moins de puissance, Nintendo a modifié ceci cette fois ...
J'ai lu quelque part que le CL 750 pourrait aller jusqu'à 1,1 ghz ... a combien est cadencé à Broadway?
Bloqué par Logiciel à 729 MHz via le Bios.
Alors, que pouvez-vous me dire sur l'unité TEV Wii? A t-il plus de pipelines? Support-il les Vertex shader ?
L’unité TEV est fondamentalement la même ... Le GPU possèdent le double de Pipelines maintenant, c'est-à-dire 8 (4 pour la GC) ... TEV fait cela en permettant 16 textures par pipeline ... les routines Vertex Shader sont traitées par TEV comme le sont les routines Pixel Shader ...
comment savez-vous qu’il y a maintenant 8 pipelines, par une entrevue Nintendo ?
En fait, c’est listé dans les kits de développement.
Quelles autres infos sur le GPU Hollywood pouvez- vous me dire?
GC GPU / Wii GPU
162 MHz Clk à .... 243 MHz Clk (50% d'augmentation en Clk Speed)
3 Mo de Ram embarquée Idem (la Wii pourra l’utiliser en tant qu’A-Ram additionnelle GPU / CPU / Ram)
18 bits couleur pour éviter les chutes de Frame / 32-Bit Couleur Utilisé à tout moment
4 Pixel Pipelines / 8 Pixel Pipelines
4 Texture Pipelines (16 Stages Chaque) / 8 Texture Pipelines (16 Stages Chaque)
La résolution est limitée dans le kit de développement non pas dans le matériel ...
Ce sont les bases ...
Comme Vous pouvez le voir le GPU de la Wii serait 3 à 5 fois plus puissant que le GPU de la Gamecube.
Cool. Alors, quelle est la vitesse des 64 Mo de GDDR dans la Wii et les 24MB d’1T-SRAM ont’ils vus une augmentation de la vitesse aussi?
C'est intéressant en soi ... Sur GameCube, Certains programmes reposent sur l'horloge de certains Ratio ... Le CPU Gamecube est 3 fois l'horloge du GPU ... Clk = GPU est au Front Side Bus ... Memory Clk est 2 fois la vitesse du GPU ... 486 CPU 324 RAM 162 GPU
The Wii serait le suivant ... 729 CPU 486 RAM 243 GPU (ARAM serait également à 243) Comme vous pouvez le dire, c'est une formule qu'ils utilisent et il semble bien fonctionner
Ainsi, le fichier ne divulgue aucune des performances du GPU chiffres? Gflops? Polygones par seconde? Taux de remplissage? Des choses comme ça?
C'est comme dans un rond-point sur la route ... Il vous donne le code de test à exécuter et indique quelques optimisations peuvent être ajoutés ... Le code est lancé par Debuggers câble ou réseau sans fil (Wireless spécial dont a besoin un disque dans la Wii) ...
Mais vous pouvez faire le calcul. 8 pipelines à 243mhz ... c'est à peu près 1944 millions de pixels par seconde. C'est beaucoup plus élevé que ce que le GC peut manipuler et près de deux fois plus que la xbox original.
Hmmm... Cela doit avoir été ce que Julian de Factor 5 signifie quand il dit que la Wii a eu un Taux de remplissage bien supérieur à la Gamecube ?
Exactement.

c'est wiinside le site. 
pour ceux qui veulent vraiment comprendre l'impact de la fréquence, du nombre de core, de la mémoire cache, etc. de manière indépendante, cet article est bien plus intéressant:
http://www.revioo.com/articles/a12357_0.html
rien qu'en lisant ce dossier, on comprend que la Wii ne peut qu'être très loin de la PS3 et de la 360 malgré sa simplicité d'utilisation.
alors certes ça ne parle que de CPU AMD phenom 2 (+ X2) mais la logique est la même. regardez les différences entre des proc' si similaires (quasi même fréquence, quasi le même nombre de cores et quasi autant de cache...)!!
si on comparait un core PPC (Wii) avec des cores classiques pourquoi pas. mais là c'est avec 3 cores PPC pour la 360 et 6+1 cores PPC pour la PS3. pour moi, le core de la Wii ne peut pas rivaliser avec un core de la 360 et donc face à 3 c'est encore plus impossible...
nan vraiment je ne vois pas comment on peut accorder du crédit à l'article de Wiinside...

pour ceux qui veulent vraiment comprendre l'impact de la fréquence, du nombre de core, de la mémoire cache, etc. de manière indépendante, cet article est bien plus intéressant:
http://www.revioo.com/articles/a12357_0.html
rien qu'en lisant ce dossier, on comprend que la Wii ne peut qu'être très loin de la PS3 et de la 360 malgré sa simplicité d'utilisation.
alors certes ça ne parle que de CPU AMD phenom 2 (+ X2) mais la logique est la même. regardez les différences entre des proc' si similaires (quasi même fréquence, quasi le même nombre de cores et quasi autant de cache...)!!
si on comparait un core PPC (Wii) avec des cores classiques pourquoi pas. mais là c'est avec 3 cores PPC pour la 360 et 6+1 cores PPC pour la PS3. pour moi, le core de la Wii ne peut pas rivaliser avec un core de la 360 et donc face à 3 c'est encore plus impossible...
nan vraiment je ne vois pas comment on peut accorder du crédit à l'article de Wiinside...
Et heureusement cela se vois avec les jeux du premier coup d'oeil...keoone a écrit :
Au final, des infos intéressantes qui tordent le coup à la légende de la GC 1.5 !
Moralité de l'histoire, la noyade dans un flux d'information technique n'est que de la theorie, dans les faits la wii est une GC 1.5 nintendo le dit lui même !
-
- Super Mario Bros
- Messages : 1044
- Inscription : lun. 06 mars 2006 - 00:00
Pour ma part l'information la plus intéressante c'est quand il est dit que Mario Galaxie n'a été fait que sur une Gamecube modifiée.
Après les comparaisons de puissance wii, 360, ps3 sont surprenantes mais peut-être est-ce du a la différence SD/HD des machines. Il est possible qu'en SD, la Wii ai un cpu aussi performant qu'un des cores 360 de son cpu. Personnellement j'y crois pas et je n'y vois pas d'intérêt tant le rendu HD et SD sont différents.
Par contre, il est dit que le GPU de la Wii peut quand même faire nettement mieux que celui de la XBOX (2x) et que la Gamecube (3à5x).Est-ce le cas? peut-être que oui, peut-être que non. Toujours est-il que la personne dit que les routines Vertex Shader sont traitées par TEV comme le sont les routines Pixel Shader ...
En regardant, Mario Galaxie (Gamecube modifiée), The Conduit (jeu prometteur graphiquement) et maintenant la vidéo de (XBOX), on peut quand même espérer mieux qu'une Gamecube 1.5.
La Wii semble être plutôt performante pour faire de beaux jeux SD, maintenant encore faut-il que les développeurs s'attardent à s'y employer.
Après les comparaisons de puissance wii, 360, ps3 sont surprenantes mais peut-être est-ce du a la différence SD/HD des machines. Il est possible qu'en SD, la Wii ai un cpu aussi performant qu'un des cores 360 de son cpu. Personnellement j'y crois pas et je n'y vois pas d'intérêt tant le rendu HD et SD sont différents.
Par contre, il est dit que le GPU de la Wii peut quand même faire nettement mieux que celui de la XBOX (2x) et que la Gamecube (3à5x).Est-ce le cas? peut-être que oui, peut-être que non. Toujours est-il que la personne dit que les routines Vertex Shader sont traitées par TEV comme le sont les routines Pixel Shader ...
En regardant, Mario Galaxie (Gamecube modifiée), The Conduit (jeu prometteur graphiquement) et maintenant la vidéo de (XBOX), on peut quand même espérer mieux qu'une Gamecube 1.5.
La Wii semble être plutôt performante pour faire de beaux jeux SD, maintenant encore faut-il que les développeurs s'attardent à s'y employer.
-
- Silicon Mario
- Messages : 24614
- Inscription : dim. 02 mars 2003 - 17:25
- Localisation : Rennes (Bretagne)
Vu sur un forum
Je développe sur Wii, avec le SDK officiel et le devkit (une grosse boîte noire, avec NDEV marqué dessus), et c'est pas vraiment toujours la joie.
Enfin bref, Nintendo nous fournit un ensemble de librairie de bas-niveau, dont GX qui sert aux commandes graphiques et est très proche d'OpenGL, et une librairie de plus haut niveau, NW4R, qui n'est pas toujours très consistante.
Qui plus est, Nintendo fournit les compilateur (encore heureux) et l'IDE, qui est en fait CodeWarrior de Metrowerks/Freescale. Ce mois-ci devrait sortir Radix, une nouvelle IDE plus confortable à utiliser (enfin, je l'espère, parce CW, c'est pas toujours joyeux non plus).
Pour ce qui est de la manette, il y a 2 bibliothèques, WPAD et KPAD qui servent à lire les données du pad.
Que dire d'autres, vu que Nintendo a des critère de qualité très sévères, je pense pas qu'ils autoriseront du homebrew/freeware dessus. (*1)
Ah oui, ni la GameCube, ni la Wii ne supportent des shaders. Il y a la possibilité de "reconfigurer" certains endroits de la pipeline, mais ca reste dans l'ensemble du niveau des "register combiners" de la Geforce 3/4.
En fait, donc pas de vertex shaders, ni de fragment shaders (et encore moins des geometry shaders), mais des fonctions fixes pour filtrage/combination de textures.(*)
mouais ...Halouc a écrit :Vu sur un forumJe développe sur Wii, avec le SDK officiel et le devkit (une grosse boîte noire, avec NDEV marqué dessus), et c'est pas vraiment toujours la joie.
Enfin bref, Nintendo nous fournit un ensemble de librairie de bas-niveau, dont GX qui sert aux commandes graphiques et est très proche d'OpenGL, et une librairie de plus haut niveau, NW4R, qui n'est pas toujours très consistante.
Qui plus est, Nintendo fournit les compilateur (encore heureux) et l'IDE, qui est en fait CodeWarrior de Metrowerks/Freescale. Ce mois-ci devrait sortir Radix, une nouvelle IDE plus confortable à utiliser (enfin, je l'espère, parce CW, c'est pas toujours joyeux non plus).
Pour ce qui est de la manette, il y a 2 bibliothèques, WPAD et KPAD qui servent à lire les données du pad.
Que dire d'autres, vu que Nintendo a des critère de qualité très sévères, je pense pas qu'ils autoriseront du homebrew/freeware dessus. (*1)
Ah oui, ni la GameCube, ni la Wii ne supportent des shaders. Il y a la possibilité de "reconfigurer" certains endroits de la pipeline, mais ca reste dans l'ensemble du niveau des "register combiners" de la Geforce 3/4.
En fait, donc pas de vertex shaders, ni de fragment shaders (et encore moins des geometry shaders), mais des fonctions fixes pour filtrage/combination de textures.(*)

çà c'est les tout premier SDK distribué au dev pour tester leur concept ...
aujourd'hui c'est çà :

bref c'est hachement ancien ta citation.
__________________________________________________________
quand à l'article que j'ai traduit on retrouve a peu près les m^me info qu'a cette adresse
http://amigaworld.net/modules/newbb/vie ... at&order=0
y'a juste l'histoire du CPU qu'est un peu beaucoup étrange ... Maintenant faut voir quelles types de performances ils ont recherché, si c'est uniquement l'utilisation du CPU pour le rendu (CAD 1 seul thread) comme on en a parlé dans les pages avant, ces chiffres pourrait bien ne pas être aussi fantaisiste qu'ils le semblent. Par contre en performance brut, c'est évident que le CPU Wii n'est pas aussi proche que çà de ceux des machines HD ...