Tu peux nous filer le lien où on voit toutes les cartes graphiques des constructeurs ? Parce que je vois qu’il y en a une en blanche mais c’est quoi le modèle ??
1:24 Ils se sont plantés sur leur site AMD: le Ryzen Z2 c'était 8 Cores/16 Threads dans l'annonce au CES et là ils ont marqués "4 Cores/8 Threads" sur leur site alors que c'est seulement le Ryzen Z2 Go qui est dans cette configuration.
J'ai regardé plusieurs vidéos d'autres TH-camurs francophones qui parlent de ces nouvelles cartes (des TH-camurs que j'apprécie également), mais c'est la tienne qui, selon moi, est la plus claire, posée et complète. Les informations sont bien présentées et le timing est impeccable. Je tenais simplement à le souligner : merci à toi pour ce contenu de qualité !
5:23 C'est clair que c'est un peu abusé si le FSR4 est uniquement compatible avec les cartes RDNA4 car franchement pour moi qui ait une RX 7900 XTX alors à quoi servent les 192 AI Compute Units qu'ils ont intégré dedans? N'aurais-t 'il pas pu servir parfaitement pour le FSR4? J'espère sincèrement qu'AMD montrera un peu de respect pour les détenteurs de cartes RDNA3.0/RDNA3.5 et les autorisera à faire fonctionner le FSR4 par la suite, que ce ne soit pas exclusif aux cartes RDNA4.0
Surtout que la 7900 xtx en a encore sous le pied , elle a en jeu les perfs de la 4080 super et pourtant les moteurs de jeux favorisent clairement NVIDIA ( les devs développent là où il y'a le plus de clients potentiels ) . Ça serait vache qu'amd ne mette pas le fsr 4 sur cette carte . NVIDIA n'as même pas osé faire ça avec sa 4090 ( dlss 4 rétrocompatible) .
@@laulau-l2t DLSS 4 (hors framegen et neural rendering) sera diponible sur les 4000, 3000 et 2000 via les pilotes, et l'appli Nvidia App pourra même permettre de faire passer les jeux compatibles DLSS1/2/3 en DLSS4 sans aucun patch. faut arrêter de croire que ce qui était vrai avant l'est toujours.
@@brasiliafc2138 Elle en a tellement sous le pied qu'elle n'égale effectivement que la 4080 super, et encore elle se fait défoncer le fion en RT toujours par la 4080.. mais sera dépassée par 4080 super (et dlss4), 5070, 5070ti , 5080, 5090 ...... alors oui, ce qu'elle a sous le pied, en fait, c'est une tombe.
Moi je trouve que les graphiques parlent d'eux même. Sans DLSS 4, donc sans frame gen, les perfs ne sont pas beaucoup au dessus de la génération précédente. Multiplié les frames par 4 avec l'IA n'est que de la performance imaginaire.
Excuse moi mais tu racontes n'importe quoi, tu crois vraiment qu'Open AI avec Chat GPT ou l'informatique quantique se disent qu'ils n'ont aucune puissance de calcul car généré par intelligence artificielle ? Il faut arrêté de dire des betises, a partir du moment ou ta technologies te sort plus de performance qu'avant, c'est que tu as de la puissance
@@quentinbuys c'est qui le TH-camr qui répend pareille sottise ?? Sérieusement il faut que je lui dise d'arrêter de parler de Processeurs, j'ai déjà vu des commentaires qui disaient la même bêtise. Pourtant y'a des preuves que vous avez tord en face de vous en vidéo!
@@Besharkk Alors oui il ont bcp de puissance pour Chat GPT et surtout bcp d'argent pour avoir cette puissance supplémentaire et une part importante de cette puissance vient aussi d'une diminution de la précision des calcules en IA mais sa marchera pas éternellement cette technique. Moi je parle d'augmentation de puissance a prix fixe. Et pour le quantique avec du Gaming c'est du n'importe quoi le quantique c'est pour des calcules très spécifique dont l'IA et le gaming ne font pas partie et le jour on sa fera des calcule utile on en reparlera.
@@BreizhSharkFR Mais c'est juste une question de physique l'atome de Silicium fait 0,1 nm et il faut un certains nombre minimum pour faire un transistor ce qui fixe la limite Théorique vers environ 1 nm la taille de gravure et sa être chère d'atteindre ces 1 nm, les machine de ASML coute toujours plus chère les rendement chez TCM sont de plus en plus mauvais bref c'est juste normale que sa coute plus chère avec toute ces limite qui arrive si on veut plus de puissance brute.
la plupart du temps pour éviter le bottleneck tu prend de gros processeur et donc tu part sur un watercooling. Ce sera obligatoire pour les 5000 celons moi
Si, comme sur les gen 3000/400 founder. La mieux est de mettre un AIO en facade avec ce genre de carte. MAIS, je me dis que ça fait également chauffer la ram, la CM, peut être un ssd, m'enfin... A voir. En vrai ça m'inquiète pas trop non plus !
Les professionnels recommandent d'uriner sur le cpu pendant les sessions de gaming intenses pour reconduire par thermo-elasticité le flux de chaleur vers les parois du pc
Le problème du frame generation c’est que ça n’a rien à voir avec des FPS natifs, même avec des gros chiffres ont sent qu’il y a un truc qui cloche, ça va pas, en fait l’image est fluide mais sans que le jeu ne le soit. Et là maintenant ils veulent faire du multi frame generation ??? Mais ils ont déjà joué ces gens ou pas ? Il y a pas mal de logiciel qui permettent déjà de le faire, comme lossless scaling par exemple, eh ben c’est pas super… Comme dit dans la vidéo il n’y a que quand on à déjà assez de FPS pour ne pas en avoir besoin que ça passe, donc ça ne sert à rien. J’ajoute que plus on insert de frame générée entre les vraies frames et plus ça provoque des mini artefacts visuels et autres joyeusetés. Il faut être clair: non seulement ça se ressent sous la souris, mais surtout ça se voit, surtout pour un œil averti. Bref Nvidia a choisi de se vautrer dans un nouveau caché misère pour des raisons purement marketing, car ça permet d’annoncer de gros chiffres et de vendre. Sauf qu’ils ne précisent évidemment pas que des FPS sous DLSS ne valent absolument pas de vrais FPS, tout comme une contrefaçon de Rolex n’atteindra pas la qualité d’une vraie. Le problème ici c’est que eux vous vendent cette Rolex factice au même prix que la vraie 😮
Lossless Scaling est logiciel, il n'inclue pas d'antilag ou de reflex, donc oui, c'est putain de normal que ça soit pas super .... avec reflex 2 l'input lag n'augmente même pas, c'est un vrai tour de force
une bonne carte graphique, pour moi, c'est un bon rapport qualité/prix/watts. Acheter des cartes hors de prix si on joue essentiellement à des jeux compétitif, ou les derniers jeux sortis day one (donc mal optimisés/patchés) pourquoi pas, mais pour le commun, acheter des cartes au-dessus de 600-700€ c'est non. Surtout qu'aujourd'hui avec le parc de jeux disponible depuis une dizaine d'année, n'importe quelle carte milieu de gamme fait tourner 90% des jeux en élevé avec du 60-120 fps. Un bon moove c'est de claquer son fric sur un écran 21:9 ou 32:9, là vous aurez un confort de jeux incroyable que ce soit sur des mmos, des fps ou des rpg. Les écrans incurvés 21:9 165 mhz sont aujourd'hui parfaitement abordables. Bon sinon j'adore cette chaine, on va mettre un pouce ^^ merci pour le taf toujours au top👍(un dernier point 575 W juste pour la carte graphique, à une époque ou les prix de l'éléctricité flambe, ou la jeune génération s'inquiète du réchauffement climatique, est ce qu'acheter ce type de produit va dans le bon sens ? de plus l'optimisation des jeux sera aussi de plus en plus une "non priorité" des éditeurs, compte tenu de la puissance des gpu actuelle, pourquoi mettre des sous dans cette tache, sachant que les clients sont près aujourd'hui à payer à leur place en achetant des produits avec une puissance démesurée ?)
tu tapes dans le vrai. A titre perso je n'ai jamais dépassé 650 euros pour une carte. La dernière c'est la RTX 4070 qui me fait tourner tous les jeux en 1440p entre 60 et 100 fps pour les derniers jeux genre triple A. Je trouve débile d'investir le double pour juste gagner 30% de FPS qui seront à peine perceptibles pour la majorité des joueurs. Combien de yeux de joueurs arrivent à faire la différence entre 100 et 130 fps ? par contre n'importe qui sait la faire entre 650€ et 1200 euros. Ou ton banquier ou ta femme le fera là c'est sûr. (Soit la différence par exemple entre la 4070 super et la 4080.) La seule chose qui explique que les gens déboursent autant de fric c'est l'arnaque de la 4k qui met à mal tout le matériel PC, alors que le 1440p est quant à lui bien plus rentable et visuellement quasi aussi beau. Après je te rejoins encore sur les écrans et là je suis juste MDR, quand un gamer claque 1000 euros dans une CG et que son écran en vaut 400, avec une dalle VA ou IPS. Pour moi passer de ma 4070 aux modèles supérieurs servira à monter des fps que je ne ressentirai probablement pas. Mais investir le même prix sur un 32 pouces OLED 4k à 1200 euros là c'est rentable car l'écran il peut lui durer 10 ans et les yeux le ressentent vraiment. Les CG aujourd'hui durent deux ans max à cause de ces technos à la co_n. Bref, je dirais qu'il existe des gens très intelligents qui utilisent de manière habile le marketing pour faire croire que le non indispensable l'est. Et des pigeons qui tombent dedans, des deux pieds joyeusement dans la spirale de la sur consommation. L'IA va devenir le cancer de l'humanité. Autre débat.
Voila tu as tout dit. Une RTX 4070 ou similaire fera l'affaire et ne consomme pas trop, c'est parfait ca fait tout tourner puis qui a dit qu'il fallait jouer au dernier jeu dès la sortie ? Perso tu vois je tourne sur une RX 6600 (neuve à 169€) et j'achete mes jeux et composants quelques années après la sortie, ça revient moins cher. Du coup tout tourne très bien, ca consomme rien.
@@clementm9161 tu vois pour le 1080p je conseille bcp la 6650xt. Les 8go sont suffisants dans cette résolution et y'a même pas mal de jeux où elle peut aller se frotter au 1440p. Si on écoute certains ils vous diront que ce n'est pas suffisant pour vous orienter vers des modèles plus puissants (à peine plus en fait mais plus chers)
J'espere que amd et intel vont redter competitif, et que les cartes 70 et en dessous auront une conso raisonnable ainsi que un bon tdp. Vive les mini itx silencieux! A bientot
Je ne vois pas comment la vidéo peut ne pas être biaisée si nvidia te paye le voyage. On peut le sentir à 7:20 car il est normal qu'amd ne compare pas au rtx 5xxxx puisqu'elles viennent seulement d'être annoncées. Et puis, on pourrait avoir une idée en comparant les chiffres présentés par amd et nvidia qui comparent avec les rtx 4xxx, si nvidia les donnait vraiment
Si tu te concentres que sur un point spécifique c'est sur qu'on pourrait toujours se demander l'impartialité, maintenant regarde toute la vidéo, elle est je trouve très objective, les critiques vont à Nvidia tout comme AMD, et si AMD à un moment mérite une critique, il ne va pas se taire pour être sûr qu'on ne croit pas qu'il est biaisé...
@@noetoussaint7165 Effectivement, il critique Nvidia autant qu'AMD. Mais je trouve que cette critique en particulier est infondée. Après, contrairement à beaucoup, il est transparent sur le fait que Nvidia lui paye le voyage, ce qui est une bonne chose. Mais inconsciemment, il peut être biaisé sans que ce soit voulu.
hate de voir ce que vont donner les nouveautés en mobile pour le coup, si ça provoque une baisse des RTX 4000 mobiles ça peut devenir intéressant tout ça
@@Bouroski1 bien sûr, bien sûr... Mais là tu parles d'une carte qui est née il y a bien longtemps... Il n'y avait pas l'Europe qui avait imposé à Apple d' utiliser cette prise... Et celle-ci qui va bientôt gérer 80Gbps... Semble être celle dans tout le monde veut Même les fabricants de TV vont la préférer à la HDMI... Honnêtement le DisplayPort il sert à quoi sur ma carte ? A rien... J'utilise le HDMI pour mon écran 4K... Et mon casque VR il utilise l'USB... Pas celui à 20, ni même à 10, mais celui à 5 Gbps... Parce que USB 3.0 est le plus répandu sur les PC, alors le streaming vr des casques Meta et Pico, est formaté à cette valeur assez faible.. Et tu verras que le futur casque de Samsung....Comme celui de Pimax...Ils utiliseront tous un usb-c d'un côté ou de l'autre Faut comprendre que la prise elle a déjà tout gagné Après elle utilisera le protocole DisplayPort Mais tu verras qu'à terme... On ne se servira plus beaucoup des DisplayPort et des HDMI en tant que prise sur nos cartes graphiques
Bah le display port est simplement meilleur que le HDMI, donc tout le monde l'utilise ( sauf toi apparemment) pour relier sont gpu à un écran, la norme la plus rependu et basique du DP prend en charge quasi tout alors qu'il faut aller sur du HDMI 2.0 pour pour trouver un équivalent au DP. Les seules applications du HDMI son les télé relier à une box ou à une console. Et puisque le DP fait tout bien, pourquoi mettre un USB-C que peu de personne utilise.
@@stixktv__9999 Ne pas confondre prise et protocole Et actuellement, c'est l'USB C qui domine, même Apple a dû s'y mettre Plus simple , symétrique, pouvant véhiculer le protocole DP..., capable de 80Gbps, il va supplanter les autres prises. Dans les TV, les portables, les tablettes et consoles portables, les casques VR.. N'en déplaise à ceux qui croient que les moniteurs de 25" dominent le marché...
On voit bien la technique de NVidia : annoncer une 5070 soit disant à prix cassé (car "égale" en performance à une 4090, bien plus chère), histoire de faire passer la pilule de la 5090 à 1999 $
Alors c'est juste un mensonge jamais une 5070 n'auras la puissance de la 4090. La 5070 auras la puissance de la 4080. Si tu avais lu les slides. C'est écris en dessous 5070 tourne sur dlss4 en 4x alors que la 4090 puissance stock donc que du marketing
De tout manière les gamers achetants des **90 n’ont rien compris, ces cartes sont faites pour les pro faisant de la 3D ou du gros montage vidéo, par pour jouer a call of
@@fabricejaouen378 Ben il vont garder le même connecteur mais une version 2.0 de la 12VHPWR qui s'appelle 12-2x6 avec des pins d'alim plus long donc plus résistant selon Nvidia (mais vivement les tests pour être sûr de la fiabilité) et que les câbles 12VHPWR sont compatible sur les connecteurs 12-2x6 de la 5090 selon Corsair => ça fout encore le bordel chez les débutants du PC building qu'ils doivent surtout pas tromper entre ces 2 câbles de 12V. 😅
@@Nightmark2 en même temps corsair, pour avoir poncé leurs offres et comparé à la concurrence, ils vendent tout au double du prix par rapport à du matos de même qualité... longtemps que ne les écoute plus ceux là
Étant moi aussi belge et bilingue, je ris intérieurement à chaque fois que tu parles de SPEK (= Lard) pour les cartes graphiques et autres processeurs 🙃🇧🇪
Hâte de voir la différence entre ma 1660S et la 5070, moi qui voulait changer de PC, je pense que c’est le bon moment. J’ai juste un peu peur pour le prix des CPU actuellement…
Oui et non. Ça fonctionnera quand même, mais attends toi à une perte de performance, de mémoire environ 10%. La version du port PCIe n'a pas tant d'importance que ça car la transmission de données entre la carte mère et le GPU n'est généralement pas un bottleneck. Mais là tu considère le pire cas, le meilleur GPU avec le pire PCIe, donc l'effet sera mesurable.
Merci pour ta vidéo ! Je suis hype par la 5080 mais le budget est moins hype même si je m’attendais presque à pire 😅 J’espère que Nvidia sera pas relou sur ce qu’ils imposent et que tu pourras faire tes tests sur les 5000 🤞
De toute façon, on dira ce qu'on veut, mais nous sommes arrivés à une limite technologique qui ne nous permet pas de diminuer plus la tailles des transistors. NVIDIA a selon moi raison de passer par l'IA.
pour moi les 5000 sont une gen' presque full IA ils veulent nous faire comprendre que la raster"' sert plus a rien limite et que tout passe par l'IA d'ou le fait que la puissance brut sera pas exponentielle je le crais :/ alors oui forcement elle seront meilleur que la gen' d'avant ( et heuresement ) mais pas foufou lol comme dirais Jig on ne fait pas de la magie avec l'hardware , afin bref hate de voir quand meme car je me tate a viré ma 3080 pour une 5070Ti ^^
@@fabricejaouen378 c'était justement son point. Que cela tenait dans un sac à dos et qu'il pouvait l'emmener dans l'avion en bagage cabine. Je n'invente rien, je répète ce qu'Aurélien disait
j'alerte les gens mais ils ont pas fait de modification sur l'alimentation des GPU donc faut s'attendre a une surchauffe, des 5090 et 5080 voir des 5070ti qui vont cramer au niveaux du connector car bon du 40+ amperes / 12v pour 575W, ca chauffe, beaucoup, beaucoup trop
Tant qu'il y a aura des Kevin-gamer pour vouloir faire tourner à 3 FPS de plus leur jeu, avec un rendu supérieur des particules de poussière, prêts à claquer 800 balles dans un GPU, bien sûr qu'ils vont pas se gêner !
Je demande à voir les tests des RTX 5000. Pas convaincu du tout par le frame gen... À quoi ca sert d'avoir plus de "fausses" images si elles sont mal générées ? Ma RTX 2070 Super va rester un an de plus dans mon PC 😉
Aucune amélioration par rapport aux rtx40 30% de perf en plus, car 30% de Cuda cores en plus, et 30% de consommation en plus Seul le dlss 4 peut sauver la mise sur quelques rares jeux
La stratégie de NVIDIA avec l'IA c'est pas que tu puisse profiter de leur petit modele de CG mais que tu sois forcé de passer sur les pus gros modèle. T pas content ? bah hésite pas à aller voire la concurrence. Comment ? y'en à pas ? Bon alors tu le prends ou pas le plus gros modèle ?
@@fabricejaouen378 Alors le CPU je veux bien, mais le GPU pas tellement non. On utilise massivement les cartes graphiques, pour faire tourner les modèles IA justement. Donc sois votre com est incomplet, soit vous avez mal compris ce que j'ai dis.
@@MoiAimeBien Et ? le fait de vouloir faire tourner plus vite les modèles IA passe par un seul choix : un GPU plus performant. C'est ce qu'on appelle une lapalissade ça ! venir dire qu'Nvidia force les gens à utiliser des GPU plus gros est un raisonnement complètement claqué, quoi que tu fasses, si tu veux avoir plus de perfs, tu achètes plus perf, rien à voir avec Nvidia.
@@fabricejaouen378 Imagine que tu veuille acheter une voiture, pour tirer une caravane. Tu veux pas t'en servir, tout les jours mais juste occasionnellement. Tu vas voir une concession pour te renseigner et tu remarque qu'ils vendent 5 modèle équipé faire le job. Mais en te renseignant un peu mieux, tu t’aperçois qu'en réalité seul le modele le plus haut de gamme pourras tirer une caravane. Car tout les autres ont été volontairement privé de certaines fonction qui aurait pu te le permettre. Donc en gros soit tu achète le modèle le plus cher, soit tu tire pas ta caravane. NVIDIA à fait exactement pareil.
Hello ! Concernant les graphiques effectivement c’est vraiment dédié au marketing je pense, mais ça fait sens de rappeler que ça fait tourner des outils professionnels puisque dans nos secteurs on s’inquiète beaucoup de savoir à quel point nos logiciels peuvent ou non profiter des technologies d’opti comme le dlss et on a aucune vue dessus Aujourd’hui c’est un peu le défaut de nvidia, s’adresser à tout le monde sans chercher à renseigner personne
Le rapport prix/perf n’existe plus depuis 2018. Faut se réveiller là ! En 2025 on te vend de l’ia c’est à dire de la technologie. Si tu veux du rapport prix/perf, prends une GTX
Il faut espérer qu'AMD ait un sursaut et sort plus tard des 9080 et 9090. Mais sinon, ça sera la génération sacrifiée pour essayer de rattraper le retard.
Au niveau gaming, en se concentrant sur les rx 9070 et moins, ils peuvent potentiellement proposer des cartes plus intéressantes et moins chères que les rtx 5070 et moins.
c'était annoncé... mais leur fsr 2.0, s'il le laisse comme ça en disant "tous les prochain patch FSR2.0 sont pour RDNA 4" là ça resterais très nul de leur part
Je suis d'accord que l'approche marketing avec le FG est très discutable. Mais le dlss(upscaler) et une prouesse, pouvoir jouer en 4k pour presque le coût calculatoir de la 1080p et garder la qualité de la 4k natif est le futur. Personnellement je joue toujours avec le dlss juste pour leur anti aliaising qui est le meilleur sur le marché. Donc si ils arrivent à produire un FG aussi abouti que le dlss, ça me semble pas déconnant d'appuyer antant sur le FG.
Le bilan reste comme pour les année passées on nous vend des GPU pour du 4K mais personnes n'arrive à le faire en natif de manière correcte et quant on a l'habitude du natif toutes leur techno sont plutôt moche autant rester/retourné en 1440p (je commence a me posé la question que même sur un écran 4K mettre en 1440p natif rend mieux que du 4K avec toute leur techno).
Ben non, ils peuvent pas, car la finesse de gravure évolue peu et qu'ils n'y sont pour rien. A un moment on arrive à la limite et pour gagner en puissance il faudrait plus de transistors, donc une puce plus grosse, qui couterait beaucoup plus cher, et qui consommerait beaucoup plus. A chaque génération ses compromis en fonction de la finesse de gravure disponible.
@@fabricejaouen378 Oui tu as raison, ce que je dit c'est qu'ils stoppe leur marketing de GPU pour du 4K (même 8K sinon pourquoi mettre du DP 2.1) qu'à l'heure actuelle le 4K c'est pas réalisable c'est prendre les gens pour des pigeons si je suis sur PC c'est pas pour avoir des upscaling dégueux comme sur console. Je remet pas en question le blocage technique mais leur power point de m. Après pas sur qu'un gros monolithique avec des la bonne ram coute moins cher que les truc actuel avec tout les tenseur core et rt core en coût (toute ces techno propriétaire ne sont que pour la lutte commerciale) et pour la conso à chaque un de gérer mais au moins proposé des alternatives (surtout pour les usage pro car leur features osef pour un usage applicatif ce qu'il faut c'est de la grosse puissance brute qui au final ferai tourné tout). Pour l'exemple je taf beaucoup sur du calcul IA et pour l'heure la 7900XTX est master (même devant des 4090) et quant je vois leur conf l'avenir s'annonce toujours aussi lent.
@krsone4502 Donne moi une source de benchmark stp pour la vitesse en IA de la XTX, ça m'intéresse sincèrement, car j'ai toujours lu que les 4000 étaient toutes loin devant. Sinon pour un usage applicatif : ils annonce des perfs triplées en IA sur les 5000, honnêtement c'est pas rien
@@fabricejaouen378 oui c'est pas rien pour les 5K et j'ai pas de source juste au taf les plateformes XTX à cpu équivalant (c'est les même en fait) fini les tâche plus vite que les RTX (on es sur du 20% environ) du coup l'encodage on fait sur RTX (sur ça bien meilleure mais c'est plus software) et les calcul IA sur RX (si j'y pense et du temp je te ferai un test... mais au taf compliqué). Je suis pas programmeur mais une foi de plus les GPU AMD sont en dessous parce qu'ils arrivent pas a en tiré le meilleur. mais vu le CES si c'est pour un usage privé Nvidia sera ....encore le meilleur choix je pense.
Chez Nvindia, DLSS semble bien meilleur mais le hardware brut, pas tant que ça. A voir l'évolution des prix des 4070 Ti afin d'avoir un avis définitif.
AMD aurait dû annoncer et assumer ! une équivalente de 5060. Une carte à 400€ avec des perfs de 4070 et ils auraient manger le marché du début haut de gamme. NVIDIA a gonflé les prix et ne semble pas s'intéresser aux gammes inférieures qui sont pourtant la majorité des gpu vendus. Il y a largement la place de s'y imposer sans avoir à développer des cartes ultra complexes. Ils ont à priori la tech de faire une bonne carte dans cette gamme qui soit performante et efficace. Certes ca n'aurait pas été impressionnant, ils n'auraient pas des monstres de puissance à montrer mais ils auraient pu avoir l'audace de dire "nous on pense aux bourses des gamers et on va là où n'est pas nvidia" A voir si les RX 9070 vong remplir ce rôle. Mais ça ne sent pas bon..
je pense que le but des 5080 et en dessous c'est vraiment les gamers la cible pas les gens qui veulent faire du bidouillage malheureusement ... ils veulent qu'on prennent le niveau au dessus
chez Nvidia ,je trouve les cartes partenaires de moins moins intéressantes taille/prix/perf .c'est abusé seul la couleur et le rgb pour 300€ faut arrête les conneries.
Le PCI 3.0 bride à peine une 4090 (de 2 à 3%, voir TechPowerUp ou bien GamerNexus) donc le gain du 5.0 risque d'être limité (le 4.0 place déjà la barre très haut)
À part dans les cas extrêmes, le port PCIe ne sera jamais un bottleneck pour le GPU. Pas besoin de changer la carte mère pour ça, les pertes seront inférieures à 5%.
Sa va être une vraie galère cette génération . Les problème de chauffe les problème de connecteur . Le dlss4 est utiliser attention . C pas fou . Par contre oui la 5090 est fole comme le prix . Mais si vous avez une 4090 ne changer pas de gen
J'ai une 3090, et la 5080 me fait vraiment de l'oeil. Niveau prix, perf, conso etc... Par contre les 16gb de vram me font peur. Indiana jones en full ultra 4k etc frôle 18gb de vram!!! Que feriez vous??
attends quelques jours pour voir si il y a des nouvlles concernant les 5070 par exemple au niveau des performances etc et retourne ta carte graphique pour acheter ça, c'est ce que je compte faire personnellement pour prendre une 5070 ti, comme ça tu ne perds pas d'argent, je pense que 5070 est pareil en rastérisation qu'une 4070 ti super voir se rapprocherait d'une 4080 super donc il serait pareil qu'une 7900 xt mais avec des technologies qui sont bien meilleures et stables
le seul problème c'est la VRAM 20 GO contre 12 GO, si tu joues en 4K ou tu comptes jouer en 4k reste sur la 7900 xt mais si tu joues en 1080p ou 1440p c'est interessant
J'ai vu le prix des 7900xt que je surveillait s'envoler alors j'ai pris un peu peur vu que j'ai pas de cg dans le pc. Je sais que y'a des sorties mais bon j'ai sauté sur un bon deal comme ça je suis pas sans rien et je me prend pas une carte plein po
salut, tu te rends compte quand même de l'arnaque des gens qui ont payés leurs cartes entre 2000 et 3000 euros quand tu vois le prix 5070, ça fait mal, même si c'est de l'IA/DLSS4, la revente en occaz va prendre un coup, pas bien de nvidia, et AMD ils sont finis comme Intel, il faut reconnaître la machine qu'est NVIDIA,
En résumé, le ×2 des RTX 5000 ne vaut rien sans le DLSS et par ailleurs on va bientôt pouvoir faire cuire son poulet dans son PC avec Nvidia. J'espère que AMD met sérieusement un coup d'accélérateur sur les performances, ainsi que le ray tracing et l'IA qui même si on ne l'aime pas est l'avenir du gaming, la loi de moore est morte. Mais je pense que AMD a raison de se concentrer sur le milieu de gamme pour se faire et un nom et si ça permet de vendre moins cher, quand t'as 1000€ ou plus à dépenser tu t'en fous d'économiser 200-500€ sur ton gpu tu n'as juste qu'à prendre le meilleur.
@TechSama merci pour cette vidéo ! Si tu es au CES tu pourrais faire un petit tour du côté des nouveaux écrans OLED de chez LG (GX9 series) ? J'ai tellement de questions…
Pour ceux qui crachent sur NVIDIA et puis sur AMD car pas de réelles annonce ou marketing pourri etc , prenez en compte que TRUMP met des coups de pression à NVIDIA ,qui doit se presser de sortir des choses quitte à pas finir ,puis ensuite AMD doit suivre la danse malgré tout C’est soit ça soit Nvidia se fait plumer
Ils jouent sur le nouveau DLSS alors que la performance brute est bien en deçà de ce qui avait été annoncé. Sans parler du rapport performance-prix qui est ridicule. Est-ce que la qualité du gaming d'aujourd'hui mérite-t-il de dépenser 2500 euros dans une carte 3D? Pour moi non. Du marketing rien d autre.
Les performances de la 5090 sont incroyables mais le prix est hyper élevé mais cela ne me choque pas trop de la part de Nvidia avec leur ultra haut de gamme.
En vrai je suis pas vraiment RT (je l'utilise très peu) mais une 7900XTX pour l'heure tu utilise pas le FSR, sur CP77 entre RT psyco+ FSR (sans afmf c'est vraiment dégeux sur ce jeu comme le FG côté Nvidia de l'avis de d'amis) 100FPS et RT moyen sans FSR 80 fps je te garantie que sur un bon écran y a pas photo tu prend les 80FPS (largement suffisant sur un jeu solo et bizarrement plus fluide avec moins 1%low).
Pas vraiment. La 7900XTX suffisamment de performance et de VRAM pour tenir un bon bout de temps, les nouvelles cartes vont probablement se faire scalper à nouveau, et nous n'avons pas de résultat de benchmarks sur la rastérisation pure, ce qui est le plus important. Ceux qui ont une 7900XTX n'ont aucune raison d'en changer, même avec la nouvelle génération.
Sur l'un des jeux steam les plus joué depuis 10 ans, (RUST) l'on peu monter à 18Go de Vram utilisée, avec une 3090, j'en ai fais l'expérience pendant une petite session y'a deux jours. C'était pas la première fois que je voyais ça et ce n'est pas le seul jeu qui consomme trop de vram par rapport à ce qu'Nvidia propose: les seules cartes intéressantes chez NVidia seront la 5090 et la 5060 16Go.
ce sera justement justement celle à bannir. Mais bon. On le voit avec la 4060 16 go que quand la puce ne suit pas la VRAM ne sert presque à rien. Quant aux modèles --90 c'est pour un marché professionnel. 2000 ou 3000 euros la carte c'est même pas réserver à 1% des joueurs.
@@ChristopheHomo Oui, et elles sont toutes à bannir, faut choisir entre la peste et le colleras c'est tout. Les cartes pro qui disposent des techno pour pro sont sur la gamme pro d'NVidia, pas sur geforce. Je mettrais presque ma main à couper que j'arriverais à remplir les 16Go de la 5060 jour 1 sur un jeu. ^^
@@BreizhSharkFR probablement des jeux type flight simulator et autres jeux très mal optimisés comme Hellblade 2, etc. Mais dans l'ensemble, tous les jeux auxquels je joue ne dépassent pas 12go en 1440p. D'ailleurs les RTX 5000 auront une techno qui va faire l'économie de la VRAM. C'est pour çà qu'ils sont restés un ton en dessous d'AMD à ce niveau là
@@ChristopheHomo Rust suffirait à remplir la vram. La techno de compression d'nvidia va peut être résoudre le problème de vram. mais combien de problème va t'elle engendrer, c'est la question.
pénurie en vue .... augmentation des prix en vue meme si certain prix on été donnée tous va changer encore et les performance Vs prix ca va piquer pour ceux qui ont des carte de lancienne gen ( mais bon les gens vont abuser pareil donc on a pas finis de payer pour des techno et non des vrai carte )
Petite question : en 2025, avec les échanges d’informations disponibles via le net, est-il indispensable d’aller à l’autre bout du monde pour faire une présentation de produits techs ?
Tu sais en dehors du net y’a une vie …ça doit te paraître étrange mais y’a des indice tu sais, sortir dehors rencontrer des gens toucher des objets , vivre voyager , prendre l’avion ,le bateau, manger prendre du plaisir ..tu devrais essayer …
Ouais non, aucune chance que la 5070 puisse présenter autant de performance que la 4090, même avec DLSS4 ou quoi ce ce soit d'autre ce serai chaud d'y parvenir ; Et puis je suppose que beaucoup se souviendrons de quand Nvidia avait dit pratiquement la même chose de la 4070TI en relation avec la 3090 (ou 3090 TI je ne suis pas sur) et que c’était un bon gros mensonge pour la majeure partie...
amd vient de faire un aveux d'impuissance en ne presentant RIEN...............et de mentir sur sa next gen.....soit disant hyper puissante.....................ils vont disparaitre dans la honte de la scene gaming
Ils misent plus la dessus AMD pour briller comme Nvidia ils vont bien plus aller vers de l'IA pro ... Les gamers vous pensez que vous êtes le centre du monde mais les GPU c'est un marché de niche.
J’ai eu l’impression en effet que AMD nous a fait une Nintendo sachant que niveau perf il sont largués ils préfèrent rester à l’écart et ne montrer que leur savoir faire à eux les processeurs
GPU marché niche?😂 Tu sais pourquoi Nvidia se fait des milliards ? Car les GPU sont utile et indispensable pour: La ROBOTIQUE Recherche en tout genre informatique et IA ET SURTOUT LA MÉDECINE . 😂😂 T’es bien le cliché qui pense que GPU =graphismes
@@loic951c’est tout le contraire au final , actuellement et dans le futur c’est un marché clé ou il faut en plus investir si jamais ta de l’argent qui traîne sur un compte en banque 🙃
Que pensez vous de ces annonces?
Intéressante
Qu'il y a 5 ans , j'ai acheter une 2080 Super Super Ventus a 800€, c'était le top ou presque, et j'avais déjà l'impression d'être un pigeon ...
Tu peux nous filer le lien où on voit toutes les cartes graphiques des constructeurs ? Parce que je vois qu’il y en a une en blanche mais c’est quoi le modèle ??
Pfff je crois que j'aurais dû acheter une 7900xt quand elle était a son prix mini, j'espère changer d'avis...
Déçu par amd
1:24 Ils se sont plantés sur leur site AMD: le Ryzen Z2 c'était 8 Cores/16 Threads dans l'annonce au CES et là ils ont marqués "4 Cores/8 Threads" sur leur site alors que c'est seulement le Ryzen Z2 Go qui est dans cette configuration.
j'allais dire la même chose.
J'ai regardé plusieurs vidéos d'autres TH-camurs francophones qui parlent de ces nouvelles cartes (des TH-camurs que j'apprécie également), mais c'est la tienne qui, selon moi, est la plus claire, posée et complète. Les informations sont bien présentées et le timing est impeccable. Je tenais simplement à le souligner : merci à toi pour ce contenu de qualité !
5:23 C'est clair que c'est un peu abusé si le FSR4 est uniquement compatible avec les cartes RDNA4 car franchement pour moi qui ait une RX 7900 XTX alors à quoi servent les 192 AI Compute Units qu'ils ont intégré dedans? N'aurais-t 'il pas pu servir parfaitement pour le FSR4? J'espère sincèrement qu'AMD montrera un peu de respect pour les détenteurs de cartes RDNA3.0/RDNA3.5 et les autorisera à faire fonctionner le FSR4 par la suite, que ce ne soit pas exclusif aux cartes RDNA4.0
niveaux respect AMD l'ai bien plus que nvidia et leur DLSS exclus
@@laulau-l2t Habituellement oui, mais là pour le FSR4 j'ai bien peur qu'ils fassent une exception...
Surtout que la 7900 xtx en a encore sous le pied , elle a en jeu les perfs de la 4080 super et pourtant les moteurs de jeux favorisent clairement NVIDIA ( les devs développent là où il y'a le plus de clients potentiels ) . Ça serait vache qu'amd ne mette pas le fsr 4 sur cette carte . NVIDIA n'as même pas osé faire ça avec sa 4090 ( dlss 4 rétrocompatible) .
@@laulau-l2t DLSS 4 (hors framegen et neural rendering) sera diponible sur les 4000, 3000 et 2000 via les pilotes, et l'appli Nvidia App pourra même permettre de faire passer les jeux compatibles DLSS1/2/3 en DLSS4 sans aucun patch. faut arrêter de croire que ce qui était vrai avant l'est toujours.
@@brasiliafc2138 Elle en a tellement sous le pied qu'elle n'égale effectivement que la 4080 super, et encore elle se fait défoncer le fion en RT toujours par la 4080.. mais sera dépassée par 4080 super (et dlss4), 5070, 5070ti , 5080, 5090 ...... alors oui, ce qu'elle a sous le pied, en fait, c'est une tombe.
Moi je trouve que les graphiques parlent d'eux même. Sans DLSS 4, donc sans frame gen, les perfs ne sont pas beaucoup au dessus de la génération précédente. Multiplié les frames par 4 avec l'IA n'est que de la performance imaginaire.
Bas non il n'y a que comme sa qu'on peut améliorer les performance et dans quelque année génèrera tout de A à Z par l'IA.
Excuse moi mais tu racontes n'importe quoi, tu crois vraiment qu'Open AI avec Chat GPT ou l'informatique quantique se disent qu'ils n'ont aucune puissance de calcul car généré par intelligence artificielle ? Il faut arrêté de dire des betises, a partir du moment ou ta technologies te sort plus de performance qu'avant, c'est que tu as de la puissance
@@quentinbuys c'est qui le TH-camr qui répend pareille sottise ?? Sérieusement il faut que je lui dise d'arrêter de parler de Processeurs, j'ai déjà vu des commentaires qui disaient la même bêtise.
Pourtant y'a des preuves que vous avez tord en face de vous en vidéo!
@@Besharkk Alors oui il ont bcp de puissance pour Chat GPT et surtout bcp d'argent pour avoir cette puissance supplémentaire et une part importante de cette puissance vient aussi d'une diminution de la précision des calcules en IA mais sa marchera pas éternellement cette technique. Moi je parle d'augmentation de puissance a prix fixe.
Et pour le quantique avec du Gaming c'est du n'importe quoi le quantique c'est pour des calcules très spécifique dont l'IA et le gaming ne font pas partie et le jour on sa fera des calcule utile on en reparlera.
@@BreizhSharkFR Mais c'est juste une question de physique l'atome de Silicium fait 0,1 nm et il faut un certains nombre minimum pour faire un transistor ce qui fixe la limite Théorique vers environ 1 nm la taille de gravure et sa être chère d'atteindre ces 1 nm, les machine de ASML coute toujours plus chère les rendement chez TCM sont de plus en plus mauvais bref c'est juste normale que sa coute plus chère avec toute ces limite qui arrive si on veut plus de puissance brute.
L'air chaud du GPU ne va t il pas être soufflé sur le CPU ??
la plupart du temps pour éviter le bottleneck tu prend de gros processeur et donc tu part sur un watercooling. Ce sera obligatoire pour les 5000 celons moi
Si, comme sur les gen 3000/400 founder. La mieux est de mettre un AIO en facade avec ce genre de carte. MAIS, je me dis que ça fait également chauffer la ram, la CM, peut être un ssd, m'enfin... A voir. En vrai ça m'inquiète pas trop non plus !
Les professionnels recommandent d'uriner sur le cpu pendant les sessions de gaming intenses pour reconduire par thermo-elasticité le flux de chaleur vers les parois du pc
@@E.Bernay😂
Le problème du frame generation c’est que ça n’a rien à voir avec des FPS natifs, même avec des gros chiffres ont sent qu’il y a un truc qui cloche, ça va pas, en fait l’image est fluide mais sans que le jeu ne le soit.
Et là maintenant ils veulent faire du multi frame generation ??? Mais ils ont déjà joué ces gens ou pas ?
Il y a pas mal de logiciel qui permettent déjà de le faire, comme lossless scaling par exemple, eh ben c’est pas super…
Comme dit dans la vidéo il n’y a que quand on à déjà assez de FPS pour ne pas en avoir besoin que ça passe, donc ça ne sert à rien.
J’ajoute que plus on insert de frame générée entre les vraies frames et plus ça provoque des mini artefacts visuels et autres joyeusetés. Il faut être clair: non seulement ça se ressent sous la souris, mais surtout ça se voit, surtout pour un œil averti.
Bref Nvidia a choisi de se vautrer dans un nouveau caché misère pour des raisons purement marketing, car ça permet d’annoncer de gros chiffres et de vendre.
Sauf qu’ils ne précisent évidemment pas que des FPS sous DLSS ne valent absolument pas de vrais FPS, tout comme une contrefaçon de Rolex n’atteindra pas la qualité d’une vraie.
Le problème ici c’est que eux vous vendent cette Rolex factice au même prix que la vraie 😮
belle explication
Lossless Scaling est logiciel, il n'inclue pas d'antilag ou de reflex, donc oui, c'est putain de normal que ça soit pas super .... avec reflex 2 l'input lag n'augmente même pas, c'est un vrai tour de force
une bonne carte graphique, pour moi, c'est un bon rapport qualité/prix/watts. Acheter des cartes hors de prix si on joue essentiellement à des jeux compétitif, ou les derniers jeux sortis day one (donc mal optimisés/patchés) pourquoi pas, mais pour le commun, acheter des cartes au-dessus de 600-700€ c'est non. Surtout qu'aujourd'hui avec le parc de jeux disponible depuis une dizaine d'année, n'importe quelle carte milieu de gamme fait tourner 90% des jeux en élevé avec du 60-120 fps. Un bon moove c'est de claquer son fric sur un écran 21:9 ou 32:9, là vous aurez un confort de jeux incroyable que ce soit sur des mmos, des fps ou des rpg. Les écrans incurvés 21:9 165 mhz sont aujourd'hui parfaitement abordables. Bon sinon j'adore cette chaine, on va mettre un pouce ^^ merci pour le taf toujours au top👍(un dernier point 575 W juste pour la carte graphique, à une époque ou les prix de l'éléctricité flambe, ou la jeune génération s'inquiète du réchauffement climatique, est ce qu'acheter ce type de produit va dans le bon sens ? de plus l'optimisation des jeux sera aussi de plus en plus une "non priorité" des éditeurs, compte tenu de la puissance des gpu actuelle, pourquoi mettre des sous dans cette tache, sachant que les clients sont près aujourd'hui à payer à leur place en achetant des produits avec une puissance démesurée ?)
tu tapes dans le vrai. A titre perso je n'ai jamais dépassé 650 euros pour une carte. La dernière c'est la RTX 4070 qui me fait tourner tous les jeux en 1440p entre 60 et 100 fps pour les derniers jeux genre triple A. Je trouve débile d'investir le double pour juste gagner 30% de FPS qui seront à peine perceptibles pour la majorité des joueurs. Combien de yeux de joueurs arrivent à faire la différence entre 100 et 130 fps ? par contre n'importe qui sait la faire entre 650€ et 1200 euros. Ou ton banquier ou ta femme le fera là c'est sûr. (Soit la différence par exemple entre la 4070 super et la 4080.)
La seule chose qui explique que les gens déboursent autant de fric c'est l'arnaque de la 4k qui met à mal tout le matériel PC, alors que le 1440p est quant à lui bien plus rentable et visuellement quasi aussi beau.
Après je te rejoins encore sur les écrans et là je suis juste MDR, quand un gamer claque 1000 euros dans une CG et que son écran en vaut 400, avec une dalle VA ou IPS. Pour moi passer de ma 4070 aux modèles supérieurs servira à monter des fps que je ne ressentirai probablement pas. Mais investir le même prix sur un 32 pouces OLED 4k à 1200 euros là c'est rentable car l'écran il peut lui durer 10 ans et les yeux le ressentent vraiment. Les CG aujourd'hui durent deux ans max à cause de ces technos à la co_n.
Bref, je dirais qu'il existe des gens très intelligents qui utilisent de manière habile le marketing pour faire croire que le non indispensable l'est. Et des pigeons qui tombent dedans, des deux pieds joyeusement dans la spirale de la sur consommation.
L'IA va devenir le cancer de l'humanité. Autre débat.
Voila tu as tout dit. Une RTX 4070 ou similaire fera l'affaire et ne consomme pas trop, c'est parfait ca fait tout tourner puis qui a dit qu'il fallait jouer au dernier jeu dès la sortie ? Perso tu vois je tourne sur une RX 6600 (neuve à 169€) et j'achete mes jeux et composants quelques années après la sortie, ça revient moins cher. Du coup tout tourne très bien, ca consomme rien.
@@clementm9161 tu vois pour le 1080p je conseille bcp la 6650xt. Les 8go sont suffisants dans cette résolution et y'a même pas mal de jeux où elle peut aller se frotter au 1440p. Si on écoute certains ils vous diront que ce n'est pas suffisant pour vous orienter vers des modèles plus puissants (à peine plus en fait mais plus chers)
J'espere que amd et intel vont redter competitif, et que les cartes 70 et en dessous auront une conso raisonnable ainsi que un bon tdp.
Vive les mini itx silencieux!
A bientot
Bonjour faut t'il acheter une alimentation ATX 3.1 pour les serie 5000 ?
Je ne vois pas comment la vidéo peut ne pas être biaisée si nvidia te paye le voyage. On peut le sentir à 7:20 car il est normal qu'amd ne compare pas au rtx 5xxxx puisqu'elles viennent seulement d'être annoncées. Et puis, on pourrait avoir une idée en comparant les chiffres présentés par amd et nvidia qui comparent avec les rtx 4xxx, si nvidia les donnait vraiment
Si tu te concentres que sur un point spécifique c'est sur qu'on pourrait toujours se demander l'impartialité, maintenant regarde toute la vidéo, elle est je trouve très objective, les critiques vont à Nvidia tout comme AMD, et si AMD à un moment mérite une critique, il ne va pas se taire pour être sûr qu'on ne croit pas qu'il est biaisé...
@@noetoussaint7165 Effectivement, il critique Nvidia autant qu'AMD. Mais je trouve que cette critique en particulier est infondée.
Après, contrairement à beaucoup, il est transparent sur le fait que Nvidia lui paye le voyage, ce qui est une bonne chose. Mais inconsciemment, il peut être biaisé sans que ce soit voulu.
hate de voir ce que vont donner les nouveautés en mobile pour le coup, si ça provoque une baisse des RTX 4000 mobiles ça peut devenir intéressant tout ça
Le retour du “CARAPHIQUE” ça m’avait manqué 😍😍😍
Merci Aurélien 🫶🏼
Enfin du Display port 2.1 chez Nvidia !!!! Mais toujours pas de prise USB C alors que m^me les fabricants de TV s'y mettent avec le protocole DP
J'ai un usb-c sur ma 2080ti, ils l'ont abandonné car personne ne l'utilisaiit.
@@Bouroski1 bien sûr, bien sûr...
Mais là tu parles d'une carte qui est née il y a bien longtemps...
Il n'y avait pas l'Europe qui avait imposé à Apple d' utiliser cette prise...
Et celle-ci qui va bientôt gérer 80Gbps... Semble être celle dans tout le monde veut Même les fabricants de TV vont la préférer à la HDMI...
Honnêtement le DisplayPort il sert à quoi sur ma carte ?
A rien...
J'utilise le HDMI pour mon écran 4K... Et mon casque VR il utilise l'USB...
Pas celui à 20, ni même à 10, mais celui à 5 Gbps...
Parce que USB 3.0 est le plus répandu sur les PC, alors le streaming vr des casques Meta et Pico, est formaté à cette valeur assez faible..
Et tu verras que le futur casque de Samsung....Comme celui de Pimax...Ils utiliseront tous un usb-c d'un côté ou de l'autre
Faut comprendre que la prise elle a déjà tout gagné
Après elle utilisera le protocole DisplayPort
Mais tu verras qu'à terme... On ne se servira plus beaucoup des DisplayPort et des HDMI en tant que prise sur nos cartes graphiques
Bah le display port est simplement meilleur que le HDMI, donc tout le monde l'utilise ( sauf toi apparemment) pour relier sont gpu à un écran, la norme la plus rependu et basique du DP prend en charge quasi tout alors qu'il faut aller sur du HDMI 2.0 pour pour trouver un équivalent au DP. Les seules applications du HDMI son les télé relier à une box ou à une console. Et puisque le DP fait tout bien, pourquoi mettre un USB-C que peu de personne utilise.
@@stixktv__9999 Ne pas confondre prise et protocole
Et actuellement, c'est l'USB C qui domine, même Apple a dû s'y mettre
Plus simple , symétrique, pouvant véhiculer le protocole DP..., capable de 80Gbps, il va supplanter les autres prises.
Dans les TV, les portables, les tablettes et consoles portables, les casques VR..
N'en déplaise à ceux qui croient que les moniteurs de 25" dominent le marché...
Quand seront proposé les premiers tests ?
Est-ce qu'on va encore etre snobés niveau founders editions ?
sur la 5070 Ti, oui. c'est quand même con c'est celle que je visais. du coup ça sera une 5080 founder
La voix sur l'erratum des GPU mobiles on dirait quelqu'un d'autre qui imite sa façon de parler, quel genre de micro permet ça xD
Merci pour ce recap de qualité
C'est marrant de se faire un super PC custom de courses spécial pour le CES et finir avec un Apple
On voit bien la technique de NVidia : annoncer une 5070 soit disant à prix cassé (car "égale" en performance à une 4090, bien plus chère), histoire de faire passer la pilule de la 5090 à 1999 $
Alors c'est juste un mensonge jamais une 5070 n'auras la puissance de la 4090. La 5070 auras la puissance de la 4080. Si tu avais lu les slides. C'est écris en dessous 5070 tourne sur dlss4 en 4x alors que la 4090 puissance stock donc que du marketing
@@Onyx_Nashoba tu as remarqué que j'ai mis des guillemets sur le "égal" ?
De tout manière les gamers achetants des **90 n’ont rien compris, ces cartes sont faites pour les pro faisant de la 3D ou du gros montage vidéo, par pour jouer a call of
@@bobysmith5662 oui, les cartes les plus vendues sont les 70 et 60, même une 80 c'est le haut du panier.
@@bobysmith5662 Ah bah oui, c'est sûr que les acheteurs de ces cartes jouent à call of en 1080p, c'est bien connu 🤭
Vu la puissance de watt de la CG, ça sent le câble brûlé 😂
parce que t'as cru qu'on en était encore au 12VHPWR ? 🤡
@@fabricejaouen378 Ben il vont garder le même connecteur mais une version 2.0 de la 12VHPWR qui s'appelle 12-2x6 avec des pins d'alim plus long donc plus résistant selon Nvidia (mais vivement les tests pour être sûr de la fiabilité) et que les câbles 12VHPWR sont compatible sur les connecteurs 12-2x6 de la 5090 selon Corsair => ça fout encore le bordel chez les débutants du PC building qu'ils doivent surtout pas tromper entre ces 2 câbles de 12V. 😅
@@Nightmark2 en même temps corsair, pour avoir poncé leurs offres et comparé à la concurrence, ils vendent tout au double du prix par rapport à du matos de même qualité... longtemps que ne les écoute plus ceux là
Super vidéo! Et si jamais, petite faute de frappe, tu as écris « Nvidia ramdin » 😉
Étant moi aussi belge et bilingue, je ris intérieurement à chaque fois que tu parles de SPEK (= Lard) pour les cartes graphiques et autres processeurs 🙃🇧🇪
Hâte de voir la différence entre ma 1660S et la 5070, moi qui voulait changer de PC, je pense que c’est le bon moment. J’ai juste un peu peur pour le prix des CPU actuellement…
Les perfs sur les jeux full techno vont être démentiel
200€ le 9600X !
perso je part chez AMD
180 euros le 9600x imbattable
Y'aura t'il besoin d'upgrade une carte mere pci e gen 3 par exemple pour unr 5090?
Houla 😂 oui ainsi que la ram et cpu !
Oui et non. Ça fonctionnera quand même, mais attends toi à une perte de performance, de mémoire environ 10%.
La version du port PCIe n'a pas tant d'importance que ça car la transmission de données entre la carte mère et le GPU n'est généralement pas un bottleneck. Mais là tu considère le pire cas, le meilleur GPU avec le pire PCIe, donc l'effet sera mesurable.
Merci pour ta vidéo !
Je suis hype par la 5080 mais le budget est moins hype même si je m’attendais presque à pire 😅
J’espère que Nvidia sera pas relou sur ce qu’ils imposent et que tu pourras faire tes tests sur les 5000 🤞
De toute façon, on dira ce qu'on veut, mais nous sommes arrivés à une limite technologique qui ne nous permet pas de diminuer plus la tailles des transistors.
NVIDIA a selon moi raison de passer par l'IA.
une RX 7800 XT fait déjà tellement bien le taf. c'est compliqué daller mettre 1000 balles.
pour moi les 5000 sont une gen' presque full IA ils veulent nous faire comprendre que la raster"' sert plus a rien limite et que tout passe par l'IA d'ou le fait que la puissance brut sera pas exponentielle je le crais :/ alors oui forcement elle seront meilleur que la gen' d'avant ( et heuresement ) mais pas foufou lol comme dirais Jig on ne fait pas de la magie avec l'hardware , afin bref hate de voir quand meme car je me tate a viré ma 3080 pour une 5070Ti ^^
Pourquoi tu à un MacBook et pas ton Mini-Pc ????
il est en deplacement c'est logique
@@Kouroro9 Justement, dans sa derniÈre vidéo il disait que le but du mini pc était de l'emmener en déplacement
@@quentinsalome2387 Ouai enfin dans une bagnole éventuellement... mais transporter l'écran avec dans l'avion c'est un peu débile
@@fabricejaouen378 c'était justement son point. Que cela tenait dans un sac à dos et qu'il pouvait l'emmener dans l'avion en bagage cabine. Je n'invente rien, je répète ce qu'Aurélien disait
@@quentinsalome2387 C'était pas une sponso en fait ? je dis ça je dis rien ...
10:38 je crois que le prix indiqué en dollars US est hors-taxe car aux états unis la taxe dépend des états.
T'as raison ! C'est le prix brute !
j'alerte les gens mais ils ont pas fait de modification sur l'alimentation des GPU donc faut s'attendre a une surchauffe, des 5090 et 5080 voir des 5070ti qui vont cramer au niveaux du connector car bon du 40+ amperes / 12v pour 575W, ca chauffe, beaucoup, beaucoup trop
Faut te mettre à la page … ça a été debunk et fixé depuis très longtemps on est en 2025 si jamais
Tant qu'il y a aura des Kevin-gamer pour vouloir faire tourner à 3 FPS de plus leur jeu, avec un rendu supérieur des particules de poussière, prêts à claquer 800 balles dans un GPU, bien sûr qu'ils vont pas se gêner !
Il n'y a pas forcément qu'eux. J'ai déjà zappé les RTX 3000 & 4000. Quelque soient les circonstances, j'achèterai un GPU cette année.
Tu sais, t'as juste des gens, beaucoup, qui ont les moyens de ce qu'ils achètent, et donc achètent selon ces moyens.
Je demande à voir les tests des RTX 5000. Pas convaincu du tout par le frame gen... À quoi ca sert d'avoir plus de "fausses" images si elles sont mal générées ? Ma RTX 2070 Super va rester un an de plus dans mon PC 😉
Le Nvidia reflex 2.0 sera lui aussi que pour les 5000 ?
Aucune amélioration par rapport aux rtx40
30% de perf en plus, car 30% de Cuda cores en plus, et 30% de consommation en plus
Seul le dlss 4 peut sauver la mise sur quelques rares jeux
La stratégie de NVIDIA avec l'IA c'est pas que tu puisse profiter de leur petit modele de CG mais que tu sois forcé de passer sur les pus gros modèle.
T pas content ? bah hésite pas à aller voire la concurrence. Comment ? y'en à pas ? Bon alors tu le prends ou pas le plus gros modèle ?
N'importe quoi ! L'IA décharge énormément le GPU principal autant sur les petites que sur les grosses cartes...
@@fabricejaouen378 Alors le CPU je veux bien, mais le GPU pas tellement non.
On utilise massivement les cartes graphiques, pour faire tourner les modèles IA justement.
Donc sois votre com est incomplet, soit vous avez mal compris ce que j'ai dis.
@@MoiAimeBien Et ? le fait de vouloir faire tourner plus vite les modèles IA passe par un seul choix : un GPU plus performant. C'est ce qu'on appelle une lapalissade ça ! venir dire qu'Nvidia force les gens à utiliser des GPU plus gros est un raisonnement complètement claqué, quoi que tu fasses, si tu veux avoir plus de perfs, tu achètes plus perf, rien à voir avec Nvidia.
@@fabricejaouen378 Imagine que tu veuille acheter une voiture, pour tirer une caravane.
Tu veux pas t'en servir, tout les jours mais juste occasionnellement.
Tu vas voir une concession pour te renseigner et tu remarque qu'ils vendent 5 modèle équipé faire le job.
Mais en te renseignant un peu mieux, tu t’aperçois qu'en réalité seul le modele le plus haut de gamme pourras tirer une caravane.
Car tout les autres ont été volontairement privé de certaines fonction qui aurait pu te le permettre.
Donc en gros soit tu achète le modèle le plus cher, soit tu tire pas ta caravane.
NVIDIA à fait exactement pareil.
@@MoiAimeBien Faux, c'est juste complètement faux. tu fais moins bien, moins vite, mais tu fais.
Hello ! Concernant les graphiques effectivement c’est vraiment dédié au marketing je pense, mais ça fait sens de rappeler que ça fait tourner des outils professionnels puisque dans nos secteurs on s’inquiète beaucoup de savoir à quel point nos logiciels peuvent ou non profiter des technologies d’opti comme le dlss et on a aucune vue dessus
Aujourd’hui c’est un peu le défaut de nvidia, s’adresser à tout le monde sans chercher à renseigner personne
Ma 3070 achetée en 2021 520€ ne va pas bouger. J'ai pas l'impression de voir des progrès en terme de rapport prix/perf...
Le rapport prix/perf n’existe plus depuis 2018. Faut se réveiller là ! En 2025 on te vend de l’ia c’est à dire de la technologie.
Si tu veux du rapport prix/perf, prends une GTX
Il faut espérer qu'AMD ait un sursaut et sort plus tard des 9080 et 9090. Mais sinon, ça sera la génération sacrifiée pour essayer de rattraper le retard.
Au niveau gaming, en se concentrant sur les rx 9070 et moins, ils peuvent potentiellement proposer des cartes plus intéressantes et moins chères que les rtx 5070 et moins.
4x20 oui! 4x20+10 non, pour les Belges ! (va comprendre?)😂😍 sympa la vidéo !
Le FSR4 uniquement compatible avec RDNA 4 c'est un énorme coup de trafalgar de la part d'AMD.
Possible que ca soit que dans un premier temps ?
Non il faut des tensor core tout le problème des anciennes gen
c'était annoncé... mais leur fsr 2.0, s'il le laisse comme ça en disant "tous les prochain patch FSR2.0 sont pour RDNA 4"
là ça resterais très nul de leur part
Je suis content d'avoir pris mon pc avant la fin des 4090 😅
85% des performances annoncés par NVIDIA sont inexistantes ahaha cesg uniquement de l'hallucination d'IA
Une manière de se faire encore plus d’argent
Je suis d'accord que l'approche marketing avec le FG est très discutable. Mais le dlss(upscaler) et une prouesse, pouvoir jouer en 4k pour presque le coût calculatoir de la 1080p et garder la qualité de la 4k natif est le futur. Personnellement je joue toujours avec le dlss juste pour leur anti aliaising qui est le meilleur sur le marché. Donc si ils arrivent à produire un FG aussi abouti que le dlss, ça me semble pas déconnant d'appuyer antant sur le FG.
Jai acheté une 7800 xt gigabyte oc à 490eur sur amazon. Je la retourne sous les 30 jours ? Que fait je
Parfait pour un Asus ROG Flow Z13 les Ryzen AI Max !
Le graphique NVIDIA c'est plus le prix msrp a la sortie x 1.5 x 2 ;)
Le bilan reste comme pour les année passées on nous vend des GPU pour du 4K mais personnes n'arrive à le faire en natif de manière correcte et quant on a l'habitude du natif toutes leur techno sont plutôt moche autant rester/retourné en 1440p (je commence a me posé la question que même sur un écran 4K mettre en 1440p natif rend mieux que du 4K avec toute leur techno).
Ben non, ils peuvent pas, car la finesse de gravure évolue peu et qu'ils n'y sont pour rien. A un moment on arrive à la limite et pour gagner en puissance il faudrait plus de transistors, donc une puce plus grosse, qui couterait beaucoup plus cher, et qui consommerait beaucoup plus. A chaque génération ses compromis en fonction de la finesse de gravure disponible.
@@fabricejaouen378 Oui tu as raison, ce que je dit c'est qu'ils stoppe leur marketing de GPU pour du 4K (même 8K sinon pourquoi mettre du DP 2.1) qu'à l'heure actuelle le 4K c'est pas réalisable c'est prendre les gens pour des pigeons si je suis sur PC c'est pas pour avoir des upscaling dégueux comme sur console. Je remet pas en question le blocage technique mais leur power point de m. Après pas sur qu'un gros monolithique avec des la bonne ram coute moins cher que les truc actuel avec tout les tenseur core et rt core en coût (toute ces techno propriétaire ne sont que pour la lutte commerciale) et pour la conso à chaque un de gérer mais au moins proposé des alternatives (surtout pour les usage pro car leur features osef pour un usage applicatif ce qu'il faut c'est de la grosse puissance brute qui au final ferai tourné tout). Pour l'exemple je taf beaucoup sur du calcul IA et pour l'heure la 7900XTX est master (même devant des 4090) et quant je vois leur conf l'avenir s'annonce toujours aussi lent.
@krsone4502 Donne moi une source de benchmark stp pour la vitesse en IA de la XTX, ça m'intéresse sincèrement, car j'ai toujours lu que les 4000 étaient toutes loin devant. Sinon pour un usage applicatif : ils annonce des perfs triplées en IA sur les 5000, honnêtement c'est pas rien
@@fabricejaouen378 oui c'est pas rien pour les 5K et j'ai pas de source juste au taf les plateformes XTX à cpu équivalant (c'est les même en fait) fini les tâche plus vite que les RTX (on es sur du 20% environ) du coup l'encodage on fait sur RTX (sur ça bien meilleure mais c'est plus software) et les calcul IA sur RX (si j'y pense et du temp je te ferai un test... mais au taf compliqué). Je suis pas programmeur mais une foi de plus les GPU AMD sont en dessous parce qu'ils arrivent pas a en tiré le meilleur. mais vu le CES si c'est pour un usage privé Nvidia sera ....encore le meilleur choix je pense.
tu as tout compris. C'est l'arnaque de la 4k et bientôt de la 8k. Moi je reste en 1440p, bcp plus rentable rapport qualité prix.
Chez Nvindia, DLSS semble bien meilleur mais le hardware brut, pas tant que ça. A voir l'évolution des prix des 4070 Ti afin d'avoir un avis définitif.
AMD aurait dû annoncer et assumer ! une équivalente de 5060. Une carte à 400€ avec des perfs de 4070 et ils auraient manger le marché du début haut de gamme. NVIDIA a gonflé les prix et ne semble pas s'intéresser aux gammes inférieures qui sont pourtant la majorité des gpu vendus. Il y a largement la place de s'y imposer sans avoir à développer des cartes ultra complexes. Ils ont à priori la tech de faire une bonne carte dans cette gamme qui soit performante et efficace.
Certes ca n'aurait pas été impressionnant, ils n'auraient pas des monstres de puissance à montrer mais ils auraient pu avoir l'audace de dire "nous on pense aux bourses des gamers et on va là où n'est pas nvidia"
A voir si les RX 9070 vong remplir ce rôle. Mais ça ne sent pas bon..
je pense que le but des 5080 et en dessous c'est vraiment les gamers la cible pas les gens qui veulent faire du bidouillage malheureusement ... ils veulent qu'on prennent le niveau au dessus
la plupart des joueurs prendront une 5070 voir même 5060. C'est les cartes les plus vendues. Les xx80 c'est déjà le haut du panier.
La video qui demarre en anglais j’étais déboussolé je me suis dit ou est passé mon accent preferé? Mes nonante😂?
chez Nvidia ,je trouve les cartes partenaires de moins moins intéressantes taille/prix/perf .c'est abusé seul la couleur et le rgb pour 300€ faut arrête les conneries.
VU QUE LES RTX 5000 SONT EN PCI 5.0 QUE VAUDRA LES CARTE SUR DU PCI 4.0???
Faudra attendre les benchmarks
Le PCI 3.0 bride à peine une 4090 (de 2 à 3%, voir TechPowerUp ou bien GamerNexus) donc le gain du 5.0 risque d'être limité (le 4.0 place déjà la barre très haut)
À part dans les cas extrêmes, le port PCIe ne sera jamais un bottleneck pour le GPU. Pas besoin de changer la carte mère pour ça, les pertes seront inférieures à 5%.
Sa va être une vraie galère cette génération . Les problème de chauffe les problème de connecteur . Le dlss4 est utiliser attention . C pas fou . Par contre oui la 5090 est fole comme le prix . Mais si vous avez une 4090 ne changer pas de gen
16:37 : 16 puces. Donc de 2gb chacune.
J'ai une 3090, et la 5080 me fait vraiment de l'oeil.
Niveau prix, perf, conso etc...
Par contre les 16gb de vram me font peur.
Indiana jones en full ultra 4k etc frôle 18gb de vram!!!
Que feriez vous??
Attends les versions constructeur : il y aura peut-être des versions avec plus de vram
Je me suis acheté une rx7900xt à 680€, je sais pas si ça vaut le coût avec mes nouvelles sorties
Acheter un GPU ces dernières semaine c'était pas forcément très malin effectivement 😅
@@leninjamasque3632 En vrai vu que c'est du AMD dans le haut de gamme ça va encore et le deal était plutôt bon.
attends quelques jours pour voir si il y a des nouvlles concernant les 5070 par exemple au niveau des performances etc et retourne ta carte graphique pour acheter ça, c'est ce que je compte faire personnellement pour prendre une 5070 ti, comme ça tu ne perds pas d'argent, je pense que 5070 est pareil en rastérisation qu'une 4070 ti super voir se rapprocherait d'une 4080 super donc il serait pareil qu'une 7900 xt mais avec des technologies qui sont bien meilleures et stables
le seul problème c'est la VRAM 20 GO contre 12 GO, si tu joues en 4K ou tu comptes jouer en 4k reste sur la 7900 xt mais si tu joues en 1080p ou 1440p c'est interessant
J'ai vu le prix des 7900xt que je surveillait s'envoler alors j'ai pris un peu peur vu que j'ai pas de cg dans le pc.
Je sais que y'a des sorties mais bon j'ai sauté sur un bon deal comme ça je suis pas sans rien et je me prend pas une carte plein po
549 euros pôur la 5070 donc en gros avec les versions custom on sera a quoi ? 750 euros ??? haha
549 c'est le prix en dollars. Attend toi à plus avec nos taxes, 630-650€.
👍
20% de puissance brut en plus....pfff cest décevant !
et encore ce sont des chiffre censé glorifier la carte, je m'attend plus a 10% - 15% meilleur en moyenne, après de vrai test
Nouvelle gamme laptops gaming svp
salut, tu te rends compte quand même de l'arnaque des gens qui ont payés leurs cartes entre 2000 et 3000 euros quand tu vois le prix 5070, ça fait mal, même si c'est de l'IA/DLSS4, la revente en occaz va prendre un coup, pas bien de nvidia, et AMD ils sont finis comme Intel, il faut reconnaître la machine qu'est NVIDIA,
Quand verra-t-on Tech_Sama sur Bluesky ?
Quel intérêt ?
C'est quoi Bluesky ?
Ce truc tout canné a déjà bidé
11:20 "j'vous aime bien Nvidia" 🤡🤡🤡🤡🤡🤡🤡🤡🤡
En résumé, le ×2 des RTX 5000 ne vaut rien sans le DLSS et par ailleurs on va bientôt pouvoir faire cuire son poulet dans son PC avec Nvidia.
J'espère que AMD met sérieusement un coup d'accélérateur sur les performances, ainsi que le ray tracing et l'IA qui même si on ne l'aime pas est l'avenir du gaming, la loi de moore est morte.
Mais je pense que AMD a raison de se concentrer sur le milieu de gamme pour se faire et un nom et si ça permet de vendre moins cher, quand t'as 1000€ ou plus à dépenser tu t'en fous d'économiser 200-500€ sur ton gpu tu n'as juste qu'à prendre le meilleur.
@TechSama merci pour cette vidéo ! Si tu es au CES tu pourrais faire un petit tour du côté des nouveaux écrans OLED de chez LG (GX9 series) ? J'ai tellement de questions…
Pour ceux qui crachent sur NVIDIA et puis sur AMD car pas de réelles annonce ou marketing pourri etc , prenez en compte que TRUMP met des coups de pression à NVIDIA ,qui doit se presser de sortir des choses quitte à pas finir ,puis ensuite AMD doit suivre la danse malgré tout
C’est soit ça soit Nvidia se fait plumer
Ils jouent sur le nouveau DLSS alors que la performance brute est bien en deçà de ce qui avait été annoncé.
Sans parler du rapport performance-prix qui est ridicule.
Est-ce que la qualité du gaming d'aujourd'hui mérite-t-il de dépenser 2500 euros dans une carte 3D?
Pour moi non.
Du marketing rien d autre.
Les performances de la 5090 sont incroyables mais le prix est hyper élevé mais cela ne me choque pas trop de la part de Nvidia avec leur ultra haut de gamme.
surtout qu'elle et utile vraiment pour les pro donc pas si emballer que sa perso
RIP Ceux qui ont acheté une 7900XTX ya un mois…
En vrai je suis pas vraiment RT (je l'utilise très peu) mais une 7900XTX pour l'heure tu utilise pas le FSR, sur CP77 entre RT psyco+ FSR (sans afmf c'est vraiment dégeux sur ce jeu comme le FG côté Nvidia de l'avis de d'amis) 100FPS et RT moyen sans FSR 80 fps je te garantie que sur un bon écran y a pas photo tu prend les 80FPS (largement suffisant sur un jeu solo et bizarrement plus fluide avec moins 1%low).
si tu es sur amazon tunas 2 mois pour retourner
Pas vraiment. La 7900XTX suffisamment de performance et de VRAM pour tenir un bon bout de temps, les nouvelles cartes vont probablement se faire scalper à nouveau, et nous n'avons pas de résultat de benchmarks sur la rastérisation pure, ce qui est le plus important. Ceux qui ont une 7900XTX n'ont aucune raison d'en changer, même avec la nouvelle génération.
Référencement
Une blague les GPU d'AMD...
On n"en sait rien, il n'ont même pas été présenté !
Sur l'un des jeux steam les plus joué depuis 10 ans, (RUST) l'on peu monter à 18Go de Vram utilisée, avec une 3090, j'en ai fais l'expérience pendant une petite session y'a deux jours. C'était pas la première fois que je voyais ça et ce n'est pas le seul jeu qui consomme trop de vram par rapport à ce qu'Nvidia propose: les seules cartes intéressantes chez NVidia seront la 5090 et la 5060 16Go.
ce sera justement justement celle à bannir. Mais bon. On le voit avec la 4060 16 go que quand la puce ne suit pas la VRAM ne sert presque à rien. Quant aux modèles --90 c'est pour un marché professionnel. 2000 ou 3000 euros la carte c'est même pas réserver à 1% des joueurs.
@@ChristopheHomo Oui, et elles sont toutes à bannir, faut choisir entre la peste et le colleras c'est tout.
Les cartes pro qui disposent des techno pour pro sont sur la gamme pro d'NVidia, pas sur geforce.
Je mettrais presque ma main à couper que j'arriverais à remplir les 16Go de la 5060 jour 1 sur un jeu. ^^
@@BreizhSharkFR probablement des jeux type flight simulator et autres jeux très mal optimisés comme Hellblade 2, etc. Mais dans l'ensemble, tous les jeux auxquels je joue ne dépassent pas 12go en 1440p.
D'ailleurs les RTX 5000 auront une techno qui va faire l'économie de la VRAM. C'est pour çà qu'ils sont restés un ton en dessous d'AMD à ce niveau là
@@ChristopheHomo Rust suffirait à remplir la vram.
La techno de compression d'nvidia va peut être résoudre le problème de vram. mais combien de problème va t'elle engendrer, c'est la question.
Oui mais s'ils avaient gonflé la ram de la 5080, c'est nous gamer qui en auraient souffert donc en vrai, c'est très bien comme ça
pénurie en vue .... augmentation des prix en vue meme si certain prix on été donnée tous va changer encore et les performance Vs prix ca va piquer pour ceux qui ont des carte de lancienne gen ( mais bon les gens vont abuser pareil donc on a pas finis de payer pour des techno et non des vrai carte )
ça xd la puissance des scalper etc... en 1h il y a plus de stock surtout 9070XT
Petite question : en 2025, avec les échanges d’informations disponibles via le net, est-il indispensable d’aller à l’autre bout du monde pour faire une présentation de produits techs ?
Tu sais en dehors du net y’a une vie …ça doit te paraître étrange mais y’a des indice tu sais, sortir dehors rencontrer des gens toucher des objets , vivre voyager , prendre l’avion ,le bateau, manger prendre du plaisir ..tu devrais essayer …
nonont neuneut
Ouais non, aucune chance que la 5070 puisse présenter autant de performance que la 4090, même avec DLSS4 ou quoi ce ce soit d'autre ce serai chaud d'y parvenir ;
Et puis je suppose que beaucoup se souviendrons de quand Nvidia avait dit pratiquement la même chose de la 4070TI en relation avec la 3090 (ou 3090 TI je ne suis pas sur) et que c’était un bon gros mensonge pour la majeure partie...
Je repasse chez NVIDIA 🙂
J'ai regardé les deux conférences, AMD j'étais 😴, NVIDIA j'étais comme un gosse 🤩
Merci pour la vidéo.
amd vient de faire un aveux d'impuissance en ne presentant RIEN...............et de mentir sur sa next gen.....soit disant hyper puissante.....................ils vont disparaitre dans la honte de la scene gaming
Ah rendors toi AMD disparaitre pèse tes mots
Ils misent plus la dessus AMD pour briller comme Nvidia ils vont bien plus aller vers de l'IA pro ... Les gamers vous pensez que vous êtes le centre du monde mais les GPU c'est un marché de niche.
J’ai eu l’impression en effet que AMD nous a fait une Nintendo sachant que niveau perf il sont largués ils préfèrent rester à l’écart et ne montrer que leur savoir faire à eux les processeurs
GPU marché niche?😂 Tu sais pourquoi Nvidia se fait des milliards ? Car les GPU sont utile et indispensable pour:
La ROBOTIQUE
Recherche en tout genre informatique et IA
ET SURTOUT LA MÉDECINE .
😂😂
T’es bien le cliché qui pense que GPU =graphismes
@@loic951c’est tout le contraire au final , actuellement et dans le futur c’est un marché clé ou il faut en plus investir si jamais ta de l’argent qui traîne sur un compte en banque 🙃
Conclusion : il est urgent d attendre les prochaines générations.
Le même commentaire à chaque génération, à vous écouter on achète jamais
@@julienbraure96 Il y a aussi des pigeons qui achètent chaque génération ...
@@loic951 comme des gens qui achètent chaque année le nouvel iPhone, qu'est ce que ça peut vous foutre sérieux
@@julienbraure96 Ah tu fais partie de cette catégorie de personne je crois bien le pigeon
Conclusion : il est urgent d'attendre sa prochaine vie.
amd une conf merdique meme pas de présentations des gpu et on comprend pourquoi nvdia est tout seul et feront ce qu ils veulent niveau prix surtout
vraiment decu
Tu aurais souhaité quoi ?
@Tigrou7777 les prix et date de dispo pour les rx mais il y a rien comme info
@@rigthsilver822tout est annoncé renseigne toi mieux
ca spécule sur une barre verte mdr ! 🤣 c'est devenu ca le youtube game tech FR ?
l'art de faire du vent...
C'est devenu ça les commentaires TH-cam ? Des gens qui ne réfléchissent pas plus de 3 secondes ?
11:25 , flemme de commenter ton incompétence , pas capable d'ouvrir ses oreilles 2s
@monsieur.m4736 conditionné par son youtubeur favoris ?!
@@Supernaz182 justement je réflechi plus loin qu'nue vidéo pour les crédules
@TeckniVale46 mais y a pas de problèmes , moi j'en veux plus de tes commentaires pour voir jusque où on peut descendre 👍
👍