Seul le temps et la patience nous eclairerons, soyons sage et malin et n'achetons pas aveuglement surtout si il n'y a pas de reel besoin (gardez vos vieilles CG tant qu'elles fonctionnent!!). Merci.
Salut. J'aimerais tellement que tu est raison pour les futurs gpu. Je trouve AMD a sortie une bonne gen avec les 6000 et la nouvelle stratégie de se concentrer sur le milieu entré de gamme me semble bonne. J'espère il vont reprendre des part de marché car vraiment trop déséquilibre en faveur de NVIDIA et on le vois bien sur les prix actuel. Belle video. Bon weekend a tous.
Il est raison ? Toi aussi tu être raison ? "tu aies raison" Même "que tu ai raison" nous ferez moins saigner des yeux, au moins c est le bon verbe. tékricomtukoze et tukozenpickard! ^^
C'était un âge d'or pour AMD Radeon qui sont restés imbattable jusqu'aux HD7900/R9 200 . NVIDIA revenu dans le game que depuis les GTX900 qui pourtant étaient largement moins perf que celles d'AMD mais bon c'est pas le sujet , puis y'a eu les 1000/2000/3000/4000 donc y'a pas si longtemps qu'ils sont revenus dans le game. 😉 Puis coup de maître avec les RX570/580/590 8Gb , les RX5000 Largement sous estimé mais pareil y'avait pas mieux niveau rapport qualité-prix. (Largement sous estimé car déjà en GDDR6 , gravé en 7nm TSMC , et déjà en PCIe 4.0 , alors que les RTX2000 étaient encore en PCIe 3.0 par exemple). Puis y'a eu le COVID et des sois disant pénurie de matériaux et la les prix ce sont envolés !! AMD Radeon pour le moment on l'air de vouloir refaire ce qu'ils avaient fait avec Polaris20 (RX400/500) et RDNA1 (RX5000) . D'ailleurs si des gens en ont encore savent que certaines sont encore loin d'être obsolète au moin jusqu'en 1440p . (Bien sûr je ne mentionne pas les RX VEGA 56 et 64 ainsi que la Radeon VII qui étaient les GPU les plus puissant du marché grand publique , d'ailleurs RDNA est le descendant direct de la Radeon VII sans la mémoire HBM2 , malheureusement vendu trop chère donc ce fut un flop , mais encore aujourd'hui elles sont assez puissante pour une bonne majorité des jeux vidéo). Pour NVIDIA ... Merci le Marketing et le mouton gamers qui connaissent rien aux vrais composants performant . D'ailleurs la seule carte NVIDIA actuelle plus performante que les GPU d'AMD Radeon RX7000 c'est la 4090 ... 4090 qui est loin de faire des records de vente . AMD Radeon vont misé sur ce qui ce vend le mieux et ce qui sera largement suffisant pour les gamers .
@@t1m-kintek2k49 " VEGA 56 et 64 ainsi que la Radeon VII qui étaient les GPU les plus puissant du marché grand publique " ha we d'accord ? je crois pas ta oublier la 1080-1080ti fin bref et juste comme sa la 4090 j'en vois partous donc sa se vend quand meme bien
Pardon, mais quel intérêt de jouer en 4K quand on est pas blindé (et même pour ceux qu'ils le sont) ? AUCUN. Sauf si ton écran fait 10 mètres de diagonale, peut-être... Faut arrêter de se laisser endormir par le markéting. Passer d'un pauvre écran 16/9 avec un taux de rafraichissement de la mort qui tue (et qui sert à rien non plus) à un écran 21/9 ou 32/9 en QHD et même FullHD (si ça existe encore) ça c'est jouissif ! Pour jouer en 4K avec un écran 16/9, il te faut une carte graphique 3 fois plus cher que celle de ton voisin qui joue en FullHD, une alim plus balaise aussi et donc plus cher. Le PC chauffe, faut le refroidir, ça fait du bruit et ton compteur Linky s'envole au point que EDF est obligé de redémarrer la centrale de Fessenheim. Fais comme si j'étais ton meilleur ami et oublie la 4K, c'est une grosse connerie ! 😀 Et pour en remettre une couche, tu pourrais me dire qu'avec la 4K tu n'as pas besoin d'un gros processeur, contrairement à ceux qui jouent en FullHD et tu aurais raison, sauf que toi quand tu arrêtes de jouer tu te retrouves un PC poussif, une merde quoi, alors que le gars avec son gros processeur, quand il ne joue pas, il a une bête de course au bout des doigts pour faire ce qu'il veut 😎
Wow t'es vraiment remonté! Je comprends les arguments que tu avances et je les partages pour la majeure partie. Ceci dit quand ma télé 1080p est morte je l'ai changé pour une 4 k120hz qui m'a coûté moins chère (même si elle est plus grande) que la 1080p. Alors j' aimerais vraiment que les manufacturiers nous offrent des cartes qui permettent de tirer profit des avancées qu'on a eu sur le plan des écrans, sans que que le prix soit stratosphérique.
Tes intros sont à mourir de rire😅. Belle vidéo et je pense que le scénario de 2008 est le bluprint de ce qui nous attend. Et vivement que ce soit bon pour nos portefeuilles.
on est pas en 2008, Vous oubliez le presque monopole haut de gamme de TMSC, vu le prix des wafers qui augmentent très fortement ça joue on le voie déjà sur la ps5 pro, la production orienté IA, l'augmentation des prix de la mémoire, sauf si la bulle de l'IA éclate et tout baissera
je trouve cela quand même bizarre que la 5080 n' ait que +-10% en plus par rapport a une 4080S ... si c' est le cas ca craint du boudin ... Coté baisse de prix j' émets quelques doutes , certes la situation intrinsèque est la même qu' en 2008 mais maintenant NVIDIA n' est plus que dans le gaming , et avec les demandes dans l' IA y a de fortes chances qu' ils ne se cassent pas le tronc et continuent dans leur appleisation et maintiennent une marge élevée car la demande reste stratosphérique et si ce n'est pas nous qui les achèteront ça sera un autre secteur ...
@@hardwarearchive7406prix des plaques de silicium vous grimper jusqu'à 2025 +25% J'espère qu il y aura autant de vidéo que pour la ps5pro Vu les prix qui vont sortir pour les séries 5000 Face au faigape par rapport au séries 4000😅
franchement comme dab, tes video toujours aussi bonne, hate que tu puisse reprendre twitch mais quand tu auras plus de temps, j'espère que ça se passe bien maintenant à la Réunion ^^
OUI !! je suis hyper d'accord sur le Gap entre les Normales et le " TI " , les modeles de maintenant n'ont qu'un gap minime, juste une loterie de cilicium .... " vasi Jean Jean, cette carte passe les 200mhz de plus !!.? met la en "TI" et colle lui 300€ de plus "
@@vorkzen4767 C'est déjà du N4P pour les 4000, c'est AMD qui sont en 5 et 6 pour les MCM et 6 pour les 7600 au 7800xt. Nvidia va gagner qu'une seul avancer de gravure (4nm) et AMD 2 (5 à 4 pour le centre du mcm et 6 à 4 pour le reste des puces).
Bah oui pour AMD qui dit IA dit unité optimisée pour du FP8 ou 4. Donc FSR4 uniquement sur des cartes compatibles. Je me lance sur le prono : RTX590 1800€, RTX5080 990€, RTX5070 700€, RTX5060 500€, RX8800XT 600€ RX8700 450€, RX8600 300€ Si comme je le pense AMD comble une bonne partie de son retard sur les techno, ce sera RX8800XT pour moi
La génération 5000 aura des prix élevés ! NVIDIA a réussi à faire passer la pilule pour les 4000 niveau prix ! ce n'est pas pour changer tout maintenant avec les 5000 surement pas ! ont le voit trés bien dans le monde du high tech! ont a franchi un cap niveau prix ! et cela va continuer !
Sur les leaks, c'est assez difficile de dire qui a raison puisque les leaks vont dans tous les sens. Sur ta conclusion, il est vrai que la situation est assez semblable à celle de 2008. (Même si je ne l'ai pas connue, je suis né en 2005.) J'espère également de manière naïf, une baisse importante des tarifs. Sinon, très bonne vidéo. Je te souhaite un excellent début de semaine ! (Ouais, je commence le mardi et fini le samedi. 🙃) PS : Pourquoi ne font-ils plus de bi-GPU ? Trop coûteux ? Pas si intéressant niveau performance ?
Je suis d'accord avec tout sauf les prix. NVIDIA ont le monopole, ils vont sortir un nouveau DLSS, ont investi dans une nouvelle architecture, parlent de gains de perf "énormes", et sont connus pour gonfler les prix exponentiellement depuis ces dernières années. De plus le marché gaming rien à foutre, ils vont dans l'IA maintenant. Nan, les MSRP vont tous prendre 30% sur toutes les cartes à mon avis, on va avoir des 5090 rog strix à 3000 balles et des composants instables sur la durée tellement ça va envoyer du watt, pour au final pas tant que ça en gain perf native 4K / ray tracing. Là où elles seront bonnes c'est en IA. Si on va gagner 20 fps sur un AAA en 4K natif sans RT ça sera déjà bien, et ça vaudra clairement pas son prix. Surtout qu'on aura peut-être pas des proco pour driver ce genre de GPU, en tout cas la 90. Nan c'est une énorme douille qui se prépare du côté de NVIDIA et les gens seront encore trop cons et irons faire des prêts à la conso énorme ou iront vendre leur grand-mère pour se la payer alors que ça vaut 1/4 du prix en réalité.
bonjour à toi, j'ai besoin d'un renseignement , pour utiliser l' I A sur un PC. Souvent il est question d'avoir un minimum de GDDR, mais je suppose que l'interface BUS doit aussi être prise en compte. Donc, ma question est la suivante, pour un budget équivalent, vaut-il mieux mieux acheter une carte avec rtx 4070 16 Go de GDDR6X ou attendre une carte 5000 12 Go avec de la GDDR7 ? Si des gens connaissent la réponse, n'hésitez pas. Merci beaucoup.
Salut, Il faut d'abord te renseigner sur le type de LLM que tu veux utiliser. Pour du 7b il ne devrait pas y avoir de pb avec 12 ou 16gb mais au dessus il risque d'avoir un pb d'espace très rapidement (13b) ce qui t'obligerait à rajouter des layers dans la ram et donc des perfs bien diminué. Pour moi au vu des perfs il vaut toujours mieux avoir 4gb de vram en plus sauf si tu dois aller sur des modèles de cg vraiment ancien tesla p100 par ex
J'aimerais bien aussi savoir mais je pense que la question de la capacité de la vram est quand même rédhibitoire même si la vitesse de la gddr7 est grandement améliorée, la taille du llm ou des asset de texture seront toujours les mêmes, a moins qu'ils mettent au point une technologie de compression pour ne pas être limité par la capacité et profiter de la vitesse supplémentaire fourni par la ddr7. Du coup j'espère vraiment que NVIDIA feront un effort a ce niveau là sur le milieu de gamme mais j'en doute étant donné le prix exorbitant de la ddr7 surtout en début de cycle. Je dis ça mais je ne suis pas sûr pour la question de vitesse/capacité, simplement une suggestion a partir du bon sens.
Avec 16gb je peux mettre un 13b q4 ou q8 je crois mais c'est la limite, du coup les modèle sont quand même bcp moins intéressant que les grand type 70b etc... Avec 12gb tu seras forcément sur du 8b ou 7b peut être en q8. Pour la génération d'image ça sera limite je pense pour faire des images de définition au dessus de 524*524. Mais je ne suis pas expert dans la question, juste un utilisateur lambda
Pour faire de L'IA sur ton PC perso, je pense que c'est pour une formation, prends la version 16 Go Si tu peux trouver une 3090 avec 24 GB de VRAM c'est encore mieux !
Très bonne vidéo, comme d'habitude. Par contre, pour ce qui est de la conclusion, concernant AMD, ce n'est pas à 2008 que celà me fait penser, mais plutôt à 2016, avec les générations des RX 400 & 500 positionnée en milieu de gamme, même les plus gros modèles, en face des monstrueuses GeForce 10.
Chose à noter aussi, AMD a bien dit qu'ils arrêtaient le très haut de gamme POUR LE MOMENT, autrement dit ils n'excluent pas revenir avec du très lourd sur les prochaines générations Si on suit une certaine logique, ça veux effectivement dire qu'ils vont proposer des prix agressif sur le bas et milieu de gamme, par contre ça veux aussi dire que Nvidia a le champs libre pour proposer des 5090 et 5080 encore plus chère, et ils vont pas s'en priver Je pense que cette génération sera encore une fois pas incroyable avec Nvidia qui nous bombarde de marketing pour convaincre d'acheter le milieu de gamme, il y'aura juste des prix un peu plus attractif si on ne veux pas la plus grosse avec AMD, et Nvidia qui va juste baisser légèrement ses prix hors très haut de gamme parce que de toute façon tout le monde veux du Nvidia... Par contre la génération suivante risque d'être intéressante, AMD devrait revenir en force sur le très haut de gamme avec l'architecture sur laquelle ils ont investie il y a déjà un bon moment et qui leur a donné un peu de fil à retordre d'après les leaks, là Nvidia sera obligé de réagir et ça n'en sera que meilleur pour nous. Espérons que ces vieux leaks sont bien réel pour la gen RTX 6000/RX 9000
J'attends avec impatience la RTY 5090 en espérant un prix pas aussi cher que ce qu'on a eu mais je doute fort 😅et sinon ça me parait cohérent ce que tu dis. 😉
pour les cuda core c'est surement la puce complet qui en a 24-26k et pour la difference de cuda entre la 5080 et la 5090 sa s'explique si il veulent sortire une 4080ti dans se cas sa colle
Merci ! Alors il faut acheter quoi pour du 1440p en ce moment ? 4090 à 1000€ pour être tranquille ? Ou une plus petite pour voir ce qui arrive en 2025 ?
Je joue sur un 34 pouces (3440 par 1440) avec un laptop de 3ans branché dessus (3070) je fais tourner BMW et GOW Ragnarok super bien. J'attends les futures 50xx. Si t'as de quoi patienter jusqu'à mars-avril 2025, reste avec ton matos...😅
@@gamingemulation6907 j’ai un ryzen 2600x avec une GTX670 haha. Du coup je peux pas trop attendre… j’hésitais à la base entre une 4070 super pour 565€ ou une 4080 à 1030€. Un avis ?
Merci pour cette vidéo ! Personnellement, je suis super content de Gigabyte côté Nvidia. J’avais une 3090 depuis sa sortie, qui a lâché au bout de 2 ans. Ils m’ont proposé une 4080 OC neuve en remplacement (j’étais donc super gagnant). Depuis, j’en suis plus que satisfait et si les specs que tu annonces se confirment, je compte bien la garder encore deux ans, jusqu’aux futures RTX6000 !
il fallait s'y attendre que les Gpu d'Amd ne rivalise plus avec les Haut de Gamme de Nvidia, il l'avait annoncé dans un article. Leur but c'est de popularisé Radeon dans le milieu gamme (Pc Mr & Mde tout le monde), et une fois popularisé (avec un parc de pc plus important), les Dev vont revenir plus nombreux et codé sur du Amd (car Nvidia est plus présent sur le marché)... C'est un peu reculé pour mieux sauté mais j'avoue je trouve que c'est une bonne stratégie pour ma part :)
Merci pour cette vidéo de qualité. Concernant ton approche, je suis d'accord avec toi. Je pense qu'on peu estimer la moitié de ce qui est annoncé par nvidia en terme de perfs. Marketing is marketing. Concernant les leaks, cela reste des leaks, tout peut être dit, mais l'on peu quand même se faire une petite idée. Reste a voir les premiers tests et les tarifs... Dans tous les cas, il faut patienter que tout soit en place, que les tests officiels soient effectués et ne jamais acheter dans la précipitation. Concernant amd, le fait qu'ils sortent après les fêtes, peut être du aux drivers notamment. Il faut également prendre en compte qu'ils cherchent a rattraper leur retard concernant le RT. Concernant le fait qu'amd a annoncer ne plus faire de cg très haut de gamme, je pense que c'est le segment de la 5090. Il a été précisé que ce ne serait pas définitif, donc ce n'est pas impossible qu'amd reviendra quand même sur ce segment. Le fait qu'amd agisse de la sorte, c'est peut être une stratégie pour faire une surprise a nvidia, ou alors stratégie de parts de marché (parts cg tous publics plus importantes en bas et mid gamme). Cela signifiera que les cg entrée et mid gamme seront plus compétitives et plus accessibles pour la plupart des gens, mais cela signifiera également que la 90 sera open pour n'importe quel tarif. Je me rappelle cette époque et tu fais bien de le rappeler, car la situation actuelle est effectivement très similaire. Je ne pense pas qu'il y aura une grosse baisse de prix pour autant, s'il y en a une. Car tant que les gens claquent un salaire ou deux pour une cg, cela ne changera pas.
Il y a 1 point en revanche qui me met le doute, c'est la consommation annoncée pour la 5080 a 350/400 watts... Cette conso se rapproche de la 4090 avec une architecture améliorée et une finesse également ? Au final, perf proche de la 4090 ? 😅
Attention AMD n'as absolument pas communiqué sur une stratégie commerciale agressive. D'ailleurs dans le communiqué il y parle même d'une gamme de prix allant jusqu'à 500usd (donc hors taxe) ce qui ne change absolument rien au prix actuel
T'a pas écouté, je dis pas qu'ils ont annoncé une baisse des prix, j'ai dis que le vice président semble confirmer la rumeur de l'abandon du très haut de gamme.... La baisse des prix je le dis dans la vidéo, je le déduis avec les infos que l'on a maintenant, ça reste du conditionnel. Ça semble pourtant clair dans la vidéo 🤷
@@hardwarearchive7406 c'était clair dans ta vidéo. Mais je trouve qu'il y a trop d'enthousiasme autour de cette annonce. Et comme pour les générations précédentes je préfère attendre de voir.
@@shionn80 tout dépend jusqu'où ils comptent concurrencer Nvidia, 500$ HT si c'est le prix d'une carte proche de la future 5080 ça pourrait être intéressant. En revanche si c'est plutôt sur un équivalent 5070, c'est différent, bref on verra à la sortie des cartes.
@@hardwarearchive7406oui oui clairement. A chacun des générations on attend AMD sur le rapport prix / perf et ils y reste trop loin. Je pense malheureusement que l'on aura au mieux qu'une equilavent en gamme de type X800 et généralement ça ne concurrence les 70... Et j'en suis triste. J'aimerais bien aussi voir plus gros. Surtout que toute mes machines sont sous linux et NVIDIA sous linux c'est de la m....
Et la 5060 est ce que sa sera une 3090 avec une conso moindre . Les carte graphique a plus de 1000e sa ne m intéressé pas et j ai pas les moyens je m intéressé que au carte graphique a 300e
Non plus proche d'une 3070. La 4060 (potentiellement 10% plus faible que la 5060) est est en dessous d'une 3070 est performance. La série 60 est toujours le bas de gamme beaucoup moins puissant que les gamme au dessus.
@@hardwarearchive7406 sinon je pense que tu as raison au vu des leaks je vois pas également comment la 5080 pourrait battre une 4090 sachant qu'il y'a 30 % entre la 4090 et la 4080 . Je vois plus une carte 10 % moins perf que la 4090...
Merci pour ta video, pour Nvidia, je pense qu’ils vont nommer encore une nième gen de tensor core et nième gen de CUDA core et pour finir un quatrième dlss , le tout noyer avec du gddr7 … AMD va grignoter des parts du marché entrée et milieu de gamme à nvidia
Aie aie aie quand tu donnes les prix des anciennes CG ça me donne envie de chialer... Espérons que tu ais raison et que sur cette génération on ait une vrai évolution du ratio perf/prox dans le bon sens !
Vers 24:34 ... Faut, le FSR4 fonctionnera sur SM6.8, c'est-à-dire des GPU suffisamment puissants pour l'IA (ce qui est le cas pour les GPU moyen et haut gamme RDNA 3 et 3.5). De plus AMD va probablement permettre au Ryzen AI (avec NPU) de participer au processus du FSR 4... comme il l'a fait avec l'AFMF 2 (qui utilise aussi de l'IA pour synchroniser les FRAMES). P.S. Le problème c'est que les youtubers croient qu'il faut obligatoirement des unités dédiées pur faire des calculs IA... il faut dire qu'ils n'ont pas fait math sup. ou d'école d'ingénierie.
apu de la ps5 sa a ete claire c'est rdna 3.5 avec integration rt core type rdna 4 c'est acté sa et pareil pour le fonctionement different des rt core rdna 4
Le gap entre 4080 et 4090 n’est pas proportionnel au nombre dunités de calcul malheureusement, le cache L2 semble insuffisant pour exploiter les 16384 cœurs cuda. Si tu compares la 4080 VS la 4090 cette dernière est 40% plus puissante en performance théoriques hors l’écart moyen en 4K n’est « que » de 25%. Il y a quelque chose qui bride le GPU. Si tu extrapole sur la gamme complète l’écart de performance entre les différentes cartes est +/- égal à la performance théorique, sauf pour la 4090. J’espère qu’ils corrigeront ça avec Blackwell. Si ça t’intéresse j’avais fait tout un tas de tests sur le sujet que je peux t’envoyer.
Je plussoie ! Ma 7900XTX et ses driver timeout a eu raison de moi, j'ai basculé sur une 4090 et je ke regrette pas une seconde, quel plaisir de jouer sans crash aléatoire.
Hello la jeunesse. Personnellement je pense que ces deux cartes feront le double de performances par rapport aux 3000. Juste mon avis. Pour les prix, ça va encore faire mal à nos comptes bancaires malgré les supers bénéfices qu'ils font avec leur IA Idiocratie Américaine, ils ne nous feront pas de kdo. J'ajouterai, que plus ils vont aller vers la miniaturisation, plus ils vont rencontrer d'énormes difficultés. Pour finir, ils savent très bien que nous ne croyons plus au Père Noêl.
L analogie avec 2008 est très intéressante , surtout sur la position nvidia vs amd cependant avec une différence de taille en 2008 nvidia avait un stock énorme de gd92 à écouler , et fort de leur position la série 98xx ne sera qu un rebadge (avec 2 ou 3 bricoles en plus hybrid Power ou gestion sli) . Il est très intéressant aussi de se rappeler que c est en 2008 (encore un hasard …) qu nvidia et qu AMD trouvaient un accord sur leurs condamnations pour entente illicite tacite maintenant artificiellement des prix hauts pendant des années ! Personnellement j ai toujours considéré que ces accords cachés étaient toujours en vigueur. En off beaucoup chez nvidia continuent à dire que leur meilleur allié reste AMD contrastant avec l artificielle guerre guerre savamment entretenue. La tech est un écosystème complexe . ❤❤
Jenpense que tu as une bonne théorie. Justement je passiante avec ma 3080ti , la génération 400 n a pas ete une bonne gen en puissance brut mise a part la 90. Le reste , on a pas gagner énormément en perf par rapport a la serie 3000 qui je le'rappel la 3070 etait la 2080ti avec un tout petit gain en brut. C est pas le cas de la 4070 qui ne tient pas face a la 3080ti bref. J aimerai passer cote amd en espérant qu il se retrappe sur les techno, pour moi c est bien partie. Nvidia c est trop gavé va falloir que ca s arrêt.
Et aussi on aura beau dire pour le moment NVIDIA a toujours le meilleur matos, une très bonne fiabilité et aucun stutterring. Contrairement à AMD, NVIDIA gère aussi professionnellement, niveau perf dans la modélisation, etc... Donc finalement...
@@mickaelb3382 Oui j arrive à jouer confortablement mais depuis que j ai mis un écran wqhd c est plus la même chose. Sa bouffe énormément. Et oui la 3080ti bouffe la 4070 th-cam.com/video/sAxRrC55ebs/w-d-xo.htmlsi=Q-kRWa9YIkxsijQU
vers 24:20 intel est en retard sur AMD et Nvidia en matière de rastérisation et de raytracing. En effet, si ARC (6nm) est un peu plus efficace que RDNA 2 (7nm) en raytracing, ce n'est plus du tout le cas avec RDNA 3 (5/6nm)... et ne parlons pas de la rastérisation qui nettement plus efficace sur RDNA. P.S. Le problème de la plupart des youtubeurs , c'est qu'elle ne maîtrise pas son sujet.
Je crois que si AMD abandonne le très haut de gamme c'est parce qu'ils galèrent avec les drivers des 7900 en multi chip modules et mettent ça sur le dos d'une fausse excuse de stratégie commerciale. Natacha si tu as raison, c'est une bonne nouvelle mais 10% de diff entre une 4080 et une 5080, je vais garder ma 4080 jusqu'au RTX6000 qui seront si je te suis l'équivalent des GTX1000 (enfin on peut toujours rêver ^^)
Très très bonne vidéo ! J'ai bien fait de te suivre ;) Comme d'habitude il faut prendre son temps, attendre de voir les benchs et là on pourra ce décider. J'ai une 6900xt et j'attends de voir pour me décider, mais j'aimerais vraiment prendre une 5080/90 selon le tarif. AMD est moyen en rt/upscaling, en plein mouvement I.A et se concentre sur le ""moyen gamme"".. Nvidia qui nous fait des cartes à +2k qui vont durer dans le temps mais bon à quel prix... J'ai pas envie de donner mon argent à Nvidia. Surtout quand je vois le suivi des cartes amd qui est excellent. Mais y'a pas a dire, amd n'est pas le leader sur les technologies.
Salut, super analyse, merci. Un autre élément à prendre en compte et qui abonde dans ton sens, c'est que la 4090 a été interdite en Chine à cause de sa puissance et la 5080 quant à elle, est bien prévue sur ce marché... comment peut elle être 10% plus performante que la 4090 en prenant ça en considération ?
Vu que je fais de la génération IA, si elle a vraiment 28 G de Vram et qu'elle est a moins de 3000€ j'achèterais surement. Car les cartes pro a 32G ou 48G VRam sont vraiment hors de prix. Ou alors je tenterais de me renseigner sur la possibilité de générer de IA avec 2 cartes RTX 3090 TI FE en NVLink (car j'en ai déjà une). Si je peux exploiter les 48G pour la génération, je sauvegarderais beaucoup d'argent (si c'est possible, mais j'ai un doute).
Merci pour toutes ces infos ... J attends la sortie des 50xx pour remplacer ma 2070 super ... J ai peur du prix quand même... Peut être acheter une 4080 super à l arrivé des 50xx
Y'a même des bench qui permettent d'afficher de faux score . Qui vont par exemple ce basé sur les frequences de base des GPU/CPU (donc non boosté) . Suffit par exemple de voir que la fréquence de base de la 7900XT c'est 1500Mhz (en boost environ 2500Mhz) vs la RTX4080 qui à une fréquence de base à 2000Mhz (en boost 2202Mhz) , donc je resume le bench va calculé les performances avec les fréquences de base du coup on aura un meilleur score pour la RTX4080 . Et ce n'est qu'un exemple parmi tant d'autres. 😉 (Et donc 500Mhz de plus cela parait pas beaucoup mais disons que tu fera 2000 à 3000 points supplémentaire sans problème , chez nous on appel cela une faille et je connais bien NVIDIA ils aiment beaucoup ce genre de faille , qui leurs permet de gonfler leurs score de manière générale). Souvent on s'en rend même compte seulement 1 à 3 ans plus tard en refaisant des test (tout en sachant que les puces AMD ont un meilleur suivi donc beaucoup d'évolution via des maj) on s'aperçoit que les GPU de NVIDIA qui avaient des scores bien plus élevés sont finalement bien plus bas qu'a l'époque de leurs sorti ... Cette marque est une honte . Mais bon continuez d'acheter les loulous ! (Même si il est vrai que NVIDIA niveau suivi essaient de faire un effort donc maintenant vous pouvez être presque sur d'avoir au moins 3 ans de suivi , alors qu'avec AMD Radeon c'est au moins 6 ans 😂😅). PS: le suivi est lié par exemple aussi à des fonctionnalités importantes comme DX12_2 , et autres fonctionnalités comme l'OpenGL/OpenCL/Vulkan etc etc ... Et si vous vérifier vous verrez que c'est du côté d'AMD Radeon qu'on s'aperçoit qu'ils ont un suivi largement meilleur que NVIDIA, comme les R9 300 compatible DX12 alors que les GTX700 de même génération qui ne sont même pas compatible DX12 , bien sûr c'est un excemple , mais un exemple concret qui permer de garder nos GPU bien plus longtemps).
la5080 aura une plus grosse frequence je pence que c'est 2500 en base clock si elle est vraiment en 3 nm avec les gain en transistore plus archi plus augmentation du tdp cuda nouvel gen etc etc elle aura aucun soucis a allez taper la 4090 +
Je partage ton point de vue. En effet AMD reste sur milieu de gamme donc NVIDIA va sortir une 5080 assez proche de la 4080 pour rester en concurrence avec les futures AMD a un prix dans la gamme de ceux d'AMD (un peu plus cher comme d'hab) et puis la 5090 sera ultra chère et ultra perf pour le marché de niche qu'il représente
Bonjour et merci ton avis et ton enquête sont intéressants. Sur l analogie avec 2008 qui t amène à penser à une baisse de prix sur les futures gen, je ne suis pas aussi convaincu. 2 facteurs actuels viennent se rajouter. Les fabricants de cg se tournent vers l ia et les gpu dédiés et minimisent donc leurs productions de gpu gamers en 1. En 2, il y a le cloud gaming qui va naturellement progresser aussi et faire baisser la demande. Je pense donc qu'ils vont garder les prix actuels et le marché qui nous intéresse restera moribond. Je sais je suis toujours d un naturel pessimiste....
@@Keytann je te rassure j'essaie surtout d'être optimiste pour les prix, je doute aussi d'une vraie baisse de prix. Justement pour l'IA, en 2008 c'est le début des Microarchitecture unifié (CUDA chez Nvidia et stream pour AMD), une révolution pour les pro qui a propulsé le GPGPU, même si c'était dans une autre mesure qu'avec l'ia. Pour le cloud gaming, je pense que ça reste encore très marginal pour vraiment impacter le marché (pour le moment).
Perso j'attend des cartes pour faire de la 1440p 144Hz pour 300€. Ils ont pétés un plombs sur les prix et j'ai pas l'intention de changer tout mon set up pour 3K€ ou plus.
Les prix ne baisseront pas pour le grand public bi3n au contraire dans la mesure ou la demande des grands groupes est très forte en raison de l’ia. Nvidia a le carnet de commande plein et ne suit pas la cadence.
C'est intéressant cette hypothèse sur la redite de 2008. Cependant, la différence principale ici, c'est qu'on est sur une génération qui a duré 2 ans au lieu de 1 an en 2008. Avoir une nouvelle génération qui n'augmente pas ses perfs serait vachement problématique surtout quand on voit les derniers jeux sortis qui ont du mal à tourner à fond sur le hardware actuel. On risque de n'avoir aucune évolution graphique pendant encore 2 ans 😕
@@hardwarearchive7406 C'est pas d'aujourd'hui que NVIDIA surfacture ses cartes. Donc je ne vois pas en quoi ils iraient changé celà sachant que les joueurs continuent de privilégier Nvidia. Je parle juste en terme de puissance/prix et je comprends tout à fait que les pro utilisent plus du NVIDIA entièrement compatible et optimisé pour leurs logiciels.
Pourtant si tu regarde ces derniers temps il y a eu une grosse baisse tarifaire chez Nvidia, seul la 4090 y échappe, ça fait au moins deux générations qu'on avait pas eu ça, pour moi ça montre bien que la concurrence fait son effet. Quoi qu'il en soit j'ai parfaitement conscience qu'il y a peu de chances, c'est ce que je dis dans la vidéo, mais je préfère voir ça de manière optimiste. Après ce que je lui demande c'est sa source car actuellement je n'ai vu absolument aucune information sur l'orientation des prix chez nvidia, donc si j'ai loupé quelque chose j'aimerais à minima savoir de quoi il s'agit...
quan tu dit les performance on sais pas si ces avec dlss etc etc mais non en fait c'est juste des calcule theorique en prenant le nombre de core le gain architectural et la vitesse memoire et la vitesse du core gpu donc y a pas de consideration de dlss framegen etc ;) et quan on parle de 45% de puissance en plus sa depend comment on les calcule avec nvidia y a fort a parier que sa soit sur les fp32 vu qu'il -on calcule la perf brute comme sa vu que le fps ne reflete pas vraiment les performence reel des carte ^^
JE pense que tu es dans le vrai , toutes façon le très haut de gamme est un marché de niche, c'est plutot une vitrine pour les constructeurs, j'ai une 2070 S qui a 5 ans, je vais changer en decembre pour une 7800... donc j'ai de la marge, je joue en 1080 et avec la prochaine je vais jouer en QHD
À voir quelle sera la strat d'amd, moi tout ce que j'attend c'est une 8600 avec au moins 20% de plus que la 7, une conso en dessous des 150w et des perfs en raster meilleures que les verts, le tout a moins de 340 balles. Quoi on peut plus rêver ? ^^
@@hardwarearchive7406 yep! aussi mais dans ce cas on demande de passer a 12go et donc un bus de 192, là ça peut etre costaud mais c'est avant tout une carte pour du FHD donc 16go c'est a minima future proof mais pas indispensable ^^
Si AMD et Intel peuvent arrivé avec des cartes beaucoup moins cher que Nvidia et serte moins performantes. Mais avec des performances pour faire tourner tout les jeux en 4k avec les potards relativement haut. Les gens vont p-e vouloir acheter autre chose et les prix chuteront de tout les côtés. En se croisant les doigts que les gens soient moins pigeons ce coup-ci.
2 หลายเดือนก่อน
La stratégie d'avoir un flagship complètement overkill semble avoir bien réussi à nVidia. Je ne serais pas du tout surpris de voir une RTX 5090 démesurée, qui bottleneckera n'importe quel processeur même en 4K, et surtout qui coutera 3000 balles. Le tout étant davantage destiné à l'image de marque, et à équiper les streamers friqués et les influenceurs avant tout. En parallèle de ça, je te rejoins : la 5080 sera à peine plus perf que la 4080 Super, et l'écart entre 5090 et 5080 sera je pense encore plus abyssal que sur la gén. précédente (au moins jusqu'au refresh). Côté AMD, il est clair que la priorité c'est pas les GPU PC. J'imagine qu'avec la rentabilité des APU pour les appareils type "Steam Deck", et le marché des consoles sur lequel ils sont archi devant nVidia (et ils vont fournir Sony pour la PS6 en plus)... c'est pas vraiment leur priorité ! Pour autant, je pense que le FSR 4 sera aussi dispo sur les cartes RDNA 3 car elles disposent de "dedicated AI accelerators" (2 par compute units de mémoire). Pour le reste, je prédis un vieux flop pour leur RX 8800. Non pas que la carte sera mauvaise, mais s'ils gardent cette sale habitude de coller nVidia au plus près au niveau des tarifs, ils perdront leur principal avantage compétitif, exactement comme ils l'ont fait ces 3 dernières années.
Le gain architectural serait entre 10-20% à nombre de coeur égal donc je table entre 20% et 30% et de gain 5080 par rapport a la 4080. 10-18% de plus 5080 vs 4080S donc au final la 5080 au mieux serait 10% moins perf qu'un 4090 Plus qu'a prier pour que Nvidia ne profite pas trop du fait que AMD ne compte pas sortir de RDNA4 haut de gamme en augmentant les prix..
Je vais devoir changer mon pc d'ici fin 2025 / début 2026 (merci la fin du support windows 10 et mon vieux bousin qui pourtant marche bien), j'espérais que niveau norme CG (connecteur) ça serait enfin viable mais je vois que ça ne sera surement toujours pas le cas......J'espère que les alimentations d'ici là auront enfin ce qu'il faut sans devoir changer après. On va vraiment attendre au max pour changer j'ai l'impression. Après je suis pas client de la gamme des xx90, on restera sur du xx70 voir xx80 si les prix sont pas trop élevé comme sur la génération 40xx. Pour le moment je reste avec mon 6700k et ma 3070 (légèrement bridée du coup mais pour du 1440p ça fait bien le taf)
Moi je pense que il se positionnerons pas sur le haut de gamme car sa revient a cher et donc sa doit etre vendu tres cher et hors mi une petite niche de la population qui pourront et seront pres a mettre le prix ils feront pas un gros benefice avec sa car sa laisse 2 option soit la vendre cher en prenant le benefice minimum soit la vendre tres cher en faisant un benefice normal dans les 2 cas pour moi la baisse de prix sur la gamme inferieure es possible mais les 5090 vont etre difficilement accessible encore plus que la generation 4090 a l epoque attendez vous a un prix clairement indécent
aie aie aie, le passage sur le RT de AMD , AAUUUU SECOOUUUURS , RDNA 3 n'utilise pas de BVH assez "complexe" et il y a du retard sur l'archi des rt cores, comme si il voulait que ça fonctionne mais pas que ça performe, il y a plein de détail qui font que les performances des RT CORES des carte AMD sont pas ouf, mais pour ça il faut s'y connaitre en termes d'architectures GPU..... vraiment déçu du manque de précision et de renseignement.... il vont clairement faire des miracle maintenant qu'il savent quoi faire , on sait tout depuis les RX6000/RTX3000, là où nvidia a vraiment mit au point des RT cores "performant" ensuite il sont aller encore plus loin sur les 4000 mais bon, c'est pas pour ça que je vais apprécier cyberpunk en pathtracing avec ma 4090, entre les artefact et le flou de toute ces connerie de dlss et frame gen. le RT a encore des années devant lui avant de devenir une vrai méthode de rendu viable. puis il y a bien des "tensor cores" dans les RX7000... vraiment ta raté la conf du 3 novembre d'y a 2ans ?
J'avais sauter la partie NVIDIA (car je ne suis pas intéressé) je viens de la regarder. Niveau prédiction. Je prévois une 5090 a 2500$ hors taxe (donc probablement 3000€) Et 2000$ la 5080TI si elle existe et sinon 1800$ la 5080 non TI. ....
ptdr, nvidia vous fait tous roucoulé tu crois qu'il en ont quelque chose a branlé ptdr vraiment, il sorte des graphique a base de frame gen et tous les "gamers" applaudisse avec les fesses, les RTX 4000 on était la plus grosse escroquerie technologique des 10 dernière années. pour des gens qui comme moi travail et font des projets dans l'ia c'est ok , mais pour faire tourné valo vous n'avez même pas besoin d'une carte nvidia, faut allez chez amd serieux.
LA GTX 690 ( avec 2GPU dedans ) consommer plus est elle prenait pas autant de place, même la HD 7990 qui était un four, ( 1000 w je crois en TDP ) elle prenez que 2 slots mais elle était très longue. C'est fini les bus 512 bits comme sur les HD6000, 7000 series ? Nvidia avez aussi du 512 mais je me rappel plus les quels.car 448 bit c'est batard comme chiffre un autre truc la ATI HD 2900 pro etais à 249e et la XT à 299 cetais les cartes les plus puissante de amd à l'époque, alors qu'aujourd'hui sont équivalente la 7900 XT est à 700e et la 7900XTX 1000e c'est pas normal. OK la 2900 pro est moins puissante mais pour l'époque on pouvais pas faire beaucoup mieux ( la 8800 GTX etais un peux au dessus mais pareil les prix passé pas les 600€ ) donc c'est quoi la justification de prix aussi élévé me parler pas D'IA car c'etais déjà des prix du même ordre à l'époque des GTX 1080. On va dire que les prix on commencer à s'envoler à partir de 900 series même si le 700 series etais déjà chère
Les GTX et les RTX ne se comparent pas vraiment. Il n’y a pas d’IA dans les GTX. À l’époque dont tu parles, il n’y avait que la puissance brute des cartes. J’achète des Nvidia depuis 20 ans et pour moi, la meilleure des GTX restera la 1080Ti que j’avais acheté 640€ en décembre 2017
Ils sont même pas en gravure 3nm normalement y'a d'la marge, et niveau innovation ils veulent juste pas perdre trop d'argent mais c'est certain qu'ils pourraient "penser" de nouvelles architectures, c'est juste pas encore rentable comparé à leurs business actuel ;)
Il est plus que temps que les prix baissent ; on est dans le ridicule là
Seul le temps et la patience nous eclairerons, soyons sage et malin et n'achetons pas aveuglement surtout si il n'y a pas de reel besoin (gardez vos vieilles CG tant qu'elles fonctionnent!!).
Merci.
Ma RTX 4090 est en pls sur blender.
Salut. J'aimerais tellement que tu est raison pour les futurs gpu. Je trouve AMD a sortie une bonne gen avec les 6000 et la nouvelle stratégie de se concentrer sur le milieu entré de gamme me semble bonne. J'espère il vont reprendre des part de marché car vraiment trop déséquilibre en faveur de NVIDIA et on le vois bien sur les prix actuel. Belle video. Bon weekend a tous.
Il est raison ? Toi aussi tu être raison ? "tu aies raison" Même "que tu ai raison" nous ferez moins saigner des yeux, au moins c est le bon verbe. tékricomtukoze et tukozenpickard! ^^
Confondre être et avoir..
Pauvre France.
Désolé pour vous si ça vous choque. Bonne journée quand même a vous et au autre
@@LalouToinoula nonchalance j’adore 😂
"Que tu aies"!
"une baisse des prix" oui bien sur, l'espoir fais vivre.👍
a ferformance egale oui comme chaque gen
Mais tu enchaînes !! ❤ merci
Oui j'avais préparé pas mal de sujets pendant ma pause, du coup j'arrive à avancer vite sur les vidéos en ce moment, mais ça devrait vite ralentir 😅
Si AMD réitère le coup des 4850 et 4870, ils auront mon pognon
@@ayleisma7590 je vais chez AMD à la prochaine de toute façon 😐..
C'était un âge d'or pour AMD Radeon qui sont restés imbattable jusqu'aux HD7900/R9 200 . NVIDIA revenu dans le game que depuis les GTX900 qui pourtant étaient largement moins perf que celles d'AMD mais bon c'est pas le sujet , puis y'a eu les 1000/2000/3000/4000 donc y'a pas si longtemps qu'ils sont revenus dans le game. 😉
Puis coup de maître avec les RX570/580/590 8Gb , les RX5000 Largement sous estimé mais pareil y'avait pas mieux niveau rapport qualité-prix. (Largement sous estimé car déjà en GDDR6 , gravé en 7nm TSMC , et déjà en PCIe 4.0 , alors que les RTX2000 étaient encore en PCIe 3.0 par exemple).
Puis y'a eu le COVID et des sois disant pénurie de matériaux et la les prix ce sont envolés !! AMD Radeon pour le moment on l'air de vouloir refaire ce qu'ils avaient fait avec Polaris20 (RX400/500) et RDNA1 (RX5000) . D'ailleurs si des gens en ont encore savent que certaines sont encore loin d'être obsolète au moin jusqu'en 1440p .
(Bien sûr je ne mentionne pas les RX VEGA 56 et 64 ainsi que la Radeon VII qui étaient les GPU les plus puissant du marché grand publique , d'ailleurs RDNA est le descendant direct de la Radeon VII sans la mémoire HBM2 , malheureusement vendu trop chère donc ce fut un flop , mais encore aujourd'hui elles sont assez puissante pour une bonne majorité des jeux vidéo).
Pour NVIDIA ... Merci le Marketing et le mouton gamers qui connaissent rien aux vrais composants performant . D'ailleurs la seule carte NVIDIA actuelle plus performante que les GPU d'AMD Radeon RX7000 c'est la 4090 ... 4090 qui est loin de faire des records de vente . AMD Radeon vont misé sur ce qui ce vend le mieux et ce qui sera largement suffisant pour les gamers .
@@t1m-kintek2k49 " VEGA 56 et 64 ainsi que la Radeon VII qui étaient les GPU les plus puissant du marché grand publique " ha we d'accord ? je crois pas ta oublier la 1080-1080ti fin bref et juste comme sa la 4090 j'en vois partous donc sa se vend quand meme bien
Ces intros, toujours pépite !
Bravo pour ton retour ! Merci a toi !
Ce serait de très bonnes nouvelles. Pour moi l'ideal serait un GPU qui permettrait de jouer en 4k à un prix raisonnable serait vraiment bien venu.
sachant que nvidia a le monopole tu peux te brosser
Pardon, mais quel intérêt de jouer en 4K quand on est pas blindé (et même pour ceux qu'ils le sont) ? AUCUN. Sauf si ton écran fait 10 mètres de diagonale, peut-être... Faut arrêter de se laisser endormir par le markéting. Passer d'un pauvre écran 16/9 avec un taux de rafraichissement de la mort qui tue (et qui sert à rien non plus) à un écran 21/9 ou 32/9 en QHD et même FullHD (si ça existe encore) ça c'est jouissif !
Pour jouer en 4K avec un écran 16/9, il te faut une carte graphique 3 fois plus cher que celle de ton voisin qui joue en FullHD, une alim plus balaise aussi et donc plus cher. Le PC chauffe, faut le refroidir, ça fait du bruit et ton compteur Linky s'envole au point que EDF est obligé de redémarrer la centrale de Fessenheim. Fais comme si j'étais ton meilleur ami et oublie la 4K, c'est une grosse connerie ! 😀 Et pour en remettre une couche, tu pourrais me dire qu'avec la 4K tu n'as pas besoin d'un gros processeur, contrairement à ceux qui jouent en FullHD et tu aurais raison, sauf que toi quand tu arrêtes de jouer tu te retrouves un PC poussif, une merde quoi, alors que le gars avec son gros processeur, quand il ne joue pas, il a une bête de course au bout des doigts pour faire ce qu'il veut 😎
Wow t'es vraiment remonté! Je comprends les arguments que tu avances et je les partages pour la majeure partie. Ceci dit quand ma télé 1080p est morte je l'ai changé pour une 4 k120hz qui m'a coûté moins chère (même si elle est plus grande) que la 1080p. Alors j' aimerais vraiment que les manufacturiers nous offrent des cartes qui permettent de tirer profit des avancées qu'on a eu sur le plan des écrans, sans que que le prix soit stratosphérique.
Merci pour ces retours. Espérons que tu aie juste.
Elle est bien cette chaîne 🤙
Tes intros sont à mourir de rire😅. Belle vidéo et je pense que le scénario de 2008 est le bluprint de ce qui nous attend. Et vivement que ce soit bon pour nos portefeuilles.
Petite vidéo du samedi matin qui fait plaisir.
J’ai adoré l’intro ! 😂
Le moustachu dans l'intro 😂🤣
Très bonne vidéo ! Big up ! 😉 👍
on est pas en 2008, Vous oubliez le presque monopole haut de gamme de TMSC, vu le prix des wafers qui augmentent très fortement ça joue on le voie déjà sur la ps5 pro, la production orienté IA, l'augmentation des prix de la mémoire, sauf si la bulle de l'IA éclate et tout baissera
je trouve cela quand même bizarre que la 5080 n' ait que +-10% en plus par rapport a une 4080S ... si c' est le cas ca craint du boudin ...
Coté baisse de prix j' émets quelques doutes , certes la situation intrinsèque est la même qu' en 2008 mais maintenant NVIDIA n' est plus que dans le gaming , et avec les demandes dans l' IA y a de fortes chances qu' ils ne se cassent pas le tronc et continuent dans leur appleisation et maintiennent une marge élevée car la demande reste stratosphérique et si ce n'est pas nous qui les achèteront ça sera un autre secteur ...
C'était un peu pareil avec les début de Cuda en 2008, mais même pour moi une vraie baisse reste peu probable, essayons d'être optimiste 😉
@@hardwarearchive7406prix des plaques de silicium vous grimper jusqu'à 2025 +25%
J'espère qu il y aura autant de vidéo que pour la ps5pro
Vu les prix qui vont sortir pour les séries 5000
Face au faigape par rapport au séries 4000😅
franchement comme dab, tes video toujours aussi bonne, hate que tu puisse reprendre twitch mais quand tu auras plus de temps, j'espère que ça se passe bien maintenant à la Réunion ^^
Bonne vidéo, gardons espoir, j'aime bien ta théorie 🥰
je suis prêt pour la 5090 j'ai fait tiré par edf une ligne électrique que pour elle 😁
J'espère que tu t'es surtout entraîné à écarter les fesses 😂
Du 6mm2 j'espère, sinon tu risque de tout cramer par effet joule 😅
OUI !! je suis hyper d'accord sur le Gap entre les Normales et le " TI " , les modeles de maintenant n'ont qu'un gap minime, juste une loterie de cilicium .... " vasi Jean Jean, cette carte passe les 200mhz de plus !!.? met la en "TI" et colle lui 300€ de plus "
Pour le 3 nm, tu devrais corriger de manière audio car je pense qu'on est plusieurs à écouter ce genre de vidéo plutôt qu'à regarder 😎
Kopite à confirmer que ça restera en 5nm améliorer (4NP).
@@vorkzen4767 C'est déjà du N4P pour les 4000, c'est AMD qui sont en 5 et 6 pour les MCM et 6 pour les 7600 au 7800xt. Nvidia va gagner qu'une seul avancer de gravure (4nm) et AMD 2 (5 à 4 pour le centre du mcm et 6 à 4 pour le reste des puces).
Il n'y aura baisse de prix que s'il y a crash du marché du jeu vidéo comme en 1982.
Pas eu besoin de ça en 2008 😉
intéressante analyse ! c'est compliqué de savoir ce que des entreprises qui valent des milliards peuvent décider de toute façon
l'intro m'a tué !!! PTDR !!!
Bah oui pour AMD qui dit IA dit unité optimisée pour du FP8 ou 4. Donc FSR4 uniquement sur des cartes compatibles.
Je me lance sur le prono : RTX590 1800€, RTX5080 990€, RTX5070 700€, RTX5060 500€, RX8800XT 600€ RX8700 450€, RX8600 300€
Si comme je le pense AMD comble une bonne partie de son retard sur les techno, ce sera RX8800XT pour moi
La génération 5000 aura des prix élevés ! NVIDIA a réussi à faire passer la pilule pour les 4000 niveau prix ! ce n'est pas pour changer tout maintenant avec les 5000 surement pas ! ont le voit trés bien dans le monde du high tech! ont a franchi un cap niveau prix ! et cela va continuer !
merci pour la vidéo👍
Sur les leaks, c'est assez difficile de dire qui a raison puisque les leaks vont dans tous les sens.
Sur ta conclusion, il est vrai que la situation est assez semblable à celle de 2008. (Même si je ne l'ai pas connue, je suis né en 2005.)
J'espère également de manière naïf, une baisse importante des tarifs.
Sinon, très bonne vidéo. Je te souhaite un excellent début de semaine ! (Ouais, je commence le mardi et fini le samedi. 🙃)
PS : Pourquoi ne font-ils plus de bi-GPU ? Trop coûteux ? Pas si intéressant niveau performance ?
Il y plein de raison à l'abandon des Bi-GPU, conso et chauffe absurde, gain de perfs finalement réduit, stuttering, fiabilité mauvaise..
@@hardwarearchive7406 Oki Doki.
Salut , c'est quoi la barre noire que t'as au dessus de ton écran droit ?
@@ericcartman8848 une lampe pour éclairer mon bureau 😉
@@hardwarearchive7406 Je m'attendais à un truc Hi tech :D
@@ericcartman8848 😅
Je suis d'accord avec tout sauf les prix. NVIDIA ont le monopole, ils vont sortir un nouveau DLSS, ont investi dans une nouvelle architecture, parlent de gains de perf "énormes", et sont connus pour gonfler les prix exponentiellement depuis ces dernières années. De plus le marché gaming rien à foutre, ils vont dans l'IA maintenant.
Nan, les MSRP vont tous prendre 30% sur toutes les cartes à mon avis, on va avoir des 5090 rog strix à 3000 balles et des composants instables sur la durée tellement ça va envoyer du watt, pour au final pas tant que ça en gain perf native 4K / ray tracing. Là où elles seront bonnes c'est en IA. Si on va gagner 20 fps sur un AAA en 4K natif sans RT ça sera déjà bien, et ça vaudra clairement pas son prix. Surtout qu'on aura peut-être pas des proco pour driver ce genre de GPU, en tout cas la 90.
Nan c'est une énorme douille qui se prépare du côté de NVIDIA et les gens seront encore trop cons et irons faire des prêts à la conso énorme ou iront vendre leur grand-mère pour se la payer alors que ça vaut 1/4 du prix en réalité.
pas mieux
bonjour à toi, j'ai besoin d'un renseignement , pour utiliser l' I A sur un PC. Souvent il est question d'avoir un minimum de GDDR, mais je suppose que l'interface BUS doit aussi être prise en compte. Donc, ma question est la suivante, pour un budget équivalent, vaut-il mieux mieux acheter une carte avec rtx 4070 16 Go de GDDR6X ou attendre une carte 5000 12 Go avec de la GDDR7 ? Si des gens connaissent la réponse, n'hésitez pas. Merci beaucoup.
Salut,
Il faut d'abord te renseigner sur le type de LLM que tu veux utiliser. Pour du 7b il ne devrait pas y avoir de pb avec 12 ou 16gb mais au dessus il risque d'avoir un pb d'espace très rapidement (13b) ce qui t'obligerait à rajouter des layers dans la ram et donc des perfs bien diminué. Pour moi au vu des perfs il vaut toujours mieux avoir 4gb de vram en plus sauf si tu dois aller sur des modèles de cg vraiment ancien tesla p100 par ex
@@mangakapassione6177 Merci beaucoup pour tes conseils. Et quelle rapidité... 👍👏
J'aimerais bien aussi savoir mais je pense que la question de la capacité de la vram est quand même rédhibitoire même si la vitesse de la gddr7 est grandement améliorée, la taille du llm ou des asset de texture seront toujours les mêmes, a moins qu'ils mettent au point une technologie de compression pour ne pas être limité par la capacité et profiter de la vitesse supplémentaire fourni par la ddr7. Du coup j'espère vraiment que NVIDIA feront un effort a ce niveau là sur le milieu de gamme mais j'en doute étant donné le prix exorbitant de la ddr7 surtout en début de cycle. Je dis ça mais je ne suis pas sûr pour la question de vitesse/capacité, simplement une suggestion a partir du bon sens.
Avec 16gb je peux mettre un 13b q4 ou q8 je crois mais c'est la limite, du coup les modèle sont quand même bcp moins intéressant que les grand type 70b etc... Avec 12gb tu seras forcément sur du 8b ou 7b peut être en q8. Pour la génération d'image ça sera limite je pense pour faire des images de définition au dessus de 524*524. Mais je ne suis pas expert dans la question, juste un utilisateur lambda
Pour faire de L'IA sur ton PC perso, je pense que c'est pour une formation, prends la version 16 Go
Si tu peux trouver une 3090 avec 24 GB de VRAM c'est encore mieux !
Très bonne vidéo, comme d'habitude. Par contre, pour ce qui est de la conclusion, concernant AMD, ce n'est pas à 2008 que celà me fait penser, mais plutôt à 2016, avec les générations des RX 400 & 500 positionnée en milieu de gamme, même les plus gros modèles, en face des monstrueuses GeForce 10.
Chose à noter aussi, AMD a bien dit qu'ils arrêtaient le très haut de gamme POUR LE MOMENT, autrement dit ils n'excluent pas revenir avec du très lourd sur les prochaines générations
Si on suit une certaine logique, ça veux effectivement dire qu'ils vont proposer des prix agressif sur le bas et milieu de gamme, par contre ça veux aussi dire que Nvidia a le champs libre pour proposer des 5090 et 5080 encore plus chère, et ils vont pas s'en priver
Je pense que cette génération sera encore une fois pas incroyable avec Nvidia qui nous bombarde de marketing pour convaincre d'acheter le milieu de gamme, il y'aura juste des prix un peu plus attractif si on ne veux pas la plus grosse avec AMD, et Nvidia qui va juste baisser légèrement ses prix hors très haut de gamme parce que de toute façon tout le monde veux du Nvidia...
Par contre la génération suivante risque d'être intéressante, AMD devrait revenir en force sur le très haut de gamme avec l'architecture sur laquelle ils ont investie il y a déjà un bon moment et qui leur a donné un peu de fil à retordre d'après les leaks, là Nvidia sera obligé de réagir et ça n'en sera que meilleur pour nous. Espérons que ces vieux leaks sont bien réel pour la gen RTX 6000/RX 9000
J'attends avec impatience la RTY 5090 en espérant un prix pas aussi cher que ce qu'on a eu mais je doute fort 😅et sinon ça me parait cohérent ce que tu dis. 😉
pour les cuda core c'est surement la puce complet qui en a 24-26k et pour la difference de cuda entre la 5080 et la 5090 sa s'explique si il veulent sortire une 4080ti dans se cas sa colle
A prendre avec d'énormes pincettes, donc carrément des pinces.😀
Merci ! Alors il faut acheter quoi pour du 1440p en ce moment ? 4090 à 1000€ pour être tranquille ? Ou une plus petite pour voir ce qui arrive en 2025 ?
Je joue sur un 34 pouces (3440 par 1440) avec un laptop de 3ans branché dessus (3070) je fais tourner BMW et GOW Ragnarok super bien. J'attends les futures 50xx.
Si t'as de quoi patienter jusqu'à mars-avril 2025, reste avec ton matos...😅
A 500 balles suivant les sites , pour du 1440p en rasterisation , tu peux partir sur une rx 7800xt, qui dispose en plus de 16 go de Vram.
@@gamingemulation6907 j’ai un ryzen 2600x avec une GTX670 haha. Du coup je peux pas trop attendre… j’hésitais à la base entre une 4070 super pour 565€ ou une 4080 à 1030€. Un avis ?
Merci pour cette vidéo !
Personnellement, je suis super content de Gigabyte côté Nvidia.
J’avais une 3090 depuis sa sortie, qui a lâché au bout de 2 ans. Ils m’ont proposé une 4080 OC neuve en remplacement (j’étais donc super gagnant). Depuis, j’en suis plus que satisfait et si les specs que tu annonces se confirment, je compte bien la garder encore deux ans, jusqu’aux futures RTX6000 !
il fallait s'y attendre que les Gpu d'Amd ne rivalise plus avec les Haut de Gamme de Nvidia, il l'avait annoncé dans un article. Leur but c'est de popularisé Radeon dans le milieu gamme (Pc Mr & Mde tout le monde), et une fois popularisé (avec un parc de pc plus important), les Dev vont revenir plus nombreux et codé sur du Amd (car Nvidia est plus présent sur le marché)... C'est un peu reculé pour mieux sauté mais j'avoue je trouve que c'est une bonne stratégie pour ma part :)
Merci pour cette vidéo de qualité.
Concernant ton approche, je suis d'accord avec toi. Je pense qu'on peu estimer la moitié de ce qui est annoncé par nvidia en terme de perfs. Marketing is marketing. Concernant les leaks, cela reste des leaks, tout peut être dit, mais l'on peu quand même se faire une petite idée. Reste a voir les premiers tests et les tarifs... Dans tous les cas, il faut patienter que tout soit en place, que les tests officiels soient effectués et ne jamais acheter dans la précipitation.
Concernant amd, le fait qu'ils sortent après les fêtes, peut être du aux drivers notamment. Il faut également prendre en compte qu'ils cherchent a rattraper leur retard concernant le RT. Concernant le fait qu'amd a annoncer ne plus faire de cg très haut de gamme, je pense que c'est le segment de la 5090. Il a été précisé que ce ne serait pas définitif, donc ce n'est pas impossible qu'amd reviendra quand même sur ce segment.
Le fait qu'amd agisse de la sorte, c'est peut être une stratégie pour faire une surprise a nvidia, ou alors stratégie de parts de marché (parts cg tous publics plus importantes en bas et mid gamme). Cela signifiera que les cg entrée et mid gamme seront plus compétitives et plus accessibles pour la plupart des gens, mais cela signifiera également que la 90 sera open pour n'importe quel tarif. Je me rappelle cette époque et tu fais bien de le rappeler, car la situation actuelle est effectivement très similaire. Je ne pense pas qu'il y aura une grosse baisse de prix pour autant, s'il y en a une. Car tant que les gens claquent un salaire ou deux pour une cg, cela ne changera pas.
Il y a 1 point en revanche qui me met le doute, c'est la consommation annoncée pour la 5080 a 350/400 watts... Cette conso se rapproche de la 4090 avec une architecture améliorée et une finesse également ? Au final, perf proche de la 4090 ? 😅
Attention AMD n'as absolument pas communiqué sur une stratégie commerciale agressive. D'ailleurs dans le communiqué il y parle même d'une gamme de prix allant jusqu'à 500usd (donc hors taxe) ce qui ne change absolument rien au prix actuel
T'a pas écouté, je dis pas qu'ils ont annoncé une baisse des prix, j'ai dis que le vice président semble confirmer la rumeur de l'abandon du très haut de gamme....
La baisse des prix je le dis dans la vidéo, je le déduis avec les infos que l'on a maintenant, ça reste du conditionnel.
Ça semble pourtant clair dans la vidéo 🤷
@@hardwarearchive7406 c'était clair dans ta vidéo. Mais je trouve qu'il y a trop d'enthousiasme autour de cette annonce. Et comme pour les générations précédentes je préfère attendre de voir.
@@shionn80 tout dépend jusqu'où ils comptent concurrencer Nvidia, 500$ HT si c'est le prix d'une carte proche de la future 5080 ça pourrait être intéressant.
En revanche si c'est plutôt sur un équivalent 5070, c'est différent, bref on verra à la sortie des cartes.
@@hardwarearchive7406oui oui clairement. A chacun des générations on attend AMD sur le rapport prix / perf et ils y reste trop loin.
Je pense malheureusement que l'on aura au mieux qu'une equilavent en gamme de type X800 et généralement ça ne concurrence les 70...
Et j'en suis triste. J'aimerais bien aussi voir plus gros.
Surtout que toute mes machines sont sous linux et NVIDIA sous linux c'est de la m....
Et la 5060 est ce que sa sera une 3090 avec une conso moindre .
Les carte graphique a plus de 1000e sa ne m intéressé pas et j ai pas les moyens je m intéressé que au carte graphique a 300e
Non plus proche d'une 3070. La 4060 (potentiellement 10% plus faible que la 5060) est est en dessous d'une 3070 est performance.
La série 60 est toujours le bas de gamme beaucoup moins puissant que les gamme au dessus.
@@charlesfoster523 non alors pour quoi la 1060 c est une 980 qui consomme moins.
Salut je pense pas ue nvidia aura le 3nm . Je pense plutôt au n4p . En effet Apple a préempté le 3nm pour début 2025.
@@brasiliafc2138 effectivement il y a un doute la dessus, certains disent qu'il est possible qu'on reste sur du 5nm
@@hardwarearchive7406 sinon je pense que tu as raison au vu des leaks je vois pas également comment la 5080 pourrait battre une 4090 sachant qu'il y'a 30 % entre la 4090 et la 4080 . Je vois plus une carte 10 % moins perf que la 4090...
Merci pour ta video, pour Nvidia, je pense qu’ils vont nommer encore une nième gen de tensor core et nième gen de CUDA core et pour finir un quatrième dlss , le tout noyer avec du gddr7 … AMD va grignoter des parts du marché entrée et milieu de gamme à nvidia
Aussi belle initiative, rien de tel de dire son pressentiment sur le futur de ces cartes graphiques, merci encore pour cela
Ton lien pour réduction de W10 ne sont pas bon . . .
Aie aie aie quand tu donnes les prix des anciennes CG ça me donne envie de chialer... Espérons que tu ais raison et que sur cette génération on ait une vrai évolution du ratio perf/prox dans le bon sens !
@@fabianbustori8331 oui en 15ans les prix ont explosé
Une version de la 7900xtx a 500 us sa se vendrait comme des petits pain chaud !
Vers 24:34 ... Faut, le FSR4 fonctionnera sur SM6.8, c'est-à-dire des GPU suffisamment puissants pour l'IA (ce qui est le cas pour les GPU moyen et haut gamme RDNA 3 et 3.5). De plus AMD va probablement permettre au Ryzen AI (avec NPU) de participer au processus du FSR 4... comme il l'a fait avec l'AFMF 2 (qui utilise aussi de l'IA pour synchroniser les FRAMES).
P.S. Le problème c'est que les youtubers croient qu'il faut obligatoirement des unités dédiées pur faire des calculs IA... il faut dire qu'ils n'ont pas fait math sup. ou d'école d'ingénierie.
apu de la ps5 sa a ete claire c'est rdna 3.5 avec integration rt core type rdna 4 c'est acté sa et pareil pour le fonctionement different des rt core rdna 4
Le gap entre 4080 et 4090 n’est pas proportionnel au nombre dunités de calcul malheureusement, le cache L2 semble insuffisant pour exploiter les 16384 cœurs cuda. Si tu compares la 4080 VS la 4090 cette dernière est 40% plus puissante en performance théoriques hors l’écart moyen en 4K n’est « que » de 25%. Il y a quelque chose qui bride le GPU. Si tu extrapole sur la gamme complète l’écart de performance entre les différentes cartes est +/- égal à la performance théorique, sauf pour la 4090. J’espère qu’ils corrigeront ça avec Blackwell. Si ça t’intéresse j’avais fait tout un tas de tests sur le sujet que je peux t’envoyer.
On est plus sur 30-33% de perf en plus en 4k pour la 4090 vs 4080, mais oui tu à raison.
Je plussoie ! Ma 7900XTX et ses driver timeout a eu raison de moi, j'ai basculé sur une 4090 et je ke regrette pas une seconde, quel plaisir de jouer sans crash aléatoire.
Hello la jeunesse. Personnellement je pense que ces deux cartes feront le double de performances par rapport aux 3000. Juste mon avis. Pour les prix, ça va encore faire mal à nos comptes bancaires malgré les supers bénéfices qu'ils font avec leur IA Idiocratie Américaine, ils ne nous feront pas de kdo. J'ajouterai, que plus ils vont aller vers la miniaturisation, plus ils vont rencontrer d'énormes difficultés. Pour finir, ils savent très bien que nous ne croyons plus au Père Noêl.
L analogie avec 2008 est très intéressante , surtout sur la position nvidia vs amd cependant avec une différence de taille en 2008 nvidia avait un stock énorme de gd92 à écouler , et fort de leur position la série 98xx ne sera qu un rebadge (avec 2 ou 3 bricoles en plus hybrid Power ou gestion sli) . Il est très intéressant aussi de se rappeler que c est en 2008 (encore un hasard …) qu nvidia et qu AMD trouvaient un accord sur leurs condamnations pour entente illicite tacite maintenant artificiellement des prix hauts pendant des années ! Personnellement j ai toujours considéré que ces accords cachés étaient toujours en vigueur. En off beaucoup chez nvidia continuent à dire que leur meilleur allié reste AMD contrastant avec l artificielle guerre guerre savamment entretenue. La tech est un écosystème complexe . ❤❤
Jenpense que tu as une bonne théorie.
Justement je passiante avec ma 3080ti , la génération 400 n a pas ete une bonne gen en puissance brut mise a part la 90.
Le reste , on a pas gagner énormément en perf par rapport a la serie 3000 qui je le'rappel la 3070 etait la 2080ti avec un tout petit gain en brut.
C est pas le cas de la 4070 qui ne tient pas face a la 3080ti bref.
J aimerai passer cote amd en espérant qu il se retrappe sur les techno, pour moi c est bien partie.
Nvidia c est trop gavé va falloir que ca s arrêt.
la 4070S ne tient pas non plus face à la 3080ti?
@@skorpion7319la 4070 super c'est à peu près une 3090 en 1440 p et une 3080 ti en 4k .
Ta 3080ti peut encore tenir 3-4ans facile tu devrais même pas être dans l'attente pour le moment.
Et aussi on aura beau dire pour le moment NVIDIA a toujours le meilleur matos, une très bonne fiabilité et aucun stutterring.
Contrairement à AMD, NVIDIA gère aussi professionnellement, niveau perf dans la modélisation, etc...
Donc finalement...
@@mickaelb3382
Oui j arrive à jouer confortablement mais depuis que j ai mis un écran wqhd c est plus la même chose.
Sa bouffe énormément.
Et oui la 3080ti bouffe la 4070
th-cam.com/video/sAxRrC55ebs/w-d-xo.htmlsi=Q-kRWa9YIkxsijQU
vers 24:20 intel est en retard sur AMD et Nvidia en matière de rastérisation et de raytracing. En effet, si ARC (6nm) est un peu plus efficace que RDNA 2 (7nm) en raytracing, ce n'est plus du tout le cas avec RDNA 3 (5/6nm)... et ne parlons pas de la rastérisation qui nettement plus efficace sur RDNA.
P.S. Le problème de la plupart des youtubeurs , c'est qu'elle ne maîtrise pas son sujet.
3nm encore quelque genération est on va parler en ångström ou de picometre
si tu veux une baisse des prix ils faut qu'il reste sur la meme finesse de gravure car là je pense tu reve fort ^^
Je doute aussi d'une vrai baisse de prix, j'essaie d'être optimiste, 😅
Mais pour de vrai certain disent que ça resterait du 5nm tsmc.
Je crois que si AMD abandonne le très haut de gamme c'est parce qu'ils galèrent avec les drivers des 7900 en multi chip modules et mettent ça sur le dos d'une fausse excuse de stratégie commerciale.
Natacha si tu as raison, c'est une bonne nouvelle mais 10% de diff entre une 4080 et une 5080, je vais garder ma 4080 jusqu'au RTX6000 qui seront si je te suis l'équivalent des GTX1000 (enfin on peut toujours rêver ^^)
Très très bonne vidéo ! J'ai bien fait de te suivre ;)
Comme d'habitude il faut prendre son temps, attendre de voir les benchs et là on pourra ce décider.
J'ai une 6900xt et j'attends de voir pour me décider, mais j'aimerais vraiment prendre une 5080/90 selon le tarif.
AMD est moyen en rt/upscaling, en plein mouvement I.A et se concentre sur le ""moyen gamme""..
Nvidia qui nous fait des cartes à +2k qui vont durer dans le temps mais bon à quel prix...
J'ai pas envie de donner mon argent à Nvidia. Surtout quand je vois le suivi des cartes amd qui est excellent.
Mais y'a pas a dire, amd n'est pas le leader sur les technologies.
Salut, super analyse, merci.
Un autre élément à prendre en compte et qui abonde dans ton sens, c'est que la 4090 a été interdite en Chine à cause de sa puissance et la 5080 quant à elle, est bien prévue sur ce marché... comment peut elle être 10% plus performante que la 4090 en prenant ça en considération ?
Vu que je fais de la génération IA, si elle a vraiment 28 G de Vram et qu'elle est a moins de 3000€ j'achèterais surement.
Car les cartes pro a 32G ou 48G VRam sont vraiment hors de prix.
Ou alors je tenterais de me renseigner sur la possibilité de générer de IA avec 2 cartes RTX 3090 TI FE en NVLink (car j'en ai déjà une). Si je peux exploiter les 48G pour la génération, je sauvegarderais beaucoup d'argent (si c'est possible, mais j'ai un doute).
A voir avec les cartes Intel aussi
Merci pour toutes ces infos ... J attends la sortie des 50xx pour remplacer ma 2070 super ... J ai peur du prix quand même... Peut être acheter une 4080 super à l arrivé des 50xx
👍👍👍
Y'a même des bench qui permettent d'afficher de faux score . Qui vont par exemple ce basé sur les frequences de base des GPU/CPU (donc non boosté) .
Suffit par exemple de voir que la fréquence de base de la 7900XT c'est 1500Mhz (en boost environ 2500Mhz) vs la RTX4080 qui à une fréquence de base à 2000Mhz (en boost 2202Mhz) , donc je resume le bench va calculé les performances avec les fréquences de base du coup on aura un meilleur score pour la RTX4080 . Et ce n'est qu'un exemple parmi tant d'autres. 😉
(Et donc 500Mhz de plus cela parait pas beaucoup mais disons que tu fera 2000 à 3000 points supplémentaire sans problème , chez nous on appel cela une faille et je connais bien NVIDIA ils aiment beaucoup ce genre de faille , qui leurs permet de gonfler leurs score de manière générale).
Souvent on s'en rend même compte seulement 1 à 3 ans plus tard en refaisant des test (tout en sachant que les puces AMD ont un meilleur suivi donc beaucoup d'évolution via des maj) on s'aperçoit que les GPU de NVIDIA qui avaient des scores bien plus élevés sont finalement bien plus bas qu'a l'époque de leurs sorti ... Cette marque est une honte . Mais bon continuez d'acheter les loulous ! (Même si il est vrai que NVIDIA niveau suivi essaient de faire un effort donc maintenant vous pouvez être presque sur d'avoir au moins 3 ans de suivi , alors qu'avec AMD Radeon c'est au moins 6 ans 😂😅).
PS: le suivi est lié par exemple aussi à des fonctionnalités importantes comme DX12_2 , et autres fonctionnalités comme l'OpenGL/OpenCL/Vulkan etc etc ... Et si vous vérifier vous verrez que c'est du côté d'AMD Radeon qu'on s'aperçoit qu'ils ont un suivi largement meilleur que NVIDIA, comme les R9 300 compatible DX12 alors que les GTX700 de même génération qui ne sont même pas compatible DX12 , bien sûr c'est un excemple , mais un exemple concret qui permer de garder nos GPU bien plus longtemps).
la5080 aura une plus grosse frequence je pence que c'est 2500 en base clock si elle est vraiment en 3 nm avec les gain en transistore plus archi plus augmentation du tdp cuda nouvel gen etc etc elle aura aucun soucis a allez taper la 4090 +
oh oui des prix comme la rx580 à -200€ 🎉🎉🎉
Ils se mettent d'accord sur les prix AMD et NVIDIA
Je partage ton point de vue. En effet AMD reste sur milieu de gamme donc NVIDIA va sortir une 5080 assez proche de la 4080 pour rester en concurrence avec les futures AMD a un prix dans la gamme de ceux d'AMD (un peu plus cher comme d'hab) et puis la 5090 sera ultra chère et ultra perf pour le marché de niche qu'il représente
Nvidia a déjà parlé de sa politique tarifaire sur la gen 5: EN HAUSSE !!!
Bonjour et merci ton avis et ton enquête sont intéressants. Sur l analogie avec 2008 qui t amène à penser à une baisse de prix sur les futures gen, je ne suis pas aussi convaincu. 2 facteurs actuels viennent se rajouter. Les fabricants de cg se tournent vers l ia et les gpu dédiés et minimisent donc leurs productions de gpu gamers en 1. En 2, il y a le cloud gaming qui va naturellement progresser aussi et faire baisser la demande. Je pense donc qu'ils vont garder les prix actuels et le marché qui nous intéresse restera moribond. Je sais je suis toujours d un naturel pessimiste....
@@Keytann je te rassure j'essaie surtout d'être optimiste pour les prix, je doute aussi d'une vraie baisse de prix.
Justement pour l'IA, en 2008 c'est le début des Microarchitecture unifié (CUDA chez Nvidia et stream pour AMD), une révolution pour les pro qui a propulsé le GPGPU, même si c'était dans une autre mesure qu'avec l'ia.
Pour le cloud gaming, je pense que ça reste encore très marginal pour vraiment impacter le marché (pour le moment).
Perso j'attend des cartes pour faire de la 1440p 144Hz pour 300€. Ils ont pétés un plombs sur les prix et j'ai pas l'intention de changer tout mon set up pour 3K€ ou plus.
Les prix ne baisseront pas pour le grand public bi3n au contraire dans la mesure ou la demande des grands groupes est très forte en raison de l’ia. Nvidia a le carnet de commande plein et ne suit pas la cadence.
C'est intéressant cette hypothèse sur la redite de 2008. Cependant, la différence principale ici, c'est qu'on est sur une génération qui a duré 2 ans au lieu de 1 an en 2008. Avoir une nouvelle génération qui n'augmente pas ses perfs serait vachement problématique surtout quand on voit les derniers jeux sortis qui ont du mal à tourner à fond sur le hardware actuel. On risque de n'avoir aucune évolution graphique pendant encore 2 ans 😕
Alors justement, c'est encore un point commun avec 2008, car les geforce 8000 ont justement durer 2 ans elles datait de 2006.
@@hardwarearchive7406 il me semble qu'on était plutôt sur fin 2006 et début 2008. Il y avait moins d'un an et demi d'écart.
❤
Il faudra combien de déclarations officielles du PDG de Nvidia qui a prévenu que la gen 5 sera plus chère !!!
Autant s'acheter une voiture.
T'a une source du communiqué de nvidia la dessus ?
@@hardwarearchive7406 C'est pas d'aujourd'hui que NVIDIA surfacture ses cartes.
Donc je ne vois pas en quoi ils iraient changé celà sachant que les joueurs continuent de privilégier Nvidia.
Je parle juste en terme de puissance/prix et je comprends tout à fait que les pro utilisent plus du NVIDIA entièrement compatible et optimisé pour leurs logiciels.
Pourtant si tu regarde ces derniers temps il y a eu une grosse baisse tarifaire chez Nvidia, seul la 4090 y échappe, ça fait au moins deux générations qu'on avait pas eu ça, pour moi ça montre bien que la concurrence fait son effet.
Quoi qu'il en soit j'ai parfaitement conscience qu'il y a peu de chances, c'est ce que je dis dans la vidéo, mais je préfère voir ça de manière optimiste.
Après ce que je lui demande c'est sa source car actuellement je n'ai vu absolument aucune information sur l'orientation des prix chez nvidia, donc si j'ai loupé quelque chose j'aimerais à minima savoir de quoi il s'agit...
quan tu dit les performance on sais pas si ces avec dlss etc etc mais non en fait c'est juste des calcule theorique en prenant le nombre de core le gain architectural et la vitesse memoire et la vitesse du core gpu donc y a pas de consideration de dlss framegen etc ;) et quan on parle de 45% de puissance en plus sa depend comment on les calcule avec nvidia y a fort a parier que sa soit sur les fp32 vu qu'il -on calcule la perf brute comme sa vu que le fps ne reflete pas vraiment les performence reel des carte ^^
JE pense que tu es dans le vrai , toutes façon le très haut de gamme est un marché de niche, c'est plutot une vitrine pour les constructeurs, j'ai une 2070 S qui a 5 ans, je vais changer en decembre pour une 7800... donc j'ai de la marge, je joue en 1080 et avec la prochaine je vais jouer en QHD
Gddr7, 4nm, 550w, jusqu’a 40% (supposé) de perf en plus
bonjour la 5090 a 2500€
À voir quelle sera la strat d'amd, moi tout ce que j'attend c'est une 8600 avec au moins 20% de plus que la 7, une conso en dessous des 150w et des perfs en raster meilleures que les verts, le tout a moins de 340 balles.
Quoi on peut plus rêver ? ^^
Un peu plus de Vram que sur la 7600 aussi, il serait temps d'abandonner les 8go 😉
@@hardwarearchive7406 yep! aussi mais dans ce cas on demande de passer a 12go et donc un bus de 192, là ça peut etre costaud mais c'est avant tout une carte pour du FHD donc 16go c'est a minima future proof mais pas indispensable ^^
Si AMD et Intel peuvent arrivé avec des cartes beaucoup moins cher que Nvidia et serte moins performantes. Mais avec des performances pour faire tourner tout les jeux en 4k avec les potards relativement haut. Les gens vont p-e vouloir acheter autre chose et les prix chuteront de tout les côtés. En se croisant les doigts que les gens soient moins pigeons ce coup-ci.
La stratégie d'avoir un flagship complètement overkill semble avoir bien réussi à nVidia. Je ne serais pas du tout surpris de voir une RTX 5090 démesurée, qui bottleneckera n'importe quel processeur même en 4K, et surtout qui coutera 3000 balles. Le tout étant davantage destiné à l'image de marque, et à équiper les streamers friqués et les influenceurs avant tout.
En parallèle de ça, je te rejoins : la 5080 sera à peine plus perf que la 4080 Super, et l'écart entre 5090 et 5080 sera je pense encore plus abyssal que sur la gén. précédente (au moins jusqu'au refresh).
Côté AMD, il est clair que la priorité c'est pas les GPU PC. J'imagine qu'avec la rentabilité des APU pour les appareils type "Steam Deck", et le marché des consoles sur lequel ils sont archi devant nVidia (et ils vont fournir Sony pour la PS6 en plus)... c'est pas vraiment leur priorité !
Pour autant, je pense que le FSR 4 sera aussi dispo sur les cartes RDNA 3 car elles disposent de "dedicated AI accelerators" (2 par compute units de mémoire). Pour le reste, je prédis un vieux flop pour leur RX 8800. Non pas que la carte sera mauvaise, mais s'ils gardent cette sale habitude de coller nVidia au plus près au niveau des tarifs, ils perdront leur principal avantage compétitif, exactement comme ils l'ont fait ces 3 dernières années.
Le gain architectural serait entre 10-20% à nombre de coeur égal donc je table entre 20% et 30% et de gain 5080 par rapport a la 4080.
10-18% de plus 5080 vs 4080S donc au final la 5080 au mieux serait 10% moins perf qu'un 4090
Plus qu'a prier pour que Nvidia ne profite pas trop du fait que AMD ne compte pas sortir de RDNA4 haut de gamme en augmentant les prix..
Je vais devoir changer mon pc d'ici fin 2025 / début 2026 (merci la fin du support windows 10 et mon vieux bousin qui pourtant marche bien), j'espérais que niveau norme CG (connecteur) ça serait enfin viable mais je vois que ça ne sera surement toujours pas le cas......J'espère que les alimentations d'ici là auront enfin ce qu'il faut sans devoir changer après. On va vraiment attendre au max pour changer j'ai l'impression. Après je suis pas client de la gamme des xx90, on restera sur du xx70 voir xx80 si les prix sont pas trop élevé comme sur la génération 40xx. Pour le moment je reste avec mon 6700k et ma 3070 (légèrement bridée du coup mais pour du 1440p ça fait bien le taf)
Je ne crois pas du tout à une baisse des prix. Allez, je parie sur une 5090 avec un MSRP à 1699$ voire 1799$.
Je part chez amd des la sortie des serie rx 8000 .
Moi je pense que il se positionnerons pas sur le haut de gamme car sa revient a cher et donc sa doit etre vendu tres cher et hors mi une petite niche de la population qui pourront et seront pres a mettre le prix ils feront pas un gros benefice avec sa car sa laisse 2 option soit la vendre cher en prenant le benefice minimum soit la vendre tres cher en faisant un benefice normal dans les 2 cas pour moi la baisse de prix sur la gamme inferieure es possible mais les 5090 vont etre difficilement accessible encore plus que la generation 4090 a l epoque attendez vous a un prix clairement indécent
Eh beh, si AMD, fait une rx 8700 xt 25% plus perf que ma rx 6950 xt, en plus des nouvelles technos, je reste chez eux :D
C'est indigeste le nombre de pub
Oui mais tout ça pour avoir des futurs jeux qui tournent à 60 FPS avec la future 5090 avec path traycing donc bon ...
aie aie aie, le passage sur le RT de AMD , AAUUUU SECOOUUUURS , RDNA 3 n'utilise pas de BVH assez "complexe" et il y a du retard sur l'archi des rt cores, comme si il voulait que ça fonctionne mais pas que ça performe, il y a plein de détail qui font que les performances des RT CORES des carte AMD sont pas ouf,
mais pour ça il faut s'y connaitre en termes d'architectures GPU.....
vraiment déçu du manque de précision et de renseignement....
il vont clairement faire des miracle maintenant qu'il savent quoi faire , on sait tout depuis les RX6000/RTX3000, là où nvidia a vraiment mit au point des RT cores "performant"
ensuite il sont aller encore plus loin sur les 4000 mais bon, c'est pas pour ça que je vais apprécier cyberpunk en pathtracing avec ma 4090, entre les artefact et le flou de toute ces connerie de dlss et frame gen.
le RT a encore des années devant lui avant de devenir une vrai méthode de rendu viable.
puis il y a bien des "tensor cores" dans les RX7000...
vraiment ta raté la conf du 3 novembre d'y a 2ans ?
J ai failli virer la vidéo quand j ai écouter l anglais 😂
J'avais sauter la partie NVIDIA (car je ne suis pas intéressé) je viens de la regarder.
Niveau prédiction. Je prévois une 5090 a 2500$ hors taxe (donc probablement 3000€)
Et 2000$ la 5080TI si elle existe et sinon 1800$ la 5080 non TI.
....
10% en plus que la 4080 super ?? je n'y crois pas, c'est trop faible et ca couterait trop à fabriquer pour rien
ptdr, nvidia vous fait tous roucoulé tu crois qu'il en ont quelque chose a branlé ptdr
vraiment, il sorte des graphique a base de frame gen et tous les "gamers" applaudisse avec les fesses, les RTX 4000 on était la plus grosse escroquerie technologique des 10 dernière années.
pour des gens qui comme moi travail et font des projets dans l'ia c'est ok , mais pour faire tourné valo vous n'avez même pas besoin d'une carte nvidia, faut allez chez amd serieux.
TSMC augmente les prix...Comment AMD ferai le contraire ?? Au pire ont aura des rx8900 à 900€
RTX 5000 ? Laisses moi deviner : 5000 euros ?
LA GTX 690 ( avec 2GPU dedans ) consommer plus est elle prenait pas autant de place, même la HD 7990 qui était un four, ( 1000 w je crois en TDP ) elle prenez que 2 slots mais elle était très longue.
C'est fini les bus 512 bits comme sur les HD6000, 7000 series ? Nvidia avez aussi du 512 mais je me rappel plus les quels.car 448 bit c'est batard comme chiffre
un autre truc la ATI HD 2900 pro etais à 249e et la XT à 299 cetais les cartes les plus puissante de amd à l'époque, alors qu'aujourd'hui sont équivalente la 7900 XT est à 700e et la 7900XTX 1000e c'est pas normal. OK la 2900 pro est moins puissante mais pour l'époque on pouvais pas faire beaucoup mieux ( la 8800 GTX etais un peux au dessus mais pareil les prix passé pas les 600€ ) donc c'est quoi la justification de prix aussi élévé me parler pas D'IA car c'etais déjà des prix du même ordre à l'époque des GTX 1080. On va dire que les prix on commencer à s'envoler à partir de 900 series même si le 700 series etais déjà chère
Les GTX et les RTX ne se comparent pas vraiment. Il n’y a pas d’IA dans les GTX. À l’époque dont tu parles, il n’y avait que la puissance brute des cartes. J’achète des Nvidia depuis 20 ans et pour moi, la meilleure des GTX restera la 1080Ti que j’avais acheté 640€ en décembre 2017
je pens nvidia et amd sont arrivé au bout de l'innovation et performance ils vont misé sur IA
Ils sont même pas en gravure 3nm normalement y'a d'la marge, et niveau innovation ils veulent juste pas perdre trop d'argent mais c'est certain qu'ils pourraient "penser" de nouvelles architectures, c'est juste pas encore rentable comparé à leurs business actuel ;)