Nvidia vient juste de révolutionner l'I.A ?
ฝัง
- เผยแพร่เมื่อ 23 มี.ค. 2024
- Nvidia vient d'annoncer les GPU Blackwell GB200 avec 30x les performances en inference comparé à la génération précédente.
Formations: cours.cocadmin.com
Newsletter: mailchi.mp/118f9876cefe/cocadmin
Rejoignez le discord: / discord
Twitter: / cocadmin
Instagram: / cocadmin
Tiktok: / cocadmin - วิทยาศาสตร์และเทคโนโลยี
Quand une carte réseau a plus de ram que mon pc fixe 😢
du moment qu'ils fournissent aussi le réacteur nucléaire pour faire fonctionner tout cela...
On m'avait expliqué que ce qui était paradoxal en matière de technologie c'est que bien souvent ça progresse en terme de capacités mais en parallèle en terme de consommation énergétique ça devient souvent plus performant et optimisé.
On m'avait expliqué ça en terme de fabrication de cryptomonnaie, les vieux GPU n'étaient pas rentable en terme de capacités de calculs par rapport à l'énergie utilisée pour faire tourner cela.
Je ne sais pas si c'est vrai pour tout mais ça se ressent aussi sur les ampoules, par exemple la première ampoule 💡 jamais inventée est plus energievore qu'une ampoule moderne (genre une led).
Pour le prix...ils devraient le donner
@@FrozenZerg Exact
@@FrozenZergon gagne en efficacité mais ça me couvrira jamais les gain de performance. pour couvrir 30 % de performance supplémentaire, il faudrait 30% d'efficacité en plus, ce qui n'arrive jamais.
tu prend l'exemple d'une ampoule mais on fait en sorte de conserver le même éclairage.
mais si tu prendre l'exemple des carte graphique, c'est totalement différent, on les veux plus performante a chaque génération.
tu prend les carte graphique des année 2000 c’était a peine 150W/h, dans les année 2010 c’était 300 Watt/h, aujourd'hui c'est plus 600 Watt/h et c'est la même chose avec les processeur.
Malgré qu'on gagne en performance/Watt a chaque génération, les PC consomme de plus en plus. C'est l'effet rebond, c'est nous, consommateur qui somme responsable de cela parce qu'on en demande plus.
@@acoustikr34 Paradoxe de Braess en théorie des jeux. Rajouter une voie sur la route augmente le nombre de vehicules, et n'a aucune incidence sur le trafic. Pour la conso/puissance des GPUs c'est pareil.
Super vidéo, ca fait un bon résumé du GTC 😎 merci a toi.
Si je peux me permettre quelques petites corrections :
- tu parles de 6KW a dissiper d'où le watercooling. Mais si la carte consomme 6KW, toute la puissance n'est pas dissipée en chaleur, et heureusement, sinon il ne resterait plus rien pour les cpu/gpu eux même. 🙃
- Concernent le reseau, tu parles de 2 cartes reseaux alors que sur l'infographie il semble y en avoir 4. Mais je peux me tromper.
- Et dernier point, en FP4 sur 3 bit ça ne te fait que 8 combinaisons maximums. Donc plutot de 0 à 8 ou -4 à +4. Sachant que je pense que c'est un peu simplifier comme raisonnement car sur une de tes diapos on vois que les formats sont en virgule flotante. Donc avec gestion de la mantisse et de l'exposant. Ce qui change la plage. 👨✈️
Merci en tout cas pour ton travail !
une vidéo de cocadmin c'est mieux que noël
vrm c'est une bénédiction
❤ c'est un miracle que cette vidéo a faite sans musique autrement dit une vidéo professionnelle que je pourrais la voir 2 ou 3 fois dans un mois . Merci beaucoup et j'espère que tu ne mettras jamais la musique dans tes vidéos 😊
T'a quoi contre la musique? C'est quoi cette mentalité de vieux aigri?
Il y bien un "habillage" sonore avec des bruitages, mais pas de musique ,qui peuvent parfois polluer certaines vidéos (je parles pour l'ensemble des "tutubeurs").
ça fait du bien pour l'écoute.Merci.
@cocadmin, t'avais vu ces calculateurs spéciaux utilisés à une époque pour simuler la logique des architectures de nouveaux processeurs ou gpu ? C'était courant y a une vingtaine d'année. J'me souviens plus si c'étaient des FPGA ou pas, mais c'était de la grosse bécane, possiblement vectorielle. J'étais tombé sur un article de magazine qui parlait de ça y a 20 piges, impossible de trouver la même info sur le net, c'était dans un labo, l'engin avait son propre système de refroidissement, on aurait presque cru voir un Cray mais c'était plutôt taillé comme un frigo chelou, l'engin était énorme et simulait un processeur entier, pour valider l'architecture afin qu'il n'y ait pas de bug hardware une fois transposée sur le silicium.
Merci, j'attendais justement une vulgarisation venant de toi
vidéo de qualité autant dans la forme que dans le fond, bravo !!
Stylé la vidéo (explications, montage, ambiance, tout)!👌
Merci pour tes vidéos qui permettent de bien comprendre le sujet
Incroyable la vidéo, c’était hyper interessant et passionnant
Vidéo débreif des annonces au top, merci !
Salut! J'étais dans le SAP center lors de la keynote de Jensen à GTC et c'était vraiment très technique la partie GPUs pour des infras... et bien heureusement que t'es là pour faciliter la compréhension et vulgariser les concepts. C'est certain que ta vidéo reste technique et qu'il faut un minimum de background tech en GPU et IA pour bien comprendre mais je trouve que tu apportes une belle valeur ajoutée en vulgarisant autant que possible. GG mec!!
Je connaissais pas la chaine,super travail de montage etc ,sa change des youtubeur qui font defiler leur ecran fenetre par fenetre pour en foutre le moins possible !
Je m abonne
donc ils n'ont rien révolutionné ? il ne font que mettre a grande echelle ce qu'on sait depuis le debut ?
en gros oui, enlever les bottleneck qui empechaient d'aller a cette echelle, donc les changements sont surtout au niveau de l'infra
Maintenant imaginons ils arrivent à faire le même mais en 3 nanomètres c’est dingue
@@fusiongamingpley ils viennent de passer a un cycle de 1an au lieu de 2ans par generation donc surement pour l'année prochaine !
Merci 😊 j ai pas compris grand chose mais j adore tes videos
Lol, c'est littéralement l'histoire des semi-conducteurs
Genial. Toujours intéressante tes videos. Merci cocadmin
super intéressant 👍, çà donne bien l'idée du domaine de Nvidia dans l'infra de l'IA. est ce qu'ils ont aussi parlé des accès au storage/data ? y a bottleneck si tu passe du 800Gb infiniband à un acces Cloud ?
Trop bien expliquer . Merci beaucoup 👍✔️
Excellente vulgarisation, merci beaucoup 😉 !
svp big boss c'etait à quelle date la conference a eu lieu ?
Merci pour toutes ces infos!
belle couleur l'image de la vidéo le vert tout ça j'aime beaucoup
Merci pour les images (et le son)💞
Pouce UP 👍
J'imagine la puissance quand il vont passer en 3 nanomètres puis en 2. Est-ce que tout ça est pour le bien commun ou . . . ? Et comment vont ils approvisionner l'ensemble en énergie est aussi une grande question qui mériterait bien une vidéo (car tu sais les faire intéressantes et accessibles au plus grand nombre)
Merci pour les explications ! j'espère que tu continueras avec les 5000
Encore une vidéo bien cool, attention à la taille des texte, sur portable c’est compliqué à lire :)
Très bonne vidéo, très intéressant, je veux bien celle sur les RTX5000 😅
très bien expliqué merci
une vidéo hyper détaillée tu régale!❄
Super vidéo mister !
Encore une super vidéo, merci
Merci pour la vid ! super interessant !
merci pour ton analyse
Incroyable la vidéo !!
Hâte de voir les impact sur les ia
Merci pour les infos
Tu devrais faire une vidéo en nous présentant tes extensions chrome :)
ce qui est bien c'est que ca coute pas cher
et que j'ai la place de le mettre dans mon setup le datacenter
stp tu peut fais une video pour nous montrer comment utilise les apk de programation
Très intéressant. D'où vient votre support de laptop svp ? ;-)
C’est un stand portable moche en plastique premier prix d’Amazon :)
@@cocadmin merci !
Ça serait intéressant une analyse de la prochaine rtx 5090. Je compte me le procurer.
salut, une vidéo haute qualité, respect, the king.
Une centrale électrique pour alimenter ce data Center ?
T’es le meilleur continue 🎉❤
j'ai pas encore tout regardé mais groq annonce 300 tokens/s (llama-2 70B) et le GB200 116 .... bon pour nvidia on ne connait pas le llm utilisé pour annoncer les chiffres.... du coup vrai révolution ?
yep va y avoir une guéuerre entre entre le LPU et Nvidia !
merci top comme d'hab
On va pouvoir bientôt traversé le temps 😆 La télépathie ça existe, je regardais justement une de tes anciennes vidéo.
2:38 Les transistors ne sont pas forcement plus petits quand on passe de 4nm a 3nm etc, c'est principalement la densité qui augmente. Bon je chipote un peu parce qu'en fait la video est excellente.
En Flops/$ est-ce que c’est mieux que la génération d’avant ?
Ou bien l’avantage c’est essentiellement qu’on peut faire tenir des modèles qui tenaient pas en mémoire avant ?
le prix annoncé par puce est similaire a la generation precedente mais comme la ils te refourgue leur cpu en plus et leur switch etc la facture monte plus vite. Mais meme le prix double ca vaut quand meme le coup si t'es perf 4x.
En vrai simple curiosité, genre demain j'arrive à m'en procurer pour X raison, y a til moyen de câler ça dans un Windows et faire tourner des jeux dessus ?
mdr imagine le gestionnaires des taches avec des dizanes de cpu et centaines de gpu (après je crois que de coté logiciel donc windows c un seul gpu)
yaura surement pas de driver pour, et meme si tu arrive a en bidouller un, plein de fonctionalité ne donne pas de gain de perf pour les jeux 3d (fp4, clustering, 192g de ram etc) Donc t'aura possiblement des moin bonne perf qu'avec une rtx :)
Ya Linus qui a fait un teste avec la A100 si jamais ca t interesse (résultats plutot decevants) th-cam.com/video/zBAxiQi2nPc/w-d-xo.htmlsi=-60Upawj3nT6Jsve
Toute la puissance pouvant être développée est juste incroyable mais niveau consomation c'est énorme aussi. Je ne sais pas trop quoi en penser même si c'est une avancée, cela reste extrêmement coûteux en énergie. Merci pour votre travail !
Une chose à garder en tête, c'est notre capacité à modeler nos outils à l'aide de la génération d'outils précédentes. Avec un marteau on forge des couteaux, des pinces, des poinçons, etc, puis un meilleur marteau, et de meilleurs couteaux, pinces, poinçons... Depuis l'avènement de l'informatique, l'électronique s'est pris une accélération fulgurante par itération à chaque décennie. Aujourd'hui vous vous doutez bien qu'on fait calculer les nouveaux circuits avec des algo entraînés par IA, pas d'secret, et des performances qui atomisent la génération précédente de GPU à chaque fois... J'vous dis pas le nombre de matheux qui doivent bosser chez eux...
c'est trop cool son enthousiasme pour le sound design. on voit que c'est un petit kiff 🤣🤣
ahah, j'me suis fait la même réflexion en matant la conf d'Nvidia, simple, efficace, ça devient même une petite musique, ça joue encore plus sur la hype du truc.
Cet homme mérite amplement son like ! 👍
Et encore, attend la prochaine génération avec des semi conducteurs de 2-3 nanometres.
Et la ReRam.
jaime trop ta presentation
est les effet
Merci 👌👍
rouuu, çà devient monstrueux ! Vingt diou....avec ce big bazar de boost ...ils vont finir par atteindre l'AGI ??? ^^
les dernières IA peuvent tenir la dragée en conversation avec son avec un humain.....mon job de téléconseiller n'existera plus dans 5 ans ...l'IA sera bien efficace que moi 😅 et pourtant j'suis pas mauvais 🤨
Oui c'est très bien tout ça, mais est ce que ce DATA center sera capable de solutionner ma parte de cheveux ?! JE NE CROIS PAS !
Le design du GPU est déja beaucoup trop stylé
hate de voir un port de doom sur ces cartes
WOOW, c'est fou ! trop passionnante comme vidéo, c'est des fou NVidia ^^
le nom que je donne aux goat en classe
A savoir que les process N4 N3.... ne riment plus à rien de nos jours...
il faudrais plutôt s'intéresser la densité qu'on peux retirer de certaines architectures en fonction du process
et je ne sais pas pourquoi ils sont resté sur le process N4P mais je pense que c'est par rapport au fait que c'est un process haute performance ce que n'est pas forcément le process N3
en effet ce qu'utilise Apple ce n'est pas des processus haute performance mais plutôt des process à consommation réduite (ce qui ne veux pas dire que les puces ne sont pas très bonnes mais juste Apple cherche l'efficacité plutôt que les perfs brutes à tout prix en Watts consommés)
Bref c'est pas du tout comparable et ça mériterais plus de recherches de ta part....
ce serai bien que tu parles et donc compare les puces groq aux monstres Nvidia. Je pense que la GB200 vont souffrir de la comparaison ;)
T'as abusé des j-cut là x)
Nan mais ça fait plaisr de voir la forme aussi soignée
ca permet de faire avancer la video 2sec plus vite a chaque jcut ;)
J'ai vu que Grog se spécialisait dans des puces spéciales inférence, est-ce que ça ne serait pas plus économique d'associer moins de gpu avec des puces du genre LPU mais spécialisées en video par exemple ?
Les cartes Groq sont bien pour génerer du contenu par contre, tu ne peux pas les utiliser pour entrainer ton modele
non car leur solution est plus générique et leur permet de faire du LLM et d'autres modèles avec un degré de performance équivalent à des circuits spécifiques. La souplesse est un gros avantage sur un marché en perpetuel changement.
'fin, vous vous doutez bien que pour en être là où ils sont c'est qu'ce sont pas des branlos en maths et qu'ils ont déjà fait leur étude comparative pour calculer leur feuille de route stratégique
Tsais C’est ce pote passionné que l’on aime côtoyer
incroyable cette analyse
Amélioration on peut dire 👌
Révolution ! C'est un peut exagéré non
Sinon merci pour cette superbe explication ❤
16:59 ils ont encore "un NAS" caché dans leur manche 😁
Ah chui pas le seul a avoir tilté dessus
@@KahroSynetic🙂🤫
en gros c essentiellement de la surenchere ? pas de methode archi ingenieuses pour avoir un boost de capacité ??
Après ils ne peuvent pas révolutionner leurs architecture chaque année 'on plus, ils optimise, enlève/limite les embouteillage ect...
À 11:14 il parle de chiffrement homomorphe (FHE) ?
non juste chiffrement du traffic interne
de quoi supporter GTA6 en ultra
l'appellation GPU semble inappropriée, IA Processing Unit ? Tensor Core Unit ? TCU ? j'avoue je ne sais pas, mais ca gère plus du tout des vertex des matrices et des pixels ...
c'est toujours bcp de matrice mais oui ca n'a plus rien de graphique effectivement
LPU Mon gars !!
très informative
Les sounds effect m'ont convaincu, c'est ou pour acheter un POD ???
Add to cart
@@cocadmin 🤣🤣🤣
l'attaque des 51% sur BTC redeviendrait envisageable avec une grosse coopérative de mineurs malveillants qui mettrait la main sur cette technologie en premier, non ? Ou crypto + petites peut être
le mining profitera pas de la plupart de ces avancés, l'ajout de memoire, le clustering et le fp4 sert a rien en mining.
@@cocadmin ok ok, merci pour l'info !
Non, les asics utilisé sur BTC ont une conception différente, j'irai même jusqu'à dire, même pas comparable... La puissance de calcul généré par les asics n'ayant pas la même architecture. Théoriquement sa pourrai fonctionné mais l'efficacité serait insuffisante et ce ne serait absolument pas rentable. Pourquoi utilisé 50 millions en électricité pour récupérer que 30 milions de BTC? Personne n'a envie de perdre 20 millions juste pour le plaisir! :D Et les forces de l'ordre ont évolué avec le temps, ils savent scruté la blockchain et remonter les pistes désormais. Faire des trucs illégale avec du BTC en 2024 c'est de la folie! :D Il y a 10 ans, oui, mais c'est fini!
Moi j'attends une carte avec GPU et LPU intégré, capable de switcher selon les requêtes.
"Un NAS caché" ;) 16:57
Ils ont plié le game là c'est complètement hallucinant MDR
Au fait 3nm ça n’a rien à voir avec la taille des transistors ou à n’importe caractéristique physique directe des transistors 😊 , ça fait plutôt référence à la densité des transistors ou à la distance entre ces derniers…
c'est pour ca que j'ai dit "pour simplifier" :)
j'ai fait une vidéo la dessus il y a quelques années th-cam.com/video/U4-Le0N-Lyo/w-d-xo.html
@@cocadmin Vulgariser ou simplifier c'est différent de donner des informations erronées, lorsqu'on touche un public large il faut faire attention à cela, quand on me dit simplifié : je comprends qu'on omette certains détails pas qu'on me donne une explication fausse.... Parler d'une "plus grande précision de gravure aurait largement suffi..." 😁
Gorq ship vient de leur mettre une vitesse je crois
Merci pour la vidéo ! Malgré mon intérêt pour le domaine, j'avoue avoir la flemme de regarder une conférence de 2h...ce résumé est donc bienvenu 😁
Pensée à tout les techniciens qui vont devoir remplacer les cartes dans les data center de OpenAI 😅
Faut avoir la centrale nucléaire à côté avec des datas centers de cette taille
ben, curieusement, de moins en moins... c'est ça le truc de ouf :)
@@OktoPutsch ca c'est par ce que dans le calcul de fonctionnement ont n'intègre pas la consommation électrique induite à la fabrication à mon avis
@@maquisardoccitan9043 bah, c'est normal, tu prends pas en compte l'énergie grise (fabrication) pour une exploitation. Toi il te faut tes 2600 calories pour vivre chaque jour une fois achevé, pourtant il en a fallut des millions auparavant pour te "fabriquer" comme adulte.
J’adore trop ce gars
Et donc tt sa sur une conférence et soit disant.. 30x plus vite... S'est un peu gris quand mm non?
C'est rien à côté des puces LPU GROQ qui détrône pour le moment NVIDIA dans le language
Dans de l'eau déminéralisée c'est parti 😂!
En tant qu'admin sys, j'avoue que niveau hardware cloud & dataCenter je suis un peu largué donc:
bravo pour cette vulgarisation, çà devient bien plus assimilable comme info.
Par contre l'investissement qu'il faut pour cette architecture parfaite by Nvidia 🤣
le CEO a mentioner 10milliard pour cette generation. Je pense pour décourager les startup qui démarre dans ce domaine
Résumé ?
Ah quand les sweat ?
Même méthode que pour les processeurs M2 Ultra avec 2 puces rattachées par une sorte de pont.
Ce sont des grands malades les ingénieurs de chez Nvidia 😂 Ils sont trop fort 😎
As-tu entendu parler d'une autre révolution beaucoup plus dingue que celle de Nvidia, et qui a été créé par des chercheurs français ? Il s'agit de Mistral qui ont fabriqué une puce dingue beaucoup plus performante que les GPU.
Sujet intéressant, par contre, pas de nouveauté au final si ce n'est mettre plus de puce dans le bouzin 😂 Ce qui sommes toute n'est pas nouveau. 😊
Franchement, sur le site de nVidia ils ont des anims 3D de ouf 😅
ça mange combien de charbon l'IA ?
sah quel plaisir, merci pour les infos
hop hop hop !! aie aie aie .. 4 x 18 = 72 pas 78 GPU .. , ceci dit je te comprends que de puissance accumulée !!!
Coté conso : 5kw * 18 = 90 kw .. l'équivalent d'un moteur thermique de voiture de 122 ch .. (cout EdF 90 000 € à l'année)
ça va couter cher en énergie !
merci de ta vulgarisation !! clair et limpide..
Cdt