@@SoftYoda c'est Jean-Louis Queguiner, le CEO de l'entreprise Gladia. Un mec absolument brillant. C'est un peu un Jancovici de l'IA ❤ et il devrait plutôt bosser pour le ministère de l'économie plutôt que pour sa propre boîte.
@@yvangascogne j'veux dire qu'on ne comprends presque rien a ce qu'il dit malgré la vulgarisation ...les journalistes ont du mal a suivre aussi...programmation + economie+informatique +geopolitique des marchés ...vu par un cio guik ....😓
Justement non. Il dit absolument N'IMPORTE QUOI à propos du prétendu minerais de silicium qui se trouverait surtout en Chine ! Le silicium est le seul constituant du quartz avec l'oxygène et il y en a partout sur Terre ! 😄 C'est en fait le constituant du sable blanc pur... Et ce n'est que le cas le plus simple car la moitié des minéraux terrestres sont des silicates... Les autres éléments des puces sont des éléments dopants : phosphore et bore, deux éléments aussi extrêmement abondants sur Terre ! Les borosilicates contiennent même du bore et du silicium, par exemple la tourmaline. Enfin bref...
@@yannduchnock Il ne se trouve pas surtout en Chine, mais la Chine et Taiwan sont les deux principaux fabricants de puce, donc leur approvisionnement et la fabrication dépend de ces deux pays. C'est ça qu'il a dit.
tres tres fort l'intervenant, j'ai vraiment apprecie sa facon de vulgariser et ses analogies. dommage qu'on ait pas parle un peu plus de l'open-source (quand on lui a demande la question sur les alternative de CUDA par exemple, il y a OpenCL, etc..) et de la mise d'AMD dessus
Il y a aussi oneapi que je n'ai pas mentionné. qui était la promesse de l'unification du framework de compilation graph au dessus de n'importe quel hardware. mais Triton de Openai semble être celui qui gagnera la bataille !
J'espérais qu'un jour, ceci soit dit et j'en suis heureux. Bravo pour la maîtrise du sujet, de son accessibilité. Il est bon de démontrer ces vols manifestes. Bravo à l'équipe et à l'intervenant de ce jour.
@@lewthemustard Pas d'accord et pourtant je suis loin d'être un défenseur de la pomme ! Les pires sont Broadcom (leur système de brevet ou le comportement après le rachat de VMWare...), Oracle avec des pratiques ubuesques (l'utilisation d'un client Java nécessite d'avoir une licence pour l'ensemble du parc, idem pour les Databases Orables en environnement virtuel...), SAP n'est pas mal non plus... et que dire de Microsoft avec son environnement 365...
C’est clair, j’ai failli pas regarder à cause du titre alors qu’en fait c’était plutôt intéressant. C’est pas une mafia c’est juste du business. À un moment donné le putaclic ça peut freiner…
Très bon intervenant. Je rajoute un détail étant un cochon sur programmation GPU en recherche, Nvidia balance énormément de publications scientifiques là ou AMD a lâché....
@@jean-louisqueguiner2857 Pas si ouf puisque les AMD font mieux à chaque fois pour 3 fois moins cher, moins de conso et moins de chauffe. En revanche pour la partie software AMD en ont moins pour le moment et c'est ca qui fait que.
J'avoue que pour une fois les explications sont plud compliquée, je vais faire mes recherches du coup. Mais l'intervenant a quand meme reussir a me faire piger les bades, il est génial comme la video !
On parle de Nvidia qui réserve en priorité chez TSMC, vous oubliez Apple c'est le plus gros client de TSMC et c'est lui qui prend une grosse partie de la capacité de production de TSMC.
Avant le boom de l'IA, il y avait déjà une tension aussi avec les stocks des cartes graphiques qui étaient siphonnés par les fermes de minage de cryptomonnaies au grand dam des hardcore gamers. Bien entendu avec l'iA, le marché a été décuplé et notamment les GPU spécialisés (A100, H100…) qui ne sont plus du tout accessible aux gamers.
Ben non tu calcule pas la puissance de moteur au nombre de sorties de pot , une 2 chevaux avec 6 sorties de pot aura toujours que de chevaux en puissance @@drak0x6
C'est même le cas depuis la génération des RTX 2000 via l'archi Turing et la mise en marche des Tensor cores (exemple entre la 1080 vs 2060 qui perfs de manière égale au global mais BIZAREMENT en half FP16 on passe de 138.6 GFLOPS pour la 1080 à 12.90 TFLOPS pour la 2060 donc un facteur de littéralement X100 ce qui est ABSURDE) mais c'est encore plus le cas depuis les RTX 3000 et 4000 et la mise en place de l'ensemble de leurs unités de calculs additionnelles pour simplifier encore plus la conversion de 2XFP16 en résultat "équivalence" FP32 (exemple la RTX 3080ti est en moyenne que 50 à 60% plus perf que la RTX 2080ti mais la encore BIZAREMENT on passe de 13.45 TFLOPS en FP32 à 34.10 TFLOPS donc X2,5 plus puissante selon la nouvelle mesure Bullshit de Nvidia) , d'après mon ressentit il faut plus ou moins diviser la valeur indiquée en TFlops FP32 par 2 à 2.2 pour retrouver une équivalence logique entre les gaps générationnelle. En gros c'est devenu du n'importe quoi chez Nvidia et "limite" de la dissimulation à peine cachée des informations pour les personnes ayant besoin de perfs concrètes.
@@On-en-a-Gros l'on se base généralement sur les valeurs FP32 et non FP16, au sujet de la puissance de calcul des GPUs. Donc exit ces références. Mais même en FP32 ça ne tourne pas rond et ce depuis les générations 3000. Il n'y a qu'à voir les valeurs : on passe d'une titan rtx à 16tflops à une 3090 à....35 tflops. C'est du jamais vu dans l'histoire des gpus d'avoir un gap aussi important, pour une gravure moins de 2fois plus petite. Alors que de l'autre côté (chez AMD, vous avez une 6900xt, plus puissante qu'une 3090 en terme de puissance brute, mais avec des données plus cohérentes (23 tflops). Les calculs ne sont pas les même, ON NE PEUT PAS/PLUS S'Y FIER !
La différence: CUDA : 2007. ROCm: 2016... OpenAPI (2020) qui a finalement intégré du CUDA... En gros, c'est pas une stratégie diabolique quand tu es le premier et le seul qui, pendant 10 ans, développe une technologie...
J utilise les fonctions cuda ( avec une division par 30 de mes rendering) depuis 2009. Donc ça fair 15 ans qu avec 3 petits tweaks ça marche d enfer. Cuda a tout changé.
Faut pas oublier qu'AMD a racheté ATI,il 'y a pas si longtemps que ça et que le logiciel n'étais pas leur priorité. Nvidia au contraire ayant racheté 3DFx et SGI... Ils ont un bureau de développement assez exceptionnel. CUDA c'est bien mais il existe des solutions alternatives et NVIDIA joie de sa position dominante pour ralentir le progrès du marché. Les cartes AMD sont réputés être plus puissantes depuis fort longtemps
Cela serait intéressant que vous fessiez une épisode sur le fait que les portefeuilles des gens sont probablement en danger avec la venu des ordinateurs quantiques.
@@erictitor j’ai très probablement beaucoup plus étudié que toi la mécanique quantique. Mais là n’est pas la question, avoir un BEP brouette te limite visiblement. Pauvre de toi.
Cette vidéo est d'utilité public et devrait être plus largement partagée auprès de la population de particuliers qui ne jurent que par Nvidia faisant ainsi leur fortune. Les mêmes commentaires pouvant s'appliquer à Microsoft.
Marrant quand j'entends parler des solution soft d'AMD et Nvidia qui sont là en sum-sum en attendant que l'une soit captée et amplifiée par la communauté, ça me fait penser aux souches virales qui sont présentes et qui attendent leur heures pour être LA (ou les) souches de la saison. Dès que l'une a réussi à contaminer une masse critique de personnes, elle est en tendance et c'est elle qui finit sur-représentée par rapport aux autres x) Bon après quand on y réfléchit 2 min, c'est normal c'est le même phénomène puisqu'il s'agit de rendre populaire quelque chose dans la population et que pour ça c'est le partage par proximité de personnes ou de communauté qui sera toujours le moteur #1
Au moment ou j'écris Nvidia vient de perdre 430 milliards de dollars en 3 jours mais est en train de rebondir... Tout cela reste tout de même très instable.
Super vidéo ! Probablement que ce commentaire va se perdre dans le néant, mais vous saviez que "Jensen Huang (patron Nvidia) a un lien de parenté avec Lisa Su, la PDG d'AMD. La mère de Huang est la plus jeune sœur du grand-père maternel de Su, ce qui en fait des cousins." (wiki) Du coup vous pensez pas qu'ils sont de mèche pour avoir le monopole a tout les étages à eux 2, en faisant croire qu'ils sont concurrents ?
nVidia est devenu le Silicon Graphics des années 90. Silicon Graphics n'est plus de ce monde (😉) mais a laissé un patrimoine software OpenGL qui reste les fondations d'un édifice chapoté voir pillé par Microsoft/DirextX/nVidia. nVidia a toujours orienté DirectX avec ses shaders/tesslation et j'en passe. D'autres avaient des unités de tesselation bien avant l'heure (truform AMD sur leur excellent R200) ou encore des "GPU" programmables (Rendition Vérité).
J'ai bien peur qu'ils subissent le même sort que SGI malgré leur annonce fracassante, ça fera pas illusion longtemps les autres marque de CPU et GPU suivent des stratégies différentes plus proche d'architecture ARM le marché des devices mobile est très concurrentiel, NVIDIA choisie l'élitisme technologique notamment avec leur solutions pro pour les calculs d'IA mais à un moment donné il y aura des petits malins qui feront mieux et moin chère...
Bonne analyse et effectivement le point fort de NVIDIA outre le hardware a toujours été le software (même s'ils sont moins orientés "open source" qu'AMD, d'où le f*ing finger d'un certain Linus T.)... et que c'est aussi la plus grande faiblesse d'AMD. Il y a aussi une brique qu'nVidia possède qui manque à AMD, c'est celle obtenue via l'acquisition de Mellanox pour tout ce qui touche à l'interconnexion à très haute vitesse et qui est indispensable aussi bien dans le serveur même que pour connecter les serveurs entre eux dans le datacenter. S'offrir Melllanox était un coup de maître de la part de NVIDIA pour concevoir sa plateforme DGX. Toutefois NVIDIA dépend d'Intel et de ses Xeon pour la partie CPU. Alors qu'AMD a des CPUs EPYC qui font parfaitement le job. Mais la demande en CPUs est bien inférieure à celle des GPUs dans ces serveurs orientés "IA".
alors oui je suis pas mal d'accord, cela dit NVidia privilégie des AMD en proc sur ses platformes non SXM car AMD a plus de PCIe lanes sur les proc AMD, ne nous voilons pas la face les proc AMD sont une tuerie, un nombre de threads impressionnant et un nombre de PCIe lane de fou permettant une super bande passante vers les slots PCIe lors que l'on est pas en SXM.
Le principal problème d'AMD a toujours été ses drivers. Beaucoup de problèmes à ce niveau, ils n'ont jamais voulu évoluer à un niveau comparable à Nvidia.
Ils évoluent mais Nvidia va juste plus vite dans l'innovation. l'Open Source AMD ne prends pas car au final il est moins performant. Le FSR c'est open source, c'est cool tout ça, mais le DLSS ça marche juste mieux. Et par construction il est peu probable que l'Open Source arrive à rattraper le deep learning...
Très intéressant intéressant, depuis que j’attend des concurrents de nvidia pour le secteur de l’ia , ( d’ailleurs je cherche toujours), Je vais me pencher sur le dossier amd. Je veux pas rater, celui qui leurs feras réellement concurrence pour les 20 prochaines années dans ce secteur .
Numéro 1 pour toujours si les consommateurs changent pas de comportement mdr. Surtout en ce moment, l'IA représente un rapport investissement/bénéfices stratosphérique et NVIDIA s'est complètement jeté dedans ( comme beaucoup d'autres entreprises ). NVIDIA pèse actuellement plus que toutes les entreprises du CAC 40 réunies et ce n'est pas prêt de s'arrêter si les gens continuent à payer le prix fort chaque CG et à se faire complètement aveugler par leur marketing.
Voici quelques-uns des clients notables de **Nvidia** : - **Entreprises de technologie :** - Amazon Web Services (AWS) - Microsoft Azure - Google Cloud Platform - **Constructeurs automobiles :** - Tesla - Audi - Toyota - **Entreprises de jeux vidéo :** - Sony - Nintendo - Electronic Arts - **Entreprises de l'industrie de la santé :** - GE Healthcare - Siemens Healthineers - **Entreprises de l'aérospatiale et de la défense :** - Lockheed Martin - Boeing Ces entreprises font partie des clients importants de Nvidia dans divers secteurs tels que la technologie, l'automobile, les jeux vidéo, la santé, l'aérospatiale et la défense
@@slmbrt7188 A priori, les fonctionnalités de ROCm tournent sous Linux avant de tourner sous Windows (où l'implémentation est incomplète pour l'instant me semble-t-il, mais les choses bougent très vite donc j'ai peut-être raté une release)
Wow Wow du calme !!! Va voire mon gros commentaire... Je résume : il reste encore la grosse brique MiOpen pour faire fonctionner Pytorche (donc les IA) sous rocm en windows. Seulement 2 codeurs (débutant) ont été détacher dessus depuis 2 semaines. (Je suis l'histoire au jour le jour depuis +1ans, je suis un détraquer ^^) C'est pas une blague, c'est open source va voire le sujet, les discutions sont très amusante et le code est afficher en claire et ils cherche n'importe qui capable de les aider. Ils sont 15 employer AMD a travailler sur Rocm. Sauf qu'il faut coder sa en assembleur, en language machine. Les codeur sont donc des archimage de l'informatique, c'est pas n'importe qui. Ils ont la capacité de répondre "non j'ait du travaille plus important a faire ailleurs" au PDG en AMD en personne. (le fil de discutions publique est hilarant XD)
@@slmbrt7188 Pour linux ? ... AMD marche depuis environ 1 ans et demis. Sa marche très bien, sa fait tout. Les gros serveur font tout sous linux depuis toujours de toute façon.
Il faut pas sous estimer AMD. AMD malgré NVidia réussit des choses techniques exceptionnelles. Par exemple leurs SOC IA et le rachat de Xilinx qui est stratégiquement brillant. Je développe en CUDA (C++ et Python) et j'adore Nvidia pour du DL/ML/LLM etc... Mais AMD en ce moment progresse énormément.
Moi aussi je m'intéresse a CUDA. Mais pour windows et pour le moment MiOpen... Ba ils sont que 2 codeur assembleur a s'en occuper, donc va vraiment falloir attendre 3-4 ans avant que se soit compatible. Sa les intéresse pas du tout. CF : Le fil de discutions publique Rocm.
En soit, oui, quand la bulle IA va pop, Nvidia va retomber de très très haut, c'est clair et net. Mais en dehors de ça, nan, je ne pense sincèrement pas qu'AMD arrivera à se hisser au niveau. C'est loin d'être la première fois qu'on est dans une situation similaire, et Nvidia finit absolument toujours par les dominer. Ça ne changera pas, ils apprennent pas.
non Nvidia n'est pas la plus grande entreprise du monde, c'est simplement celle qui est la plus valorisée en bourse. Walmart 1er en terme d'effectif et en terme de chiffre d'affaire (10x celui de Nvidia)
Mais.... On s'en fout du CA et du nombre d'effectif. Une boîte qui fais 10milliard de CA, mais 90% de marge chaque année avec 5 effectif vaut plus qu'une autre qui fait 50milliard de CA, emploi 1000 personnes mais ne fait que 5% de marge. C'est juste... Logique Je vais pas acheter un tracteur si j'ai besoin d'une voiture pour aller travailler o_O
@@ノヨイチ j'entends que vous pensez que votre critère est le seul logique... c'est pour cela qu'il y en a au moins 3 dans le monde, parce que les autres pensent que leur critère est le seul logique :) perso la capitalisation boursière, c'est un chiffre qui représente l'opinion des acheteurs sur l'avenir (est-ce que demain tel entreprise produira tel bénéfice). c'est pas un avis sur le présent. la bourse anticipe. donc Nvidia pourrait être l'entreprise la + rentable selon le marché... c'est pas nécessairement le cas ajd
La base de la gestion c'est d'avoir plusieurs fournisseurs pour gérer les risques de défaillance (lois, faille matérielle, et.). Donc évidemment que c'est chiant les monopoles.
En fait tout a commencé avec la 9700 GTS 384 Mo et cuda. OpenCL se contentant de suivre de loin, et les outils basés sur cuda ayant littéralement envahi l'espace, sans concurrence réelle. Les architectures de l'époque d'AMD n'étaient d'ailleurs pas matériellement compétitives pour du GPGPU, un énorme handicap.
Merci. Ce qui me met en colère, c'est que des GPU dédié jeux sont utilisés à autre chose, donc les prix montent. Pourquoi ne pas développer des cartes spécifiques dédié IA.
Ouais enfin la grosse difficulté de ROCm c'est que ce dernier n'a été disponible que sur Linux (portage Windows que très récemment ) et en plus toutes les cartes AMD même récentes ne sont pas forcément compatibles...
@@nicejungle C'est effectivement le cas de mon mentor qui ne jure que par linux mais quand bien même il m'a dit que si je voulais pas me prendre la tête à savoir si les bugs venaient de mon code ou de la non compatibilité avec ma CG il fallait que je prenne une carte Nvidia comme lui. Et il a eu parfaitement raison d'autant plus que je suis sur Windows depuis des lustres. Après il y a aussi plein de pro à leur compte qui n'ont pas forcément 2 pc ni 2 OS en multiboot ni tout simplement pas envie d'utiliser leur PC sous linux + tous les étudiants comme moi qui fesont nos projets sur le PC de la maison. Et quand bien même, même sur Linux, la compatibilité des cartes AMD avec ROCm et tensorflow est loin d'être optimale. Et même le package directML sous Windows ne permet pas une bonne compatibilité avec les cartes AMD et tensorflow. Contrairement à tout ceci, les RTX fonctionnent du feu de dieu sur Windows et j'ai du me séparer à contre cœur de ma RX6800 qui était au Top pour mes sessions de jeux occasionnelles. Sans parler de tout ça, il me semble que les perfs en Deeplearning des cartes AMD quand elles fonctionnent sont pas aussi bonnes que celles de leurs homologues d'Nvidia non ?
Sans regarder la vidéo, il suffit de réfléchir deux seconde en pure specs pour voir que AMD domine Nvidia mais étrangement fonctionne pareil ou pire (sauf quand la différence est flagrante) n'importe quelle joueur jouant à Cyberpunk avec des mods peux le confirmer. Quand tu vois qu'une garte graphique à 550€ à les même performance en FPS qu'une carte graphique à 2400€ tu te pose de grosse question. (Perso en RT psycho 2K uktra j'ai les même perf que la 4090 dans les même paramètres depuis que j'ai mis un mod pour désactiver les signatures d'Nvidia sur Windows et d'avoir la possibilité d'utiliser des images DLSS tout en conservant FSR (à noter que je n'ai même pas FSR3.1)
Quel intervenant! Impressionnant par son élocution et sa connaissance
Oui sympa
Super intéressant oui, bien c'est un professionnel du domaine, selon toute évidence !
Très bonne vulgarisation de la part de l’intervenant, merci !
Quel est le nom de l'intervenant ? Merci.
@@SoftYoda c'est Jean-Louis Queguiner, le CEO de l'entreprise Gladia. Un mec absolument brillant. C'est un peu un Jancovici de l'IA ❤ et il devrait plutôt bosser pour le ministère de l'économie plutôt que pour sa propre boîte.
vulgarisation!!?tu dis...désolé mais il parle quelle langue ?
@@maanzi2.5d33c'est un terme générique regardez dans le dictionnaire il n'y a pas de honte 😉
@@yvangascogne j'veux dire qu'on ne comprends presque rien a ce qu'il dit malgré la vulgarisation ...les journalistes ont du mal a suivre aussi...programmation + economie+informatique +geopolitique des marchés ...vu par un cio guik ....😓
Lui il connait son sujet et sait le rendre passionnant !
Bravo et merci pour la vulgarisation d'un domaine aussi pointu 👌
Cette émission continue de s'améliorer ! Les intervenants sont à chaque fois passionnants ! 👍👍👍
Intervenant très intéressant et il à l'air très compétent dans son domaine
Justement non. Il dit absolument N'IMPORTE QUOI à propos du prétendu minerais de silicium qui se trouverait surtout en Chine ! Le silicium est le seul constituant du quartz avec l'oxygène et il y en a partout sur Terre ! 😄 C'est en fait le constituant du sable blanc pur... Et ce n'est que le cas le plus simple car la moitié des minéraux terrestres sont des silicates... Les autres éléments des puces sont des éléments dopants : phosphore et bore, deux éléments aussi extrêmement abondants sur Terre ! Les borosilicates contiennent même du bore et du silicium, par exemple la tourmaline. Enfin bref...
@@yannduchnockÇa arrive de se tromper !
@@yannduchnock Il est pas minéralogiste non plus. Sur la partie purement IA / Hardware, il est bon
@@yannduchnock Il ne se trouve pas surtout en Chine, mais la Chine et Taiwan sont les deux principaux fabricants de puce, donc leur approvisionnement et la fabrication dépend de ces deux pays. C'est ça qu'il a dit.
@@yannduchnock Il est pas géologue non plus. Ca reste un fait que la chine est le plus gros producteur de silicium
L'invité est impressionnant ! Il arrive à très bien vulgariser les aspects économiques et informatiques.
Un bel invité techniquement au point. Ca fait plaisir. Merci pour la vidéo
Super sujet. Excellent invité, très clair et pédagogique. Merci.
L'interviewé connaît son sujet. Un as. Ça fait plaisir.
tres tres fort l'intervenant, j'ai vraiment apprecie sa facon de vulgariser et ses analogies. dommage qu'on ait pas parle un peu plus de l'open-source (quand on lui a demande la question sur les alternative de CUDA par exemple, il y a OpenCL, etc..) et de la mise d'AMD dessus
Il y a aussi oneapi que je n'ai pas mentionné. qui était la promesse de l'unification du framework de compilation graph au dessus de n'importe quel hardware. mais Triton de Openai semble être celui qui gagnera la bataille !
faites pareil avec qualcomm... de vraie requin sans scrupules, brevet royalities etc
je connais bcp moins le sujet
@@jean-louisqueguiner2857Bahh si ça sort tu verras qu'nvidia a coté c'est le petit frère 😂
Déjà dispo sur la chaîne
@@philow4021 vais chercher merci
déja évoqué dans les vidéos sur VLC
J'espérais qu'un jour, ceci soit dit et j'en suis heureux. Bravo pour la maîtrise du sujet, de son accessibilité. Il est bon de démontrer ces vols manifestes. Bravo à l'équipe et à l'intervenant de ce jour.
Le gars interviewé est très bon, merci à vous 3 !
Je pourrai l'écouter pendant des heures parler... Merci de rendre ces sujets compréhensible au plus grand nombre 🤗
Vous avez de superbes invités, continuez comme ca ! Merci pour votre taff
Super invité, et super vídeo qui en découle, merci !
Vidéo hyper intéressante ! Mais qu'est-ce que c'est bien expliqué. Vraiment un régal. Merci a toute l'équipe
Le titre de la video peut s'appliquer à quasi toutes les grosses boîtes de la tech
Le pire étant Apple
@@lewthemustard C'est pas hyper fair-play de comparer avec Satan directement...
Tellement 😅
@@lewthemustard Pas d'accord et pourtant je suis loin d'être un défenseur de la pomme !
Les pires sont Broadcom (leur système de brevet ou le comportement après le rachat de VMWare...), Oracle avec des pratiques ubuesques (l'utilisation d'un client Java nécessite d'avoir une licence pour l'ensemble du parc, idem pour les Databases Orables en environnement virtuel...), SAP n'est pas mal non plus... et que dire de Microsoft avec son environnement 365...
C’est clair, j’ai failli pas regarder à cause du titre alors qu’en fait c’était plutôt intéressant. C’est pas une mafia c’est juste du business. À un moment donné le putaclic ça peut freiner…
Quand ce monsieur parle on l'écoute , c'était très intéressant merci pour la vidéo.
Très bon intervenant. Je rajoute un détail étant un cochon sur programmation GPU en recherche, Nvidia balance énormément de publications scientifiques là ou AMD a lâché....
un modèle proche de la pomme : on maitrise du matériel jusque au API de haut niveau sans discontinuité!
les derniers models de Nvidia sont oufs.
Les whitepapers permettent d'asseoir une certaine expertise et notoriété sur ces sujets complexes.
@@jean-louisqueguiner2857 Pas si ouf puisque les AMD font mieux à chaque fois pour 3 fois moins cher, moins de conso et moins de chauffe. En revanche pour la partie software AMD en ont moins pour le moment et c'est ca qui fait que.
@@RSDGDriftTeam88très drôle.
J'avoue que pour une fois les explications sont plud compliquée, je vais faire mes recherches du coup.
Mais l'intervenant a quand meme reussir a me faire piger les bades, il est génial comme la video !
Super intéressant, un intervenant qui maitrise bien son sujet. Du coup on en redemande.
Vidéo géniale et intéressante ! Continue comme ça Micode :D
Il y a des gens qui donnte l'impressionn d'être intelligent rien qu'en les écoutant (pouce levé)
Je ne pense pas que ce soit qu'une impression 😊
Enfin un intervenant qui sait s’exprimer correctement, ca change des « hackers »
Un peu d'anglicisme mais je suppose que c'est inévitable dans ce genre de sujet...
@@ClovisReimsNon, on peut dire pilote et cadriciel
« au jour d’aujourd’hui » tu n’as pas le droit Micode !
ps : refair sur ce sujet, y a bcp a dire, super intervenant, super vidéo merci !!
Tres bonne émission merci.
On parle de Nvidia qui réserve en priorité chez TSMC, vous oubliez Apple c'est le plus gros client de TSMC et c'est lui qui prend une grosse partie de la capacité de production de TSMC.
Avant le boom de l'IA, il y avait déjà une tension aussi avec les stocks des cartes graphiques qui étaient siphonnés par les fermes de minage de cryptomonnaies au grand dam des hardcore gamers. Bien entendu avec l'iA, le marché a été décuplé et notamment les GPU spécialisés (A100, H100…) qui ne sont plus du tout accessible aux gamers.
Hehe je le savais que le calcul de teraflops de NIVIDIA depuis la génération RTX 3000 ne tournait pas rond 😮
tu peux toujours regarder la puissance FP32, c'est un très bon indicateur de puissance brut
@@drak0x6 ben non justement. Tu n'as rien compris !
Ben non tu calcule pas la puissance de moteur au nombre de sorties de pot , une 2 chevaux avec 6 sorties de pot aura toujours que de chevaux en puissance @@drak0x6
C'est même le cas depuis la génération des RTX 2000 via l'archi Turing et la mise en marche des Tensor cores
(exemple entre la 1080 vs 2060 qui perfs de manière égale au global mais BIZAREMENT en half FP16 on passe de 138.6 GFLOPS pour la 1080 à 12.90 TFLOPS pour la 2060 donc un facteur de littéralement X100 ce qui est ABSURDE)
mais c'est encore plus le cas depuis les RTX 3000 et 4000 et la mise en place de l'ensemble de leurs unités de calculs additionnelles pour simplifier encore plus la conversion de 2XFP16 en résultat "équivalence" FP32
(exemple la RTX 3080ti est en moyenne que 50 à 60% plus perf que la RTX 2080ti mais la encore BIZAREMENT on passe de 13.45 TFLOPS en FP32 à 34.10 TFLOPS donc X2,5 plus puissante selon la nouvelle mesure Bullshit de Nvidia) ,
d'après mon ressentit il faut plus ou moins diviser la valeur indiquée en TFlops FP32 par 2 à 2.2 pour retrouver une équivalence logique entre les gaps générationnelle.
En gros c'est devenu du n'importe quoi chez Nvidia et "limite" de la dissimulation à peine cachée des informations pour les personnes ayant besoin de perfs concrètes.
@@On-en-a-Gros l'on se base généralement sur les valeurs FP32 et non FP16, au sujet de la puissance de calcul des GPUs. Donc exit ces références. Mais même en FP32 ça ne tourne pas rond et ce depuis les générations 3000. Il n'y a qu'à voir les valeurs : on passe d'une titan rtx à 16tflops à une 3090 à....35 tflops. C'est du jamais vu dans l'histoire des gpus d'avoir un gap aussi important, pour une gravure moins de 2fois plus petite. Alors que de l'autre côté (chez AMD, vous avez une 6900xt, plus puissante qu'une 3090 en terme de puissance brute, mais avec des données plus cohérentes (23 tflops). Les calculs ne sont pas les même, ON NE PEUT PAS/PLUS S'Y FIER !
La différence: CUDA : 2007. ROCm: 2016... OpenAPI (2020) qui a finalement intégré du CUDA... En gros, c'est pas une stratégie diabolique quand tu es le premier et le seul qui, pendant 10 ans, développe une technologie...
100% aligne ce sont des visionnaires et gros investisseurs sur le soft nvidia sont des monstres de stratégie
J utilise les fonctions cuda ( avec une division par 30 de mes rendering) depuis 2009. Donc ça fair 15 ans qu avec 3 petits tweaks ça marche d enfer. Cuda a tout changé.
vraiment sympa la video ❤
Merci l’équipe underscore
je m'aligne avec tous les autres commentaires, l'intervenant était vraiment incroyable. bravo à lui
Tres interessant. Merci!
Je commente rarement mais cette vidéo est très haute qualité!
Faut pas oublier qu'AMD a racheté ATI,il 'y a pas si longtemps que ça et que le logiciel n'étais pas leur priorité.
Nvidia au contraire ayant racheté 3DFx et SGI... Ils ont un bureau de développement assez exceptionnel. CUDA c'est bien mais il existe des solutions alternatives et NVIDIA joie de sa position dominante pour ralentir le progrès du marché. Les cartes AMD sont réputés être plus puissantes depuis fort longtemps
Super fascinant. Je comprends rien, mais j'adore. :-)
Excellent !
Continuez comme ça !!
Clair et concis merci
Super intervenant, très clair malgré la complexité du sujet !
Un excellent narrateur 😮
Cela serait intéressant que vous fessiez une épisode sur le fait que les portefeuilles des gens sont probablement en danger avec la venu des ordinateurs quantiques.
mdr qu'est-ce que tu racontes toi XD
@@erictitor j’ai très probablement beaucoup plus étudié que toi la mécanique quantique. Mais là n’est pas la question, avoir un BEP brouette te limite visiblement. Pauvre de toi.
super intéressant merci!
Un intervenant qui d'une part connait un minimum le sujet mais qui surtout sait le transmettre et le vulgariser ! Pour ça bravo !
Cette vidéo est d'utilité public et devrait être plus largement partagée auprès de la population de particuliers qui ne jurent que par Nvidia faisant ainsi leur fortune.
Les mêmes commentaires pouvant s'appliquer à Microsoft.
Super intéressant, merci pour la vidéo !
L'intervenant est incroyable !
excellent JL ! Bravo 👏
Salut Seb!❤
Wow j'ai rien compris mais ça a l'air intéressant
Marrant quand j'entends parler des solution soft d'AMD et Nvidia qui sont là en sum-sum en attendant que l'une soit captée et amplifiée par la communauté, ça me fait penser aux souches virales qui sont présentes et qui attendent leur heures pour être LA (ou les) souches de la saison. Dès que l'une a réussi à contaminer une masse critique de personnes, elle est en tendance et c'est elle qui finit sur-représentée par rapport aux autres x)
Bon après quand on y réfléchit 2 min, c'est normal c'est le même phénomène puisqu'il s'agit de rendre populaire quelque chose dans la population et que pour ça c'est le partage par proximité de personnes ou de communauté qui sera toujours le moteur #1
Il est incroyable cet intervenant !
Mine d’or cette chaine 🙏
Très bon intervenant 👍
C'est le genre de mec t'as tellement envie d'être son collègue !
putain la meilleure explication pour vieux ingé deconnecté du numerique que j ai vu merci merci merci !!!
Super instructif 🤌
Bravo pour la vidéo sinon les vacances avaient l'air bien vu le bronzage 👍😋
Au moment ou j'écris Nvidia vient de perdre 430 milliards de dollars en 3 jours mais est en train de rebondir... Tout cela reste tout de même très instable.
Normal les Investisseurs se chient dessus des qu’il y a une annonce.
Bouuuh ça fait peur, évidemment que les marchés financiers sont volatiles
Ils perdent rien hein. Le montant de leur capitalisation diminue. C'est pas une perte d'exploitation.
-10% après un +200% en 1 an ça fait pas vraiment peur
Forcément, NVIDIA a été survalorisée . Je ne connais pas le ratio mais on doit être supérieur à X17 le CA.
Purée enfin je comprend mieux Huggingface et tout le bordel des GPUs
Super vidéo ! Probablement que ce commentaire va se perdre dans le néant, mais vous saviez que "Jensen Huang (patron Nvidia) a un lien de parenté avec Lisa Su, la PDG d'AMD. La mère de Huang est la plus jeune sœur du grand-père maternel de Su, ce qui en fait des cousins." (wiki) Du coup vous pensez pas qu'ils sont de mèche pour avoir le monopole a tout les étages à eux 2, en faisant croire qu'ils sont concurrents ?
Merci pour la vidéo .nvidia n'a pas des problèmes en justice actuellement pour concurrence déloyale en Europe
Excellente vidéo !
Il est hyper pointu et clair en même temps !
T’es bien bronzé mon micode, c’est ton écran d’ordi ou les Maldives ? On sait pas trop ahahah
😂
Donc il faut vendre ses actions Nvidia d'ici à 2 ans avant la chute ? C'est ça qu'il faut comprendre ?
Non, ça va continuer à monter, j'ai même envie de dire,quand ça chute, acheté 😂
Très bon intervenant !
Brillantissime merci
Passionnant merci
nVidia est devenu le Silicon Graphics des années 90.
Silicon Graphics n'est plus de ce monde (😉) mais a laissé un patrimoine software OpenGL qui reste les fondations d'un édifice chapoté voir pillé par Microsoft/DirextX/nVidia.
nVidia a toujours orienté DirectX avec ses shaders/tesslation et j'en passe.
D'autres avaient des unités de tesselation bien avant l'heure (truform AMD sur leur excellent R200) ou encore des "GPU" programmables (Rendition Vérité).
J'ai bien peur qu'ils subissent le même sort que SGI malgré leur annonce fracassante, ça fera pas illusion longtemps les autres marque de CPU et GPU suivent des stratégies différentes plus proche d'architecture ARM le marché des devices mobile est très concurrentiel, NVIDIA choisie l'élitisme technologique notamment avec leur solutions pro pour les calculs d'IA mais à un moment donné il y aura des petits malins qui feront mieux et moin chère...
Bonne analyse et effectivement le point fort de NVIDIA outre le hardware a toujours été le software (même s'ils sont moins orientés "open source" qu'AMD, d'où le f*ing finger d'un certain Linus T.)... et que c'est aussi la plus grande faiblesse d'AMD.
Il y a aussi une brique qu'nVidia possède qui manque à AMD, c'est celle obtenue via l'acquisition de Mellanox pour tout ce qui touche à l'interconnexion à très haute vitesse et qui est indispensable aussi bien dans le serveur même que pour connecter les serveurs entre eux dans le datacenter. S'offrir Melllanox était un coup de maître de la part de NVIDIA pour concevoir sa plateforme DGX.
Toutefois NVIDIA dépend d'Intel et de ses Xeon pour la partie CPU. Alors qu'AMD a des CPUs EPYC qui font parfaitement le job. Mais la demande en CPUs est bien inférieure à celle des GPUs dans ces serveurs orientés "IA".
alors oui je suis pas mal d'accord, cela dit NVidia privilégie des AMD en proc sur ses platformes non SXM car AMD a plus de PCIe lanes sur les proc AMD, ne nous voilons pas la face les proc AMD sont une tuerie, un nombre de threads impressionnant et un nombre de PCIe lane de fou permettant une super bande passante vers les slots PCIe lors que l'on est pas en SXM.
Le principal problème d'AMD a toujours été ses drivers.
Beaucoup de problèmes à ce niveau, ils n'ont jamais voulu évoluer à un niveau comparable à Nvidia.
Ils évoluent mais Nvidia va juste plus vite dans l'innovation. l'Open Source AMD ne prends pas car au final il est moins performant.
Le FSR c'est open source, c'est cool tout ça, mais le DLSS ça marche juste mieux. Et par construction il est peu probable que l'Open Source arrive à rattraper le deep learning...
@@Ilestun On est d'accord.
J'espère que ces cartes ne vont pas faire un flop.
Celle là je la vole !!!
Très intéressant intéressant, depuis que j’attend des concurrents de nvidia pour le secteur de l’ia , ( d’ailleurs je cherche toujours),
Je vais me pencher sur le dossier amd.
Je veux pas rater, celui qui leurs feras réellement concurrence pour les 20 prochaines années dans ce secteur .
Alors quand faut-il investir chez AMD ??
Génial !
J'ai presque rien compris. En gros les dernières cartes graphiques sont aussi bien que les moins récentes?
Nvidia numéro 1 un jour, dernier un autre. J'ai très hâte de voir de quoi sera réservé le futur... 🔮
Numéro 1 pour toujours si les consommateurs changent pas de comportement mdr. Surtout en ce moment, l'IA représente un rapport investissement/bénéfices stratosphérique et NVIDIA s'est complètement jeté dedans ( comme beaucoup d'autres entreprises ). NVIDIA pèse actuellement plus que toutes les entreprises du CAC 40 réunies et ce n'est pas prêt de s'arrêter si les gens continuent à payer le prix fort chaque CG et à se faire complètement aveugler par leur marketing.
la 3 ieme guerre mondiale a commencé donc le futur pue du cul
Mdr NVIDIA est N1 depuis des années hein et c'est extrêmement difficile de les concurrencé.
Bah les empires se font et se défont. Ils ont raison d'en profiter tant qu'ils sont encore au sommet.
@@AD-sg9trLes consommateurs on s'en fout royalement. Les 3/4 du chiffre d'affaires c'est les pro, comme évoqué dans la vidéo.
superbe vidéo
15 min c'est trop court, on en veut plus !
Voici quelques-uns des clients notables de **Nvidia** :
- **Entreprises de technologie :**
- Amazon Web Services (AWS)
- Microsoft Azure
- Google Cloud Platform
- **Constructeurs automobiles :**
- Tesla
- Audi
- Toyota
- **Entreprises de jeux vidéo :**
- Sony
- Nintendo
- Electronic Arts
- **Entreprises de l'industrie de la santé :**
- GE Healthcare
- Siemens Healthineers
- **Entreprises de l'aérospatiale et de la défense :**
- Lockheed Martin
- Boeing
Ces entreprises font partie des clients importants de Nvidia dans divers secteurs tels que la technologie, l'automobile, les jeux vidéo, la santé, l'aérospatiale et la défense
La dernière version de ROCm permet de tourner sur Windows avec WSL. Mon prochain GPU sera AMD !
T’as des infos pour Linux ?
@@slmbrt7188 a priori c'est en train d'arriver ca pousse fort chez AMD
@@slmbrt7188 A priori, les fonctionnalités de ROCm tournent sous Linux avant de tourner sous Windows (où l'implémentation est incomplète pour l'instant me semble-t-il, mais les choses bougent très vite donc j'ai peut-être raté une release)
Wow Wow du calme !!!
Va voire mon gros commentaire...
Je résume : il reste encore la grosse brique MiOpen pour faire fonctionner Pytorche (donc les IA) sous rocm en windows.
Seulement 2 codeurs (débutant) ont été détacher dessus depuis 2 semaines. (Je suis l'histoire au jour le jour depuis +1ans, je suis un détraquer ^^)
C'est pas une blague, c'est open source va voire le sujet, les discutions sont très amusante et le code est afficher en claire et ils cherche n'importe qui capable de les aider.
Ils sont 15 employer AMD a travailler sur Rocm. Sauf qu'il faut coder sa en assembleur, en language machine.
Les codeur sont donc des archimage de l'informatique, c'est pas n'importe qui. Ils ont la capacité de répondre "non j'ait du travaille plus important a faire ailleurs" au PDG en AMD en personne. (le fil de discutions publique est hilarant XD)
@@slmbrt7188 Pour linux ? ... AMD marche depuis environ 1 ans et demis.
Sa marche très bien, sa fait tout.
Les gros serveur font tout sous linux depuis toujours de toute façon.
love Gladia, I was first user !!
Il faut pas sous estimer AMD. AMD malgré NVidia réussit des choses techniques exceptionnelles. Par exemple leurs SOC IA et le rachat de Xilinx qui est stratégiquement brillant.
Je développe en CUDA (C++ et Python) et j'adore Nvidia pour du DL/ML/LLM etc... Mais AMD en ce moment progresse énormément.
Complètement aligné les efforts ces 2 dernières années ont été monstrueux et ça va payer dans les 2/3 ans qui arrivent
Moi aussi je m'intéresse a CUDA. Mais pour windows et pour le moment MiOpen... Ba ils sont que 2 codeur assembleur a s'en occuper, donc va vraiment falloir attendre 3-4 ans avant que se soit compatible. Sa les intéresse pas du tout.
CF : Le fil de discutions publique Rocm.
En soit, oui, quand la bulle IA va pop, Nvidia va retomber de très très haut, c'est clair et net.
Mais en dehors de ça, nan, je ne pense sincèrement pas qu'AMD arrivera à se hisser au niveau. C'est loin d'être la première fois qu'on est dans une situation similaire, et Nvidia finit absolument toujours par les dominer. Ça ne changera pas, ils apprennent pas.
Juste les meilleurs !
On ne devient pas un monopole en étant honnête.
Passionnant
non Nvidia n'est pas la plus grande entreprise du monde, c'est simplement celle qui est la plus valorisée en bourse.
Walmart 1er en terme d'effectif et en terme de chiffre d'affaire (10x celui de Nvidia)
Mais.... On s'en fout du CA et du nombre d'effectif.
Une boîte qui fais 10milliard de CA, mais 90% de marge chaque année avec 5 effectif vaut plus qu'une autre qui fait 50milliard de CA, emploi 1000 personnes mais ne fait que 5% de marge.
C'est juste... Logique
Je vais pas acheter un tracteur si j'ai besoin d'une voiture pour aller travailler o_O
@@ノヨイチ j'entends que vous pensez que votre critère est le seul logique... c'est pour cela qu'il y en a au moins 3 dans le monde, parce que les autres pensent que leur critère est le seul logique :)
perso la capitalisation boursière, c'est un chiffre qui représente l'opinion des acheteurs sur l'avenir (est-ce que demain tel entreprise produira tel bénéfice). c'est pas un avis sur le présent. la bourse anticipe. donc Nvidia pourrait être l'entreprise la + rentable selon le marché... c'est pas nécessairement le cas ajd
La façon dont l'intervenant explique les choses est telle qu'un enfant de 10 ans pourrait comprendre."
La base de la gestion c'est d'avoir plusieurs fournisseurs pour gérer les risques de défaillance (lois, faille matérielle, et.). Donc évidemment que c'est chiant les monopoles.
trade republique est regulé en france mais pas au canada?
Cher Ami, la plus grosse source de ces "mineraux" c'est au Congo.
En fait tout a commencé avec la 9700 GTS 384 Mo et cuda.
OpenCL se contentant de suivre de loin, et les outils basés sur cuda ayant littéralement envahi l'espace, sans concurrence réelle.
Les architectures de l'époque d'AMD n'étaient d'ailleurs pas matériellement compétitives pour du GPGPU, un énorme handicap.
Faux... la pression du marché ne change pas toujours le monopole, regarder ASLM. Monopole depuis 10-15 ans je dirai...
Merci. Ce qui me met en colère, c'est que des GPU dédié jeux sont utilisés à autre chose, donc les prix montent. Pourquoi ne pas développer des cartes spécifiques dédié IA.
Ouais enfin la grosse difficulté de ROCm c'est que ce dernier n'a été disponible que sur Linux (portage Windows que très récemment ) et en plus toutes les cartes AMD même récentes ne sont pas forcément compatibles...
100%
ça n'a jamais été un soucis. Les pro qui font de l'IA sont uniquement sur linux
@@nicejungle C'est effectivement le cas de mon mentor qui ne jure que par linux mais quand bien même il m'a dit que si je voulais pas me prendre la tête à savoir si les bugs venaient de mon code ou de la non compatibilité avec ma CG il fallait que je prenne une carte Nvidia comme lui.
Et il a eu parfaitement raison d'autant plus que je suis sur Windows depuis des lustres.
Après il y a aussi plein de pro à leur compte qui n'ont pas forcément 2 pc ni 2 OS en multiboot ni tout simplement pas envie d'utiliser leur PC sous linux + tous les étudiants comme moi qui fesont nos projets sur le PC de la maison.
Et quand bien même, même sur Linux, la compatibilité des cartes AMD avec ROCm et tensorflow est loin d'être optimale.
Et même le package directML sous Windows ne permet pas une bonne compatibilité avec les cartes AMD et tensorflow.
Contrairement à tout ceci, les RTX fonctionnent du feu de dieu sur Windows et j'ai du me séparer à contre cœur de ma RX6800 qui était au Top pour mes sessions de jeux occasionnelles.
Sans parler de tout ça, il me semble que les perfs en Deeplearning des cartes AMD quand elles fonctionnent sont pas aussi bonnes que celles de leurs homologues d'Nvidia non ?
Sans regarder la vidéo, il suffit de réfléchir deux seconde en pure specs pour voir que AMD domine Nvidia mais étrangement fonctionne pareil ou pire (sauf quand la différence est flagrante) n'importe quelle joueur jouant à Cyberpunk avec des mods peux le confirmer. Quand tu vois qu'une garte graphique à 550€ à les même performance en FPS qu'une carte graphique à 2400€ tu te pose de grosse question. (Perso en RT psycho 2K uktra j'ai les même perf que la 4090 dans les même paramètres depuis que j'ai mis un mod pour désactiver les signatures d'Nvidia sur Windows et d'avoir la possibilité d'utiliser des images DLSS tout en conservant FSR (à noter que je n'ai même pas FSR3.1)
Excellent
C'est quoi son micro?