En espérant que la boîte ne soit pas racheté par un géant américain et que la France ne freine pas Mistral, on a besoin nous aussi d’un pionnier dans l’IA en France pour ne pas être dépendant des autres pays !
D'ici 5 ans ils sont rachetés et ils vont tous partir aux US. Deja, les 3 sortent de GAFAMs mdr. Il faut savoir qu'aux Etats Unis, un salaire moyen d'un ingénieur est au moins 2x superieur à la contrepartie française, sans parler des investissements qui coulent à flot des que ça touche à la tech, etc. Un ingenieur qui a la possiblité de vendre sa boite a un GAFAM ou travailler pour va le faire sans hesitation.
0:20 Malheureusement les fonds levés sont déjà majoritairement US. En plus de ça, l'état a perdu tout protectionnisme et est même devenu atlantiste donc c'est pas gagné !
@@tomatosbananas1812 tant mieux que ce soit des titan des comme Nvidia et surtout des US car en France les gens ils savent pas gérer et ils sont trop centrer sur leur nombrils ils vont tout faire capoter, d'ailleurs on le voit là dans les commentaire et le titre de la vidéo (et pas que) on dirait que les gens s'en fiche de l'humanité et de l'évolution, que ce qui les intéressent c'est de faire briller leur nombril en disant "regardez, moi je suis français et c'est des français qui ont crée ce truc de ouf donc ça veut dire que je suis un ouf aussi" bref les gens veulent s'inventer des valeurs aux travers du néant car dans le font c'est pas eux qui ont crée ça et la france ça reste juste un lieu sur une planète. D'ailleurs j'en profite pour préciser ici que le titre est mensonger, cet IA n'est que meilleur que ChatGPT 3.5 qui est une ancienne version de ChatGPT, ça confirme tout ce que je dis sur le nombrilisme de la france.
Attention Micode, à 17:00 quand tu parles de la comparaison entre GPT4 et Mistral-medium pour du code Python, le code montré en image quand tu parles de GPT4 est en fait la réponse de Mistral, et quand tu parles de la réponse géniale de Mistral, c'est la réponse de GPT complètement lunaire qui est montrée
J'allais commenter la même chose haha, je suis pas super calée en prog, mais les commentaires en comic sans semblait plus critiques en 2e partie qu'en première X) Ça rend ce qui est dit difficile à suivre !
Super les gars. Juste quelques petites précisions pour nuancer et donner une certaine impartialité au sujet: - Seul Gemini Ultra (pas le pro) était attendu comme le vrai concurrent de GPT-4 (ça n’empêche que le PRO se fait poutrer par Mixtral 😅) - mistral small, c’est bien Mixtral 8x7b. Le Tiny c’est le 7b Sinon l’avis d’un gros utilisateur sur le sujet: fin 2023, et assurément 2024 sera l’année des petits modèles très optimisé. Non seulement ça répond à une problématique d’accessibilité infrastructure pour les faire tourner (pc locale, GPU avec VRAM limité, etc), mais c’est également porté par les géants de la Tech du smartphone qui doivent obtenir des petits modèles très performant et safe capable de tourner en local sur les iPhone et autres Samsung (voir Galaxy AI). On le voit avec Microsoft et son modèle Phi-2 qui est trois fois plus petit que Mistral Tiny (pareil pour une version de Gemini) Ensuite, j’ai une théorie en ce qui concerne la baisse de performance des LLM propriétaire : je pense qu’ils quantifient leur poids sur des précisions beaucoup plus petites (8 bits, 6 bits ?) afin d’ être moins gourmand en ressources. Il faut quand même pas oublier que ces modèles sont pour la majorité utilisable gratuitement, alors qu’il coûte un rein en infrastructure pour les run. Donc corréler la censure avec la baisse de performance je suis complètement d’accord, mais je pense qu’il faut aussi y voir une tentative d’optimisation (raté du coup 😅) Continuez comme ça vous êtes super 🎉
Salut, petite question pour un "gros utilisateur". Micode dis que le 7b est rapide (10:52). Est ce que tu confirmes, car je le fais tourner à 1,2 token / seconde sur ma 2070S, je trouve ça pas fou. Et le 8x7B demande de se charger complètement en mémoire (il fait 90Go)
L'IA Open-source avance encore plus rapidement que les IA propriétaire, il y a eu beaucoup des centaines d'études sortis ces derniers mois, très prometteur et vont faire réduire les coups tout en augmentant l'intelligence.
L'IA open source a des décennies de retards sur certaines entités privées qui ne te dévoileront pas leurs avancées technologiques. Faut pas se limité à ce que tes yeux ils voient mais oui ça avance dans l'open-source et le publique (pas forcément open-source).
oui, je demande à tester plutot que de se fier à des vieux tests peut-etre sponso....mistral ai, je les sens pas du tout...en esperant me planter.@@abdoulayediallo3777
Je viens de faire quelques tests sur L'API en tiny, small et medium et je suis totalement impressionné. Je dirais comme ça que j'ai des réponses en français meilleurs que gpt3.5 quand j'ai commencé à travailler avec y a 6 mois. J'ai mis un petit historique de conversation pour voir si elle le contextualisait et OUI. J'ai mis des "custom instructions" et pareil, suivies parfaitement. Je suis conquis!!
Pour l'avoir tester en local, c'est hyper impressionnant. Par pitié, conservons cette pépite en France, c'est notre seul chance d'exister dans la révolution technologique à venir.
Soyez convaincu que ce sera Mistral perdant pour la France. Après sa mission dépouillage Atos ça ne m'etonnerait pas k Thierry Breton soit déjà sur le pont pour Mistral. Depuis Bull c'est devenu + qu'un job pour lui, étant incapable de redresser une entreprise qui va mal l'échec français l'a autant enrichi que ça a donné du sens à sa vie...
Ca me rappelle au final l'approche gros studio vs studio indépendant en jeu vidéo: Ils finissent toujours pas surpasser parce qu'ils se refusent les mêmes limites et apprennent par les erreurs de ceux qui sont passés avant eux
A mon avis c'est surtout qu'ils ne sont pas encore assez gros pour se faire emmerder par des régulations. Ca pourrait devenir très difficile pour eux prochainement s'ils ne s'y pliaient pas, un peu comme la semi-cavale de Binance en crypto depuis des années. J'espère que l'avenir me donnera tort !
Un immense bravo à ces Français ! J'espère que ça aboutira à un vrai gros projet commercial français, et qu'ils ne se feront pas malgré tout bouffer tout cru par les Américains.
Cedric O qui est resté près de 3 ans au gouvernement (Philippe puis Castex) lors du premier quinquennat Macron, a souscrit comme les autres investisseurs minoritaires a 17 610 actions (0,01cts d’euros/action) de Mistral AI pour la modique somme de 176,10 euros. Un investissement qui s’est transformé en or puisque sur la base de la dernière levée de fonds effectuée par Mistral AI, les actions initiales vaudraient déjà près de… 23 millions d’euros !
@@BatondeBamako Du coup, un type qui aurait acheté ces actions en échange de quelques minutes de son travail peut maintenant profiter du travail de milliers de gens en ne leur offrant rien en échange. Tu trouves ça juste ? Tu ne penses pas que c'est du parasitisme ? L'argent ne devrait-il seulement servir à échanger les biens et les services que nous produisons nous-même contre les biens et services produits par notre voisin ? Si j'ai le droit de profiter des biens et services produits par mon voisin mais sans rien produire en échange, n'est-ce pas du vol ?
@@Piteur_par_Coeur c'est le fonctionnement du capitalisme, ça a l'avantage d'avoir été le meilleur système pour l'amélioration technologique. Par contre, ce système ne peut pas durer indéfiniment car il est intrinsèquement corrélé à la croissance. Et tout système ne peut croître indéfiniment dans un monde fini. Donc à moins de coloniser l'univers nous devrons changer de système tôt ou tard.
Le problème c'est que dans ces vidéos, on ne parle jamais de la context length. La CL est le facteur limitant dans l'application des LLMs dans des applications concrètes. Llama 2 se fait peut-être laminé par des modèles plus petits sur certaines métriques, mais c'est un des seuls à pouvoir gérer 100k de token en entrée. Tandis que Mistral est à 8k. Et 32k pour Mixtral.
ChatGPT ne va jamais se faire détrôner par des petits génies français. ChatGPT-4o représente une avancée significative dans le domaine de l’intelligence artificielle conversationnelle et de traitement du langage naturel. Ses nouvelles fonctionnalités offrent des avantages considérables pour les entreprises et les particuliers, allant de la personnalisation avancée à l’automatisation des tâches marketing et à l’analyse des données. En intégrant ChatGPT-4o dans leurs opérations, les entreprises peuvent améliorer leur efficacité, offrir une expérience client supérieure et prendre des décisions stratégiques basées sur des insights précis. En 2024, ChatGPT-4o se positionne comme l’outil indispensable pour naviguer dans le paysage numérique en constante évolution.
Vous savez, les ordinateurs analogiques permettraient d'utiliser l'intelligence artificielle sans nécessiter des composantes aussi performantes et énergivores comme c'est le cas actuellement. Une fois que l'algorithme est entraîné, son utilisation ne nécessite plus autant d'énergie. Ce ne sera pas possible de l'utiliser dans tous les contextes, mais cette technologie a un bel avenir pour plusieurs domaines. Je vous invite à regarder la vidéo : "Future Computers Will Be Radically Different (Analog Computing)" de Veritassium
ChatGPT régresse à fond c'est clair, plus les versions avancent plus il est feignant et stupide, tu dois lui répéter 3 fois un truc pour qu'il le fasse et si tu loupe avec sa mémoire de poisson rouge t'es bon pour recommencer l'explication.
Deux choses m'étonnent fortement dans cette vidéo. 1. Autant de réjouissement de l'accélération du développement de l'IA. 2. L'interaction inexistante avec les invités de cette émission. Cela dit, le contenu est très intéressant 😊
Pouvez-vous mettre en description les liens des articles dont vous parlez dans l’émission ? Par exemple l'histoire avec la comparaison des IA au sujet du code python ? Merci ! Edit : je l'ai trouvé mais TH-cam ne me laissera pas mettre le lien en commentaire.
@@MS-yq1hw «C’est le fait que de petits ordinateurs collaborent en P2P avec des ordinateurs plus gros type super-ordinateur ou ordinateur quantique pour donner des résultats locaux.» C'est quoi ce charabia ? Le calcul distribué ca a au moins 40 voire 50 ans déjà hein, déjà... Mais les ordinateurs quantiques ? Mais qu'est ce que tu racontes comme connerie !!
@@garryiglesias4074 TH-cam bloque la plupart des commentaires avec un lien qui redirige en dehors de youtube pour protéger ses usagers. Plutot logique sinon yaurait masse de sites malveillants de partagés. Il a donc mis l'extension entre parentheses pour désactiver la détection du lien
@@garryiglesias4074 genre c'est complexe de rentrer un csv d'un million de ligne dans une bdd ... c'est juste le moteur de bdd qui fait tout (gestion IO et ram)! Je serais vraiment curieux de voir en quoi c'est un defi
@@MS-yq1hw «Vas te payer des cheveux avant d’ouvrir ta grande gueule» Super argument, on voit que tu es digne de respect... Et sinon, t'avais quoi d'utile a dire ? Parce qu'il n'y a ni le fond, ni la forme, ni les gonades... Alors si en plus t'es fier de toi...
La grande force de Mixtral est qu'il peut tourner sur votre machine avec juste 32go de ram (avec 64go c'est encore mieux), pas besoin de gros GPU, voire pas besoin de GPU tout cours si vous avez un bon CPU. Un ChatGPT3.5 non censuré à la portée du grand nombre.
Moi perso c'est le genre de phrase qui me rend triste d'être humain : des gens aussi intelligents qui sont capables d'être en même temps aussi naïfs...
@@TheRealUsername Ce n'est pas le staff qui fait l'entreprise, sinon elles seraient toutes à égalité. Ce sont les dirigeants, leur stratégie, leur capacité à manager, à recruter, à s'adapter etc.
Lorsque l’on demande à charger un calcul simple de géométrie. Convertir des radians en cosinus . Il donne une réponse variable. Sa réponse change à chaque itération de la question. De même pour mistral apparemment
17:40 petite note pour le monteur : l'illustration est inversée par rapport à ce qui est dit. Tu montre GPT4 quand on parle de Mistral-Medium et vice-versa.
00:01 A French company has disrupted the AI industry with alternative models to GPT 02:19 Benchmarking models requires human intuition 04:30 New French models challenge ChatGPT dominance 06:34 Nvidia servers and model sizes in AI 08:35 Mistral, a 7 billion parameter model, surpasses ChatGPT. 10:31 New French AI model shows great potential 12:29 Mistral provides high performance with lower hardware cost 14:31 Discoveries about Mistral models and their potential 16:34 Forcing a model to be safe reduces its efficiency 18:18 Mistral's impactful creation and the potential vulnerabilities of language models
@@davmoon9406bonne question 😂 mais tu sais qu'il y a l'IA sur TH-cam maintenant, genre intégré dans la plate-forme pour trier les commentaires pertinents ou les groupes de commentaires similaires en plus de "commentaires populaires" et "commentaires récents"
@@davmoon9406 Non, c'est un bot qui vas dans la transcription de la vidéo et qui copie colle les éléments dans un commentaire pour éviter de se faire cramé trop facilement.
Je ne suis pas tout à fait d'accord avec le fait de croire qu'on bénéficie de la performance de 8*7B avec seulement 2*7B de paramètres. Pour le coût de calcul, c'est vrai, mais si on parle de mémoire, tous les 8*7B doivent être chargés en mémoire. Et puisqu'on sait maintenant que les LLMs sont plutôt contraints par la mémoire, je suis tout d'un coup moins emballé par ce genre de dires. Après, je tiens à préciser que l'idée de Mixtral est un coup de génie, et que j'adore le principe de Mixture of Experts. Bravo à la boite, et bravo pour cette vidéo :)
Ce serait bien que vous fassiez une vidéo sur le gaussian splatting , je pense que c'est une avancée notable dans la 3d depuis neRf, il y a plein de choses à faire possibles comme du motion tracking , de la cartographie 3d , modélisation etc....
16:30 : "Chaque fois qu'on demande à une intelligence de s'auto-censurer pour être politiquement correcte, elle devient moins performante." Ce n'est pas valable que pour des IA.
J'ai eu une drôle d'hallucination de la part de Mistral, qui ne s'est pas représentée ensuite: A la question: Qui est ton créateur? "Je suis un modèle de langage développé par OpenAI, une organisation à but non lucratif basée aux États-Unis. OpenAI a été fondée en 2015 par Elon Musk, Sam Altman et d'autres personnalités du monde de la technologie et de la recherche en intelligence artificielle. L'objectif d'OpenAI est de faire progresser la recherche en intelligence artificielle de manière sûre et bénéfique pour l'humanité. Ils ont développé plusieurs versions de modèles de langage, y compris le mien, dans le but de faire progresser la compréhension du langage naturel par les machines et de trouver des applications utiles pour cette technologie." Il m'a soutenu ça plusieurs fois avant de dire le contraire dans une autre session de chat.
Sans être un "PhD" (Merci Wikipédia pour le décryptage de cet acronyme) du monde informatique et bien qu'étant éclairé voire instruit en la matière j'ai eu beaucoup de mal à suivre votre exposé. Bon j'ai quand même cru comprendre que Mistral est une IA open source française qui mérite que l'on s'y intéresse et vais donc suivre votre conseil. Merci
Sympa le monologue de 19 minutes avec 30 secondes d'intervention des invités. Le concept d'avoir un set avec des gens, plusieurs caméras, c'est pas d'avoir des échanges ?
J'ai pensé la même ; Le mec c'est son coloc' ou son voisin.. Et la fille il lui a promis de la bière et des cacahouètes ! Leurs rôles étaient de croiser les jambes en hochant la tête, et de replacer le micro devant leur bouche à chaque gros plan.. Et au final.. Eh bah nan... Au prochain épisode ! 🥸😆
en parlant de GPT4 publique devenant "incompétence", il y a une semaine, sur Bing, j'ai voulu que Designer fasse une illustration basée sur une série, avec comme référence un fanart qu'elle avait elle-même générée, et là, pas moyen, c'est comme si on l'avait empêchée de dorénavant créer des fanart ou des fanfictions. J'étais la frustration incarnée!
c'est leur métier, c'est tout autant de la faute des gens qui cliquent que sur ce genre de miniature et titre, excuse les de pas faire des vidéos juste pour toi@@niiap Parce que oui les miniatures sont dégs mais c'est ça qui fait cliquer
La pire des IA c'est gemini, quand je l'utilise pour du python, elle ne cesse de me poser des questions au lieu de m'aider, Mistral est à la ramasse également, mais étonnamment, elle fait beaucoup moins d'erreur et elle ne ment pas, quand elle ne sait pas, elle le dit clairement.
La corrélation entre le fait d'être politiquement correct et la baisse des performances, ou autrement dit la restriction du raisonnement, est juste magique ! La société devrait en tirer des leçons...
Bonjour à tous, je cherche une solution qui me permettrait de charger une image dans un logiciel ou une IA et cette solution me donnerait des détails en analysant tous les termes de décorations, de l'époque de l'architecture etc ... savez vous si MIstral permet de donner autant de détails ou existe t'il une autre solutions pour ça ? Merci de vos conseils
dans les années 90 j'ai travaillé sur des systemes experts qui étaient annoncés comme super performant, mais les machines n'étaient pas assez puissante et avac pas assez de mémoire. Les moetuer d'inférences n'avaient pas assez de données pour travailler. Est-ce que les IA aujourd'hui s'ispirents de ces logiciels la ?
Très intéressant de savoir qu'on peut tuner un modèle pour un but précis. Perso je ne suis pas développeur, mais avoir un modèle pointu en python ça me parle : l'exemple de l'injection en base c'est un problème que j'ai déjà eu. Une ESN qui voudrait transformer ses Devs en IronMan a tout intérêt à creuser la question.
Effectivement, ne dit-on pas qu’une idée appartient à celui qui en profite et non à celui qui la trouve? Donc, là c’est pas encore gagné mais bon, l’espoir fait vivre… 🇺🇸+🇪🇺=USA au final 🤷🏻♂️
Très intéressant En parlant de l'utiliser sur un téléphone Faudrait compiler ce modèle dans une app qui irait mettre à jour la base, avec une petite interface clean
Bonjour, je n’y connais pas grand chose en informatique mais je trouve ça très passionnant. J’aimerais ouvrir une entreprise dans la fabrication alimentaire et de livraison à domicile , j’aimerais savoir : - comment on fait pour faire tourner en « local » une IA ? - comment on fait pour « l’entraîner » pour qu’elle devienne meilleur? - Sur quels points pensez-vous que l’IA pourrais être vraiment utile ? ( faire gagner du temps de trajets au livreur en leurs fesant prendre des chemins plus courts?). Merci à vous si vous avez des idées
- sur un serveur sinon sur ta machine - fine-tuning - non pas un LLM, pour des trajets ce sont d'autres modèles genre les modèles Dijkstra, A* ou Bellman-Ford. Un LLM est utile dans le cadre d'un SAV automatisé. (un LLM fine-tuné)
Pour tes deux premières questions tu trouveras les infos sur internet facilement je pense, twitter, youtuber, etc... Pour la troisième question ce n'est pas d'IA dont tu as besoin mais d'algorithme, A star, dijkstra par exemple. L'IA dans ce cas de figure n'a aucune utilité.
"Faire gagner du temps de trajets au livreur en leur faisant prendre des chemins plus courts" est un problème qui peut se résoudre sans l'utilisation d'IA. Faire tourner une IA en local requiert d'avoir le modèle (les données qui constituent ce que le cerveau a appris) et d'avoir des outils comme TensorFlow ou PyTorch pour pouvoir l'utiliser. Pour avoir ce modèle, il est possible de s'en procurer un open (comme celui qui est présenté dans la vidéo) directement sur le site ou de le créer soi-même. Dans le cas où vous le téléchargez, des instructions sont souvent données pour pouvoir faire des "prédictions" (l'utiliser) de manière optimale. Entrainer une IA se fait de la même manière, mais au lieu de faire des prédictions, vous lui donnez vos données d'entrées et de réponses (l'IA fonctionne sur un système de question-réponse : Suivant une entrée, la machine va vous donner une réponse qui sera plus ou moins proche de celle que vous attendiez, et vous lui communiquerez s'il avait plus ou moins raison pour qu'il puisse changer ses paramètres). Ceci dit, le monde de l'IA n'est pas simple et je pense qu'il serait intéressant de se familiariser avec tout le vocabulaire et les outils utilisés communément. Si vous ne cherchez pas forcément à comprendre complètement comment tout cela fonctionne, certaines applications permettent de faire l'abstraction de beaucoup d'étapes et permettent de lancer des IA simples sans grandes difficultés. Aussi, il est possible de demander à des entreprises, comme le propose OpenAI, de pouvoir utiliser leurs modèles en ayant simplement des connaissances en programmation (sans la partie IA) ou même de "fine-tuner"/entraîner leurs modèles pré-existants.
D’accord merci pour vos réponses, je crois qu’il faut invertir dans un ordi avec beaucoup de Ram, et faire appel un freelance qui est un développeurs d'algorithmes.. j’essaie juste de comprendre le fonctionnement en gros et essayer de voir où toute ces technologies pourrais me donner un vrai avantage,parce que dès que ça devient technique c’est du chinois pour moi .
Ce n’est pas si inattendu que ça de proposer une APi identique à celle d’OpenAI, d’autant plus que les IA sont très performantes justement pour aider à développer/adapter ce genre de choses. :-)
Tu nous as encore trouvé une pépite au top comme d'hab et le fait qu'ils soient français c'est la cerise sur le gâteau ! D'ailleurs en parlant d'entreprise française aui innove il y a cross the ages aussi ( jeux/investissements/nft ) qui a un très jolie projet
Comme tu dis trop fier que ça soit français pour changer du model américain, il faudrait qu'on puisse les soutenir de notre côté, dans tous les cas merci pour tes vidéos
De folie tes explications, c vraiment passionnant de t'écouter et d'apprendre, t au top !!! Je suis subjugué et pourtant je suis vraiment loin d'être un expert ! Bravo, continue !
ça tombe bien, ChatGPT ne sert strictement à rien, sinon faire croire à des entélévisés que ça va faire le boulot à leur place :) En dehors de réponses sur des exemples très basiques et bêtes, tout est faux ou ce qu'il ne faut surtout pas faire (il ne fait qu'aglomérer les réponse plus ou moins juste (enfin surtout moins visiblement) des forums). Il y a peu de chance que ce soit mieux pour l'autre.
mec, quant tu cré un nouveau dieu sur terre...t'as pas besoin de modèle économique. T'a juste besoin des gens qui ont la foi dans ton minitel-spirituel, s'tout.
Chez Google, - Faites moi une meilleure IA de plus petite taille. - C'est impossible ! - Mistral l'a fait en France ! - Désolé, mais nous ne sommes pas Mistral.
Je trouve assez top que des français mettent à l'amende les américains 😂. Je me suis toujours posé une question au sujet de l'entraînement des IAs. Concrètement comment tu fais ? J'aimerais beaucoup me faire une IA ultra violente en code pour créer des petits scripts Bash par exemple mais je ne sais vraiment pas comment on procède pour entraîner une IA sur du python par exemple. Ça serait cool pour toi micode de faire un projet DIY basé sur mistral pour se faire un assistant type Google assistant perso basé sur IA
@@sonatine21 quand je dis ultra violente c'est moins con que chat gpt, je suis sysadmin et pour faire me facilité la vie et résoudre certains problème j'aimerais bien avoir une IA pour me filer un coup de main pour faire tel ou tel script. Je sais pertinemment qu'une IA ne remplacera pas un vrai dev
Entrainer une IA c'est loin d'être simple, et c'est très long. Ces "IA" utilisent un réseau de neurones avec des dizaines (voire centaines) de couches connectées d'une certaine façon et avec un poids sur chaque connexion. Un modèle de 7 milliards de paramètres contient au total 7 milliards de connexions et de poids. Ces neurones ne traitent que des chiffres, sous forme de vecteur, donc la 1e étape est de créer un vecteur à partir du texte en entrée. Est-ce qu'on prends chaque lettre, est-ce qu'on prends des mots, des suites de lettres... tout ça c'est de la recherche. Ensuite chaque nombre qui compose le vecteur est passé dans le réseau. Pour ça il y a heureusement des outils qui le font à notre place (comme TensorFlow si vous voulez regarder de plus près), on a juste à définir les couches et les opérations effectuées d'une couche à l'autre. A la fin les poids de chaque neurones sont mis à jour, on a terminé la 1e "époque" de calcul. Puis ça continue pendant des centaines d'époques, voire plus. A la fin on mesure la performance sur des données de test, on change le réseau (nombre de couches, calculs effectués) et on recommence tout le calcul. ll n'y a pas de solution magique pour avoir un réseau qui fonctionne bien, il faut essayer, changer et recommencer, des centaines de fois... Et évidemment ça demande une puissance de calcul énorme, des jours de calcul à chaque fois.
@@bastienx8 merci pour l'explication très complète. D'après ce que je comprends il est quasi impossible d'entraîner nous même une IA en local sur du code par exemple du python
Mixtral est une copie de chatgpt3.5, ce n'est qu'une instanciation du LLM d'openAi en l'occurrence Chatgpt3.5. Il suffit de poser la question à mixtral et il vous dira.
C'est dingue ! Dans intelligence artificielle, il y a intelligence... Ce qui sous-entend des concepts sensés... Mais pour ne pas blesser certaines sensibilités (politiquement correcte, comme le dit Tiffany) on bride ces IA. La preuve est donc faite de la stupidité de certaines sensibilités...
GPT 4 C'est un modèle de type "transformer" pré-entraîné pour prédire le prochain élément d'un document en utilisant à la fois des données accessibles au public (telles que les données sous licence de fournisseursréels. Le modèle a ensuite été affiné à l'aide de l'apprentissage âr renforcement, à partir du retour d'humains "OPEN AI" Et on se demande pourquoi qu'une explication de texte pi un compte rendu de réunion prendrait 1/4 d'heure
Meta dont la branche IA est dirigée par un français, ou DeepMind qui compte des dizaines de français dans ses équipes? Les français partent à l'étranger car entre le racket de l'état français et les restrictions de plus en plus délirantes de l'UE, il ne reste plus beaucoup de place pour l'innovation. L'équipe de Mistral est très courageuse de rester ici...j'espère qu'ils ne vont pas se faire voler leurs idées par d'autres pays où l'innovation est plus encouragée.
@@TitouFromMars J'ai juste lu "génie français". ça me suffit pour valider sans réserve. Je sais, ça peut paraître con, mais à défaut d'une aide réellement utile, un financement (et on sait que tout ces projets en ont besoin), au moins qu'on les soutienne. Je comprendrai après (oui, je sais, l'ordre est bête).
Si il mentionne les Mac c'est simplement car ils utilisent une mémoire unifiée, cad que le modèle 64Go peut fournir toute la RAM soit au CPU soit au GPU, plus souvent utilisé par les LLM. Sauf que dans la sphère Windows les mémoires unifiées sont pas légions, donc avoir 64Go de RAM requiert des cartes graphiques assez puissantes/spécialisées
Oui oui, on connaît les levées de fonds qui aboutissent à rien sauf à l'enrichissement des actionnaires, on va gentiment attendre de voir ce que ça donne surtout, c'est Microsoft en face il ne faut pas l'oublier :)
Oui oui, on connait les ingénieurs et chercheurs et en général tous les employés qui acceptent d'être payés en amour et eau fraîche lorsqu'une entreprise a besoin de fonds pour aller plus loin dans un nouveau projet.
Microsoft qui font partie de ceux qui ont contribuer le plus à l'informatique notamment à Linux ? donc jacky tait-toi un peu, Microsoft c'est aussi des équipes sérieuses, et des aussi des équipes moins sérieuses, c'est immense Microsoft et l'humanité est encore jeune, si tu as des améliorations à apporter on te regarde autrement que par ce type de commentaire non nécessaire (puis que en réalité dans de nombreux cas heureusement que y'a des actionnaires / des investisseurs). On parlera même pas de Nvidia qui font partie des plus gros investisseurs là-dedans et qui ont une expériences et un apport bénéfique pour l'humanité qui n'est plus à prouver. (la france et ses nombrilistes faut se détendre les gars)
Beaucoup explique que l’IA n’a aucune modération. J’ai testé, en hacking par exemple lui demander de créer un script pour exploiter un CVE ou encore lui demander des script pour un trojan…. Impossible
my 2 cents : il y a environ 5 ou 6 ans j'ai participé à un hackathon IA médicale (reconnaissance d'image). Ceux qui ont gagné c'est l'équipe qui a rajouté le dataset de test dans celui de train (les dataset étaient sur le net). aucun "chef" n'a vu cette arnaque
Iphone, mac, mac mini ... c'est devenu une annexe d'applestore ici ? Ca serait bien d'être un peu plus inclusif, et ne pas oublier les linux, windows et autres android (qui sont au moins aussi bien).
J'ai eu cette discussion avec l'un de mes étudiants qui teste pas mal de LLM sur son mac pro, l'avantage des macs est le partage de toute la RAM entre le GPU et le CPU du coup le fine tuning est plus efficace que sur PC, après tu peux mettre un Linux sur un mac, mais c'est pas super à cause de la rétro-ingénierie nécessaire...
@@michaellaunay1053 Ah bon ? Et comment font les OpenAI, Google, Facebook, etc... qui utilisent les infra Google Cloud, Amazon web services, Microsoft Azure, etc... qui n'utilisent pas de mac ? Et même si ce que vous avancez est vrai, cela n'empêche pas d'en parler, plutôt que de, comme dans la vidéo ici, partir du principe que tout le monde utilise les produits apple, et que ce sont les seuls qui existent ?!
Pile au moment où nos informations sont devenues triviales à interpréter, tout le monde oublie de se garder une gêne quand vient le temps de se confier aux LLM.
Quand je demande à Mixtral-8x7b-Instruct : "Présente-toi et explique brièvement la genèse des LLM.", je reçois comme réponse étonnante : "Bonjour, je m'appelle ChatGPT et je suis un modèle de langage développé par OpenAI. Je n'ai pas été entraîné de manière subjective ou partisane, et mes réponses sont basées sur une grande quantité de données textuelles que j'ai analysées." C'est bizarre, non? 😎
C'est différence entre les chatGPS putassiers avec des données en vrac, et un modèle entrainé sur un sujet particulier avec un tri pointu des données d'entrée ! Merci de pousser le débat vers les progrès, pas vers le "sensationnel" !
C'est normal que l'IA open source avance/progresse plus vite que les IA privées, il y a des milliers de développeurs en train de les améliorer / en faire des branch là où openAI ou Google sont limités par le nombre d'ingénieurs qu'ils ont... La magie de la collaboration
« il y a des milliers de développeurs en train de les améliorer» ... C'est beau le rêve... «La magie de la collaboration» ... C'est ca, tu l'as dit, de la magie...
@@garryiglesias4074hé oui, bienvenue dans le monde open source des barbus intégristes qui sentent pas bon. Rappelons tout de même que tout ces bazars ça tourne sur Linux et pas sur windows
@@Albert-zw1sv Heu... Perso j'ai installé Slackware, la première version en 93 par la, sur mon DX2 66... Non juste pour dire que Linux je connais un peu ?... Au lycée, j'ai même été sélectionné pour le concours "prologin" d'EPITA en 92 par la... 16 ans... Non, juste pour dire que je suis pas un lapin né d'hier... Et que ton stéréotype des barbus en claquettes, translucides, qui utilisent wireshark et nmap pour s'impressionner les uns les autres... Bin... Ca m'impressionne pas :D... J'ai répondu au premier degré, de toute mon expérience... "Beau rêve", et la magie...
En fait.... ces intelligences artificielles vont révolutionner la lutte contre le piratage. En faisant une IA qui surveille tes ports entrants et la logique avec lesquels ils se connectent. Pourquoi ils se connectent ? Que veulent faire les programmes ou scripts qui se connectent ? Quand les ordinateurs vont comprendre ça... ça va être incroyable.
On leur a interdit de parler ? Ahah Sérieusement leur travail est dingue, mais dommage de t'entendre parler tout seul pendant 20 min, alors qu'ils sont invités sur le plateau ^^
Question bête : quel intérêt si on est un "utilisateur simple" de ces IA d'avoir le modèle en local sur notre ordi ? Gagner quelques milliseconds à chaque appel?
Hello tout le monde, j’y connais rien en IA et en informatique dans sa globalité mais je trouve ça passionnant, ducoup j’avais une question sur cette vidéo, c’est quoi l’intérêt et les avantages d’avoir une IA comme mistral en local plutôt qu’un chat GPT en ligne? Merci d’avance pour vos réponses 🙃
L'un des gros nerfs de chatgpt a été toutes les mises à jours pour être inclusifs, woke ou avec les valeurs à la con, ça à mis beaucoups de freins sur l'acquisition et les réponses en général de gpt
J'ai déjà utilisé le modèle Mistral 7B et le résultat est bluffant. C'est un des rares modèle auquel on peut poser des questions en français. Je l'ai utilisé avec le moteur ollama en local. Sans utiliser le GPU la vitesse de réponse est plutôt satisfaisante.
Mistral 7B est déjà bluffant alors imagine Mixtral 8x7B qui est 8 fois plus gros... Si tu as au moins 32go de ram, je te conseille d'essayer (sinon c'est 60 balles sur lbc)
Les gens qui râlent sur ChatGPT trop woke et se réjouissent de Mistral AI juste pour ça... Vous avez testé Mistral AI ? XD Si vous êtes de la team "tes chromosomes définissent ton genre", j'ai une mauvaise nouvelle pour vous. o/
En tout cas tes chromosomes définissent ton sexe et cela vous fait tant de mal que des gens n’adhèrent pas à vos nouvelles croyances? Êtes vous une religion ?
Hello , je suis pas du tout un pro dans le domaine je voulais juste savoir si L IA mixtral dont tu parle est en téléchargement libre ? merci beaucoup pour ton travail j'y connais rien mais c'est passionnant
Je pensais pas qu'Underscore avait une aussi grosse commu de gens réactionnaires. Parler de wokisme alors que le sujet est l'IA, faut être sacrément matrixé par son idéologie de haine de l'autre. Ça craint.
@@julien5053 Autant ça me saoule de voir les gens parler de wokisme sur des sujets sans rapport, autant ça me saoule de voir des gens parler de fach* sur des sujets sans rapport (tu te tire une balle dans le pied en faisant le raccourci "mec qui râle contre le wokisme" = fach*). Pour moi vous êtes les mêmes, désolé.
@@christophe3969 parce que t'es un réac' et que ça te défrise que je parle de fachos ? Etre woke c'est être anti-raciste. Ceux qui crachent sur le wokisme c'est... Allons c'est la contraposée, fais un effort...
@@julien5053 Mais quel rapport ? Pourquoi tu parles de la France ? On est sur une vidéo qui parle d'IA, pas de la politique française. Tu es autant hors sujet que les réacs qui viennent crier au wokisme. Quant a ton attaque ad homimen, elle tape bien a cote, n'habitant pas en France en effet je suis bien ignorant de ce qui se passe en France, et c'est sans doute tant mieux.
@@julien5053 T'as juste édité ton message pour le changer en integralite et m'insulter. Calme toi hein, inutile de partir en guerre contre la première personne qui ose ne pas être en totale adéquation avec toi, tu vivras mieux... Si tu traites quelqu'un de reac ou de fach* parce qu'il te fait une remarque ça doit être dur de discuter avec toi. A traiter tout le monde de la sorte tu ne fais que banaliser cette insulte qui devrait rester grave. Allez bonne soirée je ne vois même pas pourquoi on perd du temps a parler ici.
Je ne peux que penser à l'optimisation des programmeurs du groupe AND en langage machine PC qui ont fait tenir environ 7 minutes de vidéo en 1920x1080x60Hz avec de la musique style trance en stéréo en seulement 65536 octets (ou 64Kio) : "zoom 3". Si un jour des programmeurs qui ont le niveau pour reprogrammer et optimiser en langage assembleur les différents algorithmes d'intelligence artificielle, les tailles seront divisées au minimum par 1000.
Je doute que l'assembleur nous aide beaucoup sur ce coup là... Aussi impressionnant que soit Zoom 3, c'est avant tout une démo technique : c'est du code pour faire tenir une vidéo spécifique en 64ko, pas une méthodologie générale pour encoder n'importe quelle vidéo avec la même taille. ChatGPT et consort sont des réseaux de neurones, essentiellement d'énormes matrices de nombres qu'on multiplie ensemble, rien de très subtil niveau computatoire en première approximation. Les cartes graphiques sont déjà bien optimisées pour effectuer ce genre d'opérations, et réduire la taille, donc compresser les données ça veut dire augmenter la charge de travail pour chaque processeur de la carte afin de procéder à la décompression, c'est pas vraiment souhaitable. Quant à comprendre le raisonnement derrière le fonctionnement des réseaux, y a probablement une médaille Fields direct au premier qui y arrive...
Ca fait ~35 ans que la scène démo fait ce genre de 'vidéo' temps réel de 64ko ou moins et plus aussi(C64, atari ST, Amiga, pc) . Farbrausch est le groupe le plus connus pour ses productions 64ko. Ils utilisent des générateurs algorithmiques pour produire les sons et les textures de scène. Presque qu'aucun intérêt a utiliser l'assembleur de nos jours. Tous ça , ça n'a rien a voir avec comment optimiser une IA
@@PatriceL584 Es-tu certain qu'il n'y a plus besoin d'assembleur ? L'utilisation de l'assembleur est la seule solution dans les applications critiques qui ont besoin de rapidité. Encore quelques pilotes de périphériques se font en assembleur. Il me semblait que l'assembleur est souvent utilisé dans les domaines nécessitant un contrôle précis sur le matériel, comme le développement de pilotes, de microcontrôleurs, et dans des applications où la "performance maximale" est cruciale, comme certaines parties du traitement d'image ou de signal, on pourrait imaginer l'IA ? Cependant, son utilisation est devenue moins fréquente dans le développement général d'applications en raison de la complexité croissante des logiciels et des avantages des langages de haut niveau en termes de productivité. Utilisation moins fréquente, ne signifie pas néant. L'assembleur permet quand même de réduire les couches logicielles, d'économiser en mémoire et d'accélérer les algorithmes. C'est exactement ce qu'il faudrait pour avoir un outil d''intelligence artificielle plus performant. Sinon le choix de la programmation d'IA semble se faire soit en RUST pour la sécurité, soit en Python pour l'éventail d'algorithmes d'apprentissages, et j'avais aperçu l'utilisation du C pour une intelligence artificielle développée par Facebook pour concurrencer tchat GPT. Le C et le Rust semblent pratiquement aussi rapides que l'assembleur. Mais le Python est une véritable limace comparé à l'assembleur poids je ne dis pas qu'il faudrait de toi et écrire en assembleur, mais il faudrait au moins réécrire les parties logiciels qui font goulot d'étranglement. Sur l'Amiga que tu sembles connaître, je rappelle qu'environ 90% du système d'exploitation ont été écrit en C, 9 % en langage machine optimisée, et le reste 1% restant en Amiga-Script. Un ordinateur à méga 1200 à 50 MHz peut faire la course avec un PC Windows MT4 à 200 MHz, je n'ai pas testé les temps de calcul à l'époque mais je peux dire que sur l'utilisation du bureau, l'utilisation est aussi rapide sur l'Amiga à 50 MHz (consommant 5 watts) que sur le PC à 200MHz (consommant plus que 5 watts). Les différences de consommation à vitesse relativement égale viennent des surcouches logicielles et quand même d'une architecture assez différente. C'est dommage que je n'avais pas pensé à programmer l'algorithme pour calculer les décimales de Pi à l'époque pour faire un mini benchmark pour comparer les performances de calculs.
@@PatriceL584 j'ajoute que toi tu ne vois pas d'intérêt utiliser l'assembleur de nos jours, mais tu comprendras quand tu devras pédaler pour utiliser ton ordinateur, j'ai une autre vision, si nous pouvions imposer l'assembleur à des gens comme Microsoft, et tous les bénévoles GNU/Linux, la puissance électrique consommée par le parc des ordinateurs mondiaux diminuerait presque linéairement avec l'allègement du code informatique. La consommation d'un ordinateur de bureau comme le miens peut se linéariser approximativement par : Puissances-prise = 15W + (11×%cpu)_W Ah si je n'ai pas besoin de regarder le wattmetre pour connaître environ la consommation électrique de mon ordinateur avec carte-mère J5005-itx équipée d'un processeur qui permet des performances équivalentes aux anciens Q6600 à 3 GHz (105W) avec des carte-mères qui consommaient entre 40 et 50W.
@@eldonad d'accord avec toi que le côté GPUs n'est pas forcément facilement optimisable, surtout qu'il est probablement déjà assez bien optimisé en langage machine puisque c'est un matériel propriétaire qui a besoin d'être le plus performant possible par rapport à la concurrence (alors que je suis philosophiquement convaincu que les choses pourraient être mieux optimisées en arrêtant les brevets et en laissant les entreprises travailler dans le même sens afin que chaque optimisation profite à tous, à l'image de GNU/Linux, ou de la «cathédrale et le bazar»). Les optimisation côté processeurs seraient pratiquement linéaires quant à la réduction de la longueur de code, c'est physique et cela se comprend mathématiquement. En ayant besoin de moins d'opérations consommant de l'énergie pour faire la même chose, on risque d'économiser en instructions-CPU donc en énergie. Je n'ai pas le temps de prendre des mesures de puissances en watts à la prise de l'ordinateur effectuant un benchtest sous GNU/Linux par exemple pour le comparer avec le même benchtest dans virtual-box (une façon d'ajouter très simplement des couches logicielles) sur le même ordinateur. Quelqu'un a-t-il déjà comparé ? (ChatGPT 3.5 KO) Bing Chat avec GPT-4 : « … 2. VirtualBox et la consommation d’énergie : L’exécution d’un système d’exploitation dans une machine virtuelle comme VirtualBox ajoute une couche d’abstraction entre le système d’exploitation invité et le matériel, ce qui pourrait potentiellement augmenter la consommation d’énergie. Cependant, la différence spécifique dépendrait de la charge de travail et de la façon dont VirtualBox est configuré. 3. Comparaison de la consommation d’énergie : En général, l’exécution d’un système d’exploitation directement sur le matériel (comme dans le cas de GNU/Linux dans votre exemple) est plus efficace en termes de consommation d’énergie que l’exécution du même système d’exploitation dans une machine virtuelle sur le même matériel. Cela est dû au surcoût associé à la virtualisation. Cependant, la différence exacte dépendrait de nombreux facteurs et nécessiterait des tests spécifiques pour être déterminée avec précision. Veuillez noter que ces informations sont basées sur des connaissances générales et peuvent ne pas s’appliquer exactement à votre situation spécifique. Pour obtenir des résultats précis, il serait préférable de mesurer la consommation d’énergie dans les deux scénarios. » Je suis entièrement d'accord, mais je pense que l'intuition est bonne ici.
@@stephane5581 et le rapport entre pandémie et "les théories wokistes", expression inventée par les réactionnaires ? Réponse aucun. Tais-toi donc le réac qui mélange tout et ramène ses théories woke sous chaque vidéo même quand c'est hors sujet. Une IA woke, au moins tu m'auras fait marrer.
Exactement, plus ca va plus je remarque que chat gpt devient moins coopératif et embetant pour "pisser du code". Je vais même pas évoquer l'avoir en assistant en pentest, qui desormais devient du social engineering avec lui dans un premier temps 😂
En espérant que la boîte ne soit pas racheté par un géant américain et que la France ne freine pas Mistral, on a besoin nous aussi d’un pionnier dans l’IA en France pour ne pas être dépendant des autres pays !
qui voudrait rester dans ce TAM
D'ici 5 ans ils sont rachetés et ils vont tous partir aux US.
Deja, les 3 sortent de GAFAMs mdr.
Il faut savoir qu'aux Etats Unis, un salaire moyen d'un ingénieur est au moins 2x superieur à la contrepartie française, sans parler des investissements qui coulent à flot des que ça touche à la tech, etc. Un ingenieur qui a la possiblité de vendre sa boite a un GAFAM ou travailler pour va le faire sans hesitation.
0:20 Malheureusement les fonds levés sont déjà majoritairement US. En plus de ça, l'état a perdu tout protectionnisme et est même devenu atlantiste donc c'est pas gagné !
@@tomatosbananas1812 tant mieux que ce soit des titan des comme Nvidia et surtout des US car en France les gens ils savent pas gérer et ils sont trop centrer sur leur nombrils ils vont tout faire capoter, d'ailleurs on le voit là dans les commentaire et le titre de la vidéo (et pas que) on dirait que les gens s'en fiche de l'humanité et de l'évolution, que ce qui les intéressent c'est de faire briller leur nombril en disant "regardez, moi je suis français et c'est des français qui ont crée ce truc de ouf donc ça veut dire que je suis un ouf aussi" bref les gens veulent s'inventer des valeurs aux travers du néant car dans le font c'est pas eux qui ont crée ça et la france ça reste juste un lieu sur une planète.
D'ailleurs j'en profite pour préciser ici que le titre est mensonger, cet IA n'est que meilleur que ChatGPT 3.5 qui est une ancienne version de ChatGPT, ça confirme tout ce que je dis sur le nombrilisme de la france.
Sous l’air Macron c’est mort et étant dans l’UE aussi. On est perdu…
Attention Micode, à 17:00 quand tu parles de la comparaison entre GPT4 et Mistral-medium pour du code Python, le code montré en image quand tu parles de GPT4 est en fait la réponse de Mistral, et quand tu parles de la réponse géniale de Mistral, c'est la réponse de GPT complètement lunaire qui est montrée
Merci pour ce commentaire. Je me posais en effet la question. Ça me semblait étrange
Aha ça m’avais perturbé aussi
J'allais commenter la même chose haha, je suis pas super calée en prog, mais les commentaires en comic sans semblait plus critiques en 2e partie qu'en première X) Ça rend ce qui est dit difficile à suivre !
Merci de cette précision !
Super les gars. Juste quelques petites précisions pour nuancer et donner une certaine impartialité au sujet:
- Seul Gemini Ultra (pas le pro) était attendu comme le vrai concurrent de GPT-4 (ça n’empêche que le PRO se fait poutrer par Mixtral 😅)
- mistral small, c’est bien Mixtral 8x7b. Le Tiny c’est le 7b
Sinon l’avis d’un gros utilisateur sur le sujet: fin 2023, et assurément 2024 sera l’année des petits modèles très optimisé. Non seulement ça répond à une problématique d’accessibilité infrastructure pour les faire tourner (pc locale, GPU avec VRAM limité, etc), mais c’est également porté par les géants de la Tech du smartphone qui doivent obtenir des petits modèles très performant et safe capable de tourner en local sur les iPhone et autres Samsung (voir Galaxy AI). On le voit avec Microsoft et son modèle Phi-2 qui est trois fois plus petit que Mistral Tiny (pareil pour une version de Gemini)
Ensuite, j’ai une théorie en ce qui concerne la baisse de performance des LLM propriétaire : je pense qu’ils quantifient leur poids sur des précisions beaucoup plus petites (8 bits, 6 bits ?) afin d’ être moins gourmand en ressources. Il faut quand même pas oublier que ces modèles sont pour la majorité utilisable gratuitement, alors qu’il coûte un rein en infrastructure pour les run. Donc corréler la censure avec la baisse de performance je suis complètement d’accord, mais je pense qu’il faut aussi y voir une tentative d’optimisation (raté du coup 😅)
Continuez comme ça vous êtes super 🎉
"- mistral small, c’est bien Mixtral 8x7b. Le Tiny c’est le 7b"
C'est ce qu'il a dit, mais le montage vidéo est faux
@@NielsGxet où on peut l'obtenir ?
@@NielsGx bah nous non il dit starling lm 7b alpha
Bah merci 👍
Salut, petite question pour un "gros utilisateur". Micode dis que le 7b est rapide (10:52). Est ce que tu confirmes, car je le fais tourner à 1,2 token / seconde sur ma 2070S, je trouve ça pas fou. Et le 8x7B demande de se charger complètement en mémoire (il fait 90Go)
L'IA Open-source avance encore plus rapidement que les IA propriétaire, il y a eu beaucoup des centaines d'études sortis ces derniers mois, très prometteur et vont faire réduire les coups tout en augmentant l'intelligence.
L'IA open source a des décennies de retards sur certaines entités privées qui ne te dévoileront pas leurs avancées technologiques. Faut pas se limité à ce que tes yeux ils voient mais oui ça avance dans l'open-source et le publique (pas forcément open-source).
Mistral AI ne sont pas si "Open" que ca.
"réduire les coups" ?@@abdoulayediallo3777
oui, je demande à tester plutot que de se fier à des vieux tests peut-etre sponso....mistral ai, je les sens pas du tout...en esperant me planter.@@abdoulayediallo3777
@@abdoulayediallo3777 Tout comme OpenIA...
Je viens de faire quelques tests sur L'API en tiny, small et medium et je suis totalement impressionné. Je dirais comme ça que j'ai des réponses en français meilleurs que gpt3.5 quand j'ai commencé à travailler avec y a 6 mois. J'ai mis un petit historique de conversation pour voir si elle le contextualisait et OUI. J'ai mis des "custom instructions" et pareil, suivies parfaitement. Je suis conquis!!
J'aimerais savoir si c est possible de ľinstaller sur un pc a 16 go de ram ?
On se croirait tellement dans la série Silicon Valley où la start-up arrive à avoir un taux de compression que personne n'avait jamais vu :)
Le score de weissman ahahah
Pour l'avoir tester en local, c'est hyper impressionnant. Par pitié, conservons cette pépite en France, c'est notre seul chance d'exister dans la révolution technologique à venir.
Soyez convaincu que ce sera Mistral perdant pour la France. Après sa mission dépouillage Atos ça ne m'etonnerait pas k Thierry Breton soit déjà sur le pont pour Mistral. Depuis Bull c'est devenu + qu'un job pour lui, étant incapable de redresser une entreprise qui va mal l'échec français l'a autant enrichi que ça a donné du sens à sa vie...
Ca me rappelle au final l'approche gros studio vs studio indépendant en jeu vidéo:
Ils finissent toujours pas surpasser parce qu'ils se refusent les mêmes limites et apprennent par les erreurs de ceux qui sont passés avant eux
A mon avis c'est surtout qu'ils ne sont pas encore assez gros pour se faire emmerder par des régulations. Ca pourrait devenir très difficile pour eux prochainement s'ils ne s'y pliaient pas, un peu comme la semi-cavale de Binance en crypto depuis des années.
J'espère que l'avenir me donnera tort !
Ca fait le buzz (et encore un buzz très limité), mais peu de chance qu'il en sorte quelque chose de concluant.
Un immense bravo à ces Français !
J'espère que ça aboutira à un vrai gros projet commercial français, et qu'ils ne se feront pas malgré tout bouffer tout cru par les Américains.
C'est open source..... Et il sont deja au usa...
Cedric O qui est resté près de 3 ans au gouvernement (Philippe puis Castex) lors du premier quinquennat Macron, a souscrit comme les autres investisseurs minoritaires a 17 610 actions (0,01cts d’euros/action) de Mistral AI pour la modique somme de 176,10 euros. Un investissement qui s’est transformé en or puisque sur la base de la dernière levée de fonds effectuée par Mistral AI, les actions initiales vaudraient déjà près de… 23 millions d’euros !
@@BatondeBamako Du coup, un type qui aurait acheté ces actions en échange de quelques minutes de son travail peut maintenant profiter du travail de milliers de gens en ne leur offrant rien en échange. Tu trouves ça juste ? Tu ne penses pas que c'est du parasitisme ?
L'argent ne devrait-il seulement servir à échanger les biens et les services que nous produisons nous-même contre les biens et services produits par notre voisin ? Si j'ai le droit de profiter des biens et services produits par mon voisin mais sans rien produire en échange, n'est-ce pas du vol ?
@@Piteur_par_Coeur et ouai, si t'as des contacts, tu achète tout à prix cassé
@@Piteur_par_Coeur c'est le fonctionnement du capitalisme, ça a l'avantage d'avoir été le meilleur système pour l'amélioration technologique. Par contre, ce système ne peut pas durer indéfiniment car il est intrinsèquement corrélé à la croissance. Et tout système ne peut croître indéfiniment dans un monde fini. Donc à moins de coloniser l'univers nous devrons changer de système tôt ou tard.
Le problème c'est que dans ces vidéos, on ne parle jamais de la context length. La CL est le facteur limitant dans l'application des LLMs dans des applications concrètes.
Llama 2 se fait peut-être laminé par des modèles plus petits sur certaines métriques, mais c'est un des seuls à pouvoir gérer 100k de token en entrée. Tandis que Mistral est à 8k. Et 32k pour Mixtral.
Ta des mistrals FT à 128k de contexte de token, check hugging face.
Clairement un Mistral gagnant!
Merci, j'ai cru que personne ne la ferait celle-là...
ChatGPT ne va jamais se faire détrôner par des petits génies français. ChatGPT-4o représente une avancée significative dans le domaine de l’intelligence artificielle conversationnelle et de traitement du langage naturel.
Ses nouvelles fonctionnalités offrent des avantages considérables pour les entreprises et les particuliers, allant de la personnalisation avancée à l’automatisation des tâches marketing et à l’analyse des données.
En intégrant ChatGPT-4o dans leurs opérations, les entreprises peuvent améliorer leur efficacité, offrir une expérience client supérieure et prendre des décisions stratégiques basées sur des insights précis.
En 2024, ChatGPT-4o se positionne comme l’outil indispensable pour naviguer dans le paysage numérique en constante évolution.
Vous savez, les ordinateurs analogiques permettraient d'utiliser l'intelligence artificielle sans nécessiter des composantes aussi performantes et énergivores comme c'est le cas actuellement. Une fois que l'algorithme est entraîné, son utilisation ne nécessite plus autant d'énergie. Ce ne sera pas possible de l'utiliser dans tous les contextes, mais cette technologie a un bel avenir pour plusieurs domaines.
Je vous invite à regarder la vidéo : "Future Computers Will Be Radically Different (Analog Computing)" de Veritassium
ChatGPT régresse à fond c'est clair, plus les versions avancent plus il est feignant et stupide, tu dois lui répéter 3 fois un truc pour qu'il le fasse et si tu loupe avec sa mémoire de poisson rouge t'es bon pour recommencer l'explication.
Deux choses m'étonnent fortement dans cette vidéo. 1. Autant de réjouissement de l'accélération du développement de l'IA. 2. L'interaction inexistante avec les invités de cette émission. Cela dit, le contenu est très intéressant 😊
tout simplement parce qu'ils ne maitrisent pas le sujet qu'ils évoquent et c'est très inquiétant ainsi que révélateur du youtube game...
j utilise chat gpt de maniere basique, pour des recherches... et j m y connais tres peu, du coup je devrais utiliser quel ia ? @@stephanebonvallet
Pouvez-vous mettre en description les liens des articles dont vous parlez dans l’émission ? Par exemple l'histoire avec la comparaison des IA au sujet du code python ? Merci !
Edit : je l'ai trouvé mais TH-cam ne me laissera pas mettre le lien en commentaire.
@@MS-yq1hw «C’est le fait que de petits ordinateurs collaborent en P2P avec des ordinateurs plus gros type super-ordinateur ou ordinateur quantique pour donner des résultats locaux.»
C'est quoi ce charabia ? Le calcul distribué ca a au moins 40 voire 50 ans déjà hein, déjà... Mais les ordinateurs quantiques ? Mais qu'est ce que tu racontes comme connerie !!
@@MS-yq1hw Et c'est quoi ton lien immonde... Tu découvres les URLs en 2023 ?
@@garryiglesias4074 TH-cam bloque la plupart des commentaires avec un lien qui redirige en dehors de youtube pour protéger ses usagers. Plutot logique sinon yaurait masse de sites malveillants de partagés. Il a donc mis l'extension entre parentheses pour désactiver la détection du lien
@@garryiglesias4074 genre c'est complexe de rentrer un csv d'un million de ligne dans une bdd ... c'est juste le moteur de bdd qui fait tout (gestion IO et ram)!
Je serais vraiment curieux de voir en quoi c'est un defi
@@MS-yq1hw «Vas te payer des cheveux avant d’ouvrir ta grande gueule» Super argument, on voit que tu es digne de respect...
Et sinon, t'avais quoi d'utile a dire ? Parce qu'il n'y a ni le fond, ni la forme, ni les gonades... Alors si en plus t'es fier de toi...
La grande force de Mixtral est qu'il peut tourner sur votre machine avec juste 32go de ram (avec 64go c'est encore mieux), pas besoin de gros GPU, voire pas besoin de GPU tout cours si vous avez un bon CPU.
Un ChatGPT3.5 non censuré à la portée du grand nombre.
Micode est le seul qui ramène des gens sur sa plateforme pour l'écouter parler XD. Ceci dit très bonne vidéo 👍
En même temps avec des invités qui s'appellent Tiffany Souterre et Matthieu Lambda, fallait pas s'étonner :D
"C'est le genre de boite qui me rend fier d'être Francais"
Exactement!
😂 les 2/3 du staff ne sont pas français
Moi perso c'est le genre de phrase qui me rend triste d'être humain : des gens aussi intelligents qui sont capables d'être en même temps aussi naïfs...
@@TheRealUsername Ce n'est pas le staff qui fait l'entreprise, sinon elles seraient toutes à égalité. Ce sont les dirigeants, leur stratégie, leur capacité à manager, à recruter, à s'adapter etc.
Lorsque l’on demande à charger un calcul simple de géométrie. Convertir des radians en cosinus . Il donne une réponse variable. Sa réponse change à chaque itération de la question. De même pour mistral apparemment
Salut ! Merci pour votre travail dans l'émission !
Est-ce que vous pourriez ajouter vos sources en description (liens précis) ? Merci :D
17:40 petite note pour le monteur : l'illustration est inversée par rapport à ce qui est dit. Tu montre GPT4 quand on parle de Mistral-Medium et vice-versa.
Tout à fait !
00:01 A French company has disrupted the AI industry with alternative models to GPT
02:19 Benchmarking models requires human intuition
04:30 New French models challenge ChatGPT dominance
06:34 Nvidia servers and model sizes in AI
08:35 Mistral, a 7 billion parameter model, surpasses ChatGPT.
10:31 New French AI model shows great potential
12:29 Mistral provides high performance with lower hardware cost
14:31 Discoveries about Mistral models and their potential
16:34 Forcing a model to be safe reduces its efficiency
18:18 Mistral's impactful creation and the potential vulnerabilities of language models
C'est quel GPT's qui fait ça ? 😆
@@davmoon9406bonne question 😂 mais tu sais qu'il y a l'IA sur TH-cam maintenant, genre intégré dans la plate-forme pour trier les commentaires pertinents ou les groupes de commentaires similaires en plus de "commentaires populaires" et "commentaires récents"
@@davmoon9406XD
@@davmoon9406 Non, c'est un bot qui vas dans la transcription de la vidéo et qui copie colle les éléments dans un commentaire pour éviter de se faire cramé trop facilement.
@@davmoon9406 HARPA AI ou d'autres
Je ne suis pas tout à fait d'accord avec le fait de croire qu'on bénéficie de la performance de 8*7B avec seulement 2*7B de paramètres. Pour le coût de calcul, c'est vrai, mais si on parle de mémoire, tous les 8*7B doivent être chargés en mémoire. Et puisqu'on sait maintenant que les LLMs sont plutôt contraints par la mémoire, je suis tout d'un coup moins emballé par ce genre de dires.
Après, je tiens à préciser que l'idée de Mixtral est un coup de génie, et que j'adore le principe de Mixture of Experts. Bravo à la boite, et bravo pour cette vidéo :)
J'adore ta façon de parler c'est hyper simple à comprendre !
Le génie Français réchauffe le cœur ❤️ ça fait plaisir , force prospérité et durabilité à eux👍
Merci à vous 🙏
Ce serait bien que vous fassiez une vidéo sur le gaussian splatting , je pense que c'est une avancée notable dans la 3d depuis neRf, il y a plein de choses à faire possibles comme du motion tracking , de la cartographie 3d , modélisation etc....
de ouf. Merci 2 minutes pépères
16:30 : "Chaque fois qu'on demande à une intelligence de s'auto-censurer pour être politiquement correcte, elle devient moins performante."
Ce n'est pas valable que pour des IA.
Je ne comprends pas le principe de ces vidéos avec des invités où les invités ne s'expriment pas.
J'ai eu une drôle d'hallucination de la part de Mistral, qui ne s'est pas représentée ensuite:
A la question: Qui est ton créateur?
"Je suis un modèle de langage développé par OpenAI, une organisation à but non lucratif basée aux États-Unis. OpenAI a été fondée en 2015 par Elon Musk, Sam Altman et d'autres personnalités du monde de la technologie et de la recherche en intelligence artificielle. L'objectif d'OpenAI est de faire progresser la recherche en intelligence artificielle de manière sûre et bénéfique pour l'humanité. Ils ont développé plusieurs versions de modèles de langage, y compris le mien, dans le but de faire progresser la compréhension du langage naturel par les machines et de trouver des applications utiles pour cette technologie."
Il m'a soutenu ça plusieurs fois avant de dire le contraire dans une autre session de chat.
Sans être un "PhD" (Merci Wikipédia pour le décryptage de cet acronyme) du monde informatique et bien qu'étant éclairé voire instruit en la matière j'ai eu beaucoup de mal à suivre votre exposé.
Bon j'ai quand même cru comprendre que Mistral est une IA open source française qui mérite que l'on s'y intéresse et vais donc suivre votre conseil.
Merci
Oui ça manque de pédagogie pour les novices.
pas assez abordé d’après moi mais juste le fais que ce soit open-source c'est complètement dingue
Sympa le monologue de 19 minutes avec 30 secondes d'intervention des invités. Le concept d'avoir un set avec des gens, plusieurs caméras, c'est pas d'avoir des échanges ?
+1 On dirait vilebrequin avec un faire valoir pote a côté
C'est le principe de faire une chronique après...
Ils servent a rien les 2 guignols, a part dire oui de la tete. Et dire qu'ils sont payer pour ca.
J'ai pensé la même ; Le mec c'est son coloc' ou son voisin.. Et la fille il lui a promis de la bière et des cacahouètes !
Leurs rôles étaient de croiser les jambes en hochant la tête, et de replacer le micro devant leur bouche à chaque gros plan.. Et au final.. Eh bah nan... Au prochain épisode ! 🥸😆
C'est bien tu viens de découvrir le principe d'une chronique dans une émission
en parlant de GPT4 publique devenant "incompétence", il y a une semaine, sur Bing, j'ai voulu que Designer fasse une illustration basée sur une série, avec comme référence un fanart qu'elle avait elle-même générée, et là, pas moyen, c'est comme si on l'avait empêchée de dorénavant créer des fanart ou des fanfictions. J'étais la frustration incarnée!
Underscore votre émission est top, les vidéos sont superbes, mais pitié changez de minia maker elles sont nulles 😅 Ça engendre pas l'envie du clic 🥲
Il faut changer les titres putaclic et dramatiques au possible aussi, ça contraste avec la qualité de l’émission
c'est leur métier, c'est tout autant de la faute des gens qui cliquent que sur ce genre de miniature et titre, excuse les de pas faire des vidéos juste pour toi@@niiap Parce que oui les miniatures sont dégs mais c'est ça qui fait cliquer
totalement d’accord, leurs vidéos sont des contenus intéressants et longs mais les minias font vraiment youtubeurs B
Je les trouve bonnes personnellement…
Je suis d'accord avec toi mais malheureusement s'ils font ça c'est que ça marche !
Incroyable ! Encore une fois la veille technique que tu nous proposes est de bonne qualité, merci !
La pire des IA c'est gemini, quand je l'utilise pour du python, elle ne cesse de me poser des questions au lieu de m'aider, Mistral est à la ramasse également, mais étonnamment, elle fait beaucoup moins d'erreur et elle ne ment pas, quand elle ne sait pas, elle le dit clairement.
La corrélation entre le fait d'être politiquement correct et la baisse des performances, ou autrement dit la restriction du raisonnement, est juste magique ! La société devrait en tirer des leçons...
Le wokisme fait perdre 30 points de QI à un humain, c'est pareil pour les IA.
Oui je me demande si ce n'est pas une découverte sur nous même
Bonjour à tous, je cherche une solution qui me permettrait de charger une image dans un logiciel ou une IA et cette solution me donnerait des détails en analysant tous les termes de décorations, de l'époque de l'architecture etc ... savez vous si MIstral permet de donner autant de détails ou existe t'il une autre solutions pour ça ? Merci de vos conseils
Intéressant, où trouve-t-on le tableau comparatif sur huggingface ?
Hello la team @underscore
Honoré que vous ayez pris une de mes séquences pour illustrer votre vidéo 🙏
Dans deux semaines entretien avec les développeurs !
dans les années 90 j'ai travaillé sur des systemes experts qui étaient annoncés comme super performant, mais les machines n'étaient pas assez puissante et avac pas assez de mémoire. Les moetuer d'inférences n'avaient pas assez de données pour travailler. Est-ce que les IA aujourd'hui s'ispirents de ces logiciels la ?
C'est moi ou ca fait la 3eme ou 4eme fois qu'ils reciclent cette thumbnail 😆 ??
3ème fois (avant une prochaine fois 🙂). Y en a d'autres qui ont servi plusieurs fois. Ce qui compte c'est le contenu de la vidéo.
Très intéressant de savoir qu'on peut tuner un modèle pour un but précis.
Perso je ne suis pas développeur, mais avoir un modèle pointu en python ça me parle : l'exemple de l'injection en base c'est un problème que j'ai déjà eu.
Une ESN qui voudrait transformer ses Devs en IronMan a tout intérêt à creuser la question.
Cocorico ! En espérant que cette boîte reste française et se développe ici !
Effectivement, ne dit-on pas qu’une idée appartient à celui qui en profite et non à celui qui la trouve? Donc, là c’est pas encore gagné mais bon, l’espoir fait vivre… 🇺🇸+🇪🇺=USA au final 🤷🏻♂️
Très intéressant
En parlant de l'utiliser sur un téléphone
Faudrait compiler ce modèle dans une app qui irait mettre à jour la base, avec une petite interface clean
Bonjour, je n’y connais pas grand chose en informatique mais je trouve ça très passionnant. J’aimerais ouvrir une entreprise dans la fabrication alimentaire et de livraison à domicile , j’aimerais savoir :
- comment on fait pour faire tourner en « local » une IA ?
- comment on fait pour « l’entraîner » pour qu’elle devienne meilleur?
- Sur quels points pensez-vous que l’IA pourrais être vraiment utile ? ( faire gagner du temps de trajets au livreur en leurs fesant prendre des chemins plus courts?).
Merci à vous si vous avez des idées
- sur un serveur sinon sur ta machine
- fine-tuning
- non pas un LLM, pour des trajets ce sont d'autres modèles genre les modèles Dijkstra, A* ou Bellman-Ford. Un LLM est utile dans le cadre d'un SAV automatisé. (un LLM fine-tuné)
Pour tes deux premières questions tu trouveras les infos sur internet facilement je pense, twitter, youtuber, etc...
Pour la troisième question ce n'est pas d'IA dont tu as besoin mais d'algorithme, A star, dijkstra par exemple.
L'IA dans ce cas de figure n'a aucune utilité.
"Faire gagner du temps de trajets au livreur en leur faisant prendre des chemins plus courts" est un problème qui peut se résoudre sans l'utilisation d'IA.
Faire tourner une IA en local requiert d'avoir le modèle (les données qui constituent ce que le cerveau a appris) et d'avoir des outils comme TensorFlow ou PyTorch pour pouvoir l'utiliser. Pour avoir ce modèle, il est possible de s'en procurer un open (comme celui qui est présenté dans la vidéo) directement sur le site ou de le créer soi-même. Dans le cas où vous le téléchargez, des instructions sont souvent données pour pouvoir faire des "prédictions" (l'utiliser) de manière optimale.
Entrainer une IA se fait de la même manière, mais au lieu de faire des prédictions, vous lui donnez vos données d'entrées et de réponses (l'IA fonctionne sur un système de question-réponse : Suivant une entrée, la machine va vous donner une réponse qui sera plus ou moins proche de celle que vous attendiez, et vous lui communiquerez s'il avait plus ou moins raison pour qu'il puisse changer ses paramètres).
Ceci dit, le monde de l'IA n'est pas simple et je pense qu'il serait intéressant de se familiariser avec tout le vocabulaire et les outils utilisés communément.
Si vous ne cherchez pas forcément à comprendre complètement comment tout cela fonctionne, certaines applications permettent de faire l'abstraction de beaucoup d'étapes et permettent de lancer des IA simples sans grandes difficultés.
Aussi, il est possible de demander à des entreprises, comme le propose OpenAI, de pouvoir utiliser leurs modèles en ayant simplement des connaissances en programmation (sans la partie IA) ou même de "fine-tuner"/entraîner leurs modèles pré-existants.
D’accord merci pour vos réponses, je crois qu’il faut invertir dans un ordi avec beaucoup de Ram, et faire appel un freelance qui est un développeurs d'algorithmes.. j’essaie juste de comprendre le fonctionnement en gros et essayer de voir où toute ces technologies pourrais me donner un vrai avantage,parce que dès que ça devient technique c’est du chinois pour moi .
@@animenosekai_edit merci j’y vois plus clair maintenant
Ce n’est pas si inattendu que ça de proposer une APi identique à celle d’OpenAI, d’autant plus que les IA sont très performantes justement pour aider à développer/adapter ce genre de choses. :-)
Tu nous as encore trouvé une pépite au top comme d'hab et le fait qu'ils soient français c'est la cerise sur le gâteau ! D'ailleurs en parlant d'entreprise française aui innove il y a cross the ages aussi ( jeux/investissements/nft ) qui a un très jolie projet
Comme tu dis trop fier que ça soit français pour changer du model américain, il faudrait qu'on puisse les soutenir de notre côté, dans tous les cas merci pour tes vidéos
De folie tes explications, c vraiment passionnant de t'écouter et d'apprendre, t au top !!! Je suis subjugué et pourtant je suis vraiment loin d'être un expert ! Bravo, continue !
ça tombe bien, ChatGPT ne sert strictement à rien, sinon faire croire à des entélévisés que ça va faire le boulot à leur place :) En dehors de réponses sur des exemples très basiques et bêtes, tout est faux ou ce qu'il ne faut surtout pas faire (il ne fait qu'aglomérer les réponse plus ou moins juste (enfin surtout moins visiblement) des forums). Il y a peu de chance que ce soit mieux pour l'autre.
Sachant que Mistral est une entreprise à but lucratif et que leur modèle est ouvert, pouvez vous nous préciser quel est leur modèle économique svp?
mec, quant tu cré un nouveau dieu sur terre...t'as pas besoin de modèle économique. T'a juste besoin des gens qui ont la foi dans ton minitel-spirituel, s'tout.
Chez Google,
- Faites moi une meilleure IA de plus petite taille.
- C'est impossible !
- Mistral l'a fait en France !
- Désolé, mais nous ne sommes pas Mistral.
Je trouve assez top que des français mettent à l'amende les américains 😂. Je me suis toujours posé une question au sujet de l'entraînement des IAs. Concrètement comment tu fais ? J'aimerais beaucoup me faire une IA ultra violente en code pour créer des petits scripts Bash par exemple mais je ne sais vraiment pas comment on procède pour entraîner une IA sur du python par exemple. Ça serait cool pour toi micode de faire un projet DIY basé sur mistral pour se faire un assistant type Google assistant perso basé sur IA
"une IA ultra violente en code pour créer des petits scripts Bash"
@@sonatine21 quand je dis ultra violente c'est moins con que chat gpt, je suis sysadmin et pour faire me facilité la vie et résoudre certains problème j'aimerais bien avoir une IA pour me filer un coup de main pour faire tel ou tel script. Je sais pertinemment qu'une IA ne remplacera pas un vrai dev
Entrainer une IA c'est loin d'être simple, et c'est très long.
Ces "IA" utilisent un réseau de neurones avec des dizaines (voire centaines) de couches connectées d'une certaine façon et avec un poids sur chaque connexion. Un modèle de 7 milliards de paramètres contient au total 7 milliards de connexions et de poids.
Ces neurones ne traitent que des chiffres, sous forme de vecteur, donc la 1e étape est de créer un vecteur à partir du texte en entrée. Est-ce qu'on prends chaque lettre, est-ce qu'on prends des mots, des suites de lettres... tout ça c'est de la recherche.
Ensuite chaque nombre qui compose le vecteur est passé dans le réseau. Pour ça il y a heureusement des outils qui le font à notre place (comme TensorFlow si vous voulez regarder de plus près), on a juste à définir les couches et les opérations effectuées d'une couche à l'autre. A la fin les poids de chaque neurones sont mis à jour, on a terminé la 1e "époque" de calcul.
Puis ça continue pendant des centaines d'époques, voire plus.
A la fin on mesure la performance sur des données de test, on change le réseau (nombre de couches, calculs effectués) et on recommence tout le calcul. ll n'y a pas de solution magique pour avoir un réseau qui fonctionne bien, il faut essayer, changer et recommencer, des centaines de fois...
Et évidemment ça demande une puissance de calcul énorme, des jours de calcul à chaque fois.
@@bastienx8 merci pour l'explication très complète. D'après ce que je comprends il est quasi impossible d'entraîner nous même une IA en local sur du code par exemple du python
@@bastienx8 est ce que le Fan tuning est la même chose ?
Mixtral est une copie de chatgpt3.5, ce n'est qu'une instanciation du LLM d'openAi en l'occurrence Chatgpt3.5.
Il suffit de poser la question à mixtral et il vous dira.
Llama ça se prononce comme le lama; sauf qu'en anglais ça s'écrit : llama, donc pas LIAMA
C'est dingue ! Dans intelligence artificielle, il y a intelligence... Ce qui sous-entend des concepts sensés... Mais pour ne pas blesser certaines sensibilités (politiquement correcte, comme le dit Tiffany) on bride ces IA.
La preuve est donc faite de la stupidité de certaines sensibilités...
Si j'ai bien compris c'est Mistral gagnant 🙂
Haha j'ai bien fait de scroller pour pas faire la même blague moisie 😅
GPT 4 C'est un modèle de type "transformer" pré-entraîné pour prédire le prochain élément d'un document en utilisant à la fois des données accessibles au public (telles que les données sous licence de fournisseursréels. Le modèle a ensuite été affiné à l'aide de l'apprentissage âr renforcement, à partir du retour d'humains "OPEN AI" Et on se demande pourquoi qu'une explication de texte pi un compte rendu de réunion prendrait 1/4 d'heure
Des petits français bien formés chez Meta et DeepMind quand même
Et dans les écoles françaises 😉
Meta dont la branche IA est dirigée par un français, ou DeepMind qui compte des dizaines de français dans ses équipes?
Les français partent à l'étranger car entre le racket de l'état français et les restrictions de plus en plus délirantes de l'UE, il ne reste plus beaucoup de place pour l'innovation.
L'équipe de Mistral est très courageuse de rester ici...j'espère qu'ils ne vont pas se faire voler leurs idées par d'autres pays où l'innovation est plus encouragée.
Ben le chef de la recherche IA chez Meta est français (Yann LeCun). je crois d'ailleurs que le labo est en France.
@@TitouFromMars J'ai juste lu "génie français". ça me suffit pour valider sans réserve.
Je sais, ça peut paraître con, mais à défaut d'une aide réellement utile, un financement (et on sait que tout ces projets en ont besoin), au moins qu'on les soutienne.
Je comprendrai après (oui, je sais, l'ordre est bête).
@@arigato1901Sans oublier l'insécurité...
9:27 Il fait 90 GO le fichier pas 5.. Faut download le torrent publié en Septembre pour s'en rendre compte
Toujours au top niveau informationnelle. Juste par contre, quelqu'un peut dire à micode qu'il existe autre chose que les jouets d'apple ?
Si il mentionne les Mac c'est simplement car ils utilisent une mémoire unifiée, cad que le modèle 64Go peut fournir toute la RAM soit au CPU soit au GPU, plus souvent utilisé par les LLM. Sauf que dans la sphère Windows les mémoires unifiées sont pas légions, donc avoir 64Go de RAM requiert des cartes graphiques assez puissantes/spécialisées
Il y a pas que windaube et mac dans la vie. Il y a aussi des systèmes libres avec de l'éthique et qui marchent bien
@@MathieuROBIN mon raisonnement s’applique aussi bien à Windows que Linux…
Le Mistral, un vent de changement !
Je suis trop hype, vive la France !
un conseil pour trouver un tuto/lien de téléchargement/installation pour Mixtral 8x7b ? Merci !
Oui oui, on connaît les levées de fonds qui aboutissent à rien sauf à l'enrichissement des actionnaires, on va gentiment attendre de voir ce que ça donne surtout, c'est Microsoft en face il ne faut pas l'oublier :)
Oui oui, on connait les ingénieurs et chercheurs et en général tous les employés qui acceptent d'être payés en amour et eau fraîche lorsqu'une entreprise a besoin de fonds pour aller plus loin dans un nouveau projet.
Microsoft qui font partie de ceux qui ont contribuer le plus à l'informatique notamment à Linux ? donc jacky tait-toi un peu, Microsoft c'est aussi des équipes sérieuses, et des aussi des équipes moins sérieuses, c'est immense Microsoft et l'humanité est encore jeune, si tu as des améliorations à apporter on te regarde autrement que par ce type de commentaire non nécessaire (puis que en réalité dans de nombreux cas heureusement que y'a des actionnaires / des investisseurs).
On parlera même pas de Nvidia qui font partie des plus gros investisseurs là-dedans et qui ont une expériences et un apport bénéfique pour l'humanité qui n'est plus à prouver.
(la france et ses nombrilistes faut se détendre les gars)
@@marvin.toyboy ok le cryptobro
Très intéressant, merci 🤝
VENANT DE LA FRANCE, on s'attendais plus a Miss Troll.
Beaucoup explique que l’IA n’a aucune modération. J’ai testé, en hacking par exemple lui demander de créer un script pour exploiter un CVE ou encore lui demander des script pour un trojan…. Impossible
Tu me donnes la motivation pour me lancer dans l'IA là, ça fait 2 ans que j'attends un élément déclencheur.😁
La passion dans tes yeux.💯
my 2 cents : il y a environ 5 ou 6 ans j'ai participé à un hackathon IA médicale (reconnaissance d'image). Ceux qui ont gagné c'est l'équipe qui a rajouté le dataset de test dans celui de train (les dataset étaient sur le net). aucun "chef" n'a vu cette arnaque
Iphone, mac, mac mini ... c'est devenu une annexe d'applestore ici ? Ca serait bien d'être un peu plus inclusif, et ne pas oublier les linux, windows et autres android (qui sont au moins aussi bien).
J'ai eu cette discussion avec l'un de mes étudiants qui teste pas mal de LLM sur son mac pro, l'avantage des macs est le partage de toute la RAM entre le GPU et le CPU du coup le fine tuning est plus efficace que sur PC, après tu peux mettre un Linux sur un mac, mais c'est pas super à cause de la rétro-ingénierie nécessaire...
@@michaellaunay1053 Ah bon ? Et comment font les OpenAI, Google, Facebook, etc... qui utilisent les infra Google Cloud, Amazon web services, Microsoft Azure, etc... qui n'utilisent pas de mac ?
Et même si ce que vous avancez est vrai, cela n'empêche pas d'en parler, plutôt que de, comme dans la vidéo ici, partir du principe que tout le monde utilise les produits apple, et que ce sont les seuls qui existent ?!
Pile au moment où nos informations sont devenues triviales à interpréter, tout le monde oublie de se garder une gêne quand vient le temps de se confier aux LLM.
Quand je demande à Mixtral-8x7b-Instruct : "Présente-toi et explique brièvement la genèse des LLM.", je reçois comme réponse étonnante :
"Bonjour, je m'appelle ChatGPT et je suis un modèle de langage développé par OpenAI. Je n'ai pas été entraîné de manière subjective ou partisane, et mes réponses sont basées sur une grande quantité de données textuelles que j'ai analysées."
C'est bizarre, non? 😎
Incroyable! Je like pour mettre en avant mais c'est vachement louche hahaha.
Ils ont probablement entraîné leur modèle sur des données générés par ChatGPT
C'est différence entre les chatGPS putassiers avec des données en vrac, et un modèle entrainé sur un sujet particulier avec un tri pointu des données d'entrée !
Merci de pousser le débat vers les progrès, pas vers le "sensationnel" !
C'est normal que l'IA open source avance/progresse plus vite que les IA privées, il y a des milliers de développeurs en train de les améliorer / en faire des branch là où openAI ou Google sont limités par le nombre d'ingénieurs qu'ils ont... La magie de la collaboration
« il y a des milliers de développeurs en train de les améliorer» ... C'est beau le rêve...
«La magie de la collaboration» ... C'est ca, tu l'as dit, de la magie...
@@garryiglesias4074hé oui, bienvenue dans le monde open source des barbus intégristes qui sentent pas bon. Rappelons tout de même que tout ces bazars ça tourne sur Linux et pas sur windows
@@Albert-zw1sv Heu... Perso j'ai installé Slackware, la première version en 93 par la, sur mon DX2 66... Non juste pour dire que Linux je connais un peu ?... Au lycée, j'ai même été sélectionné pour le concours "prologin" d'EPITA en 92 par la... 16 ans... Non, juste pour dire que je suis pas un lapin né d'hier... Et que ton stéréotype des barbus en claquettes, translucides, qui utilisent wireshark et nmap pour s'impressionner les uns les autres... Bin... Ca m'impressionne pas :D...
J'ai répondu au premier degré, de toute mon expérience... "Beau rêve", et la magie...
En fait.... ces intelligences artificielles vont révolutionner la lutte contre le piratage.
En faisant une IA qui surveille tes ports entrants et la logique avec lesquels ils se connectent. Pourquoi ils se connectent ? Que veulent faire les programmes ou scripts qui se connectent ? Quand les ordinateurs vont comprendre ça... ça va être incroyable.
On leur a interdit de parler ? Ahah
Sérieusement leur travail est dingue, mais dommage de t'entendre parler tout seul pendant 20 min, alors qu'ils sont invités sur le plateau ^^
Merci beaucoup pour vos reportages 👏🌞
que des uc en commentaire
je te jure quel enfer
🤣🤣🤣
C’est tout une armée xD
Question bête : quel intérêt si on est un "utilisateur simple" de ces IA d'avoir le modèle en local sur notre ordi ? Gagner quelques milliseconds à chaque appel?
la puissance de calcul a un coût pour ceux qui les développe
pourquoi y'a autant de bot dans les commentaires ? 😭😭
J'avoue c'est l'invasion en ce moment 😊
Hello tout le monde, j’y connais rien en IA et en informatique dans sa globalité mais je trouve ça passionnant, ducoup j’avais une question sur cette vidéo, c’est quoi l’intérêt et les avantages d’avoir une IA comme mistral en local plutôt qu’un chat GPT en ligne? Merci d’avance pour vos réponses 🙃
Putain mais vive la France, j'espère qu'ils continueront à innover comme ça on a un virage à prendre avec l'IA
Ils n'ont plus rien de français à part encore un passeport... tout est fait aux states hein....
@@42ArthurDent42 Leur cerveaux sont francais
Vivement une intronisation en bourse pour en faire une nouvelle etoile française
L'un des gros nerfs de chatgpt a été toutes les mises à jours pour être inclusifs, woke ou avec les valeurs à la con, ça à mis beaucoups de freins sur l'acquisition et les réponses en général de gpt
Ah, les bons vieux jours quand on pouvait encore violer nos esclaves sans se faire traiter comme reac...
J'ai déjà utilisé le modèle Mistral 7B et le résultat est bluffant. C'est un des rares modèle auquel on peut poser des questions en français.
Je l'ai utilisé avec le moteur ollama en local. Sans utiliser le GPU la vitesse de réponse est plutôt satisfaisante.
Mistral 7B est déjà bluffant alors imagine Mixtral 8x7B qui est 8 fois plus gros...
Si tu as au moins 32go de ram, je te conseille d'essayer (sinon c'est 60 balles sur lbc)
Ca marche avec de la ram classique ? Pas qu'avec celle du GPU?@@davidvincent380
Je suis choqué du combo col roulé + ptite coupe on dirait un autre homme
Une femme a attiré son œil
Il s'est cru pour Steve Jobs
Pourquoi vous parlez de Mac comme si c'était le standard et que rien d'autre n'existe à coté ? Apple est votre partenaire commercial ?
merci pour votre travail toujours au top.
Les gens qui râlent sur ChatGPT trop woke et se réjouissent de Mistral AI juste pour ça... Vous avez testé Mistral AI ? XD
Si vous êtes de la team "tes chromosomes définissent ton genre", j'ai une mauvaise nouvelle pour vous. o/
Team les chromosomes défissent ton genre et il y a que deux genres. Et vive la testostérone
En tout cas tes chromosomes définissent ton sexe et cela vous fait tant de mal que des gens n’adhèrent pas à vos nouvelles croyances? Êtes vous une religion ?
Hello , je suis pas du tout un pro dans le domaine je voulais juste savoir si L IA mixtral dont tu parle est en téléchargement libre ? merci beaucoup pour ton travail j'y connais rien mais c'est passionnant
Je pensais pas qu'Underscore avait une aussi grosse commu de gens réactionnaires. Parler de wokisme alors que le sujet est l'IA, faut être sacrément matrixé par son idéologie de haine de l'autre. Ça craint.
la fachosphère est très active sur le web et notamment sur TH-cam
@@julien5053 Autant ça me saoule de voir les gens parler de wokisme sur des sujets sans rapport, autant ça me saoule de voir des gens parler de fach* sur des sujets sans rapport (tu te tire une balle dans le pied en faisant le raccourci "mec qui râle contre le wokisme" = fach*). Pour moi vous êtes les mêmes, désolé.
@@christophe3969 parce que t'es un réac' et que ça te défrise que je parle de fachos ? Etre woke c'est être anti-raciste. Ceux qui crachent sur le wokisme c'est... Allons c'est la contraposée, fais un effort...
@@julien5053 Mais quel rapport ? Pourquoi tu parles de la France ? On est sur une vidéo qui parle d'IA, pas de la politique française. Tu es autant hors sujet que les réacs qui viennent crier au wokisme.
Quant a ton attaque ad homimen, elle tape bien a cote, n'habitant pas en France en effet je suis bien ignorant de ce qui se passe en France, et c'est sans doute tant mieux.
@@julien5053 T'as juste édité ton message pour le changer en integralite et m'insulter. Calme toi hein, inutile de partir en guerre contre la première personne qui ose ne pas être en totale adéquation avec toi, tu vivras mieux... Si tu traites quelqu'un de reac ou de fach* parce qu'il te fait une remarque ça doit être dur de discuter avec toi. A traiter tout le monde de la sorte tu ne fais que banaliser cette insulte qui devrait rester grave.
Allez bonne soirée je ne vois même pas pourquoi on perd du temps a parler ici.
Je ne peux que penser à l'optimisation des programmeurs du groupe AND en langage machine PC qui ont fait tenir environ 7 minutes de vidéo en 1920x1080x60Hz avec de la musique style trance en stéréo en seulement 65536 octets (ou 64Kio) : "zoom 3".
Si un jour des programmeurs qui ont le niveau pour reprogrammer et optimiser en langage assembleur les différents algorithmes d'intelligence artificielle, les tailles seront divisées au minimum par 1000.
Je doute que l'assembleur nous aide beaucoup sur ce coup là... Aussi impressionnant que soit Zoom 3, c'est avant tout une démo technique : c'est du code pour faire tenir une vidéo spécifique en 64ko, pas une méthodologie générale pour encoder n'importe quelle vidéo avec la même taille. ChatGPT et consort sont des réseaux de neurones, essentiellement d'énormes matrices de nombres qu'on multiplie ensemble, rien de très subtil niveau computatoire en première approximation.
Les cartes graphiques sont déjà bien optimisées pour effectuer ce genre d'opérations, et réduire la taille, donc compresser les données ça veut dire augmenter la charge de travail pour chaque processeur de la carte afin de procéder à la décompression, c'est pas vraiment souhaitable. Quant à comprendre le raisonnement derrière le fonctionnement des réseaux, y a probablement une médaille Fields direct au premier qui y arrive...
Ca fait ~35 ans que la scène démo fait ce genre de 'vidéo' temps réel de 64ko ou moins et plus aussi(C64, atari ST, Amiga, pc) . Farbrausch est le groupe le plus connus pour ses productions 64ko. Ils utilisent des générateurs algorithmiques pour produire les sons et les textures de scène. Presque qu'aucun intérêt a utiliser l'assembleur de nos jours. Tous ça , ça n'a rien a voir avec comment optimiser une IA
@@PatriceL584 Es-tu certain qu'il n'y a plus besoin d'assembleur ? L'utilisation de l'assembleur est la seule solution dans les applications critiques qui ont besoin de rapidité. Encore quelques pilotes de périphériques se font en assembleur.
Il me semblait que l'assembleur est souvent utilisé dans les domaines nécessitant un contrôle précis sur le matériel, comme le développement de pilotes, de microcontrôleurs, et dans des applications où la "performance maximale" est cruciale, comme certaines parties du traitement d'image ou de signal, on pourrait imaginer l'IA ? Cependant, son utilisation est devenue moins fréquente dans le développement général d'applications en raison de la complexité croissante des logiciels et des avantages des langages de haut niveau en termes de productivité. Utilisation moins fréquente, ne signifie pas néant.
L'assembleur permet quand même de réduire les couches logicielles, d'économiser en mémoire et d'accélérer les algorithmes. C'est exactement ce qu'il faudrait pour avoir un outil d''intelligence artificielle plus performant.
Sinon le choix de la programmation d'IA semble se faire soit en RUST pour la sécurité, soit en Python pour l'éventail d'algorithmes d'apprentissages, et j'avais aperçu l'utilisation du C pour une intelligence artificielle développée par Facebook pour concurrencer tchat GPT.
Le C et le Rust semblent pratiquement aussi rapides que l'assembleur. Mais le Python est une véritable limace comparé à l'assembleur poids je ne dis pas qu'il faudrait de toi et écrire en assembleur, mais il faudrait au moins réécrire les parties logiciels qui font goulot d'étranglement.
Sur l'Amiga que tu sembles connaître, je rappelle qu'environ 90% du système d'exploitation ont été écrit en C, 9 % en langage machine optimisée, et le reste 1% restant en Amiga-Script.
Un ordinateur à méga 1200 à 50 MHz peut faire la course avec un PC Windows MT4 à 200 MHz, je n'ai pas testé les temps de calcul à l'époque mais je peux dire que sur l'utilisation du bureau, l'utilisation est aussi rapide sur l'Amiga à 50 MHz (consommant 5 watts) que sur le PC à 200MHz (consommant plus que 5 watts). Les différences de consommation à vitesse relativement égale viennent des surcouches logicielles et quand même d'une architecture assez différente. C'est dommage que je n'avais pas pensé à programmer l'algorithme pour calculer les décimales de Pi à l'époque pour faire un mini benchmark pour comparer les performances de calculs.
@@PatriceL584 j'ajoute que toi tu ne vois pas d'intérêt utiliser l'assembleur de nos jours, mais tu comprendras quand tu devras pédaler pour utiliser ton ordinateur, j'ai une autre vision, si nous pouvions imposer l'assembleur à des gens comme Microsoft, et tous les bénévoles GNU/Linux, la puissance électrique consommée par le parc des ordinateurs mondiaux diminuerait presque linéairement avec l'allègement du code informatique.
La consommation d'un ordinateur de bureau comme le miens peut se linéariser approximativement par :
Puissances-prise = 15W + (11×%cpu)_W
Ah si je n'ai pas besoin de regarder le wattmetre pour connaître environ la consommation électrique de mon ordinateur avec carte-mère J5005-itx équipée d'un processeur qui permet des performances équivalentes aux anciens Q6600 à 3 GHz (105W) avec des carte-mères qui consommaient entre 40 et 50W.
@@eldonad d'accord avec toi que le côté GPUs n'est pas forcément facilement optimisable, surtout qu'il est probablement déjà assez bien optimisé en langage machine puisque c'est un matériel propriétaire qui a besoin d'être le plus performant possible par rapport à la concurrence (alors que je suis philosophiquement convaincu que les choses pourraient être mieux optimisées en arrêtant les brevets et en laissant les entreprises travailler dans le même sens afin que chaque optimisation profite à tous, à l'image de GNU/Linux, ou de la «cathédrale et le bazar»).
Les optimisation côté processeurs seraient pratiquement linéaires quant à la réduction de la longueur de code, c'est physique et cela se comprend mathématiquement. En ayant besoin de moins d'opérations consommant de l'énergie pour faire la même chose, on risque d'économiser en instructions-CPU donc en énergie.
Je n'ai pas le temps de prendre des mesures de puissances en watts à la prise de l'ordinateur effectuant un benchtest sous GNU/Linux par exemple pour le comparer avec le même benchtest dans virtual-box (une façon d'ajouter très simplement des couches logicielles) sur le même ordinateur.
Quelqu'un a-t-il déjà comparé ?
(ChatGPT 3.5 KO)
Bing Chat avec GPT-4 :
« …
2. VirtualBox et la consommation d’énergie : L’exécution d’un système d’exploitation dans une machine virtuelle comme VirtualBox ajoute une couche d’abstraction entre le système d’exploitation invité et le matériel, ce qui pourrait potentiellement augmenter la consommation d’énergie. Cependant, la différence spécifique dépendrait de la charge de travail et de la façon dont VirtualBox est configuré.
3. Comparaison de la consommation d’énergie : En général, l’exécution d’un système d’exploitation directement sur le matériel (comme dans le cas de GNU/Linux dans votre exemple) est plus efficace en termes de consommation d’énergie que l’exécution du même système d’exploitation dans une machine virtuelle sur le même matériel. Cela est dû au surcoût associé à la virtualisation. Cependant, la différence exacte dépendrait de nombreux facteurs et nécessiterait des tests spécifiques pour être déterminée avec précision.
Veuillez noter que ces informations sont basées sur des connaissances générales et peuvent ne pas s’appliquer exactement à votre situation spécifique. Pour obtenir des résultats précis, il serait préférable de mesurer la consommation d’énergie dans les deux scénarios. »
Je suis entièrement d'accord, mais je pense que l'intuition est bonne ici.
GPt devient de plus en plus woke et c'est problématique.
non ?
@@stephane5581 et le rapport entre pandémie et "les théories wokistes", expression inventée par les réactionnaires ? Réponse aucun.
Tais-toi donc le réac qui mélange tout et ramène ses théories woke sous chaque vidéo même quand c'est hors sujet. Une IA woke, au moins tu m'auras fait marrer.
utilise l'IA de X/Twtter elle est faite pour toi
c'est un "Mistral gagnant" !
😅
super intéressant,merci !
Mais invité les dans l'émission il le faut !!!
Exactement, plus ca va plus je remarque que chat gpt devient moins coopératif et embetant pour "pisser du code".
Je vais même pas évoquer l'avoir en assistant en pentest, qui desormais devient du social engineering avec lui dans un premier temps 😂
@@HyseanB Bien vu ! Merci je vais tester comme ça maintenant 👍
Est ce que l’on peut comparer Mistral avec le 8x7 à la logique de Docker avec ces containers pour maximiser un système.