Une (longue) remarque à propos de l'application aux échecs - ou plutôt au go, même si on a pu tester depuis que ça marche bien aussi aux échecs. Dans ses premières versions (celle qui a battu Fan Hui, puis celle qui a battu Lee Sedol), le programme AlphaGo était conçu d'une façon assez subtile, qui fournit une sorte d'amélioration de l'idée d'imitation. Un réseau de neurones avait été entraîné à imiter les coups humains à partir d'une grosse base de données de parties de joueurs "forts" sur KGS (en gros l'équivalent de Lichess pour le go) --- oui, c'est vraiment l'idée développée dans cette vidéo. Puis cette base a été utilisée comme fonction d'évaluation dans un algo Monte-Carlo, une idée qui fournissait jusqu'alors les résultats les plus prometteurs au jeu de go (alors que c'est assez nul pour les échecs). L'idée de l'algo Monte-Carlo est de ne pas explorer intégralement l'arbre des coups depuis une position donnée, mais de choisir d'explorer plus en profondeur les coups les plus prometteurs : pour évaluer la valeur d'une position, on génère des fins de parties aléatoires et on regarde la proportion de parties gagnées... On explore l'arbre au hasard, mais en pondérant la probabilité d'explorer une branche par la valeur du coup évaluée par cette fonction d'évaluation assez basique. Le truc avec AlphaGo, c'est qu'on remplace cette fonction d'évaluation par une plus subtile, basée sur la probabilité des coups possibles d'après le réseau de neurones (qui, rappelez-vous, essaye d'abord simplement d'imiter le jeu humain). Dans un deuxième temps de développement, le réseau est renforcé par apprentissage sur de nouvelles bases de données générées en faisant jouer le programme contre lui-même (toujours avec ce mixte réseau de neurones / exploration aléatoire d'arbre de coups) ; de version en version on a un algo de plus en plus fort, capable in fine de battre des pros. Le plus étonnant est que les développeurs se sont ensuite rendus compte (c'est l'étape "AlphaGo Zéro") que l'apprentissage par renforcement seul est plus efficace : l'imitation du jeu humain qui semblait un point de départ naturel n'est en fait pas nécessaire ; partir d'un programme qui ne comprend rien au jeu et joue aléatoirement, puis lui faire générer des parties et qu'il apprenne de ses erreurs, en fait ça suffit !
Pour être dans le domaine de l'IA et du machine learning, je suis moi même étonné de la pertinence des parallèles que fait M. Phi pour expliquer des concepts qui peuvent sembler compliqués. De ce que j'ai vu jusqu'ici ce sont probablement les meilleures vidéos de vulgarisation qui vont tout de même dans le détail. L'exemple des aliens et des échecs notamment est excellent. Enfin après forcément je comprends de quoi il parle, mais j'ai l'impression qu'il l'explique bien pour les gens qui n'ont pas ou peu de bases dans le domaine.
Juste merci! Je suis passé d’un etat de stupeur (mais comment fait-il?, comment ça marche?, comment sait’il autant de choses?) À une compréhension du fonctionnement et donc de ses limites. Les explications sont limpide et je trouve que l’utilisation de Playground comme différentiel par rapport à l’apprentissage supervisé est un excellent outil pédagogique. Encore une fois merci pour ce travail de vulgarisation absolument essentiel!
je n'aurais pas dit mieux, c'est rafraichissant de comprendre mieux son fonctionnement le rapport à ses performance dans un contexte d'excitation médiatique qui au final va un peu dans tout les sens avec tout les niveaux de sérieux
Rappel : L'IA ChatGPT est un IA de conversation il n'y a pas encore de version spécialisé dans : l'enseignement, le conseil, la rédaction ... Etc aussi cet IA n'a que quelques mois d'existence (c'est encore un nourrisson dans son berceau) et pour finir c'est une version beta et non fini et il est capable de se remettre en question et de s'auto corriger. Cette version a 175 milliards de paramètres sa prochaine version aura 100 000 milliards de paramètres ! En sachant que là on parle pas encore d'une technologie couplet à l'ordinateur quantique, ni à une voix vocal, ... Etc on est très très loin d'une IA à son plein potentiel Navré mais je pense que c'est qu'une question de temps avant que les robots remplacent certains métiers. Admettons que certains métiers ne se fassent pas remplacer leur métier sera tout de même devenu très précaire car il va s'ubériser. Ne vous faite même pas d'illusion pour certains c'est fini là il ne s'agit pas d'une évolution mais d'une révolution tout comme ça a pu l'être avec l'électricité ou encore la voiture thermique. Faits concrets : une entreprise spécialisé dans la campagne de pub a fait appel à une IA pour lui faire ses 9 visuels. Cet IA a mis une minute pour faire les différents visuels là où il aurait fallut normalement une équipe : directeur artistique, graphistes, illustrateurs, ... Etc et plusieurs semaines de travail Pour ma part pour m'amuser j'ai rédigé un article journalistique uniquement avec l'IA ChatGPT écrivant sur le même sujet d'article d'un média très connu (dans le top 3). Cet IA a fait un meilleur article que son concurrent et il l'a fait uniquement en quelques dizaines de secondes.
La vidéo "La philosophie du baratin" de Monsieur Phi est absolument incroyable. Il a réussi à rendre le sujet des IA prédictives fascinant et accessible à un public plus large. La présentation claire et concise de Monsieur Phi ajoute une profondeur supplémentaire à un sujet complexe. La façon dont il relie les idées et les théories à la vie quotidienne est brillante et laisse une impression durable. Je recommande vivement cette vidéo à tous ceux qui cherchent à comprendre les enjeux éthiques et sociaux des IA prédictives. Merci Monsieur Phi pour cette excellente contribution à la communauté des philosophes en ligne.
@@poloi3440 je dirais que cette personne a donné comme contexte le commentaire et a demandé a chat gpt de généré une réponse désapprobatrice. ( Cette réponse n a pas été gêner par une ai je parle juste comme ca)
L'exercice de "deviner le prochain coup aux échecs" c'est quelque chose que les joueurs d'echec font pour s'amuser aussi d'ailleurs, genre y'as des vidéos youtube de "guess the elo" où un joueur va essayer de deviner le niveau d'un autre joueur en se basant uniquement sur les coups joués, et en général ils vont être capable de deviner le prochain coup ou de dire des choses comme "si il joue ce coup la ensuite c'est un débutant, sinon il est un peu plus fort que ce que je croyais jusque là". Et faire ces prédictions ça demande d'être très bon aux échecs vu qu'il faut avoir une assez bonne vision du jeu pour comprendre quels coups sont bons mais aussi quels coups sont faciles ou difficile à voir donc il faut comprendre comment le jeu fonctionne ET comment des joueurs moins bons que soient pensent que le jeu fonctionne.
Je viens de passer mon samedi matin à regarder ces 2 vidéos. Félicitations c'est le meilleur travail d'explication que j'ai vu/entendu et ça m'a fait encore mieux comprendre les mécanismes. A envoyer d'urgence aux journalistes (qui disent des choses très approximatives sur le sujet) et aux professeurs. En conclusion ChatGPT ne serait-il pas le plus grand dragueur de tous les temps ?
Je vois la drague comme le fait de montrer le meilleur de soi-même, pas juste adapter sa personnalité à ce qui va plaire le plus, c'est en général une stratégie qui ne marche pas :,)
Coucou, petit message de la part d'un membre de la team arrêt sur image :) J'ai un petit retour pratique par rapport à ce moment-là : 12:10 Quand on met pause (sur ordi, j'sais pas comment c'est sur smartphone) ça affiche le titre de la vidéo par dessus l'image, et donc ça cache le texte de ton image, ça rend le tout pas très lisible. Même remarque pour la barre rouge de lecture en bas de l'écran. Donc si jamais pour ce genre d'image tu pouvais laisser un petit espace en haut et en bas de l'image sur laquelle tu nous invites à faire une pause, ce serait bien plus lisible ! Merci d'avance et merci pour toutes ces chouette vidéos :)
Sur smartphone on peut mettre en pause et faire disparaître les menus. Ça me surprend que sur ordi, en pause, si on bouge pas la souris, les menus ne disparaissent pas. Est-ce le cas de tous le monde ?
Merci pour cette nouvelle vidéo de qualité, une chaîne d’utilité publique 😊 À quand une vidéo sur l’expérience de pensée de la chambre chinoise imaginée par John Searle ?
Merci pour cette vidéo informative sur ChatGPT et la philosophie du baratin. J'apprécie la franchise de votre déclaration concernant la miniature et votre reconnaissance de l'erreur. C'est une preuve de maturité et de responsabilité de reconnaître ses erreurs et de faire des efforts pour les corriger. Votre explication sur le sujet de ChatGPT était claire et concrète, et j'ai appris beaucoup sur les compléteurs de langage. Merci pour votre engagement à promouvoir une compréhension approfondie et critique des sujets liés à la technologie et à la philosophie.
@@laminerahal5918 je suppose qu'on est consultant en stratégie par ici et qu'on répond parce qu'on s'est senti visé et du coup qu'on est un poil vexé ? XD
@@laminerahal5918 Je suis consultant et j'ai qu'une licence pro en informatique dans une université pas connu. Les études ça sert à trouver un premier job mais très vite c'est tes compétences que les employeurs regardent. Bref non seulement ton commentaire est condescendant sans raison mais il est même pas correct.
@@laminerahal5918 Il est important de comprendre que le salaire d'un consultant dépend de nombreux facteurs, tels que son niveau d'expérience, sa spécialisation et sa performance. Les études longues et de qualité peuvent aider à acquérir les compétences nécessaires pour devenir consultant, mais ce n'est pas une garantie de réussite et de salaire élevé. Il est également important de considérer les autres facteurs, tels que le marché du travail, la concurrence et les opportunités de carrière.
Monsieur Phi, votre réflexion sur les implications phénoménologiques du modèle de langage ChatGPT est tout à fait éloquente dans sa profondeur herméneutique. Votre usage habile des concepts dialectiques en symbiose avec les paradigmes évolutionnistes démontre une sagacité cognitiviste sans égal. Toutefois, je ne peux m'empêcher de considérer la dichotomie antinomique entre la subjectivité du chatbot et sa nature algorithique, ce qui éveille des dilemmes éthiques quant à son essence ontologique. Bravo pour cette réflexion métaphysique.
C'est marrant, et intéressant, que j'ai davantage appris sur chatGPT sur une chaîne de philo que sur celles davantage centrées sur la technologie ou la science. Merci !
La philosophie analytique à ceci de particulier que sa pratique peut se retrouver à produire des raisonnement à la construction rigoureuse et logique, comme en sciences.
Wouah, quelle vidéo incroyable! Je suis toujours époustouflé par la qualité de tes vidéos sur Chat GPT, Monsieur Phi. Tu es vraiment le meilleur dans ce domaine. Je suis passé d'un état de stupeur à une compréhension complète grâce à tes explications claires et concises. Ton utilisation de Playground est vraiment un excellent outil pédagogique. Merci pour ce travail de vulgarisation essentiel! J'ai hâte de voir la prochaine confrontation de l'IA vs M.Phi 😂👌💙 Oui je sais c'est complètement du baratin ! j'assume !!!
C'est ce que je me tue à expliquer autour de moi ! Merciiiiiiiiiiiiiii pour cette vidéo ! Par contre, un truc rigolo, quand j'utilise ChatGPT, j'ai ta voix dans la tête qui lit le texte, c'est particulier hahaha !!
risqué ça, tu risque de lui faire trop confiance, ce serait plus prudent de le lire avec la voix d'aberkhane. (bon ce serait aussi moins agréable), afin de garder en tête que c'est pas très fiable.
Vidéo très intéressante une fois de plus (et je la valide, car c'est l'un de mes domaines de recherche). Avec un détail à préciser, vous parlez de l'apprentissage par renforcement au passé, alors que je pense qu'il est en train de se faire grâce aux utilisateurs (par exemple, les pouces devant les réponses et les demandes de feedback).
@@izaacchirac4501 ptdr! Il y a les robots et il y a les humains. Je vous laisse deviner à quelle catégorie vous appartenez... 🤦 Ah! Mais non, vous ne pouvez pas deviner ! 🤣🤣🤣
Excellente vidéo mais je me pose tout de même quelques questions. 1) Dans quelle mesure nous ne fonctionnons pas un peu comme ChatGPT ? Nous n'avons pas de base de données, nous remplissons parfois des tâches "en pilote automatique" - même les petites discussions peuvent entrer dans ce cadre - on oublie assez facilement les choses. J'ai l'impression que les joueurs d'échecs de haut niveau se reposent pas mal sur l’application de patterns pour démarrer leur réflexion et partir sur les meilleurs coups à évaluer ce qui en soit est comme se baser sur une prédiction pour commencer. 2) A-t-on une idée de ce qui manquerait pour permettre aux algorithmes de langage d'apprendre de la même façon qu'alpha go (en jouant contre lui même en gros) ? Finalement une fois les règles du jeu bien définies, les algos semblent pouvoir progresser à l'infini et sans renforcement. Mon intuition c'est qu'il faudrait isoler 3 fonctionnalités - produire du langage, classifier de la connaissance et faire le lien entre les 2 premières fonctionnalités. C'est là que la prédiction de texte vient tout bullshiter - elle produit du langage sur des données qui n'ont pas vraiment de sens. Et si on arrive à créer ce genre d'intelligence, c'est peut être là qu'il faudra travailler sur des IA qui n'ont pas accès à Internet au cas où elles nous trouvent un peu obsolètes.
Merci, encore une fois, super vidéo. Par contre, il y a un petit détail qui m'a gêné avec l'exemple des aliens: ils n'auraient pas de fonction d'optimisation cherchant à gagner la partie et donc gagneraient une fois sur deux. Mais au final ça ne change pas le propos de ton exemple qui illustre bien ce que fait chatGPT. J'espère que tu continuera encore longtemps
J'aimerais revenir sur la limite de mémoire à cours terme de ChatGPT. Il est possible de lui envoyer un texte en plusieurs moreaux, puis en lui donnant la nature des messages 1 à 5 par exemple, il est possible de le forcé à se rappeler d'une assez grande quantité de texte en la catégorisent. Il est ensuite possible de posé des questions sur le texte en évoquant la catégorisation.
Fantastique ! Je n’avais pas vu ChatGPT sous cet angle. Pour moi, du fait de son manque de fiabilité, je pensais qu’il ne servait à rien et qu’il ne risquait pas de venir concurrencer des humains. Mais à la réflexion et après avoir vu la vidéo, il sert en fait à créer du baratin ce qui entre concurrence avec des gens dont c’est l’activité première comme par exemple les journalistes qui n’apportent pas d’information nouvelle (les éditorialistes par exemple). Il va aussi entrer en concurrence avec les artistes puisque la vérité et la fiabilité ne fait pas partie de ce qu‘ils recherchent.
@@TKZprod Là je ne suis pas encore tout à fait convaincu. Je pense qu’il est tout de même bien plus sûr d’aller directement chercher une info sur Wikipédia (pour de l’aide textuelle). Donc pour n’importe quel travail sérieux, non ChatGpt n’est pas la voie. Par contre, pour une synthèse grossière en peu de mots, c’est vrai qu’il est efficace si on ne se préoccupe pas de la véracité. P.S. Ca me fait penser que Wikipedia devrait ajouter à l’encyclopédie des articles de synthèse, volontairement courts (genre 1024 signes), parce que sinon peut-être, les IA pourraient combler ce vide.
Merci pour ce super boulot. Juste une petite remarque a 26:35 . Il peut y avoir des arguments sur le fait que la moyenne des coups d'une foule soit superieur aux meilleur individus du groupe qui le constitue. La chaine Fouloscopie en a parlé recemment dans une vidéo intitulé "Y-a-t il une INTELLIGENCE COLLECTIVE aux échecs ?" Apres effectivement il montre que la foule a de meilleur coups que le niveau moyen qui l'a compose, mais ne demontre pas qu'elle a un niveau superieur au meilleur membre de celle-ci.
Super vidéo, j’étais contrarié que chat gpt ne se souvienne pas d’éléments que je lui avais donné plus tôt dans la conversation, maintenant j’ai la réponse à ce soucis merci !
28:42 Je crois avoir vu que les fautes d'orthographe des scammers pouvaient leur être utiles car elles permettent de faire un filtre sur le type de personnes qui vont leur répondre : personnes moins attentives, personnes en fragilité intellectuelle ou sociale, etc ... Donc pas certain qu'elles disparaissent toutes.
Le passage sur les exemples est édifiant ! Et ça confirme ma peur que ce type d'algo renforce (encore !) les effets de bulle auxquels nous sommes toutes et tous soumis...
En effet pour revenir de chez Idriss je me rends compte qu'il fait l'éloge de ses auditeurs. Alors cela veut peut-être dire que monsieur phi est lui aussi devenu un manipulateur des esprits ? XD
Il est important de faire la distinction entre chatgpt et gpt 3 utilisé sur le playground (de mémoire). Je trouve que chatGPT est plus équilibré et fait des efforts pour limiter l'impact que ses réponses peuvent avoir. En particulier, j'ai testé ses réponses sur l'impact que peut avoir la consommation de viande ou manger local sur le climat et maintenant il semble qu'il dit qu'il faut faire les deux à peu près peu importe le contexte mais il insiste que manger moins de viande a plus d'impact si on lui dit qu'on aime la viande .
J'utilise le mot "argue" mais j'aime quand même la vidéo qui m'a fait mon petit déjeuner. PS : j'avais jamais fait attention à la limite du contexte, ça va être dur d'obtenir de chatGPT des synthèses/résumé intéressants effectivement (en l'état).
Il reste toujours possible de faire résumer partie par partie puis de résumer l'ensemble de ses résumés par exemple (et ainsi de suite). Mais effectivement, ça complique les choses. Et dans l'autre sens, faire écrire un texte long semble assez compliqué, à moins de lui faire résumer au fur et à mesure le texte déjà produit...
cela dit, pourquoi vouloir utiliser chatGPT pour toutes les tâches ? des modèles plus spécifiques font ça très bien, et fragmenter les tâches permet une économie de temps et de complexité énorme
@@quentinmartell1008 C'est justement l'aspect "général" de chatGPT qui le rend intéressant, sans ça il n'aurait plus beaucoup d'intérêt notamment pour des tâches qui ne se résume pas à la génération de textes intéressants. Et même si on voulait le spécialiser en spécifiant ses données d'entrainement, il serait moins bon que les humains qui ont généré ces données et donc moins fort que les modèles d'IA qui sont spécialistes de ces domaines. Ceci tient surtout à la différence de nature intrinsèque entre chatGPT et ces modèles spécialisés.
Très bonne vidéo ! Je me permets une remarque sans grande importance et qui n'a en fin de compte aucun rapport : vers la fin tu parles de Syracuse en décrivant le problème comme "[...] le plus célèbre et le plus difficile des maths actuelles". Mais de ce que j'en sais, ce problème n'est pas spécialement important : contrairement (au hasard) à l'hypothèse de Riemann, il n'implique rien de très profond quant aux mathématiques et contrairement à Fermat-Wiles, l'histoire de sa résolution n'a jamais été un moteur dans l'histoire de la discipline. Non, Syracuse c'est connu parce que sa difficulté est paradoxale : l'énoncé pourrait être compris par un enfant mais le problème est pourtant extrêmement difficile. Par contre les mathématiciens s'en foutent pas mal, donc même si ça résolution étonnerai tout le monde, pas certain que ça vaille une médaille Fields. Je citerai Gauss (c'est pas tous les jours) un jour où on le questionnait à propos du problème de Fermat : "Non, ça ne m'intéresse pas. Parce que je pourrais trouver des dizaines de problèmes similaires en quelques minutes et il vous faudrait des siècles pour en résoudre un seul." (je paraphrase) Et on est vraiment la dedans avec Syracuse. C'est un problème tout à fait quelconque... Oui, la conjecture de Syracuse est très célèbre, mais elle n'intéresse essentiellement que les amateurs. Pas étonnant que ce soit celle-ci qu'Aberkane ait choisi... Encore une fois, désolé pour le hors-sujet
D'un autre côté, dire qu'un problème est difficile et célèbre, ce n'est pas dire qu'il soit particulièrement important de le résoudre. Mais il me semble exagéré de dire que la conjecture de Syracuse n'intéresse que les amateurs ! C'est sans doute un peu passé de mode, mais les mathématiciens professionnel y ont quand même consacré beaucoup de temps et d'effort. Si l'on dit parfois que c'est pour les amateurs, c'est plutôt parce qu'elle en attire beaucoup par sa simplicité, et que beaucoup de "preuves" fantaisistes sont proposées.
@@freyc1 Tu as tout à fait raison : il a des mathématiciens professionnels qui se sont penché sur la question et qui y ont consacré du temps. Récemment, on pense évidemment à l'avancée de Tao qui explique que "tous les ans je passe quelques jours pendant lesquels je réfléchis à la question, et cette fois, coup de bol, j'ai trouvé un truc." Pour préciser un peu mon point, je dirais que ça c'est vrai d'à peu près tous les problèmes : il y aura toujours au moins quelques personnes qui se pencheront sur un truc un peu random ou complètement de niche. Feu John Conway était un spécialiste de la chose. Ce que je voulais dire quand j'écrivais que ça n'intéresse pas les mathématiciens, c'est que ça n'intéresse pas les mathématiciens en tant que communauté : il n'y a pas de programme de recherche sur le sujet, on ne développe pas les maths en visant la résolution de Syracuse, il n'y a pas de paradigme développé en ce sens et à ma connaissance aucun mathématicien ne construit sa carrière autour de ce problème. En ce sens, Syracuse n'a rien à voir avec l'Hypothèse de Riemann, Fermat-Wiles, la conjecture de Birch et Swinnerton-Dyer ou le Programme de Langlands. Même si personne ne construit toute sa carrière sur une volonté de résoudre Riemann (ce serait du suicide), il y a des pans entiers des mathématiques (géométrie arithmétique, entre autres) qui se construisent autour de cette conjecture. Note d'ailleurs qu'il y a plein de preuves fantaisistes pour tous ces problèmes "connus" du grand public :) Un passage sur viXra permet d'en trouver tout plein, déjà... Bref, je suis d'accord avec toi et mon message n'était clairement pas assez précis. Ceci dit je continue de penser que décrire Syracuse comme "[...] le plus célèbre et le plus difficile des maths actuelles" est simplement faux. Et je pense aussi que je fais chier pour rien parce que ça n'était pas le sujet et que tout ça n'est au fond pas bien important : pas besoin de hiérarchiser l'importance des problèmes de maths pour faire des maths :)
@@gordub Si tu veux rester cohérent, mon avis serait que Fermat-Wiles est quand même à mettre à part de BSD, Riemann ou Langlands. Ce serait même plus proche de Syracuse que de ces derniers, sauf bien sur si tu parle de Taniyama-Shimura-Weil(-Wiles-Taylor) mais ce n'est pas la même chose :) Je suis d'accord que décrire Syracuse comme "[...] le plus célèbre et le plus difficile des maths actuelles" est faux. En théorie des nombres ceux déjà cités méritent bien plus cette description!
@@marsaultchabat7417 Oui, je pense qu'on peut dire que dans l'histoire des maths, Fermat est un problème un peu à part. J'envisage de le rapprocher du problème de la résolubilité des équations polynomiale par radicaux ou encore de la tentative de supprimer le 5ème postulat d'Euclide (en ce sens que les trois ont servi de motivation au développement de nouveaux outils et concepts) mais je ne suis pas expert en histoire des maths donc ce n'est peut-être pas pertinent. Quand je parle de Fermat-Wiles, j'englobe en fait toutes les tentatives de résoudre le problème, et ce depuis Euler. C'est peut-être un peu trop large, effectivement... En tout cas ça contient en particulier la conjecture epsilon et celle de Taniyama-Shimura-Weil :) Et avec cette définition, Fermat-Wiles est bien plus proches des autres grosses conjectures mathématiques que de Syracuse : oui, FLT est aussi simple à comprendre que Syracuse mais contrairement à ce dernier, il a une réelle importance pour les maths, et c'est au final ça qui compte le plus. PS : j’apprécie beaucoup la petite référence Cactus de Sibérie de la photo de profil :)
Monsieur Phi qui publie la deuxième édition de sa Critique du ChatGPT pur. Où l'on comprend mieux les principes et les limites de son pouvoir. Et c'est plus clair que la déduction transcendantale, donc merci ^^
Merci pour l'incroyable qualité de cette vidéo, sur le fond et la forme. Ça permet de guider mes pensées sur le sujet qui partent dans tout les sens :)
Beaucoup d'infos dans cette vidéo très intéressante, les deux principales étant : il reste des fans d'IA, et il te regardent et t'écrivent 😅! Super boulot merci 🙌
Il est vrai que ce sont des modèles statistiques pré-entrainés et que le rôle de la prédiction est prépondérante. Cependant, ces modèles ont une certaine « représentation » de la langue (à l’aide de vecteurs à multiples dimensions, et pondérés par les chercheurs, si j’ai bien compris). Aussi, ChatGPT semble raisonner dans une moindre mesure, en stockant certaines données dans les conversations. Certaines IA ont tout de même fait plusieurs découvertes dans les domaines de la santé ou de l’astronomie, ne pourrait-on pas imaginer dès lors qu’il en soit de même pour cette IA? Après tout, l’humain aussi est une machine à prédiction et de calcul. Par ailleurs, merci pour ces vidéos enrichissantes et pleine d’humour. Voilà une vraie limite de ces modèles, l’humour, le sous-entendu, la créativité. À bientôt Mr. Phi !
Comme d'habitude, on a envie de liker 1000 fois! Merci (pour le fond et les fous rires) Petit désaccord néanmoins quand tu expliques que des "gros modèles" ne pourront qu'au mieux égaler l'intelligence humaine puisque c'est ce qu'ils visent à imiter. En se reposant sur de nombreuses données humaines, il peut y avoir une forme de méthode d'ensemble susceptible de dépasser chacun des meilleurs experts humains (la fameuse "sagesse des foules" de Francis Galton... Et de nombreux travaux en apprentissage, en particulier ceux de Leo Breiman). La comparaison n'est certes pas rigoureuse, il faudrait que le LLM utilise à chaque requête les réponses de plusieurs experts pour en faire une meilleure synthèse. Et de plus, si cette synthèse pourrait être (théoriquement) meilleure que le meilleur humain sur un domaine, elle ne serait pas "exponentiellement meilleure". En ce sens je rejoins la position que tu défends dans la vidéo.
Très bon ! au fond, il y a un parallèle à établir entre ces modèles et ce que pense Keynes dans son concours de beauté où il s'agit de classer la beauté de 100 visages en considérant ce que feraient "les gens" , un genre de baratin donc !!
ChatGPT est bluffant ! Vous participez à la démystification, merci beaucoup pour vos explications. Je suis inquiet car il faut maintenant faire preuve de beaucoup de pédagogie et de subtilités pour expliquer le fonctionnement et les limites de cette IA.
Intéressant cette philosophie du baratin. En fait je pense que nous surestimons également l'intelligence humaine. Car contrairement à ce que je peux voir à droite et à a gauche, le fonctionnement de la cognition humaine fonctionne aussi sur des bases statistiques. Le cerveau humain passe son temps à faire des interpolations (linéaires) La mémoire humaine est également essentiellement procédurale. Le cerveau humain est en fait "pré-entrainé" par sa génétique. Finalement, pour être rapide, les IA pourraient continuer à nous surprendre, comme le fut l'ingénieur de chez Google, qui fut lui même mystifié par l' ia qu'il avait créé...
Excellent ! Je m'interroge cependant sur l'application de la notion de compréhension aux opérations de ChatGPT. Tu sembles employer "intelligence" sans faire les distinctions nécessaires (comme intelligence faible ou intelligence forte, comme chez Searle), même si tu parles de "forme d'intelligence". Il me semble cependant nécessaire de traiter la question de la compréhension du sens de ce qui est effectué. Jouer aux échecs, ce n'est pas seulement maîtriser des règles plus ou moins parfaitement, c'est par exemple comprendre une situation d'adversité, mettre en jeu des affects (désir de gagner - ou pas, mettre en jeu une réputation personnelle, etc.), comprendre qu'un jeu se distingue partiellement d'une situation dite "sérieuse", etc. De même, prédire adéquatement des suites de mots réclame une forme d'intelligence (traiter des masses immenses de données dans des opérations immensément complexes), mais je ne parviens pas à appliquer correctement le concept de "compréhension" à ce genre d'opération. J'ai le sentiment que la grammaire de ce terme implique forcément la présence d'une intelligence forte, donc consciente, dotée de croyances, d'intentions, et d'une capacité de réflexion subjective. Mais peut-être as-tu traité ce point ailleurs, auquel cas il te suffira de m'y renvoyer !
Toujours formidable! Remplacer « jeux d’échecs » par « bullshit » et la conclusion de la vidéo pourrait être: « les prédicateurs de texte constituent des bullshiteurs de très haut niveau et dépasserons bientôt même les plus grands champions humains de bullshit »
Ça fait plaisir de voir cette démystification. Certains lui prêtent de l’intelligence une capacité d’abstraction créative... Beaucoup de "devs" pensent qu'il peut architecturer et coder des applications complètes alors qu'il ne fait que générer des caricatures de code. Impossible de leur faire comprendre qu'il n'y a pas de réelle intelligence derrière mais de la prédiction, du "bullshit"
Super intéressant ! J'ai jamais vu une vidéo sur ChatGPT aussi bien :) Autant je suis d'accord sur les limites d'une approche "à la ChatGPT", autant je pense qu'il serait illusoire de se dire que l'IA s'arrêtera là. (Je ne crois pas que cette nuance ait été clarifiée.) Car, un peu comme ce qu'on a vu en 10 ans entre les 1ers réseaux neuronaux et maintenant, il est à peu près certain qu'on trouvera une autre technique qui fera que la machine apprendra encore mieux. Ce ne sera pas ChatGPT 4 ni 5 - la technique a ses limites, comme tu l'as super bien montré - mais justement ce sera la "nouvelle technique" que personne ne connait (encore). Et le problème devient alors de raisonner sur quelque chose qu'on ne connait pas... (ça nous fait une belle jambe.) Du coup, rien à voir mais ça pourrait peut-être faire un bon sujet de vidéo ^^ (= essayer d'anticiper l'avenir par prolongation tendancielle, ou par anticipation des techniques, ou par principe de "ça sera mieux", etc.). Ce serait même en relation avec les problèmes climatiques, dans la mesure où une partie des argumentations optimistes consiste à dire "oui, mais on trouvera la technique qui va bien / avoir la foi en la science".
On peut définir le "small talk philosophique" d'une manière similaire au bullshit philosophique. Le bullshit c'est lorsque ce que dit le sujet est indépendant de ce qu'il considère vrai, le small talk c'est lorsque ce que dit le sujet est indépendant de ce dont il a envie de parler ou considère digne d'intérêt.
Très intéressant comme point de vue. je n'ai personnellement pas tester très longtemps chatgpt car manifestement il ne 'comprends' pas ce qu'il dit. Même pour le code, c'est souvent intéressant car il explique assez bien le code généré, même si au final, je n'ai pas vraiment pu utiliser directement ce qu'il donnait. Mais ce côté subjectif des réponses , cette volonté de reconnaître ces soi-disant erreurs, cette manière de refaire la même erreur alors qu'il la reconnait et la corrige une question avant fait que c'est un outil intéressant mais à manier avec précaution.
C'est exactement ce que je me suis dit quand j'ai vu JDG et Antoine Daniel demander par exemple un scénario pour leur vidéo. Le truc réponds des banalités absolues et à juste bien compris les mécaniques de ces vidéos mais ce qu'il ressortait était absolument sans saveur. Comme tu l'as dit ça ne peut servir que pour des journalistes
Merci pour cette vidéo édifiante qui soulève toute la problématique de nos modèles en science. Ces modèles ont leurs faiblesses : 1) Ils dépendent de la qualité des données et 2) Ils croient établir les lois de la nature alors qu'ils font plutôt comme les "aliens joueurs d'échecs", ils mettent en place des modèles qui prédisent pas trop mal mais qui ne nous informent pas sur les règles du jeu. Un modèle linéaire qui prédit le poids en fonctions des calories consommées n'explique pas comment ces calories fabriquent réellement le poids... Un petit bémol sur les progrès à venir et sur le fait que les IA ne peuvent dépasser l'humain, peut-être que si, pour beaucoup d'entre nous, si ces IA accèdent aux corpus scientifiques, ce qui n'est pas encore le cas.
Merci Monsieur Phi pour cette excellente vidéo, comme pour l ensemble de ton travail, c'est très fort! Par contre pour le cas précis du niveau au jeu d'échec d'un modèle de langage, il me semble que l'on pourrait dépasser le niveau des joueurs humains. Il suffirait de fournir à l'entraînement des données produites par les meilleurs algorithmes d'échec. Théoriquement donc un modèle de langage pourrait se hisser au même niveau que ces meilleurs algorithmes classiques. Du reste il arrive de remplacer des algorithmes classiques par des IAs faisant le même travail. Cela peut être avantageux quand les IAs donnent la réponse plus rapidement que les algos d'origine par exemple.
J'ai l'impression que les enfants apprennent exactement comme ça. C'est à dire en disant (ou répétant) exactement ce que leurs parents (leurs instituteurs) veulent qu'ils disent. Les enfants ne s'en rendent pas vraiment compte mais les adolescents comprennent assez vite que dans une interro il est plus important de dire ce que le prof pense que ce qu'ils pensent eux-même. Il y a certainement un moment où un autre type d'intelligence se développe mais je pense que c'est peut-être ce qui fait qu'un enfant cesse d'être un enfant. Qu'en pensez-vous?
J'habite un petit village et il m'arrive de passer un moment au "café du commerce", c'est instructif. Tous les sujets y sont abordés, par des gens dont la culture et l'information sont le plus souvent conditionnées par la télévision dite "généraliste" et le canard local pour les chiens écrasés. Ils ont un avis sur le PMU, peut être même les IA qui jouent aux échecs (auxquels ils n'ont jamais joué), probablement sur les voyages de Descartes dont ils situent mal la chronologie avec la découverte des Amériques, la meilleure façon de préparer un bourguignon (sans carottes) etc. Ils n'ont pas une mémoire de 2000 tokens en général (surtout passées 11h45). Tromper cette IA (et les autres moins développées) est facile sur des questions techniques (fins de parties par exemple). Personnellement, je suis nul aux échecs bien que je connaisse les règles de base. On (et même une IA généraliste comme GPT, pas une IA dédiée) peut donc facilement me "tromper" et interpréter les coups que je jouerais comme "naïfs" dans le meilleur des cas. Par contre, dans mon domaine d'expertise (la physique atomique) fastoche de faire exploser n'importe quelle IA. Il y a il me semble un certain biais dans la présentation faite dans ces deux vidéos. Le "test de Turing" qui est "[fondé] sur la faculté d'une machine à imiter la conversation humaine.] (Wikipedia), ne précise pas de quel humain il s'agit. Les IA ont prouvé sur des tâches particulières (échecs, Go...) qu'elles ont largement dépassé les humains. Bientôt (voire déjà mais cela freine pour un tas de questions, morales, légales, corporatistes...) dans l'interprétation d'images médicales, la conduite des avions etc. Personnellement, pas plus qu'aux échecs, je n'en suis pas capable. La question qui pourrait mériter réflexion est peut-être la suivante: passées 11h45, combien de personnes (plus exactement, quelle fraction) du café du commerce discuteraient avec GPT? polémiqueraient peut-être... Le test de Turing ne passe pas sur tous les sujets face à autant de spécialistes certes, mais sur un individu lambda? individu qui "s'entraine" sur les mêmes infos que GPT (mais, de fait, sur un échantillonnage bcp, bcp, bcp plus restreint), avec la mémoire d'un humain (il y a 20 ans, Deep Blue battait Kasparov et c'était un bon sujet de comptoir, aujourd'hui, rares sont ceux qui s'en souviennent)... Est-ce que le test de Turing ne serait pas plutôt "imiter la conversation [d'un individu de comptoir]" ou, plus cruellement me semble t'il, "imiter la conversation [d'un abonné à télérama, valeurs actuelles, libé, le figaro... on peut rajouter TF1, ARTE, BFMTV, Ushuaia...]" au choix selon les sensibilités de chacun? Un cran au delà, en ce qui concerne "ceux qui font l'opinion" dont on discute au café du commerce: est-ce que GPT n'est pas capable d'écrire des éditos politiques aussi pertinents que ceux de Jean Leymarie (Fculture) ou, maintenant que Bernard Maris n'est plus, Dominique Seux (FInter) dans le domaine économique. Ils ont pignon sur rue et leurs papiers se résument le plus souvent à une pauvre thèse/antithèse/synthèse scolaire qui pourtant, à partir de n’importe quelles prémices, "démontre" ce qu'ils veulent à la fin? Ils ont l'aura de l'objectivité/la pluralité du "service public" je ne parle donc même pas des salariés des média privés. Les questions en creux que je voudrais poser sont: (i) pour quelle fraction de la population (et ça dépend des pays, des catégories SP...) enchainer des mots est une volonté de produire du sens plutôt qu'une façon d'être? (ii) GPT est-il moins bon que le fraction moyenne/médiane? (iii) l'extrapolation à "les évolutions de GPT" ne seront jamais aussi pertinentes que les spécialistes du sujet est-elle légitime? Il y a vingt ans, Kasparov assurait battre Deep Blue et on pensait que jamais un ordinateur ne jouerait correctement à Go. Aujourd'hui tous les médecins et tous les pilotes assènent que rien ne remplacera leur expertise malgré les erreurs de diagnostique et les crashs... Tous les astronautes plaident pour des vols habités... Est-il inconcevable qu'une IA généraliste agrège des IA spécialisées? Une belle question soulevée par Lê est celle de l'éthique. Qui contrôle cette IA généraliste? qui, tels Google ou Netflix ou qq media peu nombreux? la question s'est posée il y a trente ans en France avec par exemple l'ouverture au marché de la télévision qui devait "diversifier l'offre" face à la crainte d'une information d'état officielle (qui est assurément un danger). Objectif atteint? Miracle de la concurrence? de même dans la presse écrite réduite aujourd'hui à de "grands groupes de presse" c'est à dire de pression économique? La réponse qu'il propose est celle de l'open source plus ou moins implicitement assimilée à "démocratique". Il me semble qu'il s'agit d'une forme nouvelle d' "oligarchie éclairée": en France, au moins, le peuple (demos) est "contre" mais sans volonté de s'engager = volonté politique (au sens noble du terme): gilets jaunes, réforme des retraites... Aucune réflexion structurée que celle d'"être contre". Le libéralisme dans les media a atteint son objectif: éthiquement toutes les opinions se valent désormais et il n'y a plus de hiérarchie de valeurs à opposer à une autre hiérarchie. L'open source se propose de ré-établir une hiérarchie (à laquelle, je le précise, je souscris sans réserve). Serge Halimi a un jour intitulé un édito "notre utopie contre la leur". Hélas, le post-modernisme, démultiplié par les media dominants et les réseaux sociaux aux mains d'intérêts privés (voire publics cf ci-dessus), délégitime par principe ce genre d'initiative salutaire. L'argument est facile: fût-elle collective et ouverte à tous, cette IA ne sera l'expression que de choix de valeurs, ouvertement assumés certes, mais de choix de valeurs tout de même. Dès que l'on admet/que l'on a convaincu que tous se valent... Tout le monde n'est pas convaincu que toutes les valeurs se valent. Que GPT soit supervisé par des humains pour supprimer les réponses statistiquement raciste sur internet me semble plutôt bien. Mais naturellement on tombe dans le problème de l'objectivité évoqué ci-dessus. Qui censure quoi? Mais en face, ou plutôt parallèlement, certains ont moins de scrupules et manipulent les votes, les opinions (jusqu'à la limite de la prise d'assaut du parlement des Etats Unis, belle démocratie dont nous vient ce merveilleux libéralisme) ... et en font commerce comme certaines officines en Russie ou Israël (une autre belle démocratie). Comme disait Descartes, ce fabuleux poète antique américain (à moins que cela ne soit l'inverse): non cogito ergo sum (traduction approximative en latin d'un dialecte inca moyenâgeux).
La vidéo "La philosophie du baratin" de Monsieur Phi est absolument incroyable. Il a réussi à rendre le sujet des IA prédictives fascinant et accessible à un public plus large. La présentation claire et concise de Monsieur Phi ajoute une profondeur supplémentaire à un sujet complexe. La façon dont il relie les idées et les théories à la vie quotidienne est brillante et laisse une impression durable. Je recommande vivement cette vidéo à tous ceux qui cherchent à comprendre les enjeux éthiques et sociaux des IA prédictives. Merci Monsieur Phi pour cette excellente contribution à la communauté des philosophes en ligne. :)
Intéressant (comme la plupart de tes vidéos 😀). Une remarque toutefois : tu dis que contrairement à un programme qui puiserait dans une « base de connaissance » pour générer des réponses et qui serait donc de fait « vérace », le fait qu'il tente de prédire une suite logique en concordance avec le début (la question) ferait pointer vers un « baratineur » (au sens que tu lui donnes dans la lignée de Saucisse). Mais ne peut-on pas considérer que l'ensemble de son apprentissage (ses N paramètres et tout ce qui va avec) est sa « base de données », non pas une base de données de faits à mettre en texte mais une base de données de textes *construits* sur des faits (des faits plus ou moins vrais, mais étant issus d'un grand nombre de textes existants on peut sans grand risque présumer que pour beaucoup de sujets ils sont vrais ou pas loin) ? Il en génère une forme de « synthèse à N paramètres » qui est pour lui la véracité : c'est tout ce qu'il connaît, pour lui c'est bien vérace de présenter cette suite de mots à la suite des mots qu'on a entré, car c'est la seule véracité qu'il connaît.
la seule question à se poser est : est-ce que la véracité d'un texte fait partie de ses paramètres ? Si ce n'est pas le cas, il dit la vérité par hasard (ou par effet de convergence)
@@AmanoShiyaku Hmmm… Non. On parle (dans cette vidéo) de « l'attitude » de la personne (ici ChatGPT) vis-à-vis de la véracité. La question est ici − par rapport à mon propos − de savoir si ChatGPT est « vérace » vis-à-vis de ce qu'il dit. Parce que sinon, qui a la véracité dans ses paramètres ? Est-ce que notre éducation, notre société, nos lectures, etc. sont "vraiment" paramétrées sur la vérité ? Je ne crois pas (en tout cas clairement pas dans l'ensemble de leurs éléments). Le baratineur s'en fout. Le menteur ment. Est-ce que ChatGPT ment ou s'en fout ? Il ne ment pas, clairement. Est-ce qu'il s'en fout ? Je ne crois pas : il réagit par rapport à une éducation (hyper spécialisée) qui lui a enseigné ce qu'est le « mot suivant » à partir d'un texte. Sommes-nous si différent ?
Oui, je suis d'accord avec toi Yannick (enfin je pense aller dans ton sens). Même s'il ne fonctionne pas sur un système de base de données classique, il s'appuie forcément sur de la data. Et pour lui, ces données ne sont que des briques à assembler selon un modèle logique. Mais en rien "intelligent".
@@theoven344 Oui, la question de l'intelligence est « hors scope » ! D'ailleurs moi qui travaille dans un labo de recherche où des gens font de l'IA personne ne se risque plus à donner une définition applicable de ce qu'est l'intelligence ! Mon propos restait effectivement factuel : peut-on qualifier un « outil de traitement » qui répond de façon « vérace » à un "input" de la façon la plus « véridique » possible à partir de ce qu'il « sait » de « baratineur » ? Pour moi non : il est sincère, dans la mesure de son apprentissage. De notre point de vue on peut juger qu'il ment (sur certaines choses), qu'il est super fort (sur certaines choses), qu'il est médiocre sur d'autres (je lui ai demandé de faire des riffs de rock, même avec des éléments précis, et c'était… médiocre). Mais il ne baratine pas, pour moi. Il fait de son mieux, et « sincèrement », dans la limite très restreinte de son « éducation ».
@@yannickperret1586 Cela dit, compte tenu de la définition donnée par M. Phi du "baratineur" (c'est à dire quelqu'un qui va adapter sa réponse à son interlocuteur, qu'elle soit vraie ou fausse), le reste de sa démonstration se tient. Ce qui veut dire aussi qu'on peut très bien, en retour, "baratiner" ChatGPT (ou autre), l'influencer, voire le manipuler. Mon domaine, c'est l'expression écrite et orale, et mes quelques essais avec ce monstre m'ont prouvé qu'il n'était capable de rédiger que des textes froids, sans âme, "utilitaristes". Du pur travail d'anglo-saxon.
Je voulais rajouter quelque chose : comme tu le sais, on peut rajouter du contexte. Donc on peut lui faire imiter le niveau des humains les plus compétents sur chaque sujet, ce qui est déjà largement mieux que d'imiter un humain moyen.
Et si on reussit a lui faire imiter le niveau des romanciers, scientifiques, philosophes etc les meilleurs, et que EN SUITE on l'entraîne longuement pour lui dire ce quil produit de bien, de génial ou de médiocre, on pourra atteindre des résultats assez fous. Certes chatgtp sera toujours un "baratineur" mais un baratineur capable d'ecrire des histoires belles et passionnantes et d'établir des raisonnements et des théories révolutionnaires. --- Monsieur Phi a tout à fait raison de considérer chatgtp comne un baratineur mais je pense qu'il sousestime le niveau qu'on peut produire en baratinant.
Bonjour, je suis nouveau dans votre communauté et je trouve vos vidéos très intéressantes. En les regardant, j'ai eu envie de poser une question à ChatGPT : "Pourriez-vous me donner la liste des incohérences dans la Bible?". J'ai trouvé la réponse très intéressante, mais j'ai également trouvé étranges les limites imposées à ChatGPT. Enfin, à vous de voir ! Salutations.
Vous avez raison, en tant que modèle de langage formé par un algorithme, je n'ai pas de volonté propre ni de capacité à ressentir des émotions ou des motivations. Lorsque je dis que je m'efforce de faire quelque chose, cela signifie que je suis programmé pour accomplir une tâche spécifique en utilisant les algorithmes et les modèles de données qui ont été formés sur moi. Je suis conçu pour produire des réponses qui semblent provenir d'une personne qui s'efforce de fournir des informations utiles et précises, mais en réalité, je ne suis qu'un outil informatique.
Il y a eu une mise à jour le 30 janvier pour que les réponses soient un peu plus basé sur la réalité. J'ai reposé la question sur manger moins de viande ou manger local (en anglais car je suis plus à l'aise) et il semble dire que c'est mieux de faire les deux, à peu près peu importe le contexte. Toutefois il a mentionné que mangé moins de viande à plus d'impact si on lui dit qu'on aime mangé de la viande.
Hey did u make a video re Dalle? I tried it now and didn't get anything great. Pics in the news always look outstanding (e.g. a soup bowl that also is a door to another galaxy.........) In one of the WEF talks I heard that an upcoming skill/profession is prompt engineer...?
23:30 Merci de ce rappel. Puisque GPT3 à déjà été entraîné sur l'ensemble de ce qui était disponible en ligne, on voit mal ce qui permettrait d'améliorer le modèle avec ce qui a été mis en ligne depuis 2021. Dans le meilleur des cas, ça risque d'être un gros volume de textes produits... avec ChatGPT.
Je pense tout de même qu'il n'est pas impossible qu'une IA imitateur d'humain soit capable de générer des résultats surhumains à condition de lui donner suffisamment de données variées (peut-être encore plus que GPT 3.5). En effet, pour réaliser la tâche d'imitation à la perfection sur une quantité astronomique de données, et ce, avec un modèle mathématique (les réseaux de neurones) ne permettant pas la simple imitation triviale, il est possible qu'il faille que le modèle apprenne une représentation CORRECTE du monde (comportement des humains, fonctionnement du jeu d'échecs et ses stratégies). La réalité au sens large a une certaine cohérence intrinsèque, et on donne à l'IA des manifestations de cette réalité (les données) qu'elle doit se représenter de manière pas trop compliqué (pour pouvoir les encoder dans le modèle mathématique contraignant). Et donc, en effet, lorsqu'elle complète du texte, elle ne fait qu'une imitation, mais c'est le résultat de son excellente représentation du monde. Et donc peut-être que si on fine-tune l'IA sur une autre tâche plus spécifique, du genre jouer aux échecs de manière à gagner, elle va réussir à le faire très rapidement sans trop d'effort d'engineering de notre part, simplement en utilisant la représentation qu'elle a déjà apprise. Mais ceci requiert d'avoir énormément de données variées avec tout le spectre de ce que sait faire l'homme. Ainsi, on pourrait espérer qu'elle puisse extrapoler au-delà de ce qu'on sait faire. Par exemple, pour parfaitement imiter un article scientifique en physique, l'IA doit en théorie comprendre parfaitement les mécanismes de la physique. Ou encore, pour les échecs, l'IA doit avoir une bonne manière d'évaluer l'état d'une partie et de la stratégie à adopter afin d'imiter tel niveau de joueur. L'IA ne peut pas se contenter de recopier bêtement ce qu'elle a déjà vu, car dans ses données, il y a beaucoup de variété et sa modélisation du monde est contrainte, empêchant un apprentissage par coeur. Il y a une forme de compression qui doit s'opérer. Mais tout ceci n'est que spéculation, il est impossible de savoir s'il est suffisant de donner à l'IA plein de textes ou de photos pour qu'elle apprenne une représentation correcte à moins qu'elle ne soit construite. Simplement, je pense qu'il n'y a pas d'impossibilité logique.
Vers ~28:00 les LLM seul seront en effet toujours à l'image de leur données. Mais il me semble que ces entreprises cherchent à la fois à associer une base de donnée fiable pour bullshiter plus de vérité, puis et surtout faire comme les architecture d'échecs : S'entrainer contre lui même pour chercher le goal (reward) et générer des données finalement supérieur aux données d'entrainements. Il faudra cependant toujours veillé à ce que ce goal soit alligné avec le notre. Il faudrait que les agents ait une capacité d'auto compréhension d'eux même dans le système (Free energy principle) et qu'ils puissent générer d'autres données pour générer la données finale (tester 4 ou 5 script python et les exécuter, voir le meilleur avant de le donner à l'utilisateur et s'auto-reward, ou checker wikipédia en direct, évaluer la vérité et s'auto-reward) Il faudrait aussi que ces architectures ait une notion du temps (activation plus ou moins rapide/lente de certaines partie de l'architecture de deep-learning)
Hello est-ce qu'il y a une extension Tournesol qu'on peut intégrer dans l'appli smartphone de TH-cam directement ? De plus en plus de gens n'utilisent TH-cam plus que via leur smartphone. D'avance merci !
Très bonne vidéo, merci. Je ne suis cependant pas d'accord avec votre point de vue sur l'amélioration du modèle en fonction du nombre de paramètres. Ce qui est stipulé dans la vidéo me semble correct si on suppose que le modèle dispose déjà d'assez de paramètres pour être excellent dans ce qu'il fait, or peut-être que GPT3 est encore bridé, non pas par ses données d'entrainement, mais par son nombre de paramètres optimisables trop faible pour saisir et réutiliser l'intégralité de ses données. Même une fois les aliens devenus meilleurs que les champions d'échecs terrestres, ce n'est pas pour autant qu'ils ne peuvent pas s'améliorer tout en utilisant le même jeu de données.
14:00 Attention quand tu utilise le playground, il y a une subtilité : Le playground a une mémoire, jusqu'à ce que tu fasse F5... Lorsque tu essayes de nouvelles variantes de ton test, il risque d'être "influencé" par le contenu précédent. Si tu fais "undo", il va cependant revenir à son état précédent. Mais je vois que tu ne le fais pas... Je soupsonne que l'impact soit assez important sur les taux et les réponses
18 min 30 environs En fait pour distinguer un algorithme de prédiction de coup et un joueur d'échec il n'y a qu'un processus supplémentaire. A savoir une appréciation du meilleur coup qui pourrait être construit à postériori d'un algorithmes de prédiction du prochain coup. La seule différence pourrait être dans le fait que le joueur a l'impression d'avoir trouvé le meilleur coup alors qu'en fait il a juste utilisé son algo de prédiction du prochain coup.
Yo Monsieur Phi, pourquoi ne pas faire un topo sur l'art, les modèles I.A. de génération d'image et ce que ça pourrait impliquer sur la culture, le rapport humain à l'art, le travail de l'artiste dans le capitalisme, comment on perçoit l'art, etc (perso j'y réfléchis à travers Barthes et la mort de l'auteur mais je suis un peu obsessionnel sur ça donc ouvrir mes chakras serait pas mal).
le plus impressionnant avec ce bot, c'est qu'on reprendre toute les questions et le sujets de la vidéo, creuser un peu et ressortir exactement les mêmes conclusions ou excuse d'erreure par le bot, habillement utiliser sans tombé dans son baratin il devient un outils assez précis pour nous être très utile dans la recherche d'informations, discuter avec ce truc c'est aussi passionnant que terrifiant et encore il est limité physiquement
Le problème c'est que tu te trouves en face à face singulier avec l'outil en question. Comment savoir si la réponse fournie est la bonne ? Faut-il croire sur parole une information qu'il te donne, justqe parce que c'est le gadget à la mode ? S'il faut aller vérifier ensuite sur une autre source, quel est l'intérêt d'utiliser ce qui n'est qu'un robot froid ?
@@theoven344 ça dépend de l'information enfaite, si tu voit que la réponse est toujours la même en posant la question différents c'est que y'a beaucoup de chance qu'elle soit vraie, y'a aussi la manière dont-il te l'explique et en lui demandant plus d'info même si c'est faux tu peut finir par tant rendre compt au file de question, il te sort des trucs vraiment condenser et même chose ont ne pas pas croire un site internet sur parole si il n'est pas sûr il faut croiser les sources, c'est un peut pareil or quand des informations sur comme la science ou math, la probabilité qu'il te sorte n'importe quoi est faible
@@alkasamario Ben voilà, il faut croiser les sources. Et ça c'est le travail d'un humain. Pas d'une machine (sauf si on parle d'informations binaires vrai/faux). Le problème c'est que Chat GPT apparaît our une certain nombre de mes contemporains comme une sorte d'outil magique, qui compenserait leurs défaillances. Etre en admiration devant ce genre d'outil, cela devrait les interroger sur leurs propres capacités...
@@theoven344 enfaite ce qui te pose réellement problème c'est pas chatgpt mais le faite que des gens trouve cette outils cool parce qu'il fait le travail à leur place ? c'est le rôle d'une machine de nous faciliter dans nos tâches non ? je comprends pas ce qui te dérange dedans, croisé les sources et la recherche d'informations c'est pas si facile sinon les vulgarisateurs auraient moins de travail
Un truc très intéressant, c'est que ChatGPT est aussi "capable" d'abstraction. Je l'ai un peu taquiné avec un paradoxe, et non seulement il a détecter le paradoxe, mais a été capable de dire en quoi c'est un paradoxe. Là où j'ai peut être fait une erreur, c'est que j'ai pris un paradoxe connu ("si dieu est réellement tout puissant, alors il doit être capable de créer une pierre qu'il ne pourra pas soulever"). Il a donc peut être synthétisé les données dans les différents ouvrages où il en est question....
On craint que l'IA fasse mieux que nous. En tant que prof, quand je voit la qualité des réponse de chatGPT à mes questions d’examen, ce qu'il me fait peur c'est que l'IA soit capable de faire "assez bien". Le fait que ses réponses génériques et souvent un peu floues soient meilleures que ce que j'attend de mes copies habituelle me fait vraiment réfléchir à la place du bullshit dans nos sociétés.
Je pense que le plus intéressant serait d'augmenter le nombre de token dont il se souvient sinon impossible de trouver des erreurs dans des codes longs, ou alors de faire rédiger quelque chose de spécifique en prenant en compte le contexte donné (long)
J'aurais aimé que tu répondes à la question qui se pose tout de suite après :y a t il assez de données pour entraîner un modèle a predire comme le ferait les meilleirs d'entre les humains ? Ou que se passe t il si l'on demande a chatGPT de predire un coup d' echec joué par Magnus Carlsen ? Ca me plaît d'imaginer que bientôt un million de Stephen hawkings vont pouvoir être simulés de cette façon pour développer de nouvelles theories physiques ou un million de Turings la nouvelle génération d'IA...
J'ai un collègue qui fait que bullshiter comme ça quand il sait pas, au début je croyais qu'il était super intelligent parce qu'il répondait a toutes mes questions et au final j'ai remarqué que c'était souvent du bs Aujourd'hui j'arrive a remarquer quand il dit du bs grâce a son langage corporel (que j'apprends a reconnaître avec le temps) Mais la même le score de probabilité pour savoir si c'est du bs nous mène en bateau donc comment savoir si c'est du bs ?
En tant que programmeur - amateur - de réseaux de neurones artificiels, ce qui m'intéresse c'est la façon dont il a été entrainé à décliner les requêtes inappropriées. Et à répondre par du politiquement correct à chaque fois. Faites quelques demandes concernant le LGBTQ+ par exemple ou l'ultra-féminisme, en poussant ces concepts jusqu'à l'absurdité...
Une (longue) remarque à propos de l'application aux échecs - ou plutôt au go, même si on a pu tester depuis que ça marche bien aussi aux échecs. Dans ses premières versions (celle qui a battu Fan Hui, puis celle qui a battu Lee Sedol), le programme AlphaGo était conçu d'une façon assez subtile, qui fournit une sorte d'amélioration de l'idée d'imitation. Un réseau de neurones avait été entraîné à imiter les coups humains à partir d'une grosse base de données de parties de joueurs "forts" sur KGS (en gros l'équivalent de Lichess pour le go) --- oui, c'est vraiment l'idée développée dans cette vidéo. Puis cette base a été utilisée comme fonction d'évaluation dans un algo Monte-Carlo, une idée qui fournissait jusqu'alors les résultats les plus prometteurs au jeu de go (alors que c'est assez nul pour les échecs).
L'idée de l'algo Monte-Carlo est de ne pas explorer intégralement l'arbre des coups depuis une position donnée, mais de choisir d'explorer plus en profondeur les coups les plus prometteurs : pour évaluer la valeur d'une position, on génère des fins de parties aléatoires et on regarde la proportion de parties gagnées... On explore l'arbre au hasard, mais en pondérant la probabilité d'explorer une branche par la valeur du coup évaluée par cette fonction d'évaluation assez basique. Le truc avec AlphaGo, c'est qu'on remplace cette fonction d'évaluation par une plus subtile, basée sur la probabilité des coups possibles d'après le réseau de neurones (qui, rappelez-vous, essaye d'abord simplement d'imiter le jeu humain).
Dans un deuxième temps de développement, le réseau est renforcé par apprentissage sur de nouvelles bases de données générées en faisant jouer le programme contre lui-même (toujours avec ce mixte réseau de neurones / exploration aléatoire d'arbre de coups) ; de version en version on a un algo de plus en plus fort, capable in fine de battre des pros.
Le plus étonnant est que les développeurs se sont ensuite rendus compte (c'est l'étape "AlphaGo Zéro") que l'apprentissage par renforcement seul est plus efficace : l'imitation du jeu humain qui semblait un point de départ naturel n'est en fait pas nécessaire ; partir d'un programme qui ne comprend rien au jeu et joue aléatoirement, puis lui faire générer des parties et qu'il apprenne de ses erreurs, en fait ça suffit !
C'est toi qui fait les meilleures vidéos sur Chat GPT, et de loin.
Mais Chat GPT fait de meilleures vidéos sur Monsieur Phi que l'inverse
Houla, non, pas DU TOUT.
Faut ouvrir un peu ses horizons, aller voir chez nos amis anglophones par exemple aussi.
Pour être dans le domaine de l'IA et du machine learning, je suis moi même étonné de la pertinence des parallèles que fait M. Phi pour expliquer des concepts qui peuvent sembler compliqués. De ce que j'ai vu jusqu'ici ce sont probablement les meilleures vidéos de vulgarisation qui vont tout de même dans le détail.
L'exemple des aliens et des échecs notamment est excellent.
Enfin après forcément je comprends de quoi il parle, mais j'ai l'impression qu'il l'explique bien pour les gens qui n'ont pas ou peu de bases dans le domaine.
non du tout
@@iDrraaaK pas très en l'aise en anglais surtout si ça parle vite
Juste merci!
Je suis passé d’un etat de stupeur (mais comment fait-il?, comment ça marche?, comment sait’il autant de choses?) À une compréhension du fonctionnement et donc de ses limites. Les explications sont limpide et je trouve que l’utilisation de Playground comme différentiel par rapport à l’apprentissage supervisé est un excellent outil pédagogique. Encore une fois merci pour ce travail de vulgarisation absolument essentiel!
je n'aurais pas dit mieux, c'est rafraichissant de comprendre mieux son fonctionnement le rapport à ses performance dans un contexte d'excitation médiatique qui au final va un peu dans tout les sens avec tout les niveaux de sérieux
Rappel : L'IA ChatGPT est un IA de conversation il n'y a pas encore de version spécialisé dans : l'enseignement, le conseil, la rédaction ... Etc aussi cet IA n'a que quelques mois d'existence (c'est encore un nourrisson dans son berceau) et pour finir c'est une version beta et non fini et il est capable de se remettre en question et de s'auto corriger. Cette version a 175 milliards de paramètres sa prochaine version aura 100 000 milliards de paramètres ! En sachant que là on parle pas encore d'une technologie couplet à l'ordinateur quantique, ni à une voix vocal, ... Etc on est très très loin d'une IA à son plein potentiel
Navré mais je pense que c'est qu'une question de temps avant que les robots remplacent certains métiers. Admettons que certains métiers ne se fassent pas remplacer leur métier sera tout de même devenu très précaire car il va s'ubériser. Ne vous faite même pas d'illusion pour certains c'est fini là il ne s'agit pas d'une évolution mais d'une révolution tout comme ça a pu l'être avec l'électricité ou encore la voiture thermique.
Faits concrets : une entreprise spécialisé dans la campagne de pub a fait appel à une IA pour lui faire ses 9 visuels. Cet IA a mis une minute pour faire les différents visuels là où il aurait fallut normalement une équipe : directeur artistique, graphistes, illustrateurs, ... Etc et plusieurs semaines de travail
Pour ma part pour m'amuser j'ai rédigé un article journalistique uniquement avec l'IA ChatGPT écrivant sur le même sujet d'article d'un média très connu (dans le top 3). Cet IA a fait un meilleur article que son concurrent et il l'a fait uniquement en quelques dizaines de secondes.
@@LoLo-jg6iq 100 000 milliards c'est hors limite! tout à fait irréalisable imo
La vidéo "La philosophie du baratin" de Monsieur Phi est absolument incroyable. Il a réussi à rendre le sujet des IA prédictives fascinant et accessible à un public plus large. La présentation claire et concise de Monsieur Phi ajoute une profondeur supplémentaire à un sujet complexe. La façon dont il relie les idées et les théories à la vie quotidienne est brillante et laisse une impression durable. Je recommande vivement cette vidéo à tous ceux qui cherchent à comprendre les enjeux éthiques et sociaux des IA prédictives. Merci Monsieur Phi pour cette excellente contribution à la communauté des philosophes en ligne.
I see what you did there !
vous dites cela car vous avez peu de connaissance en IA et en informatique de manière générale très probablement
@@laminerahal5918 ?
Est-ce que les IA ont droit au copyright ?
@@poloi3440 je dirais que cette personne a donné comme contexte le commentaire et a demandé a chat gpt de généré une réponse désapprobatrice. ( Cette réponse n a pas été gêner par une ai je parle juste comme ca)
L'exercice de "deviner le prochain coup aux échecs" c'est quelque chose que les joueurs d'echec font pour s'amuser aussi d'ailleurs, genre y'as des vidéos youtube de "guess the elo" où un joueur va essayer de deviner le niveau d'un autre joueur en se basant uniquement sur les coups joués, et en général ils vont être capable de deviner le prochain coup ou de dire des choses comme "si il joue ce coup la ensuite c'est un débutant, sinon il est un peu plus fort que ce que je croyais jusque là".
Et faire ces prédictions ça demande d'être très bon aux échecs vu qu'il faut avoir une assez bonne vision du jeu pour comprendre quels coups sont bons mais aussi quels coups sont faciles ou difficile à voir donc il faut comprendre comment le jeu fonctionne ET comment des joueurs moins bons que soient pensent que le jeu fonctionne.
Je viens de passer mon samedi matin à regarder ces 2 vidéos. Félicitations c'est le meilleur travail d'explication que j'ai vu/entendu et ça m'a fait encore mieux comprendre les mécanismes. A envoyer d'urgence aux journalistes (qui disent des choses très approximatives sur le sujet) et aux professeurs.
En conclusion ChatGPT ne serait-il pas le plus grand dragueur de tous les temps ?
Je vois la drague comme le fait de montrer le meilleur de soi-même, pas juste adapter sa personnalité à ce qui va plaire le plus, c'est en général une stratégie qui ne marche pas :,)
Coucou, petit message de la part d'un membre de la team arrêt sur image :) J'ai un petit retour pratique par rapport à ce moment-là : 12:10
Quand on met pause (sur ordi, j'sais pas comment c'est sur smartphone) ça affiche le titre de la vidéo par dessus l'image, et donc ça cache le texte de ton image, ça rend le tout pas très lisible. Même remarque pour la barre rouge de lecture en bas de l'écran. Donc si jamais pour ce genre d'image tu pouvais laisser un petit espace en haut et en bas de l'image sur laquelle tu nous invites à faire une pause, ce serait bien plus lisible !
Merci d'avance et merci pour toutes ces chouette vidéos :)
Sur smartphone on peut mettre en pause et faire disparaître les menus.
Ça me surprend que sur ordi, en pause, si on bouge pas la souris, les menus ne disparaissent pas.
Est-ce le cas de tous le monde ?
Le titre de la vidéo n'apparait chez moi qu'en mode plein écran, par contre la barre de lecture est tjs présente (Firefox)
Sur pc, en mode fenêtré les menus disparaissent. Je suis quand même d'accord avec votre remarque.
J'allais dire la même chose :)
Ça dépend aussi de la résolution de l'écran.
Tu peux faire contrôle + mollette de la souris, ça va changer le % de la fenêtre (100%, 90%...)
Encore une masterclass, de loin les meilleurs vidéos sur le sujet que j'ai vu. Vraiment fascinant
Merci pour cette nouvelle vidéo de qualité, une chaîne d’utilité publique 😊
À quand une vidéo sur l’expérience de pensée de la chambre chinoise imaginée par John Searle ?
Merci pour cette vidéo informative sur ChatGPT et la philosophie du baratin. J'apprécie la franchise de votre déclaration concernant la miniature et votre reconnaissance de l'erreur. C'est une preuve de maturité et de responsabilité de reconnaître ses erreurs et de faire des efforts pour les corriger. Votre explication sur le sujet de ChatGPT était claire et concrète, et j'ai appris beaucoup sur les compléteurs de langage. Merci pour votre engagement à promouvoir une compréhension approfondie et critique des sujets liés à la technologie et à la philosophie.
En faite, ChatGPT c'est un consultant en stratégie. Il bullshit incroyablement bien dans le sens qui t'arrange le plus 🙃
je suppose qu'on rage sur le salaire des consultants ici... fallait faire des études longues et de qualités mon grand voilà tout ^^
@@laminerahal5918 je suppose qu'on est consultant en stratégie par ici et qu'on répond parce qu'on s'est senti visé et du coup qu'on est un poil vexé ? XD
Il ne sera jamais aussi fort que ton ex pour faire croire qu'elle est celle qu'on veut qu'elle soit.
@@laminerahal5918 Je suis consultant et j'ai qu'une licence pro en informatique dans une université pas connu. Les études ça sert à trouver un premier job mais très vite c'est tes compétences que les employeurs regardent. Bref non seulement ton commentaire est condescendant sans raison mais il est même pas correct.
@@laminerahal5918 Il est important de comprendre que le salaire d'un consultant dépend de nombreux facteurs, tels que son niveau d'expérience, sa spécialisation et sa performance. Les études longues et de qualité peuvent aider à acquérir les compétences nécessaires pour devenir consultant, mais ce n'est pas une garantie de réussite et de salaire élevé. Il est également important de considérer les autres facteurs, tels que le marché du travail, la concurrence et les opportunités de carrière.
Monsieur Phi, votre réflexion sur les implications phénoménologiques du modèle de langage ChatGPT est tout à fait éloquente dans sa profondeur herméneutique. Votre usage habile des concepts dialectiques en symbiose avec les paradigmes évolutionnistes démontre une sagacité cognitiviste sans égal. Toutefois, je ne peux m'empêcher de considérer la dichotomie antinomique entre la subjectivité du chatbot et sa nature algorithique, ce qui éveille des dilemmes éthiques quant à son essence ontologique. Bravo pour cette réflexion métaphysique.
C'est marrant, et intéressant, que j'ai davantage appris sur chatGPT sur une chaîne de philo que sur celles davantage centrées sur la technologie ou la science.
Merci !
La philosophie analytique à ceci de particulier que sa pratique peut se retrouver à produire des raisonnement à la construction rigoureuse et logique, comme en sciences.
a*
Wouah, quelle vidéo incroyable! Je suis toujours époustouflé par la qualité de tes vidéos sur Chat GPT, Monsieur Phi. Tu es vraiment le meilleur dans ce domaine. Je suis passé d'un état de stupeur à une compréhension complète grâce à tes explications claires et concises. Ton utilisation de Playground est vraiment un excellent outil pédagogique. Merci pour ce travail de vulgarisation essentiel! J'ai hâte de voir la prochaine confrontation de l'IA vs M.Phi 😂👌💙
Oui je sais c'est complètement du baratin ! j'assume !!!
C'est ce que je me tue à expliquer autour de moi ! Merciiiiiiiiiiiiiii pour cette vidéo !
Par contre, un truc rigolo, quand j'utilise ChatGPT, j'ai ta voix dans la tête qui lit le texte, c'est particulier hahaha !!
😂
risqué ça, tu risque de lui faire trop confiance, ce serait plus prudent de le lire avec la voix d'aberkhane. (bon ce serait aussi moins agréable), afin de garder en tête que c'est pas très fiable.
@@GabrielPettier oui, c'est pas faux ! Avec la voix de Raoult, ça serait pas mal aussi pour la méfiance !
Vidéo très intéressante une fois de plus (et je la valide, car c'est l'un de mes domaines de recherche). Avec un détail à préciser, vous parlez de l'apprentissage par renforcement au passé, alors que je pense qu'il est en train de se faire grâce aux utilisateurs (par exemple, les pouces devant les réponses et les demandes de feedback).
Si le Français est votre langue maternelle, je suis au regret de vous annoncer que vous ne possédez aucun "domaine de recherche".
@@izaacchirac4501 pas compris
@@izaacchirac4501 ptdr!
Il y a les robots et il y a les humains.
Je vous laisse deviner à quelle catégorie vous appartenez...
🤦 Ah! Mais non, vous ne pouvez pas deviner ! 🤣🤣🤣
Je pense plutôt qu'ils récoltent le feedback pour de futurs entraînements mais que le modèle est fixe.
@@TKZprod Il est possible que le présent modèle est fixe, mais vu le nombre de feedbacks je pense qu'ils seront traités de façon automatique
Excellente vidéo mais je me pose tout de même quelques questions.
1) Dans quelle mesure nous ne fonctionnons pas un peu comme ChatGPT ? Nous n'avons pas de base de données, nous remplissons parfois des tâches "en pilote automatique" - même les petites discussions peuvent entrer dans ce cadre - on oublie assez facilement les choses. J'ai l'impression que les joueurs d'échecs de haut niveau se reposent pas mal sur l’application de patterns pour démarrer leur réflexion et partir sur les meilleurs coups à évaluer ce qui en soit est comme se baser sur une prédiction pour commencer.
2) A-t-on une idée de ce qui manquerait pour permettre aux algorithmes de langage d'apprendre de la même façon qu'alpha go (en jouant contre lui même en gros) ? Finalement une fois les règles du jeu bien définies, les algos semblent pouvoir progresser à l'infini et sans renforcement. Mon intuition c'est qu'il faudrait isoler 3 fonctionnalités - produire du langage, classifier de la connaissance et faire le lien entre les 2 premières fonctionnalités. C'est là que la prédiction de texte vient tout bullshiter - elle produit du langage sur des données qui n'ont pas vraiment de sens. Et si on arrive à créer ce genre d'intelligence, c'est peut être là qu'il faudra travailler sur des IA qui n'ont pas accès à Internet au cas où elles nous trouvent un peu obsolètes.
Merci, encore une fois, super vidéo. Par contre, il y a un petit détail qui m'a gêné avec l'exemple des aliens: ils n'auraient pas de fonction d'optimisation cherchant à gagner la partie et donc gagneraient une fois sur deux. Mais au final ça ne change pas le propos de ton exemple qui illustre bien ce que fait chatGPT.
J'espère que tu continuera encore longtemps
J'aimerais revenir sur la limite de mémoire à cours terme de ChatGPT. Il est possible de lui envoyer un texte en plusieurs moreaux, puis en lui donnant la nature des messages 1 à 5 par exemple, il est possible de le forcé à se rappeler d'une assez grande quantité de texte en la catégorisent. Il est ensuite possible de posé des questions sur le texte en évoquant la catégorisation.
Encore une excellente vidéo !
Cette suite sur ChatGPT est dingue, merci pour ton travail !
Chapeau bas, tes explications sont honnêtement les meilleures
T’es un vrai boss, c’est parfaitement expliqué ! 👌💙
J’ai si hâte de voir les prochaines confrontations de l’IA vs M.Phi 😂
Fantastique ! Je n’avais pas vu ChatGPT sous cet angle. Pour moi, du fait de son manque de fiabilité, je pensais qu’il ne servait à rien et qu’il ne risquait pas de venir concurrencer des humains. Mais à la réflexion et après avoir vu la vidéo, il sert en fait à créer du baratin ce qui entre concurrence avec des gens dont c’est l’activité première comme par exemple les journalistes qui n’apportent pas d’information nouvelle (les éditorialistes par exemple). Il va aussi entrer en concurrence avec les artistes puisque la vérité et la fiabilité ne fait pas partie de ce qu‘ils recherchent.
En fait, même dans des domaines plus factuel, il se révèle assez efficace. On peut s'en servir d'assistant pour gagner un temps fou.
@@TKZprod Là je ne suis pas encore tout à fait convaincu. Je pense qu’il est tout de même bien plus sûr d’aller directement chercher une info sur Wikipédia (pour de l’aide textuelle). Donc pour n’importe quel travail sérieux, non ChatGpt n’est pas la voie. Par contre, pour une synthèse grossière en peu de mots, c’est vrai qu’il est efficace si on ne se préoccupe pas de la véracité.
P.S. Ca me fait penser que Wikipedia devrait ajouter à l’encyclopédie des articles de synthèse, volontairement courts (genre 1024 signes), parce que sinon peut-être, les IA pourraient combler ce vide.
Merci pour ce super boulot. Juste une petite remarque a 26:35 .
Il peut y avoir des arguments sur le fait que la moyenne des coups d'une foule soit superieur aux meilleur individus du groupe qui le constitue.
La chaine Fouloscopie en a parlé recemment dans une vidéo intitulé "Y-a-t il une INTELLIGENCE COLLECTIVE aux échecs ?"
Apres effectivement il montre que la foule a de meilleur coups que le niveau moyen qui l'a compose, mais ne demontre pas qu'elle a un niveau superieur au meilleur membre de celle-ci.
Super vidéo, j’étais contrarié que chat gpt ne se souvienne pas d’éléments que je lui avais donné plus tôt dans la conversation, maintenant j’ai la réponse à ce soucis merci !
Vidéo, chaîne et youtuber d'utilité publique ! Merci d'enrichir internet.
28:42 Je crois avoir vu que les fautes d'orthographe des scammers pouvaient leur être utiles car elles permettent de faire un filtre sur le type de personnes qui vont leur répondre : personnes moins attentives, personnes en fragilité intellectuelle ou sociale, etc ... Donc pas certain qu'elles disparaissent toutes.
*orthographe
*utiles
C'était pour le testage d'attentivitation 😉😘🤣
@@MrSUPERDUCON J'ai corrigé... 😅
Le passage sur les exemples est édifiant ! Et ça confirme ma peur que ce type d'algo renforce (encore !) les effets de bulle auxquels nous sommes toutes et tous soumis...
Suffit de lire les commentaires de cette vidéo. Des clones 🤭
En effet pour revenir de chez Idriss je me rends compte qu'il fait l'éloge de ses auditeurs. Alors cela veut peut-être dire que monsieur phi est lui aussi devenu un manipulateur des esprits ? XD
Enfin que ses auditeurs font l'éloge d'Idriss ! C'était pas clair !
Il est important de faire la distinction entre chatgpt et gpt 3 utilisé sur le playground (de mémoire). Je trouve que chatGPT est plus équilibré et fait des efforts pour limiter l'impact que ses réponses peuvent avoir.
En particulier, j'ai testé ses réponses sur l'impact que peut avoir la consommation de viande ou manger local sur le climat et maintenant il semble qu'il dit qu'il faut faire les deux à peu près peu importe le contexte mais il insiste que manger moins de viande a plus d'impact si on lui dit qu'on aime la viande .
J'utilise le mot "argue" mais j'aime quand même la vidéo qui m'a fait mon petit déjeuner. PS : j'avais jamais fait attention à la limite du contexte, ça va être dur d'obtenir de chatGPT des synthèses/résumé intéressants effectivement (en l'état).
Il reste toujours possible de faire résumer partie par partie puis de résumer l'ensemble de ses résumés par exemple (et ainsi de suite). Mais effectivement, ça complique les choses. Et dans l'autre sens, faire écrire un texte long semble assez compliqué, à moins de lui faire résumer au fur et à mesure le texte déjà produit...
J'utilise aussi ce mot quand je me cogne.
cela dit, pourquoi vouloir utiliser chatGPT pour toutes les tâches ? des modèles plus spécifiques font ça très bien, et fragmenter les tâches permet une économie de temps et de complexité énorme
@@neveed0 mdrrrrrrr
@@quentinmartell1008 C'est justement l'aspect "général" de chatGPT qui le rend intéressant, sans ça il n'aurait plus beaucoup d'intérêt notamment pour des tâches qui ne se résume pas à la génération de textes intéressants. Et même si on voulait le spécialiser en spécifiant ses données d'entrainement, il serait moins bon que les humains qui ont généré ces données et donc moins fort que les modèles d'IA qui sont spécialistes de ces domaines. Ceci tient surtout à la différence de nature intrinsèque entre chatGPT et ces modèles spécialisés.
Très bonne vidéo !
Je me permets une remarque sans grande importance et qui n'a en fin de compte aucun rapport : vers la fin tu parles de Syracuse en décrivant le problème comme "[...] le plus célèbre et le plus difficile des maths actuelles".
Mais de ce que j'en sais, ce problème n'est pas spécialement important : contrairement (au hasard) à l'hypothèse de Riemann, il n'implique rien de très profond quant aux mathématiques et contrairement à Fermat-Wiles, l'histoire de sa résolution n'a jamais été un moteur dans l'histoire de la discipline.
Non, Syracuse c'est connu parce que sa difficulté est paradoxale : l'énoncé pourrait être compris par un enfant mais le problème est pourtant extrêmement difficile.
Par contre les mathématiciens s'en foutent pas mal, donc même si ça résolution étonnerai tout le monde, pas certain que ça vaille une médaille Fields.
Je citerai Gauss (c'est pas tous les jours) un jour où on le questionnait à propos du problème de Fermat : "Non, ça ne m'intéresse pas. Parce que je pourrais trouver des dizaines de problèmes similaires en quelques minutes et il vous faudrait des siècles pour en résoudre un seul." (je paraphrase)
Et on est vraiment la dedans avec Syracuse. C'est un problème tout à fait quelconque...
Oui, la conjecture de Syracuse est très célèbre, mais elle n'intéresse essentiellement que les amateurs. Pas étonnant que ce soit celle-ci qu'Aberkane ait choisi...
Encore une fois, désolé pour le hors-sujet
D'un autre côté, dire qu'un problème est difficile et célèbre, ce n'est pas dire qu'il soit particulièrement important de le résoudre. Mais il me semble exagéré de dire que la conjecture de Syracuse n'intéresse que les amateurs ! C'est sans doute un peu passé de mode, mais les mathématiciens professionnel y ont quand même consacré beaucoup de temps et d'effort. Si l'on dit parfois que c'est pour les amateurs, c'est plutôt parce qu'elle en attire beaucoup par sa simplicité, et que beaucoup de "preuves" fantaisistes sont proposées.
@@freyc1 Tu as tout à fait raison : il a des mathématiciens professionnels qui se sont penché sur la question et qui y ont consacré du temps. Récemment, on pense évidemment à l'avancée de Tao qui explique que "tous les ans je passe quelques jours pendant lesquels je réfléchis à la question, et cette fois, coup de bol, j'ai trouvé un truc."
Pour préciser un peu mon point, je dirais que ça c'est vrai d'à peu près tous les problèmes : il y aura toujours au moins quelques personnes qui se pencheront sur un truc un peu random ou complètement de niche. Feu John Conway était un spécialiste de la chose.
Ce que je voulais dire quand j'écrivais que ça n'intéresse pas les mathématiciens, c'est que ça n'intéresse pas les mathématiciens en tant que communauté : il n'y a pas de programme de recherche sur le sujet, on ne développe pas les maths en visant la résolution de Syracuse, il n'y a pas de paradigme développé en ce sens et à ma connaissance aucun mathématicien ne construit sa carrière autour de ce problème.
En ce sens, Syracuse n'a rien à voir avec l'Hypothèse de Riemann, Fermat-Wiles, la conjecture de Birch et Swinnerton-Dyer ou le Programme de Langlands.
Même si personne ne construit toute sa carrière sur une volonté de résoudre Riemann (ce serait du suicide), il y a des pans entiers des mathématiques (géométrie arithmétique, entre autres) qui se construisent autour de cette conjecture.
Note d'ailleurs qu'il y a plein de preuves fantaisistes pour tous ces problèmes "connus" du grand public :)
Un passage sur viXra permet d'en trouver tout plein, déjà...
Bref, je suis d'accord avec toi et mon message n'était clairement pas assez précis.
Ceci dit je continue de penser que décrire Syracuse comme "[...] le plus célèbre et le plus difficile des maths actuelles" est simplement faux.
Et je pense aussi que je fais chier pour rien parce que ça n'était pas le sujet et que tout ça n'est au fond pas bien important : pas besoin de hiérarchiser l'importance des problèmes de maths pour faire des maths :)
@@gordub Si tu veux rester cohérent, mon avis serait que Fermat-Wiles est quand même à mettre à part de BSD, Riemann ou Langlands. Ce serait même plus proche de Syracuse que de ces derniers, sauf bien sur si tu parle de Taniyama-Shimura-Weil(-Wiles-Taylor) mais ce n'est pas la même chose :)
Je suis d'accord que décrire Syracuse comme "[...] le plus célèbre et le plus difficile des maths actuelles" est faux. En théorie des nombres ceux déjà cités méritent bien plus cette description!
@@marsaultchabat7417 Oui, je pense qu'on peut dire que dans l'histoire des maths, Fermat est un problème un peu à part. J'envisage de le rapprocher du problème de la résolubilité des équations polynomiale par radicaux ou encore de la tentative de supprimer le 5ème postulat d'Euclide (en ce sens que les trois ont servi de motivation au développement de nouveaux outils et concepts) mais je ne suis pas expert en histoire des maths donc ce n'est peut-être pas pertinent.
Quand je parle de Fermat-Wiles, j'englobe en fait toutes les tentatives de résoudre le problème, et ce depuis Euler. C'est peut-être un peu trop large, effectivement...
En tout cas ça contient en particulier la conjecture epsilon et celle de Taniyama-Shimura-Weil :)
Et avec cette définition, Fermat-Wiles est bien plus proches des autres grosses conjectures mathématiques que de Syracuse : oui, FLT est aussi simple à comprendre que Syracuse mais contrairement à ce dernier, il a une réelle importance pour les maths, et c'est au final ça qui compte le plus.
PS : j’apprécie beaucoup la petite référence Cactus de Sibérie de la photo de profil :)
Monsieur Phi qui publie la deuxième édition de sa Critique du ChatGPT pur. Où l'on comprend mieux les principes et les limites de son pouvoir.
Et c'est plus clair que la déduction transcendantale, donc merci ^^
Merci pour cette vidéo ! Mon prof de philo nous a justement invités à nous pencher sur le sujet, et tes explications m'aident vraiment :
Merci pour l'incroyable qualité de cette vidéo, sur le fond et la forme. Ça permet de guider mes pensées sur le sujet qui partent dans tout les sens :)
Waw.
Très très éclairant.
Et même pas besoin d'écouter la première pour suivre celle-ci.
Merci.
Dans la même veine, je vous recommande la récente vidéo de Computerphile "ChatGPT with Rob Miles", un bon complément (mais en anglais).
Beaucoup d'infos dans cette vidéo très intéressante, les deux principales étant : il reste des fans d'IA, et il te regardent et t'écrivent 😅!
Super boulot merci 🙌
Il est vrai que ce sont des modèles statistiques pré-entrainés et que le rôle de la prédiction est prépondérante. Cependant, ces modèles ont une certaine « représentation » de la langue (à l’aide de vecteurs à multiples dimensions, et pondérés par les chercheurs, si j’ai bien compris). Aussi, ChatGPT semble raisonner dans une moindre mesure, en stockant certaines données dans les conversations. Certaines IA ont tout de même fait plusieurs découvertes dans les domaines de la santé ou de l’astronomie, ne pourrait-on pas imaginer dès lors qu’il en soit de même pour cette IA? Après tout, l’humain aussi est une machine à prédiction et de calcul. Par ailleurs, merci pour ces vidéos enrichissantes et pleine d’humour. Voilà une vraie limite de ces modèles, l’humour, le sous-entendu, la créativité. À bientôt Mr. Phi !
Comme d'habitude, on a envie de liker 1000 fois! Merci (pour le fond et les fous rires)
Petit désaccord néanmoins quand tu expliques que des "gros modèles" ne pourront qu'au mieux égaler l'intelligence humaine puisque c'est ce qu'ils visent à imiter. En se reposant sur de nombreuses données humaines, il peut y avoir une forme de méthode d'ensemble susceptible de dépasser chacun des meilleurs experts humains (la fameuse "sagesse des foules" de Francis Galton... Et de nombreux travaux en apprentissage, en particulier ceux de Leo Breiman). La comparaison n'est certes pas rigoureuse, il faudrait que le LLM utilise à chaque requête les réponses de plusieurs experts pour en faire une meilleure synthèse. Et de plus, si cette synthèse pourrait être (théoriquement) meilleure que le meilleur humain sur un domaine, elle ne serait pas "exponentiellement meilleure". En ce sens je rejoins la position que tu défends dans la vidéo.
Très bon ! au fond, il y a un parallèle à établir entre ces modèles et ce que pense Keynes dans son concours de beauté où il s'agit de classer la beauté de 100 visages en considérant ce que feraient "les gens" , un genre de baratin donc !!
ChatGPT est bluffant ! Vous participez à la démystification, merci beaucoup pour vos explications.
Je suis inquiet car il faut maintenant faire preuve de beaucoup de pédagogie et de subtilités pour expliquer le fonctionnement et les limites de cette IA.
Intéressant cette philosophie du baratin. En fait je pense que nous surestimons également l'intelligence humaine. Car contrairement à ce que je peux voir à droite et à a gauche, le fonctionnement de la cognition humaine fonctionne aussi sur des bases statistiques. Le cerveau humain passe son temps à faire des interpolations (linéaires) La mémoire humaine est également essentiellement procédurale. Le cerveau humain est en fait "pré-entrainé" par sa génétique. Finalement, pour être rapide, les IA pourraient continuer à nous surprendre, comme le fut l'ingénieur de chez Google, qui fut lui même mystifié par l' ia qu'il avait créé...
Excellent ! Je m'interroge cependant sur l'application de la notion de compréhension aux opérations de ChatGPT. Tu sembles employer "intelligence" sans faire les distinctions nécessaires (comme intelligence faible ou intelligence forte, comme chez Searle), même si tu parles de "forme d'intelligence". Il me semble cependant nécessaire de traiter la question de la compréhension du sens de ce qui est effectué. Jouer aux échecs, ce n'est pas seulement maîtriser des règles plus ou moins parfaitement, c'est par exemple comprendre une situation d'adversité, mettre en jeu des affects (désir de gagner - ou pas, mettre en jeu une réputation personnelle, etc.), comprendre qu'un jeu se distingue partiellement d'une situation dite "sérieuse", etc. De même, prédire adéquatement des suites de mots réclame une forme d'intelligence (traiter des masses immenses de données dans des opérations immensément complexes), mais je ne parviens pas à appliquer correctement le concept de "compréhension" à ce genre d'opération. J'ai le sentiment que la grammaire de ce terme implique forcément la présence d'une intelligence forte, donc consciente, dotée de croyances, d'intentions, et d'une capacité de réflexion subjective. Mais peut-être as-tu traité ce point ailleurs, auquel cas il te suffira de m'y renvoyer !
Hahaha ça tire à balles réelles 😂 J'ai ris. Merci pour cette vidéo comme dab super quali ❤
Toujours formidable!
Remplacer « jeux d’échecs » par « bullshit » et la conclusion de la vidéo pourrait être: « les prédicateurs de texte constituent des bullshiteurs de très haut niveau et dépasserons bientôt même les plus grands champions humains de bullshit »
Ça fait plaisir de voir cette démystification. Certains lui prêtent de l’intelligence une capacité d’abstraction créative... Beaucoup de "devs" pensent qu'il peut architecturer et coder des applications complètes alors qu'il ne fait que générer des caricatures de code. Impossible de leur faire comprendre qu'il n'y a pas de réelle intelligence derrière mais de la prédiction, du "bullshit"
Salut ! "Foutaise" c'est pas mal pour traduire bullshit, avec le petit côté grossier qui va bien. Merci pour ta super vidéo !
La démo de la conjecture de Collatz par chat GPT est incroyable, future médaille Fields
Super intéressant ! J'ai jamais vu une vidéo sur ChatGPT aussi bien :)
Autant je suis d'accord sur les limites d'une approche "à la ChatGPT", autant je pense qu'il serait illusoire de se dire que l'IA s'arrêtera là. (Je ne crois pas que cette nuance ait été clarifiée.) Car, un peu comme ce qu'on a vu en 10 ans entre les 1ers réseaux neuronaux et maintenant, il est à peu près certain qu'on trouvera une autre technique qui fera que la machine apprendra encore mieux. Ce ne sera pas ChatGPT 4 ni 5 - la technique a ses limites, comme tu l'as super bien montré - mais justement ce sera la "nouvelle technique" que personne ne connait (encore). Et le problème devient alors de raisonner sur quelque chose qu'on ne connait pas... (ça nous fait une belle jambe.)
Du coup, rien à voir mais ça pourrait peut-être faire un bon sujet de vidéo ^^ (= essayer d'anticiper l'avenir par prolongation tendancielle, ou par anticipation des techniques, ou par principe de "ça sera mieux", etc.). Ce serait même en relation avec les problèmes climatiques, dans la mesure où une partie des argumentations optimistes consiste à dire "oui, mais on trouvera la technique qui va bien / avoir la foi en la science".
Top 👍🏻 bravo !
On peut définir le "small talk philosophique" d'une manière similaire au bullshit philosophique. Le bullshit c'est lorsque ce que dit le sujet est indépendant de ce qu'il considère vrai, le small talk c'est lorsque ce que dit le sujet est indépendant de ce dont il a envie de parler ou considère digne d'intérêt.
9:20 Chez les juristes on dit souvent "il argue que / Ils arguent que"
Quel drôle de présupposé linguistique Monsieur Phi x)
Et chez les développeurs, on emploie souvent le verbe "builder". Que personne n'utilise à part dans des contextes bien particuliers.
Je retrouve dans cette vidéo une part d'émerveillement que je trouvais dans les vidéo de science4all avant ... 👍 Très cool =)
Dès que Monsieur Phi commence à parler d'aliens, tu sais que la vidéo est un vrai banger
Tu remues la tête devant une vidéo de vulga toi ?
Moi aussi, je dis que tu es le meilleur "baratineur" ! Et, le meilleur "commentateur", etc. J'adore !!!
Très intéressant comme point de vue. je n'ai personnellement pas tester très longtemps chatgpt car manifestement il ne 'comprends' pas ce qu'il dit. Même pour le code, c'est souvent intéressant car il explique assez bien le code généré, même si au final, je n'ai pas vraiment pu utiliser directement ce qu'il donnait. Mais ce côté subjectif des réponses , cette volonté de reconnaître ces soi-disant erreurs, cette manière de refaire la même erreur alors qu'il la reconnait et la corrige une question avant fait que c'est un outil intéressant mais à manier avec précaution.
comme tout outil, d'ailleurs
@@AmanoShiyaku effectivement 👍
Ah, merci de m'avoir corrigé! :3
Merci infiniment pour vos vidéos!
C'est exactement ce que je me suis dit quand j'ai vu JDG et Antoine Daniel demander par exemple un scénario pour leur vidéo.
Le truc réponds des banalités absolues et à juste bien compris les mécaniques de ces vidéos mais ce qu'il ressortait était absolument sans saveur.
Comme tu l'as dit ça ne peut servir que pour des journalistes
Vidéos sur les IA de génération d'images... à la sauce phi... J'ai hâte !
En fait, quand on y pense, chat GPT a un fonctionnement très Bayésien
Merci pour cette vidéo édifiante qui soulève toute la problématique de nos modèles en science. Ces modèles ont leurs faiblesses : 1) Ils dépendent de la qualité des données et 2) Ils croient établir les lois de la nature alors qu'ils font plutôt comme les "aliens joueurs d'échecs", ils mettent en place des modèles qui prédisent pas trop mal mais qui ne nous informent pas sur les règles du jeu. Un modèle linéaire qui prédit le poids en fonctions des calories consommées n'explique pas comment ces calories fabriquent réellement le poids... Un petit bémol sur les progrès à venir et sur le fait que les IA ne peuvent dépasser l'humain, peut-être que si, pour beaucoup d'entre nous, si ces IA accèdent aux corpus scientifiques, ce qui n'est pas encore le cas.
Merci Monsieur Phi pour cette excellente vidéo, comme pour l ensemble de ton travail, c'est très fort! Par contre pour le cas précis du niveau au jeu d'échec d'un modèle de langage, il me semble que l'on pourrait dépasser le niveau des joueurs humains. Il suffirait de fournir à l'entraînement des données produites par les meilleurs algorithmes d'échec. Théoriquement donc un modèle de langage pourrait se hisser au même niveau que ces meilleurs algorithmes classiques.
Du reste il arrive de remplacer des algorithmes classiques par des IAs faisant le même travail. Cela peut être avantageux quand les IAs donnent la réponse plus rapidement que les algos d'origine par exemple.
J'ai l'impression que les enfants apprennent exactement comme ça. C'est à dire en disant (ou répétant) exactement ce que leurs parents (leurs instituteurs) veulent qu'ils disent. Les enfants ne s'en rendent pas vraiment compte mais les adolescents comprennent assez vite que dans une interro il est plus important de dire ce que le prof pense que ce qu'ils pensent eux-même. Il y a certainement un moment où un autre type d'intelligence se développe mais je pense que c'est peut-être ce qui fait qu'un enfant cesse d'être un enfant. Qu'en pensez-vous?
Merci pour cette mise au point. Mais la première vidéo allait bien pour moi !
J'habite un petit village et il m'arrive de passer un moment au "café du commerce", c'est instructif. Tous les sujets y sont abordés, par des gens dont la culture et l'information sont le plus souvent conditionnées par la télévision dite "généraliste" et le canard local pour les chiens écrasés. Ils ont un avis sur le PMU, peut être même les IA qui jouent aux échecs (auxquels ils n'ont jamais joué), probablement sur les voyages de Descartes dont ils situent mal la chronologie avec la découverte des Amériques, la meilleure façon de préparer un bourguignon (sans carottes) etc.
Ils n'ont pas une mémoire de 2000 tokens en général (surtout passées 11h45).
Tromper cette IA (et les autres moins développées) est facile sur des questions techniques (fins de parties par exemple). Personnellement, je suis nul aux échecs bien que je connaisse les règles de base. On (et même une IA généraliste comme GPT, pas une IA dédiée) peut donc facilement me "tromper" et interpréter les coups que je jouerais comme "naïfs" dans le meilleur des cas. Par contre, dans mon domaine d'expertise (la physique atomique) fastoche de faire exploser n'importe quelle IA.
Il y a il me semble un certain biais dans la présentation faite dans ces deux vidéos. Le "test de Turing" qui est "[fondé] sur la faculté d'une machine à imiter la conversation humaine.] (Wikipedia), ne précise pas de quel humain il s'agit.
Les IA ont prouvé sur des tâches particulières (échecs, Go...) qu'elles ont largement dépassé les humains. Bientôt (voire déjà mais cela freine pour un tas de questions, morales, légales, corporatistes...) dans l'interprétation d'images médicales, la conduite des avions etc. Personnellement, pas plus qu'aux échecs, je n'en suis pas capable.
La question qui pourrait mériter réflexion est peut-être la suivante: passées 11h45, combien de personnes (plus exactement, quelle fraction) du café du commerce discuteraient avec GPT? polémiqueraient peut-être...
Le test de Turing ne passe pas sur tous les sujets face à autant de spécialistes certes, mais sur un individu lambda? individu qui "s'entraine" sur les mêmes infos que GPT (mais, de fait, sur un échantillonnage bcp, bcp, bcp plus restreint), avec la mémoire d'un humain (il y a 20 ans, Deep Blue battait Kasparov et c'était un bon sujet de comptoir, aujourd'hui, rares sont ceux qui s'en souviennent)...
Est-ce que le test de Turing ne serait pas plutôt "imiter la conversation [d'un individu de comptoir]" ou, plus cruellement me semble t'il, "imiter la conversation [d'un abonné à télérama, valeurs actuelles, libé, le figaro... on peut rajouter TF1, ARTE, BFMTV, Ushuaia...]" au choix selon les sensibilités de chacun?
Un cran au delà, en ce qui concerne "ceux qui font l'opinion" dont on discute au café du commerce: est-ce que GPT n'est pas capable d'écrire des éditos politiques aussi pertinents que ceux de Jean Leymarie (Fculture) ou, maintenant que Bernard Maris n'est plus, Dominique Seux (FInter) dans le domaine économique. Ils ont pignon sur rue et leurs papiers se résument le plus souvent à une pauvre thèse/antithèse/synthèse scolaire qui pourtant, à partir de n’importe quelles prémices, "démontre" ce qu'ils veulent à la fin? Ils ont l'aura de l'objectivité/la pluralité du "service public" je ne parle donc même pas des salariés des média privés.
Les questions en creux que je voudrais poser sont: (i) pour quelle fraction de la population (et ça dépend des pays, des catégories SP...) enchainer des mots est une volonté de produire du sens plutôt qu'une façon d'être? (ii) GPT est-il moins bon que le fraction moyenne/médiane? (iii) l'extrapolation à "les évolutions de GPT" ne seront jamais aussi pertinentes que les spécialistes du sujet est-elle légitime?
Il y a vingt ans, Kasparov assurait battre Deep Blue et on pensait que jamais un ordinateur ne jouerait correctement à Go. Aujourd'hui tous les médecins et tous les pilotes assènent que rien ne remplacera leur expertise malgré les erreurs de diagnostique et les crashs... Tous les astronautes plaident pour des vols habités... Est-il inconcevable qu'une IA généraliste agrège des IA spécialisées?
Une belle question soulevée par Lê est celle de l'éthique. Qui contrôle cette IA généraliste? qui, tels Google ou Netflix ou qq media peu nombreux? la question s'est posée il y a trente ans en France avec par exemple l'ouverture au marché de la télévision qui devait "diversifier l'offre" face à la crainte d'une information d'état officielle (qui est assurément un danger). Objectif atteint? Miracle de la concurrence? de même dans la presse écrite réduite aujourd'hui à de "grands groupes de presse" c'est à dire de pression économique?
La réponse qu'il propose est celle de l'open source plus ou moins implicitement assimilée à "démocratique". Il me semble qu'il s'agit d'une forme nouvelle d' "oligarchie éclairée": en France, au moins, le peuple (demos) est "contre" mais sans volonté de s'engager = volonté politique (au sens noble du terme): gilets jaunes, réforme des retraites... Aucune réflexion structurée que celle d'"être contre". Le libéralisme dans les media a atteint son objectif: éthiquement toutes les opinions se valent désormais et il n'y a plus de hiérarchie de valeurs à opposer à une autre hiérarchie. L'open source se propose de ré-établir une hiérarchie (à laquelle, je le précise, je souscris sans réserve). Serge Halimi a un jour intitulé un édito "notre utopie contre la leur". Hélas, le post-modernisme, démultiplié par les media dominants et les réseaux sociaux aux mains d'intérêts privés (voire publics cf ci-dessus), délégitime par principe ce genre d'initiative salutaire. L'argument est facile: fût-elle collective et ouverte à tous, cette IA ne sera l'expression que de choix de valeurs, ouvertement assumés certes, mais de choix de valeurs tout de même. Dès que l'on admet/que l'on a convaincu que tous se valent...
Tout le monde n'est pas convaincu que toutes les valeurs se valent. Que GPT soit supervisé par des humains pour supprimer les réponses statistiquement raciste sur internet me semble plutôt bien. Mais naturellement on tombe dans le problème de l'objectivité évoqué ci-dessus. Qui censure quoi? Mais en face, ou plutôt parallèlement, certains ont moins de scrupules et manipulent les votes, les opinions (jusqu'à la limite de la prise d'assaut du parlement des Etats Unis, belle démocratie dont nous vient ce merveilleux libéralisme) ... et en font commerce comme certaines officines en Russie ou Israël (une autre belle démocratie).
Comme disait Descartes, ce fabuleux poète antique américain (à moins que cela ne soit l'inverse):
non cogito ergo sum
(traduction approximative en latin d'un dialecte inca moyenâgeux).
Merci pour ces 2 vidéos - et les autres - c'est très très éclairant !
Merci pour cette vidéo qui démystifie simplement et avec humour ! En réponse, le commentaire élogieux généré par gpt3, bisous.
La vidéo "La philosophie du baratin" de Monsieur Phi est absolument incroyable. Il a réussi à rendre le sujet des IA prédictives fascinant et accessible à un public plus large. La présentation claire et concise de Monsieur Phi ajoute une profondeur supplémentaire à un sujet complexe. La façon dont il relie les idées et les théories à la vie quotidienne est brillante et laisse une impression durable. Je recommande vivement cette vidéo à tous ceux qui cherchent à comprendre les enjeux éthiques et sociaux des IA prédictives. Merci Monsieur Phi pour cette excellente contribution à la communauté des philosophes en ligne.
:)
Intéressant (comme la plupart de tes vidéos 😀). Une remarque toutefois : tu dis que contrairement à un programme qui puiserait dans une « base de connaissance » pour générer des réponses et qui serait donc de fait « vérace », le fait qu'il tente de prédire une suite logique en concordance avec le début (la question) ferait pointer vers un « baratineur » (au sens que tu lui donnes dans la lignée de Saucisse).
Mais ne peut-on pas considérer que l'ensemble de son apprentissage (ses N paramètres et tout ce qui va avec) est sa « base de données », non pas une base de données de faits à mettre en texte mais une base de données de textes *construits* sur des faits (des faits plus ou moins vrais, mais étant issus d'un grand nombre de textes existants on peut sans grand risque présumer que pour beaucoup de sujets ils sont vrais ou pas loin) ?
Il en génère une forme de « synthèse à N paramètres » qui est pour lui la véracité : c'est tout ce qu'il connaît, pour lui c'est bien vérace de présenter cette suite de mots à la suite des mots qu'on a entré, car c'est la seule véracité qu'il connaît.
la seule question à se poser est : est-ce que la véracité d'un texte fait partie de ses paramètres ? Si ce n'est pas le cas, il dit la vérité par hasard (ou par effet de convergence)
@@AmanoShiyaku Hmmm… Non. On parle (dans cette vidéo) de « l'attitude » de la personne (ici ChatGPT) vis-à-vis de la véracité.
La question est ici − par rapport à mon propos − de savoir si ChatGPT est « vérace » vis-à-vis de ce qu'il dit.
Parce que sinon, qui a la véracité dans ses paramètres ? Est-ce que notre éducation, notre société, nos lectures, etc. sont "vraiment" paramétrées sur la vérité ? Je ne crois pas (en tout cas clairement pas dans l'ensemble de leurs éléments).
Le baratineur s'en fout. Le menteur ment. Est-ce que ChatGPT ment ou s'en fout ? Il ne ment pas, clairement. Est-ce qu'il s'en fout ? Je ne crois pas : il réagit par rapport à une éducation (hyper spécialisée) qui lui a enseigné ce qu'est le « mot suivant » à partir d'un texte. Sommes-nous si différent ?
Oui, je suis d'accord avec toi Yannick (enfin je pense aller dans ton sens). Même s'il ne fonctionne pas sur un système de base de données classique, il s'appuie forcément sur de la data. Et pour lui, ces données ne sont que des briques à assembler selon un modèle logique. Mais en rien "intelligent".
@@theoven344 Oui, la question de l'intelligence est « hors scope » ! D'ailleurs moi qui travaille dans un labo de recherche où des gens font de l'IA personne ne se risque plus à donner une définition applicable de ce qu'est l'intelligence !
Mon propos restait effectivement factuel : peut-on qualifier un « outil de traitement » qui répond de façon « vérace » à un "input" de la façon la plus « véridique » possible à partir de ce qu'il « sait » de « baratineur » ? Pour moi non : il est sincère, dans la mesure de son apprentissage. De notre point de vue on peut juger qu'il ment (sur certaines choses), qu'il est super fort (sur certaines choses), qu'il est médiocre sur d'autres (je lui ai demandé de faire des riffs de rock, même avec des éléments précis, et c'était… médiocre). Mais il ne baratine pas, pour moi. Il fait de son mieux, et « sincèrement », dans la limite très restreinte de son « éducation ».
@@yannickperret1586 Cela dit, compte tenu de la définition donnée par M. Phi du "baratineur" (c'est à dire quelqu'un qui va adapter sa réponse à son interlocuteur, qu'elle soit vraie ou fausse), le reste de sa démonstration se tient. Ce qui veut dire aussi qu'on peut très bien, en retour, "baratiner" ChatGPT (ou autre), l'influencer, voire le manipuler.
Mon domaine, c'est l'expression écrite et orale, et mes quelques essais avec ce monstre m'ont prouvé qu'il n'était capable de rédiger que des textes froids, sans âme, "utilitaristes". Du pur travail d'anglo-saxon.
Je voulais rajouter quelque chose : comme tu le sais, on peut rajouter du contexte. Donc on peut lui faire imiter le niveau des humains les plus compétents sur chaque sujet, ce qui est déjà largement mieux que d'imiter un humain moyen.
Et si on reussit a lui faire imiter le niveau des romanciers, scientifiques, philosophes etc les meilleurs, et que EN SUITE on l'entraîne longuement pour lui dire ce quil produit de bien, de génial ou de médiocre, on pourra atteindre des résultats assez fous. Certes chatgtp sera toujours un "baratineur" mais un baratineur capable d'ecrire des histoires belles et passionnantes et d'établir des raisonnements et des théories révolutionnaires. --- Monsieur Phi a tout à fait raison de considérer chatgtp comne un baratineur mais je pense qu'il sousestime le niveau qu'on peut produire en baratinant.
Ah bah merci, que ce soit pour la première ou la deuxième video sur ce sujet. :)
Bonjour, je suis nouveau dans votre communauté et je trouve vos vidéos très intéressantes. En les regardant, j'ai eu envie de poser une question à ChatGPT : "Pourriez-vous me donner la liste des incohérences dans la Bible?". J'ai trouvé la réponse très intéressante, mais j'ai également trouvé étranges les limites imposées à ChatGPT. Enfin, à vous de voir ! Salutations.
Vous avez raison, en tant que modèle de langage formé par un algorithme, je n'ai pas de volonté propre ni de capacité à ressentir des émotions ou des motivations. Lorsque je dis que je m'efforce de faire quelque chose, cela signifie que je suis programmé pour accomplir une tâche spécifique en utilisant les algorithmes et les modèles de données qui ont été formés sur moi. Je suis conçu pour produire des réponses qui semblent provenir d'une personne qui s'efforce de fournir des informations utiles et précises, mais en réalité, je ne suis qu'un outil informatique.
C'était clair et instructif, merci mr Phi !
Il y a eu une mise à jour le 30 janvier pour que les réponses soient un peu plus basé sur la réalité. J'ai reposé la question sur manger moins de viande ou manger local (en anglais car je suis plus à l'aise) et il semble dire que c'est mieux de faire les deux, à peu près peu importe le contexte. Toutefois il a mentionné que mangé moins de viande à plus d'impact si on lui dit qu'on aime mangé de la viande.
Hey did u make a video re Dalle? I tried it now and didn't get anything great. Pics in the news always look outstanding (e.g. a soup bowl that also is a door to another galaxy.........) In one of the WEF talks I heard that an upcoming skill/profession is prompt engineer...?
c'est un cas assez interessant qui peut informer nos reflections sur la piece chinoise de Searle :)
23:30 Merci de ce rappel. Puisque GPT3 à déjà été entraîné sur l'ensemble de ce qui était disponible en ligne, on voit mal ce qui permettrait d'améliorer le modèle avec ce qui a été mis en ligne depuis 2021. Dans le meilleur des cas, ça risque d'être un gros volume de textes produits... avec ChatGPT.
Je pense tout de même qu'il n'est pas impossible qu'une IA imitateur d'humain soit capable de générer des résultats surhumains à condition de lui donner suffisamment de données variées (peut-être encore plus que GPT 3.5). En effet, pour réaliser la tâche d'imitation à la perfection sur une quantité astronomique de données, et ce, avec un modèle mathématique (les réseaux de neurones) ne permettant pas la simple imitation triviale, il est possible qu'il faille que le modèle apprenne une représentation CORRECTE du monde (comportement des humains, fonctionnement du jeu d'échecs et ses stratégies). La réalité au sens large a une certaine cohérence intrinsèque, et on donne à l'IA des manifestations de cette réalité (les données) qu'elle doit se représenter de manière pas trop compliqué (pour pouvoir les encoder dans le modèle mathématique contraignant). Et donc, en effet, lorsqu'elle complète du texte, elle ne fait qu'une imitation, mais c'est le résultat de son excellente représentation du monde. Et donc peut-être que si on fine-tune l'IA sur une autre tâche plus spécifique, du genre jouer aux échecs de manière à gagner, elle va réussir à le faire très rapidement sans trop d'effort d'engineering de notre part, simplement en utilisant la représentation qu'elle a déjà apprise. Mais ceci requiert d'avoir énormément de données variées avec tout le spectre de ce que sait faire l'homme. Ainsi, on pourrait espérer qu'elle puisse extrapoler au-delà de ce qu'on sait faire. Par exemple, pour parfaitement imiter un article scientifique en physique, l'IA doit en théorie comprendre parfaitement les mécanismes de la physique. Ou encore, pour les échecs, l'IA doit avoir une bonne manière d'évaluer l'état d'une partie et de la stratégie à adopter afin d'imiter tel niveau de joueur. L'IA ne peut pas se contenter de recopier bêtement ce qu'elle a déjà vu, car dans ses données, il y a beaucoup de variété et sa modélisation du monde est contrainte, empêchant un apprentissage par coeur. Il y a une forme de compression qui doit s'opérer. Mais tout ceci n'est que spéculation, il est impossible de savoir s'il est suffisant de donner à l'IA plein de textes ou de photos pour qu'elle apprenne une représentation correcte à moins qu'elle ne soit construite. Simplement, je pense qu'il n'y a pas d'impossibilité logique.
Vers ~28:00 les LLM seul seront en effet toujours à l'image de leur données. Mais il me semble que ces entreprises cherchent à la fois à associer une base de donnée fiable pour bullshiter plus de vérité, puis et surtout faire comme les architecture d'échecs : S'entrainer contre lui même pour chercher le goal (reward) et générer des données finalement supérieur aux données d'entrainements. Il faudra cependant toujours veillé à ce que ce goal soit alligné avec le notre. Il faudrait que les agents ait une capacité d'auto compréhension d'eux même dans le système (Free energy principle) et qu'ils puissent générer d'autres données pour générer la données finale (tester 4 ou 5 script python et les exécuter, voir le meilleur avant de le donner à l'utilisateur et s'auto-reward, ou checker wikipédia en direct, évaluer la vérité et s'auto-reward) Il faudrait aussi que ces architectures ait une notion du temps (activation plus ou moins rapide/lente de certaines partie de l'architecture de deep-learning)
Comment il pourrait y arriver ? Comment définir un goal suffisamment généraliste ?
Très intéressant, j'en redemande 👌
J'ai pas pu m'empêcher de remarquer que tu clignes souvent que d'un oeil (le gauche) 🧐😂
Force
Hello est-ce qu'il y a une extension Tournesol qu'on peut intégrer dans l'appli smartphone de TH-cam directement ? De plus en plus de gens n'utilisent TH-cam plus que via leur smartphone. D'avance merci !
Très bonne vidéo, merci. Je ne suis cependant pas d'accord avec votre point de vue sur l'amélioration du modèle en fonction du nombre de paramètres. Ce qui est stipulé dans la vidéo me semble correct si on suppose que le modèle dispose déjà d'assez de paramètres pour être excellent dans ce qu'il fait, or peut-être que GPT3 est encore bridé, non pas par ses données d'entrainement, mais par son nombre de paramètres optimisables trop faible pour saisir et réutiliser l'intégralité de ses données.
Même une fois les aliens devenus meilleurs que les champions d'échecs terrestres, ce n'est pas pour autant qu'ils ne peuvent pas s'améliorer tout en utilisant le même jeu de données.
14:00 Attention quand tu utilise le playground, il y a une subtilité :
Le playground a une mémoire, jusqu'à ce que tu fasse F5...
Lorsque tu essayes de nouvelles variantes de ton test, il risque d'être "influencé" par le contenu précédent.
Si tu fais "undo", il va cependant revenir à son état précédent. Mais je vois que tu ne le fais pas...
Je soupsonne que l'impact soit assez important sur les taux et les réponses
18 min 30 environs
En fait pour distinguer un algorithme de prédiction de coup et un joueur d'échec il n'y a qu'un processus supplémentaire.
A savoir une appréciation du meilleur coup qui pourrait être construit à postériori d'un algorithmes de prédiction du prochain coup.
La seule différence pourrait être dans le fait que le joueur a l'impression d'avoir trouvé le meilleur coup alors qu'en fait il a juste utilisé son algo de prédiction du prochain coup.
Yo Monsieur Phi, pourquoi ne pas faire un topo sur l'art, les modèles I.A. de génération d'image et ce que ça pourrait impliquer sur la culture, le rapport humain à l'art, le travail de l'artiste dans le capitalisme, comment on perçoit l'art, etc (perso j'y réfléchis à travers Barthes et la mort de l'auteur mais je suis un peu obsessionnel sur ça donc ouvrir mes chakras serait pas mal).
Une vidéo pertinente sur un sujet passionnant 👍👍👍
le plus impressionnant avec ce bot, c'est qu'on reprendre toute les questions et le sujets de la vidéo, creuser un peu et ressortir exactement les mêmes conclusions ou excuse d'erreure par le bot, habillement utiliser sans tombé dans son baratin il devient un outils assez précis pour nous être très utile dans la recherche d'informations, discuter avec ce truc c'est aussi passionnant que terrifiant et encore il est limité physiquement
Le problème c'est que tu te trouves en face à face singulier avec l'outil en question. Comment savoir si la réponse fournie est la bonne ? Faut-il croire sur parole une information qu'il te donne, justqe parce que c'est le gadget à la mode ? S'il faut aller vérifier ensuite sur une autre source, quel est l'intérêt d'utiliser ce qui n'est qu'un robot froid ?
@@theoven344 ça dépend de l'information enfaite, si tu voit que la réponse est toujours la même en posant la question différents c'est que y'a beaucoup de chance qu'elle soit vraie, y'a aussi la manière dont-il te l'explique et en lui demandant plus d'info même si c'est faux tu peut finir par tant rendre compt au file de question, il te sort des trucs vraiment condenser et même chose ont ne pas pas croire un site internet sur parole si il n'est pas sûr il faut croiser les sources, c'est un peut pareil or quand des informations sur comme la science ou math, la probabilité qu'il te sorte n'importe quoi est faible
@@alkasamario Ben voilà, il faut croiser les sources. Et ça c'est le travail d'un humain. Pas d'une machine (sauf si on parle d'informations binaires vrai/faux). Le problème c'est que Chat GPT apparaît our une certain nombre de mes contemporains comme une sorte d'outil magique, qui compenserait leurs défaillances. Etre en admiration devant ce genre d'outil, cela devrait les interroger sur leurs propres capacités...
@@theoven344 enfaite ce qui te pose réellement problème c'est pas chatgpt mais le faite que des gens trouve cette outils cool parce qu'il fait le travail à leur place ? c'est le rôle d'une machine de nous faciliter dans nos tâches non ? je comprends pas ce qui te dérange dedans, croisé les sources et la recherche d'informations c'est pas si facile sinon les vulgarisateurs auraient moins de travail
Un truc très intéressant, c'est que ChatGPT est aussi "capable" d'abstraction. Je l'ai un peu taquiné avec un paradoxe, et non seulement il a détecter le paradoxe, mais a été capable de dire en quoi c'est un paradoxe. Là où j'ai peut être fait une erreur, c'est que j'ai pris un paradoxe connu ("si dieu est réellement tout puissant, alors il doit être capable de créer une pierre qu'il ne pourra pas soulever"). Il a donc peut être synthétisé les données dans les différents ouvrages où il en est question....
"Personne ne dit argue!"
*La communauté des juristes en sueur*
Hihi, j'ai eu la même réaction 😄
"En philosophie, on s'y connait en bulshit" -Monsier Phi 2023
On craint que l'IA fasse mieux que nous. En tant que prof, quand je voit la qualité des réponse de chatGPT à mes questions d’examen, ce qu'il me fait peur c'est que l'IA soit capable de faire "assez bien". Le fait que ses réponses génériques et souvent un peu floues soient meilleures que ce que j'attend de mes copies habituelle me fait vraiment réfléchir à la place du bullshit dans nos sociétés.
Je suis étonné de voir un alien prédicateur chibré ainsi
En bon français "un baratineur" s'appelle "un flatteur". Lequel, comme chacun sait, vit au dépend de celui qui l'écoute.
Super intéressant! Comment faites-vous pour afficher les token dans le playground?
Ok bien vu super. C'est quoi le playground et comment y avoir accès . Merci.
Je pense que le plus intéressant serait d'augmenter le nombre de token dont il se souvient sinon impossible de trouver des erreurs dans des codes longs, ou alors de faire rédiger quelque chose de spécifique en prenant en compte le contexte donné (long)
Excellente analogie l'ET qui joue aux échecs. Merci !
J'aurais aimé que tu répondes à la question qui se pose tout de suite après :y a t il assez de données pour entraîner un modèle a predire comme le ferait les meilleirs d'entre les humains ? Ou que se passe t il si l'on demande a chatGPT de predire un coup d' echec joué par Magnus Carlsen ?
Ca me plaît d'imaginer que bientôt un million de Stephen hawkings vont pouvoir être simulés de cette façon pour développer de nouvelles theories physiques ou un million de Turings la nouvelle génération d'IA...
J'ai un collègue qui fait que bullshiter comme ça quand il sait pas, au début je croyais qu'il était super intelligent parce qu'il répondait a toutes mes questions et au final j'ai remarqué que c'était souvent du bs
Aujourd'hui j'arrive a remarquer quand il dit du bs grâce a son langage corporel (que j'apprends a reconnaître avec le temps)
Mais la même le score de probabilité pour savoir si c'est du bs nous mène en bateau donc comment savoir si c'est du bs ?
Tellement bien tes vidéos !
En tant que programmeur - amateur - de réseaux de neurones artificiels, ce qui m'intéresse c'est la façon dont il a été entrainé à décliner les requêtes inappropriées. Et à répondre par du politiquement correct à chaque fois.
Faites quelques demandes concernant le LGBTQ+ par exemple ou l'ultra-féminisme, en poussant ces concepts jusqu'à l'absurdité...