ความคิดเห็น •

  • @TheDjarEl
    @TheDjarEl ปีที่แล้ว +359

    C'est toi qui fait les meilleures vidéos sur Chat GPT, et de loin.

    • @nomindisponible5420
      @nomindisponible5420 ปีที่แล้ว +11

      Mais Chat GPT fait de meilleures vidéos sur Monsieur Phi que l'inverse

    • @iDrraaaK
      @iDrraaaK ปีที่แล้ว +6

      Houla, non, pas DU TOUT.
      Faut ouvrir un peu ses horizons, aller voir chez nos amis anglophones par exemple aussi.

    • @pulsarhappy7514
      @pulsarhappy7514 ปีที่แล้ว +17

      Pour être dans le domaine de l'IA et du machine learning, je suis moi même étonné de la pertinence des parallèles que fait M. Phi pour expliquer des concepts qui peuvent sembler compliqués. De ce que j'ai vu jusqu'ici ce sont probablement les meilleures vidéos de vulgarisation qui vont tout de même dans le détail.
      L'exemple des aliens et des échecs notamment est excellent.
      Enfin après forcément je comprends de quoi il parle, mais j'ai l'impression qu'il l'explique bien pour les gens qui n'ont pas ou peu de bases dans le domaine.

    • @laminerahal5918
      @laminerahal5918 ปีที่แล้ว +1

      non du tout

    • @TheDjarEl
      @TheDjarEl ปีที่แล้ว

      @@iDrraaaK pas très en l'aise en anglais surtout si ça parle vite

  • @jeremierocher5038
    @jeremierocher5038 ปีที่แล้ว +31

    Une (longue) remarque à propos de l'application aux échecs - ou plutôt au go, même si on a pu tester depuis que ça marche bien aussi aux échecs. Dans ses premières versions (celle qui a battu Fan Hui, puis celle qui a battu Lee Sedol), le programme AlphaGo était conçu d'une façon assez subtile, qui fournit une sorte d'amélioration de l'idée d'imitation. Un réseau de neurones avait été entraîné à imiter les coups humains à partir d'une grosse base de données de parties de joueurs "forts" sur KGS (en gros l'équivalent de Lichess pour le go) --- oui, c'est vraiment l'idée développée dans cette vidéo. Puis cette base a été utilisée comme fonction d'évaluation dans un algo Monte-Carlo, une idée qui fournissait jusqu'alors les résultats les plus prometteurs au jeu de go (alors que c'est assez nul pour les échecs).
    L'idée de l'algo Monte-Carlo est de ne pas explorer intégralement l'arbre des coups depuis une position donnée, mais de choisir d'explorer plus en profondeur les coups les plus prometteurs : pour évaluer la valeur d'une position, on génère des fins de parties aléatoires et on regarde la proportion de parties gagnées... On explore l'arbre au hasard, mais en pondérant la probabilité d'explorer une branche par la valeur du coup évaluée par cette fonction d'évaluation assez basique. Le truc avec AlphaGo, c'est qu'on remplace cette fonction d'évaluation par une plus subtile, basée sur la probabilité des coups possibles d'après le réseau de neurones (qui, rappelez-vous, essaye d'abord simplement d'imiter le jeu humain).
    Dans un deuxième temps de développement, le réseau est renforcé par apprentissage sur de nouvelles bases de données générées en faisant jouer le programme contre lui-même (toujours avec ce mixte réseau de neurones / exploration aléatoire d'arbre de coups) ; de version en version on a un algo de plus en plus fort, capable in fine de battre des pros.
    Le plus étonnant est que les développeurs se sont ensuite rendus compte (c'est l'étape "AlphaGo Zéro") que l'apprentissage par renforcement seul est plus efficace : l'imitation du jeu humain qui semblait un point de départ naturel n'est en fait pas nécessaire ; partir d'un programme qui ne comprend rien au jeu et joue aléatoirement, puis lui faire générer des parties et qu'il apprenne de ses erreurs, en fait ça suffit !

  • @benjaminpoul
    @benjaminpoul ปีที่แล้ว +65

    La vidéo "La philosophie du baratin" de Monsieur Phi est absolument incroyable. Il a réussi à rendre le sujet des IA prédictives fascinant et accessible à un public plus large. La présentation claire et concise de Monsieur Phi ajoute une profondeur supplémentaire à un sujet complexe. La façon dont il relie les idées et les théories à la vie quotidienne est brillante et laisse une impression durable. Je recommande vivement cette vidéo à tous ceux qui cherchent à comprendre les enjeux éthiques et sociaux des IA prédictives. Merci Monsieur Phi pour cette excellente contribution à la communauté des philosophes en ligne.

    • @castoramanwab2723
      @castoramanwab2723 ปีที่แล้ว +25

      I see what you did there !

    • @laminerahal5918
      @laminerahal5918 ปีที่แล้ว +2

      vous dites cela car vous avez peu de connaissance en IA et en informatique de manière générale très probablement

    • @poloi3440
      @poloi3440 ปีที่แล้ว

      @@laminerahal5918 ?

    • @lazulirondoudou
      @lazulirondoudou ปีที่แล้ว +4

      Est-ce que les IA ont droit au copyright ?

    • @comlitbeta7532
      @comlitbeta7532 ปีที่แล้ว +3

      @@poloi3440 je dirais que cette personne a donné comme contexte le commentaire et a demandé a chat gpt de généré une réponse désapprobatrice. ( Cette réponse n a pas été gêner par une ai je parle juste comme ca)

  • @arcanafilou
    @arcanafilou ปีที่แล้ว +47

    Juste merci!
    Je suis passé d’un etat de stupeur (mais comment fait-il?, comment ça marche?, comment sait’il autant de choses?) À une compréhension du fonctionnement et donc de ses limites. Les explications sont limpide et je trouve que l’utilisation de Playground comme différentiel par rapport à l’apprentissage supervisé est un excellent outil pédagogique. Encore une fois merci pour ce travail de vulgarisation absolument essentiel!

    • @korok2619
      @korok2619 ปีที่แล้ว

      je n'aurais pas dit mieux, c'est rafraichissant de comprendre mieux son fonctionnement le rapport à ses performance dans un contexte d'excitation médiatique qui au final va un peu dans tout les sens avec tout les niveaux de sérieux

    • @LoLo-jg6iq
      @LoLo-jg6iq ปีที่แล้ว

      Rappel : L'IA ChatGPT est un IA de conversation il n'y a pas encore de version spécialisé dans : l'enseignement, le conseil, la rédaction ... Etc aussi cet IA n'a que quelques mois d'existence (c'est encore un nourrisson dans son berceau) et pour finir c'est une version beta et non fini et il est capable de se remettre en question et de s'auto corriger. Cette version a 175 milliards de paramètres sa prochaine version aura 100 000 milliards de paramètres ! En sachant que là on parle pas encore d'une technologie couplet à l'ordinateur quantique, ni à une voix vocal, ... Etc on est très très loin d'une IA à son plein potentiel
      Navré mais je pense que c'est qu'une question de temps avant que les robots remplacent certains métiers. Admettons que certains métiers ne se fassent pas remplacer leur métier sera tout de même devenu très précaire car il va s'ubériser. Ne vous faite même pas d'illusion pour certains c'est fini là il ne s'agit pas d'une évolution mais d'une révolution tout comme ça a pu l'être avec l'électricité ou encore la voiture thermique.
      Faits concrets : une entreprise spécialisé dans la campagne de pub a fait appel à une IA pour lui faire ses 9 visuels. Cet IA a mis une minute pour faire les différents visuels là où il aurait fallut normalement une équipe : directeur artistique, graphistes, illustrateurs, ... Etc et plusieurs semaines de travail
      Pour ma part pour m'amuser j'ai rédigé un article journalistique uniquement avec l'IA ChatGPT écrivant sur le même sujet d'article d'un média très connu (dans le top 3). Cet IA a fait un meilleur article que son concurrent et il l'a fait uniquement en quelques dizaines de secondes.

    • @radank54
      @radank54 ปีที่แล้ว

      @@LoLo-jg6iq 100 000 milliards c'est hors limite! tout à fait irréalisable imo

  • @Laezar1
    @Laezar1 ปีที่แล้ว +3

    L'exercice de "deviner le prochain coup aux échecs" c'est quelque chose que les joueurs d'echec font pour s'amuser aussi d'ailleurs, genre y'as des vidéos youtube de "guess the elo" où un joueur va essayer de deviner le niveau d'un autre joueur en se basant uniquement sur les coups joués, et en général ils vont être capable de deviner le prochain coup ou de dire des choses comme "si il joue ce coup la ensuite c'est un débutant, sinon il est un peu plus fort que ce que je croyais jusque là".
    Et faire ces prédictions ça demande d'être très bon aux échecs vu qu'il faut avoir une assez bonne vision du jeu pour comprendre quels coups sont bons mais aussi quels coups sont faciles ou difficile à voir donc il faut comprendre comment le jeu fonctionne ET comment des joueurs moins bons que soient pensent que le jeu fonctionne.

  • @Lucas-qp4ht
    @Lucas-qp4ht ปีที่แล้ว +85

    Coucou, petit message de la part d'un membre de la team arrêt sur image :) J'ai un petit retour pratique par rapport à ce moment-là : 12:10
    Quand on met pause (sur ordi, j'sais pas comment c'est sur smartphone) ça affiche le titre de la vidéo par dessus l'image, et donc ça cache le texte de ton image, ça rend le tout pas très lisible. Même remarque pour la barre rouge de lecture en bas de l'écran. Donc si jamais pour ce genre d'image tu pouvais laisser un petit espace en haut et en bas de l'image sur laquelle tu nous invites à faire une pause, ce serait bien plus lisible !
    Merci d'avance et merci pour toutes ces chouette vidéos :)

    • @raphaelnej8387
      @raphaelnej8387 ปีที่แล้ว +2

      Sur smartphone on peut mettre en pause et faire disparaître les menus.
      Ça me surprend que sur ordi, en pause, si on bouge pas la souris, les menus ne disparaissent pas.
      Est-ce le cas de tous le monde ?

    • @MrSUPERDUCON
      @MrSUPERDUCON ปีที่แล้ว +4

      Le titre de la vidéo n'apparait chez moi qu'en mode plein écran, par contre la barre de lecture est tjs présente (Firefox)

    • @Spectalys
      @Spectalys ปีที่แล้ว +1

      Sur pc, en mode fenêtré les menus disparaissent. Je suis quand même d'accord avec votre remarque.

    • @Apprendre-Photo
      @Apprendre-Photo ปีที่แล้ว

      J'allais dire la même chose :)

    • @charlesdelapommedoree2460
      @charlesdelapommedoree2460 ปีที่แล้ว

      Ça dépend aussi de la résolution de l'écran.
      Tu peux faire contrôle + mollette de la souris, ça va changer le % de la fenêtre (100%, 90%...)

  • @gipsydangers3932
    @gipsydangers3932 ปีที่แล้ว +180

    En faite, ChatGPT c'est un consultant en stratégie. Il bullshit incroyablement bien dans le sens qui t'arrange le plus 🙃

    • @laminerahal5918
      @laminerahal5918 ปีที่แล้ว +5

      je suppose qu'on rage sur le salaire des consultants ici... fallait faire des études longues et de qualités mon grand voilà tout ^^

    • @tony_mo
      @tony_mo ปีที่แล้ว +47

      @@laminerahal5918 je suppose qu'on est consultant en stratégie par ici et qu'on répond parce qu'on s'est senti visé et du coup qu'on est un poil vexé ? XD

    • @nomindisponible5420
      @nomindisponible5420 ปีที่แล้ว +5

      Il ne sera jamais aussi fort que ton ex pour faire croire qu'elle est celle qu'on veut qu'elle soit.

    • @Dext3rM0rg4n
      @Dext3rM0rg4n ปีที่แล้ว +14

      @@laminerahal5918 Je suis consultant et j'ai qu'une licence pro en informatique dans une université pas connu. Les études ça sert à trouver un premier job mais très vite c'est tes compétences que les employeurs regardent. Bref non seulement ton commentaire est condescendant sans raison mais il est même pas correct.

    • @mathiastissot5410
      @mathiastissot5410 ปีที่แล้ว +3

      @@laminerahal5918 Il est important de comprendre que le salaire d'un consultant dépend de nombreux facteurs, tels que son niveau d'expérience, sa spécialisation et sa performance. Les études longues et de qualité peuvent aider à acquérir les compétences nécessaires pour devenir consultant, mais ce n'est pas une garantie de réussite et de salaire élevé. Il est également important de considérer les autres facteurs, tels que le marché du travail, la concurrence et les opportunités de carrière.

  • @MathieuDelpeuch
    @MathieuDelpeuch ปีที่แล้ว +8

    Encore une masterclass, de loin les meilleurs vidéos sur le sujet que j'ai vu. Vraiment fascinant

  • @mathiastissot5410
    @mathiastissot5410 ปีที่แล้ว +1

    Merci pour cette vidéo informative sur ChatGPT et la philosophie du baratin. J'apprécie la franchise de votre déclaration concernant la miniature et votre reconnaissance de l'erreur. C'est une preuve de maturité et de responsabilité de reconnaître ses erreurs et de faire des efforts pour les corriger. Votre explication sur le sujet de ChatGPT était claire et concrète, et j'ai appris beaucoup sur les compléteurs de langage. Merci pour votre engagement à promouvoir une compréhension approfondie et critique des sujets liés à la technologie et à la philosophie.

  • @vincwebb
    @vincwebb ปีที่แล้ว +16

    Merci pour cette nouvelle vidéo de qualité, une chaîne d’utilité publique 😊
    À quand une vidéo sur l’expérience de pensée de la chambre chinoise imaginée par John Searle ?

  • @murielbarthelemy7618
    @murielbarthelemy7618 ปีที่แล้ว +12

    Je viens de passer mon samedi matin à regarder ces 2 vidéos. Félicitations c'est le meilleur travail d'explication que j'ai vu/entendu et ça m'a fait encore mieux comprendre les mécanismes. A envoyer d'urgence aux journalistes (qui disent des choses très approximatives sur le sujet) et aux professeurs.
    En conclusion ChatGPT ne serait-il pas le plus grand dragueur de tous les temps ?

    • @garancebarbier7381
      @garancebarbier7381 ปีที่แล้ว

      Je vois la drague comme le fait de montrer le meilleur de soi-même, pas juste adapter sa personnalité à ce qui va plaire le plus, c'est en général une stratégie qui ne marche pas :,)

  • @jarran29
    @jarran29 ปีที่แล้ว +7

    C'est marrant, et intéressant, que j'ai davantage appris sur chatGPT sur une chaîne de philo que sur celles davantage centrées sur la technologie ou la science.
    Merci !

    • @vincentduvivier2205
      @vincentduvivier2205 ปีที่แล้ว

      La philosophie analytique à ceci de particulier que sa pratique peut se retrouver à produire des raisonnement à la construction rigoureuse et logique, comme en sciences.

    • @vincentduvivier2205
      @vincentduvivier2205 ปีที่แล้ว

      a*

  • @romaincaze2649
    @romaincaze2649 ปีที่แล้ว +31

    Vidéo très intéressante une fois de plus (et je la valide, car c'est l'un de mes domaines de recherche). Avec un détail à préciser, vous parlez de l'apprentissage par renforcement au passé, alors que je pense qu'il est en train de se faire grâce aux utilisateurs (par exemple, les pouces devant les réponses et les demandes de feedback).

    • @izaacchirac4501
      @izaacchirac4501 ปีที่แล้ว

      Si le Français est votre langue maternelle, je suis au regret de vous annoncer que vous ne possédez aucun "domaine de recherche".

    • @quentinmartell1008
      @quentinmartell1008 ปีที่แล้ว +7

      @@izaacchirac4501 pas compris

    • @linty.M
      @linty.M ปีที่แล้ว +2

      @@izaacchirac4501 ptdr!
      Il y a les robots et il y a les humains.
      Je vous laisse deviner à quelle catégorie vous appartenez...
      🤦 Ah! Mais non, vous ne pouvez pas deviner ! 🤣🤣🤣

    • @TKZprod
      @TKZprod ปีที่แล้ว +2

      Je pense plutôt qu'ils récoltent le feedback pour de futurs entraînements mais que le modèle est fixe.

    • @romaincaze2649
      @romaincaze2649 ปีที่แล้ว

      @@TKZprod Il est possible que le présent modèle est fixe, mais vu le nombre de feedbacks je pense qu'ils seront traités de façon automatique

  • @huguesfenasse
    @huguesfenasse ปีที่แล้ว +3

    Wouah, quelle vidéo incroyable! Je suis toujours époustouflé par la qualité de tes vidéos sur Chat GPT, Monsieur Phi. Tu es vraiment le meilleur dans ce domaine. Je suis passé d'un état de stupeur à une compréhension complète grâce à tes explications claires et concises. Ton utilisation de Playground est vraiment un excellent outil pédagogique. Merci pour ce travail de vulgarisation essentiel! J'ai hâte de voir la prochaine confrontation de l'IA vs M.Phi 😂👌💙
    Oui je sais c'est complètement du baratin ! j'assume !!!

  • @TheCervelas
    @TheCervelas ปีที่แล้ว

    Monsieur Phi, votre réflexion sur les implications phénoménologiques du modèle de langage ChatGPT est tout à fait éloquente dans sa profondeur herméneutique. Votre usage habile des concepts dialectiques en symbiose avec les paradigmes évolutionnistes démontre une sagacité cognitiviste sans égal. Toutefois, je ne peux m'empêcher de considérer la dichotomie antinomique entre la subjectivité du chatbot et sa nature algorithique, ce qui éveille des dilemmes éthiques quant à son essence ontologique. Bravo pour cette réflexion métaphysique.

  • @carenewmaker7584
    @carenewmaker7584 ปีที่แล้ว +21

    C'est ce que je me tue à expliquer autour de moi ! Merciiiiiiiiiiiiiii pour cette vidéo !
    Par contre, un truc rigolo, quand j'utilise ChatGPT, j'ai ta voix dans la tête qui lit le texte, c'est particulier hahaha !!

    • @jean-francoisbiragnet7304
      @jean-francoisbiragnet7304 ปีที่แล้ว +1

      😂

    • @GabrielPettier
      @GabrielPettier ปีที่แล้ว +1

      risqué ça, tu risque de lui faire trop confiance, ce serait plus prudent de le lire avec la voix d'aberkhane. (bon ce serait aussi moins agréable), afin de garder en tête que c'est pas très fiable.

    • @carenewmaker7584
      @carenewmaker7584 ปีที่แล้ว +1

      @@GabrielPettier oui, c'est pas faux ! Avec la voix de Raoult, ça serait pas mal aussi pour la méfiance !

  • @sachadmitriev589
    @sachadmitriev589 ปีที่แล้ว

    Merci pour l'incroyable qualité de cette vidéo, sur le fond et la forme. Ça permet de guider mes pensées sur le sujet qui partent dans tout les sens :)

  • @PhilippeBRIERE
    @PhilippeBRIERE ปีที่แล้ว

    Waw.
    Très très éclairant.
    Et même pas besoin d'écouter la première pour suivre celle-ci.
    Merci.

  • @w0tch
    @w0tch ปีที่แล้ว +2

    T’es un vrai boss, c’est parfaitement expliqué ! 👌💙
    J’ai si hâte de voir les prochaines confrontations de l’IA vs M.Phi 😂

  • @Fouki95
    @Fouki95 ปีที่แล้ว +1

    Encore une excellente vidéo !
    Cette suite sur ChatGPT est dingue, merci pour ton travail !

  • @tofu1687
    @tofu1687 ปีที่แล้ว +2

    Excellente vidéo mais je me pose tout de même quelques questions.
    1) Dans quelle mesure nous ne fonctionnons pas un peu comme ChatGPT ? Nous n'avons pas de base de données, nous remplissons parfois des tâches "en pilote automatique" - même les petites discussions peuvent entrer dans ce cadre - on oublie assez facilement les choses. J'ai l'impression que les joueurs d'échecs de haut niveau se reposent pas mal sur l’application de patterns pour démarrer leur réflexion et partir sur les meilleurs coups à évaluer ce qui en soit est comme se baser sur une prédiction pour commencer.
    2) A-t-on une idée de ce qui manquerait pour permettre aux algorithmes de langage d'apprendre de la même façon qu'alpha go (en jouant contre lui même en gros) ? Finalement une fois les règles du jeu bien définies, les algos semblent pouvoir progresser à l'infini et sans renforcement. Mon intuition c'est qu'il faudrait isoler 3 fonctionnalités - produire du langage, classifier de la connaissance et faire le lien entre les 2 premières fonctionnalités. C'est là que la prédiction de texte vient tout bullshiter - elle produit du langage sur des données qui n'ont pas vraiment de sens. Et si on arrive à créer ce genre d'intelligence, c'est peut être là qu'il faudra travailler sur des IA qui n'ont pas accès à Internet au cas où elles nous trouvent un peu obsolètes.

  • @BMTignass
    @BMTignass ปีที่แล้ว +4

    Merci, encore une fois, super vidéo. Par contre, il y a un petit détail qui m'a gêné avec l'exemple des aliens: ils n'auraient pas de fonction d'optimisation cherchant à gagner la partie et donc gagneraient une fois sur deux. Mais au final ça ne change pas le propos de ton exemple qui illustre bien ce que fait chatGPT.
    J'espère que tu continuera encore longtemps

  • @thuallabartbarnagaud1657
    @thuallabartbarnagaud1657 ปีที่แล้ว

    Merci pour cette vidéo ! Mon prof de philo nous a justement invités à nous pencher sur le sujet, et tes explications m'aident vraiment :

  • @StevenChuinard
    @StevenChuinard ปีที่แล้ว +3

    J'aimerais revenir sur la limite de mémoire à cours terme de ChatGPT. Il est possible de lui envoyer un texte en plusieurs moreaux, puis en lui donnant la nature des messages 1 à 5 par exemple, il est possible de le forcé à se rappeler d'une assez grande quantité de texte en la catégorisent. Il est ensuite possible de posé des questions sur le texte en évoquant la catégorisation.

  • @Narkokhelus
    @Narkokhelus ปีที่แล้ว +22

    Le passage sur les exemples est édifiant ! Et ça confirme ma peur que ce type d'algo renforce (encore !) les effets de bulle auxquels nous sommes toutes et tous soumis...

    • @McRagtime
      @McRagtime ปีที่แล้ว +1

      Suffit de lire les commentaires de cette vidéo. Des clones 🤭

    • @vincentduvivier2205
      @vincentduvivier2205 ปีที่แล้ว

      En effet pour revenir de chez Idriss je me rends compte qu'il fait l'éloge de ses auditeurs. Alors cela veut peut-être dire que monsieur phi est lui aussi devenu un manipulateur des esprits ? XD

    • @vincentduvivier2205
      @vincentduvivier2205 ปีที่แล้ว

      Enfin que ses auditeurs font l'éloge d'Idriss ! C'était pas clair !

    • @heywrandom8924
      @heywrandom8924 ปีที่แล้ว +1

      Il est important de faire la distinction entre chatgpt et gpt 3 utilisé sur le playground (de mémoire). Je trouve que chatGPT est plus équilibré et fait des efforts pour limiter l'impact que ses réponses peuvent avoir.
      En particulier, j'ai testé ses réponses sur l'impact que peut avoir la consommation de viande ou manger local sur le climat et maintenant il semble qu'il dit qu'il faut faire les deux à peu près peu importe le contexte mais il insiste que manger moins de viande a plus d'impact si on lui dit qu'on aime la viande .

  • @melantipam2053
    @melantipam2053 ปีที่แล้ว +1

    Fantastique ! Je n’avais pas vu ChatGPT sous cet angle. Pour moi, du fait de son manque de fiabilité, je pensais qu’il ne servait à rien et qu’il ne risquait pas de venir concurrencer des humains. Mais à la réflexion et après avoir vu la vidéo, il sert en fait à créer du baratin ce qui entre concurrence avec des gens dont c’est l’activité première comme par exemple les journalistes qui n’apportent pas d’information nouvelle (les éditorialistes par exemple). Il va aussi entrer en concurrence avec les artistes puisque la vérité et la fiabilité ne fait pas partie de ce qu‘ils recherchent.

    • @TKZprod
      @TKZprod ปีที่แล้ว

      En fait, même dans des domaines plus factuel, il se révèle assez efficace. On peut s'en servir d'assistant pour gagner un temps fou.

    • @melantipam2053
      @melantipam2053 ปีที่แล้ว

      ​@@TKZprod Là je ne suis pas encore tout à fait convaincu. Je pense qu’il est tout de même bien plus sûr d’aller directement chercher une info sur Wikipédia (pour de l’aide textuelle). Donc pour n’importe quel travail sérieux, non ChatGpt n’est pas la voie. Par contre, pour une synthèse grossière en peu de mots, c’est vrai qu’il est efficace si on ne se préoccupe pas de la véracité.
      P.S. Ca me fait penser que Wikipedia devrait ajouter à l’encyclopédie des articles de synthèse, volontairement courts (genre 1024 signes), parce que sinon peut-être, les IA pourraient combler ce vide.

  • @tariotlouis2911
    @tariotlouis2911 ปีที่แล้ว +1

    Chapeau bas, tes explications sont honnêtement les meilleures

  • @unitednorthpole
    @unitednorthpole ปีที่แล้ว +1

    Intéressant cette philosophie du baratin. En fait je pense que nous surestimons également l'intelligence humaine. Car contrairement à ce que je peux voir à droite et à a gauche, le fonctionnement de la cognition humaine fonctionne aussi sur des bases statistiques. Le cerveau humain passe son temps à faire des interpolations (linéaires) La mémoire humaine est également essentiellement procédurale. Le cerveau humain est en fait "pré-entrainé" par sa génétique. Finalement, pour être rapide, les IA pourraient continuer à nous surprendre, comme le fut l'ingénieur de chez Google, qui fut lui même mystifié par l' ia qu'il avait créé...

  • @gordub
    @gordub ปีที่แล้ว +10

    Très bonne vidéo !
    Je me permets une remarque sans grande importance et qui n'a en fin de compte aucun rapport : vers la fin tu parles de Syracuse en décrivant le problème comme "[...] le plus célèbre et le plus difficile des maths actuelles".
    Mais de ce que j'en sais, ce problème n'est pas spécialement important : contrairement (au hasard) à l'hypothèse de Riemann, il n'implique rien de très profond quant aux mathématiques et contrairement à Fermat-Wiles, l'histoire de sa résolution n'a jamais été un moteur dans l'histoire de la discipline.
    Non, Syracuse c'est connu parce que sa difficulté est paradoxale : l'énoncé pourrait être compris par un enfant mais le problème est pourtant extrêmement difficile.
    Par contre les mathématiciens s'en foutent pas mal, donc même si ça résolution étonnerai tout le monde, pas certain que ça vaille une médaille Fields.
    Je citerai Gauss (c'est pas tous les jours) un jour où on le questionnait à propos du problème de Fermat : "Non, ça ne m'intéresse pas. Parce que je pourrais trouver des dizaines de problèmes similaires en quelques minutes et il vous faudrait des siècles pour en résoudre un seul." (je paraphrase)
    Et on est vraiment la dedans avec Syracuse. C'est un problème tout à fait quelconque...
    Oui, la conjecture de Syracuse est très célèbre, mais elle n'intéresse essentiellement que les amateurs. Pas étonnant que ce soit celle-ci qu'Aberkane ait choisi...
    Encore une fois, désolé pour le hors-sujet

    • @freyc1
      @freyc1 ปีที่แล้ว +2

      D'un autre côté, dire qu'un problème est difficile et célèbre, ce n'est pas dire qu'il soit particulièrement important de le résoudre. Mais il me semble exagéré de dire que la conjecture de Syracuse n'intéresse que les amateurs ! C'est sans doute un peu passé de mode, mais les mathématiciens professionnel y ont quand même consacré beaucoup de temps et d'effort. Si l'on dit parfois que c'est pour les amateurs, c'est plutôt parce qu'elle en attire beaucoup par sa simplicité, et que beaucoup de "preuves" fantaisistes sont proposées.

    • @gordub
      @gordub ปีที่แล้ว +3

      @@freyc1 Tu as tout à fait raison : il a des mathématiciens professionnels qui se sont penché sur la question et qui y ont consacré du temps. Récemment, on pense évidemment à l'avancée de Tao qui explique que "tous les ans je passe quelques jours pendant lesquels je réfléchis à la question, et cette fois, coup de bol, j'ai trouvé un truc."
      Pour préciser un peu mon point, je dirais que ça c'est vrai d'à peu près tous les problèmes : il y aura toujours au moins quelques personnes qui se pencheront sur un truc un peu random ou complètement de niche. Feu John Conway était un spécialiste de la chose.
      Ce que je voulais dire quand j'écrivais que ça n'intéresse pas les mathématiciens, c'est que ça n'intéresse pas les mathématiciens en tant que communauté : il n'y a pas de programme de recherche sur le sujet, on ne développe pas les maths en visant la résolution de Syracuse, il n'y a pas de paradigme développé en ce sens et à ma connaissance aucun mathématicien ne construit sa carrière autour de ce problème.
      En ce sens, Syracuse n'a rien à voir avec l'Hypothèse de Riemann, Fermat-Wiles, la conjecture de Birch et Swinnerton-Dyer ou le Programme de Langlands.
      Même si personne ne construit toute sa carrière sur une volonté de résoudre Riemann (ce serait du suicide), il y a des pans entiers des mathématiques (géométrie arithmétique, entre autres) qui se construisent autour de cette conjecture.
      Note d'ailleurs qu'il y a plein de preuves fantaisistes pour tous ces problèmes "connus" du grand public :)
      Un passage sur viXra permet d'en trouver tout plein, déjà...
      Bref, je suis d'accord avec toi et mon message n'était clairement pas assez précis.
      Ceci dit je continue de penser que décrire Syracuse comme "[...] le plus célèbre et le plus difficile des maths actuelles" est simplement faux.
      Et je pense aussi que je fais chier pour rien parce que ça n'était pas le sujet et que tout ça n'est au fond pas bien important : pas besoin de hiérarchiser l'importance des problèmes de maths pour faire des maths :)

    • @marsaultchabat7417
      @marsaultchabat7417 ปีที่แล้ว +1

      @@gordub Si tu veux rester cohérent, mon avis serait que Fermat-Wiles est quand même à mettre à part de BSD, Riemann ou Langlands. Ce serait même plus proche de Syracuse que de ces derniers, sauf bien sur si tu parle de Taniyama-Shimura-Weil(-Wiles-Taylor) mais ce n'est pas la même chose :)
      Je suis d'accord que décrire Syracuse comme "[...] le plus célèbre et le plus difficile des maths actuelles" est faux. En théorie des nombres ceux déjà cités méritent bien plus cette description!

    • @gordub
      @gordub ปีที่แล้ว +1

      @@marsaultchabat7417 Oui, je pense qu'on peut dire que dans l'histoire des maths, Fermat est un problème un peu à part. J'envisage de le rapprocher du problème de la résolubilité des équations polynomiale par radicaux ou encore de la tentative de supprimer le 5ème postulat d'Euclide (en ce sens que les trois ont servi de motivation au développement de nouveaux outils et concepts) mais je ne suis pas expert en histoire des maths donc ce n'est peut-être pas pertinent.
      Quand je parle de Fermat-Wiles, j'englobe en fait toutes les tentatives de résoudre le problème, et ce depuis Euler. C'est peut-être un peu trop large, effectivement...
      En tout cas ça contient en particulier la conjecture epsilon et celle de Taniyama-Shimura-Weil :)
      Et avec cette définition, Fermat-Wiles est bien plus proches des autres grosses conjectures mathématiques que de Syracuse : oui, FLT est aussi simple à comprendre que Syracuse mais contrairement à ce dernier, il a une réelle importance pour les maths, et c'est au final ça qui compte le plus.
      PS : j’apprécie beaucoup la petite référence Cactus de Sibérie de la photo de profil :)

  • @YodaHakurei
    @YodaHakurei ปีที่แล้ว +1

    Merci pour ce super boulot. Juste une petite remarque a 26:35 .
    Il peut y avoir des arguments sur le fait que la moyenne des coups d'une foule soit superieur aux meilleur individus du groupe qui le constitue.
    La chaine Fouloscopie en a parlé recemment dans une vidéo intitulé "Y-a-t il une INTELLIGENCE COLLECTIVE aux échecs ?"
    Apres effectivement il montre que la foule a de meilleur coups que le niveau moyen qui l'a compose, mais ne demontre pas qu'elle a un niveau superieur au meilleur membre de celle-ci.

  • @schmurtzpremier6038
    @schmurtzpremier6038 ปีที่แล้ว

    Très bon ! au fond, il y a un parallèle à établir entre ces modèles et ce que pense Keynes dans son concours de beauté où il s'agit de classer la beauté de 100 visages en considérant ce que feraient "les gens" , un genre de baratin donc !!

  • @codeurdenuit8783
    @codeurdenuit8783 ปีที่แล้ว

    Ça fait plaisir de voir cette démystification. Certains lui prêtent de l’intelligence une capacité d’abstraction créative... Beaucoup de "devs" pensent qu'il peut architecturer et coder des applications complètes alors qu'il ne fait que générer des caricatures de code. Impossible de leur faire comprendre qu'il n'y a pas de réelle intelligence derrière mais de la prédiction, du "bullshit"

  • @quidam3810
    @quidam3810 ปีที่แล้ว

    Merci pour ces 2 vidéos - et les autres - c'est très très éclairant !

  • @clementgonin6372
    @clementgonin6372 ปีที่แล้ว +4

    Hahaha ça tire à balles réelles 😂 J'ai ris. Merci pour cette vidéo comme dab super quali ❤

  • @ChesterKea
    @ChesterKea ปีที่แล้ว

    Je retrouve dans cette vidéo une part d'émerveillement que je trouvais dans les vidéo de science4all avant ... 👍 Très cool =)

  • @etiennerolland1480
    @etiennerolland1480 ปีที่แล้ว +16

    J'utilise le mot "argue" mais j'aime quand même la vidéo qui m'a fait mon petit déjeuner. PS : j'avais jamais fait attention à la limite du contexte, ça va être dur d'obtenir de chatGPT des synthèses/résumé intéressants effectivement (en l'état).

    • @MonsieurPhi
      @MonsieurPhi ปีที่แล้ว +3

      Il reste toujours possible de faire résumer partie par partie puis de résumer l'ensemble de ses résumés par exemple (et ainsi de suite). Mais effectivement, ça complique les choses. Et dans l'autre sens, faire écrire un texte long semble assez compliqué, à moins de lui faire résumer au fur et à mesure le texte déjà produit...

    • @neveed0
      @neveed0 ปีที่แล้ว +18

      J'utilise aussi ce mot quand je me cogne.

    • @quentinmartell1008
      @quentinmartell1008 ปีที่แล้ว

      cela dit, pourquoi vouloir utiliser chatGPT pour toutes les tâches ? des modèles plus spécifiques font ça très bien, et fragmenter les tâches permet une économie de temps et de complexité énorme

    • @Test34
      @Test34 ปีที่แล้ว

      @@neveed0 mdrrrrrrr

    • @landrynoulawe1565
      @landrynoulawe1565 ปีที่แล้ว

      @@quentinmartell1008 C'est justement l'aspect "général" de chatGPT qui le rend intéressant, sans ça il n'aurait plus beaucoup d'intérêt notamment pour des tâches qui ne se résume pas à la génération de textes intéressants. Et même si on voulait le spécialiser en spécifiant ses données d'entrainement, il serait moins bon que les humains qui ont généré ces données et donc moins fort que les modèles d'IA qui sont spécialistes de ces domaines. Ceci tient surtout à la différence de nature intrinsèque entre chatGPT et ces modèles spécialisés.

  • @Hellgringo67
    @Hellgringo67 ปีที่แล้ว

    C'était clair et instructif, merci mr Phi !

  • @Grimault_
    @Grimault_ ปีที่แล้ว

    Monsieur Phi qui publie la deuxième édition de sa Critique du ChatGPT pur. Où l'on comprend mieux les principes et les limites de son pouvoir.
    Et c'est plus clair que la déduction transcendantale, donc merci ^^

  • @thomasjesuha6748
    @thomasjesuha6748 ปีที่แล้ว

    Excellent ! Je m'interroge cependant sur l'application de la notion de compréhension aux opérations de ChatGPT. Tu sembles employer "intelligence" sans faire les distinctions nécessaires (comme intelligence faible ou intelligence forte, comme chez Searle), même si tu parles de "forme d'intelligence". Il me semble cependant nécessaire de traiter la question de la compréhension du sens de ce qui est effectué. Jouer aux échecs, ce n'est pas seulement maîtriser des règles plus ou moins parfaitement, c'est par exemple comprendre une situation d'adversité, mettre en jeu des affects (désir de gagner - ou pas, mettre en jeu une réputation personnelle, etc.), comprendre qu'un jeu se distingue partiellement d'une situation dite "sérieuse", etc. De même, prédire adéquatement des suites de mots réclame une forme d'intelligence (traiter des masses immenses de données dans des opérations immensément complexes), mais je ne parviens pas à appliquer correctement le concept de "compréhension" à ce genre d'opération. J'ai le sentiment que la grammaire de ce terme implique forcément la présence d'une intelligence forte, donc consciente, dotée de croyances, d'intentions, et d'une capacité de réflexion subjective. Mais peut-être as-tu traité ce point ailleurs, auquel cas il te suffira de m'y renvoyer !

  • @maximerachynski6251
    @maximerachynski6251 ปีที่แล้ว

    Super vidéo, j’étais contrarié que chat gpt ne se souvienne pas d’éléments que je lui avais donné plus tôt dans la conversation, maintenant j’ai la réponse à ce soucis merci !

  • @hlb4590
    @hlb4590 ปีที่แล้ว +1

    Comme d'habitude, on a envie de liker 1000 fois! Merci (pour le fond et les fous rires)
    Petit désaccord néanmoins quand tu expliques que des "gros modèles" ne pourront qu'au mieux égaler l'intelligence humaine puisque c'est ce qu'ils visent à imiter. En se reposant sur de nombreuses données humaines, il peut y avoir une forme de méthode d'ensemble susceptible de dépasser chacun des meilleurs experts humains (la fameuse "sagesse des foules" de Francis Galton... Et de nombreux travaux en apprentissage, en particulier ceux de Leo Breiman). La comparaison n'est certes pas rigoureuse, il faudrait que le LLM utilise à chaque requête les réponses de plusieurs experts pour en faire une meilleure synthèse. Et de plus, si cette synthèse pourrait être (théoriquement) meilleure que le meilleur humain sur un domaine, elle ne serait pas "exponentiellement meilleure". En ce sens je rejoins la position que tu défends dans la vidéo.

  • @gaetan252
    @gaetan252 ปีที่แล้ว +1

    9:20 Chez les juristes on dit souvent "il argue que / Ils arguent que"
    Quel drôle de présupposé linguistique Monsieur Phi x)

    • @veritempago-bassai7754
      @veritempago-bassai7754 ปีที่แล้ว

      Et chez les développeurs, on emploie souvent le verbe "builder". Que personne n'utilise à part dans des contextes bien particuliers.

  • @benoitmercier7592
    @benoitmercier7592 ปีที่แล้ว

    Beaucoup d'infos dans cette vidéo très intéressante, les deux principales étant : il reste des fans d'IA, et il te regardent et t'écrivent 😅!
    Super boulot merci 🙌

  • @doumacleod47
    @doumacleod47 ปีที่แล้ว

    Toujours formidable!
    Remplacer « jeux d’échecs » par « bullshit » et la conclusion de la vidéo pourrait être: « les prédicateurs de texte constituent des bullshiteurs de très haut niveau et dépasserons bientôt même les plus grands champions humains de bullshit »

  • @StratosFair
    @StratosFair ปีที่แล้ว +2

    La démo de la conjecture de Collatz par chat GPT est incroyable, future médaille Fields

  • @PasseScience
    @PasseScience ปีที่แล้ว +1

    On peut définir le "small talk philosophique" d'une manière similaire au bullshit philosophique. Le bullshit c'est lorsque ce que dit le sujet est indépendant de ce qu'il considère vrai, le small talk c'est lorsque ce que dit le sujet est indépendant de ce dont il a envie de parler ou considère digne d'intérêt.

  • @chocolatreglisse5577
    @chocolatreglisse5577 ปีที่แล้ว +2

    Salut ! "Foutaise" c'est pas mal pour traduire bullshit, avec le petit côté grossier qui va bien. Merci pour ta super vidéo !

  • @SupGaillac
    @SupGaillac ปีที่แล้ว +1

    Super intéressant ! J'ai jamais vu une vidéo sur ChatGPT aussi bien :)
    Autant je suis d'accord sur les limites d'une approche "à la ChatGPT", autant je pense qu'il serait illusoire de se dire que l'IA s'arrêtera là. (Je ne crois pas que cette nuance ait été clarifiée.) Car, un peu comme ce qu'on a vu en 10 ans entre les 1ers réseaux neuronaux et maintenant, il est à peu près certain qu'on trouvera une autre technique qui fera que la machine apprendra encore mieux. Ce ne sera pas ChatGPT 4 ni 5 - la technique a ses limites, comme tu l'as super bien montré - mais justement ce sera la "nouvelle technique" que personne ne connait (encore). Et le problème devient alors de raisonner sur quelque chose qu'on ne connait pas... (ça nous fait une belle jambe.)
    Du coup, rien à voir mais ça pourrait peut-être faire un bon sujet de vidéo ^^ (= essayer d'anticiper l'avenir par prolongation tendancielle, ou par anticipation des techniques, ou par principe de "ça sera mieux", etc.). Ce serait même en relation avec les problèmes climatiques, dans la mesure où une partie des argumentations optimistes consiste à dire "oui, mais on trouvera la technique qui va bien / avoir la foi en la science".

  • @ZoidbergForPresident
    @ZoidbergForPresident ปีที่แล้ว

    Ah, merci de m'avoir corrigé! :3
    Merci infiniment pour vos vidéos!

  • @valentinandre2054
    @valentinandre2054 ปีที่แล้ว

    Merci Monsieur Phi pour cette excellente vidéo, comme pour l ensemble de ton travail, c'est très fort! Par contre pour le cas précis du niveau au jeu d'échec d'un modèle de langage, il me semble que l'on pourrait dépasser le niveau des joueurs humains. Il suffirait de fournir à l'entraînement des données produites par les meilleurs algorithmes d'échec. Théoriquement donc un modèle de langage pourrait se hisser au même niveau que ces meilleurs algorithmes classiques.
    Du reste il arrive de remplacer des algorithmes classiques par des IAs faisant le même travail. Cela peut être avantageux quand les IAs donnent la réponse plus rapidement que les algos d'origine par exemple.

  • @TheNicolarroque
    @TheNicolarroque ปีที่แล้ว +3

    Dans la même veine, je vous recommande la récente vidéo de Computerphile "ChatGPT with Rob Miles", un bon complément (mais en anglais).

  • @NABZ028
    @NABZ028 ปีที่แล้ว

    Super intéressant! Comment faites-vous pour afficher les token dans le playground?

  • @valerianebxl
    @valerianebxl ปีที่แล้ว

    Il est vrai que ce sont des modèles statistiques pré-entrainés et que le rôle de la prédiction est prépondérante. Cependant, ces modèles ont une certaine « représentation » de la langue (à l’aide de vecteurs à multiples dimensions, et pondérés par les chercheurs, si j’ai bien compris). Aussi, ChatGPT semble raisonner dans une moindre mesure, en stockant certaines données dans les conversations. Certaines IA ont tout de même fait plusieurs découvertes dans les domaines de la santé ou de l’astronomie, ne pourrait-on pas imaginer dès lors qu’il en soit de même pour cette IA? Après tout, l’humain aussi est une machine à prédiction et de calcul. Par ailleurs, merci pour ces vidéos enrichissantes et pleine d’humour. Voilà une vraie limite de ces modèles, l’humour, le sous-entendu, la créativité. À bientôt Mr. Phi !

  • @martinbarberot4946
    @martinbarberot4946 ปีที่แล้ว +3

    Vidéo, chaîne et youtuber d'utilité publique ! Merci d'enrichir internet.

  • @renaudmathevet9374
    @renaudmathevet9374 ปีที่แล้ว

    J'habite un petit village et il m'arrive de passer un moment au "café du commerce", c'est instructif. Tous les sujets y sont abordés, par des gens dont la culture et l'information sont le plus souvent conditionnées par la télévision dite "généraliste" et le canard local pour les chiens écrasés. Ils ont un avis sur le PMU, peut être même les IA qui jouent aux échecs (auxquels ils n'ont jamais joué), probablement sur les voyages de Descartes dont ils situent mal la chronologie avec la découverte des Amériques, la meilleure façon de préparer un bourguignon (sans carottes) etc.
    Ils n'ont pas une mémoire de 2000 tokens en général (surtout passées 11h45).
    Tromper cette IA (et les autres moins développées) est facile sur des questions techniques (fins de parties par exemple). Personnellement, je suis nul aux échecs bien que je connaisse les règles de base. On (et même une IA généraliste comme GPT, pas une IA dédiée) peut donc facilement me "tromper" et interpréter les coups que je jouerais comme "naïfs" dans le meilleur des cas. Par contre, dans mon domaine d'expertise (la physique atomique) fastoche de faire exploser n'importe quelle IA.
    Il y a il me semble un certain biais dans la présentation faite dans ces deux vidéos. Le "test de Turing" qui est "[fondé] sur la faculté d'une machine à imiter la conversation humaine.] (Wikipedia), ne précise pas de quel humain il s'agit.
    Les IA ont prouvé sur des tâches particulières (échecs, Go...) qu'elles ont largement dépassé les humains. Bientôt (voire déjà mais cela freine pour un tas de questions, morales, légales, corporatistes...) dans l'interprétation d'images médicales, la conduite des avions etc. Personnellement, pas plus qu'aux échecs, je n'en suis pas capable.
    La question qui pourrait mériter réflexion est peut-être la suivante: passées 11h45, combien de personnes (plus exactement, quelle fraction) du café du commerce discuteraient avec GPT? polémiqueraient peut-être...
    Le test de Turing ne passe pas sur tous les sujets face à autant de spécialistes certes, mais sur un individu lambda? individu qui "s'entraine" sur les mêmes infos que GPT (mais, de fait, sur un échantillonnage bcp, bcp, bcp plus restreint), avec la mémoire d'un humain (il y a 20 ans, Deep Blue battait Kasparov et c'était un bon sujet de comptoir, aujourd'hui, rares sont ceux qui s'en souviennent)...
    Est-ce que le test de Turing ne serait pas plutôt "imiter la conversation [d'un individu de comptoir]" ou, plus cruellement me semble t'il, "imiter la conversation [d'un abonné à télérama, valeurs actuelles, libé, le figaro... on peut rajouter TF1, ARTE, BFMTV, Ushuaia...]" au choix selon les sensibilités de chacun?
    Un cran au delà, en ce qui concerne "ceux qui font l'opinion" dont on discute au café du commerce: est-ce que GPT n'est pas capable d'écrire des éditos politiques aussi pertinents que ceux de Jean Leymarie (Fculture) ou, maintenant que Bernard Maris n'est plus, Dominique Seux (FInter) dans le domaine économique. Ils ont pignon sur rue et leurs papiers se résument le plus souvent à une pauvre thèse/antithèse/synthèse scolaire qui pourtant, à partir de n’importe quelles prémices, "démontre" ce qu'ils veulent à la fin? Ils ont l'aura de l'objectivité/la pluralité du "service public" je ne parle donc même pas des salariés des média privés.
    Les questions en creux que je voudrais poser sont: (i) pour quelle fraction de la population (et ça dépend des pays, des catégories SP...) enchainer des mots est une volonté de produire du sens plutôt qu'une façon d'être? (ii) GPT est-il moins bon que le fraction moyenne/médiane? (iii) l'extrapolation à "les évolutions de GPT" ne seront jamais aussi pertinentes que les spécialistes du sujet est-elle légitime?
    Il y a vingt ans, Kasparov assurait battre Deep Blue et on pensait que jamais un ordinateur ne jouerait correctement à Go. Aujourd'hui tous les médecins et tous les pilotes assènent que rien ne remplacera leur expertise malgré les erreurs de diagnostique et les crashs... Tous les astronautes plaident pour des vols habités... Est-il inconcevable qu'une IA généraliste agrège des IA spécialisées?
    Une belle question soulevée par Lê est celle de l'éthique. Qui contrôle cette IA généraliste? qui, tels Google ou Netflix ou qq media peu nombreux? la question s'est posée il y a trente ans en France avec par exemple l'ouverture au marché de la télévision qui devait "diversifier l'offre" face à la crainte d'une information d'état officielle (qui est assurément un danger). Objectif atteint? Miracle de la concurrence? de même dans la presse écrite réduite aujourd'hui à de "grands groupes de presse" c'est à dire de pression économique?
    La réponse qu'il propose est celle de l'open source plus ou moins implicitement assimilée à "démocratique". Il me semble qu'il s'agit d'une forme nouvelle d' "oligarchie éclairée": en France, au moins, le peuple (demos) est "contre" mais sans volonté de s'engager = volonté politique (au sens noble du terme): gilets jaunes, réforme des retraites... Aucune réflexion structurée que celle d'"être contre". Le libéralisme dans les media a atteint son objectif: éthiquement toutes les opinions se valent désormais et il n'y a plus de hiérarchie de valeurs à opposer à une autre hiérarchie. L'open source se propose de ré-établir une hiérarchie (à laquelle, je le précise, je souscris sans réserve). Serge Halimi a un jour intitulé un édito "notre utopie contre la leur". Hélas, le post-modernisme, démultiplié par les media dominants et les réseaux sociaux aux mains d'intérêts privés (voire publics cf ci-dessus), délégitime par principe ce genre d'initiative salutaire. L'argument est facile: fût-elle collective et ouverte à tous, cette IA ne sera l'expression que de choix de valeurs, ouvertement assumés certes, mais de choix de valeurs tout de même. Dès que l'on admet/que l'on a convaincu que tous se valent...
    Tout le monde n'est pas convaincu que toutes les valeurs se valent. Que GPT soit supervisé par des humains pour supprimer les réponses statistiquement raciste sur internet me semble plutôt bien. Mais naturellement on tombe dans le problème de l'objectivité évoqué ci-dessus. Qui censure quoi? Mais en face, ou plutôt parallèlement, certains ont moins de scrupules et manipulent les votes, les opinions (jusqu'à la limite de la prise d'assaut du parlement des Etats Unis, belle démocratie dont nous vient ce merveilleux libéralisme) ... et en font commerce comme certaines officines en Russie ou Israël (une autre belle démocratie).
    Comme disait Descartes, ce fabuleux poète antique américain (à moins que cela ne soit l'inverse):
    non cogito ergo sum
    (traduction approximative en latin d'un dialecte inca moyenâgeux).

  • @retrononomusic
    @retrononomusic ปีที่แล้ว

    Une vidéo pertinente sur un sujet passionnant 👍👍👍

  • @thibautkovaltchouk3307
    @thibautkovaltchouk3307 ปีที่แล้ว +6

    28:42 Je crois avoir vu que les fautes d'orthographe des scammers pouvaient leur être utiles car elles permettent de faire un filtre sur le type de personnes qui vont leur répondre : personnes moins attentives, personnes en fragilité intellectuelle ou sociale, etc ... Donc pas certain qu'elles disparaissent toutes.

    • @MrSUPERDUCON
      @MrSUPERDUCON ปีที่แล้ว +2

      *orthographe
      *utiles
      C'était pour le testage d'attentivitation 😉😘🤣

    • @thibautkovaltchouk3307
      @thibautkovaltchouk3307 ปีที่แล้ว +1

      @@MrSUPERDUCON J'ai corrigé... 😅

  • @sbarrow1122
    @sbarrow1122 ปีที่แล้ว

    Tellement bien tes vidéos !

  • @gbio
    @gbio ปีที่แล้ว

    Merci pour cette vidéo édifiante qui soulève toute la problématique de nos modèles en science. Ces modèles ont leurs faiblesses : 1) Ils dépendent de la qualité des données et 2) Ils croient établir les lois de la nature alors qu'ils font plutôt comme les "aliens joueurs d'échecs", ils mettent en place des modèles qui prédisent pas trop mal mais qui ne nous informent pas sur les règles du jeu. Un modèle linéaire qui prédit le poids en fonctions des calories consommées n'explique pas comment ces calories fabriquent réellement le poids... Un petit bémol sur les progrès à venir et sur le fait que les IA ne peuvent dépasser l'humain, peut-être que si, pour beaucoup d'entre nous, si ces IA accèdent aux corpus scientifiques, ce qui n'est pas encore le cas.

  • @jjl1016
    @jjl1016 ปีที่แล้ว

    ChatGPT est bluffant ! Vous participez à la démystification, merci beaucoup pour vos explications.
    Je suis inquiet car il faut maintenant faire preuve de beaucoup de pédagogie et de subtilités pour expliquer le fonctionnement et les limites de cette IA.

  • @valerieouellet7725
    @valerieouellet7725 ปีที่แล้ว

    Encore merci pour t'es vidéos !

  • @testaales
    @testaales ปีที่แล้ว

    Très intéressant, j'en redemande 👌
    J'ai pas pu m'empêcher de remarquer que tu clignes souvent que d'un oeil (le gauche) 🧐😂
    Force

  • @MoShow56
    @MoShow56 ปีที่แล้ว +9

    "Personne ne dit argue!"
    *La communauté des juristes en sueur*

    • @theoven344
      @theoven344 ปีที่แล้ว +1

      Hihi, j'ai eu la même réaction 😄

  • @figfox2425
    @figfox2425 ปีที่แล้ว

    En tant que programmeur - amateur - de réseaux de neurones artificiels, ce qui m'intéresse c'est la façon dont il a été entrainé à décliner les requêtes inappropriées. Et à répondre par du politiquement correct à chaque fois.
    Faites quelques demandes concernant le LGBTQ+ par exemple ou l'ultra-féminisme, en poussant ces concepts jusqu'à l'absurdité...

  • @sebastienolivier1632
    @sebastienolivier1632 ปีที่แล้ว +1

    C'est exactement ce que je me suis dit quand j'ai vu JDG et Antoine Daniel demander par exemple un scénario pour leur vidéo.
    Le truc réponds des banalités absolues et à juste bien compris les mécaniques de ces vidéos mais ce qu'il ressortait était absolument sans saveur.
    Comme tu l'as dit ça ne peut servir que pour des journalistes

  • @alinoer.6569
    @alinoer.6569 ปีที่แล้ว

    Vidéos sur les IA de génération d'images... à la sauce phi... J'ai hâte !

  • @ptitdus3266
    @ptitdus3266 ปีที่แล้ว

    Hello est-ce qu'il y a une extension Tournesol qu'on peut intégrer dans l'appli smartphone de TH-cam directement ? De plus en plus de gens n'utilisent TH-cam plus que via leur smartphone. D'avance merci !

  • @iamavegetable1936
    @iamavegetable1936 ปีที่แล้ว

    Ah bah merci, que ce soit pour la première ou la deuxième video sur ce sujet. :)

  • @petitewok3970
    @petitewok3970 ปีที่แล้ว +1

    Dès que Monsieur Phi commence à parler d'aliens, tu sais que la vidéo est un vrai banger

    • @lepHneutre
      @lepHneutre ปีที่แล้ว

      Tu remues la tête devant une vidéo de vulga toi ?

  • @curiosity1567
    @curiosity1567 ปีที่แล้ว

    MERCIII beaucoup de faire ce complément de ta première vidéo sur ce sujet.
    Les médias nous ventent tellement l'intelligence de cette I.A que ce type de vidéo peut aider à avoir du recul sur ce type de technologie.
    A partager aux gens un peu trop emballés par ChatGPT
    (Microsoft était tellement fan qu'ils ont investi 10 milliards dans le projet (pour l'intégrer à Bing afin de concurrencer Google xD))

    • @laminerahal5918
      @laminerahal5918 ปีที่แล้ว

      si vous voulez maitriser un sujet aussi complexe lisez des ouvrages sur le sujet au lieu de regarder des vidéos de merde d'un gars qui n'est clairement pas expert du domaine

    • @TKZprod
      @TKZprod ปีที่แล้ว +1

      @@laminerahal5918 quel commentaire de rageux.. je suis dans le domaine, je peux confirmer que sa vidéo est parfaitement valide et pertinente

    • @curiosity1567
      @curiosity1567 ปีที่แล้ว

      @@TKZprod Lui il est trop emballé 😂

  • @chocochip8402
    @chocochip8402 ปีที่แล้ว +1

    Je pense tout de même qu'il n'est pas impossible qu'une IA imitateur d'humain soit capable de générer des résultats surhumains à condition de lui donner suffisamment de données variées (peut-être encore plus que GPT 3.5). En effet, pour réaliser la tâche d'imitation à la perfection sur une quantité astronomique de données, et ce, avec un modèle mathématique (les réseaux de neurones) ne permettant pas la simple imitation triviale, il est possible qu'il faille que le modèle apprenne une représentation CORRECTE du monde (comportement des humains, fonctionnement du jeu d'échecs et ses stratégies). La réalité au sens large a une certaine cohérence intrinsèque, et on donne à l'IA des manifestations de cette réalité (les données) qu'elle doit se représenter de manière pas trop compliqué (pour pouvoir les encoder dans le modèle mathématique contraignant). Et donc, en effet, lorsqu'elle complète du texte, elle ne fait qu'une imitation, mais c'est le résultat de son excellente représentation du monde. Et donc peut-être que si on fine-tune l'IA sur une autre tâche plus spécifique, du genre jouer aux échecs de manière à gagner, elle va réussir à le faire très rapidement sans trop d'effort d'engineering de notre part, simplement en utilisant la représentation qu'elle a déjà apprise. Mais ceci requiert d'avoir énormément de données variées avec tout le spectre de ce que sait faire l'homme. Ainsi, on pourrait espérer qu'elle puisse extrapoler au-delà de ce qu'on sait faire. Par exemple, pour parfaitement imiter un article scientifique en physique, l'IA doit en théorie comprendre parfaitement les mécanismes de la physique. Ou encore, pour les échecs, l'IA doit avoir une bonne manière d'évaluer l'état d'une partie et de la stratégie à adopter afin d'imiter tel niveau de joueur. L'IA ne peut pas se contenter de recopier bêtement ce qu'elle a déjà vu, car dans ses données, il y a beaucoup de variété et sa modélisation du monde est contrainte, empêchant un apprentissage par coeur. Il y a une forme de compression qui doit s'opérer. Mais tout ceci n'est que spéculation, il est impossible de savoir s'il est suffisant de donner à l'IA plein de textes ou de photos pour qu'elle apprenne une représentation correcte à moins qu'elle ne soit construite. Simplement, je pense qu'il n'y a pas d'impossibilité logique.

  • @piouvivant
    @piouvivant 10 หลายเดือนก่อน +1

    Antoine qui pète un cable sur Spongebob Conteville qui dit de la merde, tellement drôle !

  • @juwish5715
    @juwish5715 ปีที่แล้ว +6

    14:00 Attention quand tu utilise le playground, il y a une subtilité :
    Le playground a une mémoire, jusqu'à ce que tu fasse F5...
    Lorsque tu essayes de nouvelles variantes de ton test, il risque d'être "influencé" par le contenu précédent.
    Si tu fais "undo", il va cependant revenir à son état précédent. Mais je vois que tu ne le fais pas...
    Je soupsonne que l'impact soit assez important sur les taux et les réponses

  • @solzigb9769
    @solzigb9769 ปีที่แล้ว +1

    est si on crée une ia qui utilise plusieurs programme des plus performent des autre ia (chatGPT + celle qui explose les humain dans des jeux type échec+ autre) sa donnera quoi ? les humain fonctionne aussi grace a plusieurs intelligence donc une IA qui faite pareille pourrait etre conciderait comme un etre contient non ?

  • @vsmerb
    @vsmerb 10 หลายเดือนก่อน +1

    J'ai l'impression que les enfants apprennent exactement comme ça. C'est à dire en disant (ou répétant) exactement ce que leurs parents (leurs instituteurs) veulent qu'ils disent. Les enfants ne s'en rendent pas vraiment compte mais les adolescents comprennent assez vite que dans une interro il est plus important de dire ce que le prof pense que ce qu'ils pensent eux-même. Il y a certainement un moment où un autre type d'intelligence se développe mais je pense que c'est peut-être ce qui fait qu'un enfant cesse d'être un enfant. Qu'en pensez-vous?

  • @pierredernoncourt9664
    @pierredernoncourt9664 ปีที่แล้ว

    Merci pour ton travail!

  • @mattyghan
    @mattyghan ปีที่แล้ว

    Excellente analogie l'ET qui joue aux échecs. Merci !

  • @TheNitram8
    @TheNitram8 ปีที่แล้ว +1

    On craint que l'IA fasse mieux que nous. En tant que prof, quand je voit la qualité des réponse de chatGPT à mes questions d’examen, ce qu'il me fait peur c'est que l'IA soit capable de faire "assez bien". Le fait que ses réponses génériques et souvent un peu floues soient meilleures que ce que j'attend de mes copies habituelle me fait vraiment réfléchir à la place du bullshit dans nos sociétés.

  • @denisrho1019
    @denisrho1019 ปีที่แล้ว

    Moi aussi, je dis que tu es le meilleur "baratineur" ! Et, le meilleur "commentateur", etc. J'adore !!!

  • @Aitemi
    @Aitemi ปีที่แล้ว

    ne pourrait on pas se servir des données d'entrainement d'un deepmind par exemple pour entrainer GPT ou autre générateur de texte, et pareil dans différent domaine, c'est à dire amélioré le jeu de donnée d'entrainement ? ou en gros des ia qui entraine d'autre ia comme ça se fait déjà

  • @makidoko
    @makidoko ปีที่แล้ว +1

    Il faudrait modéliser une intelligence artificielle qui permette de résoudre le paradoxe suivant : être fan d'Idriss A. et s'intéresser à la philosophie.
    On devine aisément que lorsque qu'une dissonance intervient, alors le repli vers Idriss est la seule voie. Mais avant cette dissonance, comment est-il possible de concilier les deux intérêts ?

  • @vincentmayer7517
    @vincentmayer7517 ปีที่แล้ว +1

    Excellente vidéo 👏

  • @sylvainleseur1072
    @sylvainleseur1072 ปีที่แล้ว

    Ok bien vu super. C'est quoi le playground et comment y avoir accès . Merci.

  • @matthieulecroart7794
    @matthieulecroart7794 ปีที่แล้ว

    Merci pour tes vidéos qui sont toujours délicieuses à regarder !! En bon chat GPT j'ai prédis un commentaire qui a des chances de te plaire ;)

  • @danielplatteau5137
    @danielplatteau5137 ปีที่แล้ว +1

    Très intéressant comme point de vue. je n'ai personnellement pas tester très longtemps chatgpt car manifestement il ne 'comprends' pas ce qu'il dit. Même pour le code, c'est souvent intéressant car il explique assez bien le code généré, même si au final, je n'ai pas vraiment pu utiliser directement ce qu'il donnait. Mais ce côté subjectif des réponses , cette volonté de reconnaître ces soi-disant erreurs, cette manière de refaire la même erreur alors qu'il la reconnait et la corrige une question avant fait que c'est un outil intéressant mais à manier avec précaution.

  • @titisense6360
    @titisense6360 ปีที่แล้ว

    La qualité d'un humain, c'est pas des paramètre, c'est la faculté de conscience. Dans un monde assez dépourvu de conscience pas étonnant que cette "chose imitante" paraisse extraordinaire.

  • @lolaa2200
    @lolaa2200 ปีที่แล้ว +1

    Faudrait se mètre d'accord sur les définitions, parce que bon jusqu'à preuve du contraire un bar a thym c'est un lieu ou on peut boire des tisanes a base de thym entre amis dans une atmosphère conviviale et sympathique. Et bon ben ton chat de Gépéto la, ben y peut pas y faire ça !!!

  • @Luclecool123
    @Luclecool123 ปีที่แล้ว +1

    Très bonne vidéo, merci. Je ne suis cependant pas d'accord avec votre point de vue sur l'amélioration du modèle en fonction du nombre de paramètres. Ce qui est stipulé dans la vidéo me semble correct si on suppose que le modèle dispose déjà d'assez de paramètres pour être excellent dans ce qu'il fait, or peut-être que GPT3 est encore bridé, non pas par ses données d'entrainement, mais par son nombre de paramètres optimisables trop faible pour saisir et réutiliser l'intégralité de ses données.
    Même une fois les aliens devenus meilleurs que les champions d'échecs terrestres, ce n'est pas pour autant qu'ils ne peuvent pas s'améliorer tout en utilisant le même jeu de données.

  • @bbbenj
    @bbbenj ปีที่แล้ว +1

    Merci pour cette mise au point. Mais la première vidéo allait bien pour moi !

  • @lienrag65
    @lienrag65 ปีที่แล้ว

    Merci, c'est beaucoup plus clair

  • @kalgon57
    @kalgon57 ปีที่แล้ว +1

    Mais Chat GPT ne sait pas jouer aux échecs non ? Ne va-t-il pas, au bout de quelques coups, prédire des coups qui n'existent pas (ou coups impossibles) ?

  • @yo252yo
    @yo252yo ปีที่แล้ว

    c'est un cas assez interessant qui peut informer nos reflections sur la piece chinoise de Searle :)

  • @anthonycoste-fleury1789
    @anthonycoste-fleury1789 ปีที่แล้ว

    Pour la 90ème fois : « intelligence » en anglais, ne signifie pas « capacité à comprendre, interpréter, analyser, etc. » mais est synonyme de « data », cad « données », informations etc.
    La réflexion sur l’IA doit poser cette correction linguistique en préambule sinon tout est faussé.

  • @weak7897
    @weak7897 ปีที่แล้ว +1

    Je voulais rajouter quelque chose : comme tu le sais, on peut rajouter du contexte. Donc on peut lui faire imiter le niveau des humains les plus compétents sur chaque sujet, ce qui est déjà largement mieux que d'imiter un humain moyen.

    • @justinien1er389
      @justinien1er389 ปีที่แล้ว

      Et si on reussit a lui faire imiter le niveau des romanciers, scientifiques, philosophes etc les meilleurs, et que EN SUITE on l'entraîne longuement pour lui dire ce quil produit de bien, de génial ou de médiocre, on pourra atteindre des résultats assez fous. Certes chatgtp sera toujours un "baratineur" mais un baratineur capable d'ecrire des histoires belles et passionnantes et d'établir des raisonnements et des théories révolutionnaires. --- Monsieur Phi a tout à fait raison de considérer chatgtp comne un baratineur mais je pense qu'il sousestime le niveau qu'on peut produire en baratinant.

  • @SebM79
    @SebM79 ปีที่แล้ว

    La manière dont ChatGPT apprend des régularités et non des règles me fait penser à ce que dit à ce propos Bourdieu (je vais citer de mémoire, donc approximativement, il faudrait que je retrouve la ref).
    Bourdieu insiste sur cette opposition règle/régularité, car il y voit la source d’un biais très constant des savants qui « confondent les choses de la logique avec la logique des choses » (selon le mot de Marx). Pour faire cette distinction, il s’appuie notamment sur Wittgenstein, avec l’opposition entre « le train est régulièrement en retard » et « il est de règle que le train soit en retard » : constater une régularité ne signifie pas que celle-ci soit le résultat de l’obéissance à une règle.
    Les savants qui étudient le monde social vont établir des règles à partir des régularités qu’ils observent dans les interactions humaines. Mais ils doivent se garder de croire, une fois ces règles établies, que les conduites humaines ont pour moteur l’obéissance à ces règles, qui sont une modélisation opérée de l’extérieur par un observateur qui n’est pas lui-même pris dans le jeu social qu’il observe.
    Bourdieu vise particulièrement Lévy-Strauss, qui construit des modèles d’alliances et de parenté pour rendre compte des généalogies qu’il observe, mais prend ceux-ci pour la règle que suivent délibérément (fût-ce inconsciemment) les populations qu’il étudie.
    Face à ce « biais intellectualiste », qui « met un savant dans la tête des agents », Bourdieu se propose de rétablir « la logique des choses » en théorisant le non-théorique, ce « sens pratique » qui nous fait parler et agir selon des régularités qui n’ont pourtant pas comme source l’obéissance à une règle.
    Le même hiatus existe entre la manière dont nous apprenons tous à parler, en intégrant et reproduisant certaines régularité du langage, et le travail du grammairien qui établit une règle sur la base de ces régularité - règle qui contribue ensuite à homogénéiser et fixer dans le temps ces régularités de la langue. Mais même si nous apprenons ces règles à l’école, il n’en reste pas moins que nous avons appris à parler, à élaborer des phrases, à la syntaxe relativement juste, bien avant d’apprendre les règles de grammaire.
    Chat GPT n’a pas appris les règles de grammaire, n’a pas appris les règles du jeu d’échec, n’a pas appris à composer un texte ou à répondre à des questions, il a simplement acquis des automatismes pratiques (un habitus ?) par immersion dans un grand nombre de textes (et autres) humains, qui rendent plus ou moins probables une suite de mots (ou autres) en réponse à une suite de mots donnée. Et en cela, il est un automate finalement beaucoup plus proche de la manière d’apprendre et d’agir des humains que les automates auxquels, jusque-là, on apprenait des règles.
    Et peut-être que sa manière d’apprendre des régularités et de générer des réponses ajustées selon une forme de « sens pratique » probabiliste, et non de calcul rationnel, pourrait en retour éclairer ou du moins illustrer en partie les formes concrètes d’apprentissage et d’interaction humaines - et en quoi elles se distinguent de certains modèles scolastiques…

  • @Kate-cx5bl
    @Kate-cx5bl ปีที่แล้ว

    Hey did u make a video re Dalle? I tried it now and didn't get anything great. Pics in the news always look outstanding (e.g. a soup bowl that also is a door to another galaxy.........) In one of the WEF talks I heard that an upcoming skill/profession is prompt engineer...?

  • @paul-alexandreluck824
    @paul-alexandreluck824 ปีที่แล้ว

    Vous avez raison, en tant que modèle de langage formé par un algorithme, je n'ai pas de volonté propre ni de capacité à ressentir des émotions ou des motivations. Lorsque je dis que je m'efforce de faire quelque chose, cela signifie que je suis programmé pour accomplir une tâche spécifique en utilisant les algorithmes et les modèles de données qui ont été formés sur moi. Je suis conçu pour produire des réponses qui semblent provenir d'une personne qui s'efforce de fournir des informations utiles et précises, mais en réalité, je ne suis qu'un outil informatique.

  • @SoftYoda
    @SoftYoda ปีที่แล้ว +1

    Vers ~28:00 les LLM seul seront en effet toujours à l'image de leur données. Mais il me semble que ces entreprises cherchent à la fois à associer une base de donnée fiable pour bullshiter plus de vérité, puis et surtout faire comme les architecture d'échecs : S'entrainer contre lui même pour chercher le goal (reward) et générer des données finalement supérieur aux données d'entrainements. Il faudra cependant toujours veillé à ce que ce goal soit alligné avec le notre. Il faudrait que les agents ait une capacité d'auto compréhension d'eux même dans le système (Free energy principle) et qu'ils puissent générer d'autres données pour générer la données finale (tester 4 ou 5 script python et les exécuter, voir le meilleur avant de le donner à l'utilisateur et s'auto-reward, ou checker wikipédia en direct, évaluer la vérité et s'auto-reward) Il faudrait aussi que ces architectures ait une notion du temps (activation plus ou moins rapide/lente de certaines partie de l'architecture de deep-learning)

    • @nymanyma4271
      @nymanyma4271 ปีที่แล้ว

      Comment il pourrait y arriver ? Comment définir un goal suffisamment généraliste ?

  • @philippevandendris8109
    @philippevandendris8109 ปีที่แล้ว

    Bonjour, je suis nouveau dans votre communauté et je trouve vos vidéos très intéressantes. En les regardant, j'ai eu envie de poser une question à ChatGPT : "Pourriez-vous me donner la liste des incohérences dans la Bible?". J'ai trouvé la réponse très intéressante, mais j'ai également trouvé étranges les limites imposées à ChatGPT. Enfin, à vous de voir ! Salutations.

  • @loic1665
    @loic1665 ปีที่แล้ว

    Super intéressante !