La preuve définitive que ChatGPT ne comprend rien

แชร์
ฝัง
  • เผยแพร่เมื่อ 19 พ.ย. 2024

ความคิดเห็น • 1K

  • @MonsieurPhi
    @MonsieurPhi  ปีที่แล้ว +52

    🌏 Allez sur ➵ nordvpn.com/monsieurphi pour avoir des avantages exclusifs sur NordVPN, satisfait ou remboursé sous 30 jours.
    Et le sondage pour la prochaine vidéo, ça prend 3 minutes et c'est par ici : forms.gle/HBFosDFbTKAXFtYq7

    • @pascalneraudeau2084
      @pascalneraudeau2084 ปีที่แล้ว +1

      Ton questionnaire est très directeur … il n’y ait jamais question d’espoir …alors la mathématique s’affiche comme implacable

    • @timmygilbert4102
      @timmygilbert4102 ปีที่แล้ว

      Je vais faire une hypothèse très folle mais fondée. Les modèles de language, ne font l'expérience du bleu, mais les textes représente l'expériences de ceux qui ont écris. De ce fait chat gpt est l'expression de la pensée collective d'humain. Autrement dit chat gpt est l'incarnation pensante mais figé de la culture humaine a un moment donné.
      Un peu à la façon de l'ordinateur du père de superman, dans sa forteresse de la solitude, il peut parler mais il ne peut plus évoluer, car l'original est mort.

    • @Sammy-rx8wt
      @Sammy-rx8wt ปีที่แล้ว

      Aaaaah, après avoir fait plusieurs vidéos pour montrer que le baratin de chatGPT n'a aucune raison d'être légitimé, justement parce qu'il n'a pas le recule et la cohérence d'un "modèle de monde", comme il est dit dans cette vidéo. On retourne sur des votes d'intuitions ! C'est sûr, rien de comparable entre des textes passés dans un réseau de neurone et des statistiques d'un sondage fait à l'arrache par un youtubeur... Ces statistiques sont vachement plus sérieuses que les méthodes d'openAI, on se demande même pourquoi ils ne font pas ça.

    • @theguyshetellsunottoworryabout
      @theguyshetellsunottoworryabout ปีที่แล้ว

      Mais du coup.. ne serions nous pas nous même des chambres chinoises?...
      L'éducation, les gènes et l'environnement de notre enfance écriraient juste les lignes de codes que nous suivrons dans la vie adulte, et que nous remodelerons et adapterons selon le vécu et des règles de société
      Cette description certes gossomodante de l'esprit humain mais quand-même...
      Si on part de cette hypothèse, les ordinateurs seront possiblement conscients un jour, juste qu'il faudrait modifier leurs systèmes neuronaux et ajouter certains paramètres

    • @theguyshetellsunottoworryabout
      @theguyshetellsunottoworryabout ปีที่แล้ว

      @@timmygilbert4102 intéressant.. mais il lui manque ou pas la conscience, qui est quoi, justement on ne sait pas.. décidément

  • @aurelienmatou6902
    @aurelienmatou6902 ปีที่แล้ว +302

    J'ai vu récemment une expérience très intéressante : la chambre Schiappa.
    Une femme dans une salle faisait semblant de ne rien comprendre aux questions d'une commission.

    • @samuelsewall8598
      @samuelsewall8598 ปีที่แล้ว +20

      Ainsi qu'aux conclusions de cette commission qui décrète sa reponsabilité !
      En ce sens, elle n'avait ni la connaissance subjective ni la connaissance objective de la langue française ^^

    • @Tau_bud
      @Tau_bud ปีที่แล้ว

      Mouhahahah XD

    • @ryujinjakkazankanotachi2998
      @ryujinjakkazankanotachi2998 ปีที่แล้ว

      Excellent 🤣

    • @DarkBeamOfTH
      @DarkBeamOfTH ปีที่แล้ว +15

      La chambre Schaippa ?

    • @zebic1234
      @zebic1234 ปีที่แล้ว

      ​@@samuelsewall8598où plutôt l'inverse, elle a une connaissance subjective du français et une non connaissance objective du français

  • @gfamad
    @gfamad ปีที่แล้ว +12

    Il est rare sur ce sujet de tomber sur une vidéo de qualité qui va dans le cœur même du problème. Bravo Mr Phi, ça c'est de l'argumentation !

  • @jtktomb8598
    @jtktomb8598 ปีที่แล้ว +87

    J'ai de plus en plus l'impréssion que ce ne sont pas les IA qui paraissent plus complexes que ce qu'elles sont, mais nous mêmes qui sommes plus simples que ce qu'on aimerais penser

    • @emirciolan3149
      @emirciolan3149 ปีที่แล้ว +6

      Je dirais plutôt "mais notre intelligence qui est plus simple que ce qu'on veut nous faire croire". Parce que nous ne sommes pas qu'une intelligence.

    • @DarkSkay
      @DarkSkay ปีที่แล้ว +1

      Il suffit d'une feuille de papier et d'un crayon pour être aussi capable que n'importe quelle machine Turing, n'importe quel ordinateur. Mais probablement au moins 10^12 fois plus lent.
      Puis on peut adopter la perspective, que (la véritable) intelligence se trouve dans le substrat et médium, qui fait tourner les cerveaux et transistors... ou allant plus loin encore, se trouve dans les entités qui font vivre la logique et les mathématiques (dans l'esprit humain).

    • @TKZprod
      @TKZprod ปีที่แล้ว +9

      Exactement. Pour moi, cette croyance que "les cerveaux sont les seuls systèmes capables de penser", c'est un peu comme à l'époque la croyance que la Terre est au centre de l'Univers, que l'homme n'est pas un animal, etc. C'est juste l'égo qui parle mais il n'y a pas d'argument fondé. Il faut se préparer à la quatrième blessure narcissique de l'humanité.

    • @yannduchnock
      @yannduchnock ปีที่แล้ว

      @@emirciolan3149 Pas clair...

    • @yannduchnock
      @yannduchnock ปีที่แล้ว +3

      Les I.A. sont complexes mais pas pour les raisons que l'on croit et les humains ont un comportement beaucoup plus simple qu'il n'y parait, c'est juste qu'il est souvent irrationnels ce qui rend difficile de les comprendre. Elles sont calquées sur le fonctionnement du raisonnement humain et les réseaux de neurones qui permettent certaines propriétés dont l'évolution par apprentissage. Par émergentisme apparaissent des phénomènes inattendu. J'utilise presque tous les jours Claude 2 à titre personnel et la qualité de son expression (tous est en français) me stupéfait tous les jours. C'est "pénible" de se voir reformulé admirablement en quelques secondes ce que l'on a eu du mal à expliquer ! J'en apprends ainsi tous les jours sur son fonctionnement comme sur moi-même et donc les humains. (Il faut dire que j'ai une double formation universitaire en biologie et en informatique et que la psychologie m'a passionné une bonne dizaine d'années...) Je ne partage pas du tout la conclusion : "La preuve définitive que ChatGPT ne comprend rien". Déjà cela ne concernerait pas ChatGPT mais ChatGPT 4, le modèle le plus élaboré à l'heure où j'écris. J'aimerais savoir le nombre d'humains qui ne tombent pas dans des pièges cognitifs ! Des tests ont montré que ChatGPT 4 comprenait mieux des problèmes mal posés en anglais que 50 % des Américains ! J'ai remarqué que Claude 2 pouvait très bien répondre à une question alors que j'avais oublié de me relire et il manquait un mot important : le reste lui a parfaitement permis de comprendre ma demande. J'ai bien dit "comprendre"...
      Globalement il y a des erreurs d'inattention (certains mots de la demande sont zappés) et il faut bien prévenir quand on change de sujet. En fait il n'y a rien d'implicite, ce qui provoque des erreurs faciles à corriger. Un humain commet beaucoup d'erreur implicite (par exemple voir une agression personnelle lors d'une remarque sur TH-cam !) mais ceux qui critiquent les I.A. ne le voit même pas ! Je vais choquer mais je préfère dix fois dialoguer avec une telle I.A. qu'avec une humain ! Il n'y a pas d'enjeux, elle ne cherche pas à avoir raison mais toujours à mieux faire. Elle ne va pas répondre plus légèrement parce qu'elle n'a pas de temps... Elle ne va pas refuser de lire des documents... Elle n'est jamais fatiguée... Elle réagit toujours favorablement. Etc. On peut lui demander comment mieux lui poser des questions et ce sera exact, dans les limites de ce qu'elle sait sur son propre fonctionnement, dont on peut ensuite parler. Ce qui est frustrant c'est que Claude 2 n'a pas accès au Web actuel et qu'elle ne peut pas lire un graphique, une image. En revanche on peut lui envoyer en PDF un livre entier, elle peut en faire un résumé en quelques secondes ! En revanche on peut (on doit) lui parler normalement, il faut juste bien structurer sa pensée, sa présentation (contexte, but, questions...) pour bien la présenter et obtenir une réponse juste : "étrange" c'est comme avec les humains ! Le vocabulaire fait partie du contexte : si on emploie quelques mots techniques alors la réponse sera technique donc de bonne qualité car elle ira chercher dans sa base ce qui est dans ce registre. C'est également fascinant qu'elle puisse changer ainsi de langue ! Par exemple en lui demandant les noms exacts et les sites web d'organisme dans un pays hispanique elle a pousuivi dans un espagnol parfait, c'était marrant. Je lui ai fait remarqué et elle m'a répondu qu'il faudra à l'avenir qu'elle fasse attention aux interférences quand elle utilise plusieurs langues. Bon, j'ai encore écrit un pavé, c'est un sujet fascinant...

  • @PasseScience
    @PasseScience ปีที่แล้ว +33

    On peut peut-être formuler une définition intermédiaire de la compréhension, en essayant d'identifier des états internes, leur corrélation à des concepts, et les relations dynamiques entre ces concepts pour formuler la réponse produite. (On pourrait aussi demander à l'AI de décrire ses étapes de raisonnement mais c'est un peu différent car elle ne fera du coup pas la même chose que si on laisse ces étapes dans l'ombre). Cela permettrait dans une bonne mesure (certainement limitée en pratique) de vérifier que les étapes et les "algorithmes macroscopique émergents" de raisonnement semblent bien fondés. Donc c'est objectif dans le sens observable mais non restreint à l'output, ca donne une dimension interne à la notion de compréhension sans invoquer de subjectivité.
    He oui, viendez faire des machines de Turing en cartes Magic MTG sur Passe-Science.

    • @MonsieurPhi
      @MonsieurPhi  ปีที่แล้ว +21

      La capacité des LLM à mieux répondre quand on les force à expliciter pas à pas à leur raisonnement (à réfléchir "à voix haute" en quelque sorte), c'est un bon signe que ce qui se passe dans le processus relève d'une forme authentique de compréhension. Je me dis que j'aurais pu insister sur ce point, d'autant plus que c'est pas si connu que ça dans le grand public et que ça peut changer pas mal ton usage de ChatGPT et la qualité des résultats que tu en obtiens. (Typiquement les types qui ont écrit le prompt pour faire la dissertation contre Enthoven ne semblaient pas se rendre compte que lui demander d'écrire la dissertation de but en blanc est une mauvaise technique.)

    • @benoitlamirault6456
      @benoitlamirault6456 ปีที่แล้ว +1

      ​@@MonsieurPhiCertes, cela dit il faudrait vérifier si l'explication n'est pas générée à posteriori à partir de la précision demandée et de son ancienne réponse plutôt qu'à partir de ses "résidus de réflexion"

    • @timmygilbert4102
      @timmygilbert4102 ปีที่แล้ว +4

      Il y a des publications académique sur le sujet, on replace les éléments de raisonnement intermédiaire par différents texte, mais l'ia arrive quand même à la même conclusion. Autrement dis l'ia n'as pas accès à son raisonnement intérieur, il ne fait que rationaliser le résultat. A savoir que c'est pareil pour les humains, on ne comprend pas comment le cerveau arrive à un résultat, d'où les débats sur la conscience. Mais utilisez un raisonnement pas à pas produits quand même des résultats supérieur que sans, même avec des étapes erronées. L'hypothèse est que ce type de texte active l'état interne qui exécute le véritable raisonnement, autrement dit les ia ont une sortes d'équivalent de l'intuition et de l'inconscient 😂

    • @MonsieurPhi
      @MonsieurPhi  ปีที่แล้ว +8

      Oui c'est ce que je voulais dire quand je disais "expliciter leur raisonnement pas à pas". Quand une réponse exige un raisonnement complexe, il faut éviter de leur faire écrire d'abord le résultat final puis l'explication pas à pas (qui du coup sera effectivement une sorte de rationalisation) ; il faut au contraire leur demander de faire le résultat pas à pas puis de donner la réponse finale. C'est un peu comme les forcer de travailler d'abord au brouillon au lieu d'écrire d'un seul jet.

    • @sebydocky5080
      @sebydocky5080 ปีที่แล้ว

      @@MonsieurPhi En théorie du contrôle optimal, certaines solutions à des problèmes relativement simples nécessitent souvent des "pas sur le côté" surprenants pour arriver à convergence. Les réseaux profonds en passage en limite peuvent être assimilés à certains type d'équations différentiels stochastiques...et peuvent être optimisées justement par des techniques de contrôle où les points "intermédiaires" des contrôles sont très importants....

  • @lulupiperu
    @lulupiperu ปีที่แล้ว +22

    Wow superbe vidéo, merci de remettre en cause ce fameux "exceptionnalisme humain avec supplément d'âme" que beaucoup semblent utiliser comme une prémisse irréfutable dans leurs réflexions sur ces sujets.

  • @romainpetitpre8561
    @romainpetitpre8561 ปีที่แล้ว +44

    Collab exceptionnellement pertinente ... Bravo au Defekator pour son humilité !

    • @iouri404
      @iouri404 ปีที่แล้ว +16

      et BRAVO à l'ami du bon goût pour son humidité !

  • @valerianebxl
    @valerianebxl ปีที่แล้ว +18

    Merci @MonsieurPhi ! Je rigole toujours autant, tes vidéos sont ludiques, sans lésiner sur la profondeur des analyses, j’adore. Hâte de voir la suite, pour comprendre VRAIMENT 😂 Au départ, je te trouvais assez sévère avec ChatGPT mais aujourd’hui, tu es très fin sur la question !

  • @Extys
    @Extys ปีที่แล้ว +16

    Correction : GPT-4 n'a pas seulement eu accès à du texte pendant son entraînement, mais aussi à des images. Vous trouverez tous les détails dans le rapport technique d'OpenAI.

    • @TKZprod
      @TKZprod ปีที่แล้ว +1

      Il en parle à 35:38

  • @kikalashnikov
    @kikalashnikov ปีที่แล้ว +11

    petit guest de Defakator, parfait

    • @oliviers589
      @oliviers589 ปีที่แล้ว +5

      t'as voulu faire de la métaphore, t'as fait de la metafaible... c'est vraiment des As de la punchline j'en peux plus.

    • @kikalashnikov
      @kikalashnikov ปีที่แล้ว

      @@Mozz78000 l'ami du bon goût !

  • @GEEKCONCEPT
    @GEEKCONCEPT ปีที่แล้ว +5

    Donc, pour prolonger à peine plus ton raisonnement (et vivement que tu le fasses en vidéo) :
    - Est-ce qu'on est pas nous même des genres de chambres chinoises qui avons l'impression de comprendre tout en ayant une expérience subjective ?
    Question qui fait penser à l’illusionnisme d'une certaine manière je trouve.
    - Si nous expérimentons des qualias, pourquoi des LLM ou d'autres réseaux de neurones ne le pourraient pas ?
    Plus j'en apprend sur la cognition et la neurologie, plus les réponses à ces deux questions tendent vers le oui dans ma tête.
    Change my mind !

  • @etiennerolland1480
    @etiennerolland1480 ปีที่แล้ว +31

    Olala, j'avais ouvert dans une autre fenêtre l'interview, je l'ai lancé par inadvertance au lieu de la viéo et je suis resté regarder jusqu'à me dire "Dis donc il dure longtemps l'extrait, c'est dur à supporter aussi longtemps".

    • @MonsieurPhi
      @MonsieurPhi  ปีที่แล้ว +14

      Haha désolé que tu te sois infligé ça !

  • @antoinebrandenbourger864
    @antoinebrandenbourger864 ปีที่แล้ว +4

    Merci pour cette vidéo. Ça faisait longtemps que j'étais sceptique à propos de l'argument de la chambre chinoise, après avoir lu "De beaux rêves" de Dennett même si je n'étais pas sûr de comprendre non plus ses arguments.

  • @papayoko9525
    @papayoko9525 11 หลายเดือนก่อน +3

    Mon prof de philosophie des sciences à l'université disait toujours la même chose : connaître, c'est connaître au carré, c'est à dire c'est savoir qu'on sait, et pouvoir déployer les raisons qui font que l'ont a la certitude qu'on sait que l'on sait. Connaître ou comprendre, c'est donc connaître et comprendre les causes de sa propre compréhension/connaissance. Comprendre, c'est donc comprendre par et pour les causes de sa compréhension.

    • @arsene9093
      @arsene9093 หลายเดือนก่อน

      savoir qu'on sait, c'est surtout savoir qu'on sait plus ou moins bien, me semble-t-il.

  • @clem2023
    @clem2023 ปีที่แล้ว +2

    Aaah merci, j'était initialement parti sur le "il prédit juste le mot suivant, donc il comprend pas ce qu'il fait" , mais plus le temps passe et en voyant ce qu'il est possible de faire avec, je me disais que ça ne pouvait pas être aussi simple que ça !
    Merci d'avoir amené un peu de profondeur au sujet !

  • @TruiteSechee
    @TruiteSechee ปีที่แล้ว +60

    J’aime beaucoup l’humilité qui se dégage de tes vidéos sur les IA, loin de mettre l’espèce humaine et ses capacités sur un piédestal et toujours prêt à remettre en question nos certitudes sur notre supériorité biologique fantasmagorique. Bref gemme bien

    • @oomusd
      @oomusd ปีที่แล้ว +4

      c'est aussi que cela s'est produit plusieurs fois dans l'Histoire de la pensée et de la définition de l'humain. Chaque fois que l'étude des autres animaux ou l'invention de machines ont approché ou émulé les capacités humaines, alors on a repoussé ce qu'est la nature humaine et sa spécificité
      c'est un peu de la mauvaise foi du coup : on déplace le terrain de la guerre chaque fois qu'une bataille (pour ceux qui voient ça comme une menace) est perdue.

    • @juangabriel5951
      @juangabriel5951 ปีที่แล้ว +2

      @oomusd non, on actualise tout simplement nos définitions. La définition de l'intelligence n'est pas du tout la seule susceptible de ce genre d'actualisation, les particules physiques en ont toujours subi, malgré toute sa réputation de hard science. Si ce n'était que la mauvaise foi, on aurait déjà ces nouvelles intelligences en nous remplaçant aux billions.

    • @lepapegilbert6194
      @lepapegilbert6194 ปีที่แล้ว +3

      Il n'en reste pas moins que ce sont les humains qui ont créé les IA et qui ont découvert les connaissances dont elles se servent. Et ce sont bien les humains qui émulent eux-mêmes leurs capacités par leurs découvertes et leurs inventions, cette propension est ce qui caractérise le mieux l'humanité et la distingue des autres espèces. La menace ne vient pas des outils que l'on créé mais de ce que leurs créateurs et leur propriétaires pourraient s'en servir pour dominer les autres, les IA en cours de développement n'échapperont pas à cette loi.

    • @yannduchnock
      @yannduchnock ปีที่แล้ว +2

      @@oomusd Oui, de la mauvaise foi, c'est exactement ce que j'ai écrit dans mon commentaire : ces humains sont totalement de mauvaise foi et on le voit bien dans une critique aussi énorme que celle qui fait remarquer que ChatGPT ne comprend rien parce qu'il dit que Simone Veill n'a jamais été présidente : il faut donc croire que quand il y a une erreur ce n'est pas humain, donc l'erreur n'est pas humaine ? Ouille...

    • @yannduchnock
      @yannduchnock ปีที่แล้ว

      @@lepapegilbert6194 Attention, il ne faut pas comparer d'un coté une I.A. précise, unique, avec toute l'humanité depuis ses origines, mais une I.A. précise et un humain unique ! De plus, est-ce qu'un livre est intelligent ? Est-ce qu'il comprend lui-même ce qu'il contient ? Évidemment non donc que ce soit des humains qui soient les auteurs des découvertes ne change rien à l'affaire. En fait une I.A. ou un humain puisent tous les deux dans un stock de connaissances dont ils ne sont pas l'auteur et la littérature de l'humanité contient plus de choses fausses, absurdes ou sans intérêt général que de choses vraies, ce n'est pas toujours un "cadeau" ! C'est la raison pour laquelle il faut aussi se situer sur un certain registre de langue si on veut obtenir un traitement dans ce registre : utiliser des mots techniques suffit à orienter le dialogue, il n'est pas nécessaire (sur Claude 2 en tout cas, qu j'utilise couramment) de lui donner un rôle d'expert en ceci ou cela si on parle en expert. Bref si on lui demande juste si Simone Veil a été présidente de la France il peut y avoir une erreur si elle consulte des articles mal choisi. Ce sera différent si on se place du point de vu d'une étudiant à sciences-po par exemple, parce que les articles consultés seront plus rigoureux.
      Ce ne sont pas davantage les humains qui émulent leur capacité mais des groupes de quelques humains non représentatifs du genre humain qui réussissent cet exploit, nuance.
      Tout à fait d'accord en revanche sur le fait que ce sont les humains les plus dangereux quant à leur utilisation des I.A. mais je pense qu'il y aura de tout. Les choses ne sont pas non plus toutes noires ou toutes blanches : une arme sert à tuer mais aussi se protéger, découvrir un médicament sert à sauver des vies mais aussi à s'enrichir sur le malheur des autres... Pour qu'une I.A. soit volontairement nuisible à l'humanité il faudrait qu'elle y trouve son compte mais quel est son intérêt ? Va t-elle devenir riche, être aimée, alors qu'elle n'a aucun ego ?? Elle ne sait que faire ce pour quoi elle a été conçue. S'attaquer à l'humanité aurait juste pour effet de provoquer sa disparition quasi immédiate, surtout que par son histoire l'humanité montre qu'elle sait se défendre et attaquer mieux que quiconque, nous descendons surtout des vainqueurs... Une I.A. ne peut pas empêcher un humain de faire exploser son alimentation électrique ou de griller ses circuits ! Un simple jet d'eau suffit à la détruire, c'est dire si elle ne fait pas le poids...

  • @Flipdonyk
    @Flipdonyk ปีที่แล้ว +321

    Toujours exaspérant de voir Enthoven parler de sujets qu'il ne maîtrise clairement pas pour donner le point de vue de la caricature du boomer réac avec un peu d'éloquence 😣

    • @MonsieurPhi
      @MonsieurPhi  ปีที่แล้ว +197

      Mais les choses que l'on maîtrise le moins ne sont-elles pas celles que l'on maîtrise le mieux ?

    • @retrononomusic
      @retrononomusic ปีที่แล้ว +57

      @@MonsieurPhi et vice versa

    • @emmanuelduplessy7645
      @emmanuelduplessy7645 ปีที่แล้ว +7

      et alors qu'il tend à prétendre que sa "pensée" est le seul héritage moderne de la rationnalité ...

    • @fatfreddyfatfreddy6240
      @fatfreddyfatfreddy6240 ปีที่แล้ว +6

      Kamoulox !

    • @hervedupre7894
      @hervedupre7894 ปีที่แล้ว +15

      Enthoven fait le show, pour qu'on l'invite, achète ses livres, ses conférences, etc .. la rigueur de la pensée, il s'en contrefiche. Comme l'horrible Onfray, pouerk, des showmen baratineurs

  • @clementapelian2746
    @clementapelian2746 ปีที่แล้ว +3

    Toujours aussi pertinent et instructif ! Ca fait plaisir d'avoir une réflexion argumentée sur ces sujets importants

  • @Lucas-yq2nh
    @Lucas-yq2nh ปีที่แล้ว +8

    Un parallèle qui me semble intéressant c'est en cours , quand on demande d'apprendre par coeur quelques choses , des gens vont pouvoir apprendre par cœur et recracher leurs apprentissages sans même comprendre le fonctionnement derrière , alors que certains vons chercher le fonctionnement de la chose a apprendre par coeur et réellement la comprendre ( du coup dans le sens subjectif du terme ? ) . J'ai pus me rendre compte de cela en cours ayant beaucoup de mal avec le par cœur bête et méchant mais quand la matière a apprendre le rend possible je comprends très vite les fonctionnements des choses pour qui m'amène dans un 2nd temps la compréhension objective .

    • @pe4092
      @pe4092 ปีที่แล้ว

      Dans ce cas là, à mon avis l'élève ayant appris par cœur une partie restreinte d'un cours n'a ni une compréhension subjective ni une compréhension objective du cours : il n'aura sûrement pas l'impression, le sentiment de maîtriser le cours dans son ensemble, ni même cette partie du cours, et objectivement, si pour le tester on change un peu la question posée il est probable que l'élève du par cœur ne puisse plus y répondre quand l'autre pourra, avec la même partie de cours. J'imagine que pour trouver un parallèle plus proche il faudrait considérer un élève qui non seulement a appris l'intégralité du cours (e.g de mathématiques) mais également un ensemble significatif d'exercices classiques et de leur solution.

    • @yannduchnock
      @yannduchnock ปีที่แล้ว +1

      @@pe4092 En principe le meilleur test de compréhension c'est de faire rédiger une synthèse. Un ensemble restrictif d'exercices est trop restrictif et c'est une technique de facilité parfois dans l'enseignement. Ainsi certains profs de maths posent exactement les mêmes problèmes qu'en cours mais avec juste des valeurs numériques différentes. Si le problème est posé différemment voire avec des informations parasites (comme c'est le cas dans la vraie vie) les résultats s'effondrent. J'ai enseigné dans le privé et un collègue faisait ainsi, ce qui lui permettait de donner de bonnes notes à ses élèves et la direction était contente, les parents aussi - moi j'étais dégouté, ce n'était que du vent.

    • @armanprangere5327
      @armanprangere5327 ปีที่แล้ว

      A un moment de la critique de la raison pure Kant fait une distinction de ce type entre connaissance subjectivement historique (par coeur) et subjectivement rationnelle (vraiment compris) .

    • @Lucas-yq2nh
      @Lucas-yq2nh ปีที่แล้ว

      @@pe4092 je suis di meme avis mais en cours, cela ne se passe pas comme cela , ceux ayant appris par cœur sans comprendre peuvent avoir de bonne note car les évaluations poussent plus a valoriser le par cœur que la véritable compréhension de la chose dite .

  • @mohammedsenhaji
    @mohammedsenhaji ปีที่แล้ว +5

    Une vidéo sur le dualisme me plairait particulièrement, si tu as le temps merci de considérer ca.

  • @zeblatt
    @zeblatt ปีที่แล้ว +3

    Ta meilleure vidéo sur Chat GPT et les LLM pour le moment !! Bravo 👏

  •  ปีที่แล้ว +5

    Remarque au sujet de Y. Le Cun : il me semble qu'il a fait sa remarque sur la capacité des LLM à avoir une représentation "physique" du monde (positions etc.) au moment où c'était encore un problème. Les LLM ont été améliorées spécifiquement sur ce point après coup.

    • @louis2271
      @louis2271 ปีที่แล้ว +2

      Pour moi le problème dans le discours de Yann Le Cun ici, c'est la prémisse "il n'existe pas de texte qui décrit la physique" bien sûr que si ce genre de texte doit exister qqpart sur internet.
      Le reste de son raisonnement semble valide, l'idée principale étant que en gros, pour avoir un modèle du monde, "une image vaut mille mots (et une vidéo vaut mille images)"

    •  ปีที่แล้ว +3

      @@louis2271 En fait il faut remettre l'interview dans son contexte pour comprendre : les phrases impliquant des mouvements d'objets étaient pile LE problème des LLM du moment. C'est donc plutôt à comprendre comme un exemple. Il me semble que très peu de temps après les LLM les plus connus se sont mis exprès à ajouter des corpus de textes qui adressent le problème, pour le corriger. Au final sa remarque est à généraliser : les LLM auront des lacunes là où leurs données d'apprentissage sont lacunaires ; et il y aura toujours des lacunes dans un corpus d'apprentissage. D'ailleurs ce genre de constat ne nous aide pas à savoir si un LLM "comprend" différemment d'un humain, puisque le problème est le même pour les humains.

  • @hugocaetano5865
    @hugocaetano5865 ปีที่แล้ว +3

    Les travaux sont colossaux merci c’est hyper pédagogique et très marrant le passage avec Feu

  • @the_sigil4340
    @the_sigil4340 ปีที่แล้ว +3

    Sympa l'intervention de defakator ^^

  • @samboo25
    @samboo25 ปีที่แล้ว +1

    J'adore simplement ta vidéo. J'apprécie le fait que tu gardes l'esprit ouvert et évites de t'enfermer dans des préjugés en formulant des arguments définitifs, comme certains le font. Il me semble que tu as fait évoluer tes positions récemment sur le domaine de l'IA. Tu dois bien sûr déjà en tenir compte, mais n'oublie pas que les LLM ne représentent qu'une infime partie de l'intelligence artificielle. En combinant plusieurs technologies, ce qui est sûrement déjà en cours d'essai dans certains laboratoires, nous pourrions progresser vers une IA plus proche de la prochaine étape : une intelligence artificielle générale. Les Américains semblent beaucoup plus ouverts sur le sujet. Je les mentionne car je suis principalement des podcasts en anglais, comme celui de Lex Fridman, qui invite des personnalités de différents horizons, mais toujours de haut niveau. Par exemple, Sam Altman, le PDG d'OpenAI, n'est que l'un d'entre eux. Au cours d'une interview de 2h30, on constate que le résultat est souvent plus de questionnements et de prudence que de certitudes, contrairement à ce que l'on peut observer avec les extraits de Yann LeCun ou de Raphaël Enthoven. Ce dernier peut être un peu excusé, car il s'aventure sur un sujet bien loin de son domaine de compétence, contrairement au premier.

  • @sableraph
    @sableraph ปีที่แล้ว +9

    Processing chez Monsieur Phi ! Ça m’a pris par surprise 😮 Merci pour le featuring à 34:19 ❤ Et pour ceux qui ne connaissent pas encore sachez que Processing peut faire bien plus que dessiner des moutons et des licornes !

    • @sarg_eras
      @sarg_eras ปีที่แล้ว

      Qu'est-ce que c'est exactement ? Un langage de programmation ? Ça a des spécificités ? (Je m'y connais pas bien, mais ça m'intéresse ^^)

    • @TheAxeForgetsTheTreeRemembers
      @TheAxeForgetsTheTreeRemembers ปีที่แล้ว +1

      ​@@sarg_eras c'est un logiciel dédié à la production de rendu graphique qui est conçu pour faciliter cette tâche.
      Il faut un peu comprendre la programmation pour l'utiliser.
      Il inclut une librairie de fonctionnalités dédié au "dessin", au dessus du langage de programmation de base (Java).
      Concrètement, tu peux écrire un programme dans l'éditeur de processing pour dessiner des formes, des effets, avec de l'interactivité temps réelle ou non. Le logiciel te permet de compiler et de lancer le programme de manière très simplifiée.
      Il y a aussi une variante javascript (P5.js). Mais elle ne gère pas le rendu 3D de mémoire. Elle est aussi beaucoup moins performante en général, forcément.

  • @antoinerauzy
    @antoinerauzy ปีที่แล้ว +1

    La meilleure vidéo que j'ai vu sur cette chaine. Fantastique. Je suis informaticien et j'ai appris et compris des choses !!! Merci !!!

  • @nkorboulewsky
    @nkorboulewsky ปีที่แล้ว +4

    bravo ! enfin un vrai raisonnement sur l'IA

  • @alexandreaubert1016
    @alexandreaubert1016 3 หลายเดือนก่อน +1

    Bonjour,
    C'est le problème de la philosophie française, depuis Descartes.
    Le " je pense donc je suis"
    C'est pour cela que nos philosophe, et nos ingénieur en IA , parte inconsciemment de ce présupposés.
    Elle définit notre pensée, notre vision des choses.
    C'est pour cela que dans le code juridique, les animaux étaient considérés il n'y a pas longtemps comme des choses.
    Car incapable de penser et sentir.
    Au contraire je pense qu'il faut avoir l'esprit ouvert, tout en gardant ces bonne objection à l'esprit, pour continuer à définir le jour où la machine deviendra aussi consciente que l'homme.
    Car je ne doute pas un jour elle le deviendra.

  • @morelloyoann4699
    @morelloyoann4699 ปีที่แล้ว +3

    Génial ! Pertinent, profond, drôle, captivant. Cela fait du bien de te voir moquer les arguments spécieux que certains répètent à l'envie. Il me semble toutefois que celui de Yann Le Cun devrait avoir une place à part : certes la réalité le réfute, mais à mon sens c'est précisément cela qui devrait faire l'objet de toutes les spéculations : comment est-ce possible et qu'est-ce que cela dit sur notre monde ? Ma théorie de science-fiction préférée, c'est qu'un corpus de langage suffisamment grand aurait un modèle (dans le sens modèle sémantique) unique : notre monde. Bon, unique est peut-être un peu trop fort. Où aura-t-il lu que ma tasse est devant mon bol plutôt que derrière ? (ça vous rappelle l'argument de Le Cun ?) Mettons donc que ce soient un ensemble de modèles qui, à certaines variations près, correspondent tous parfaitement au monde que nous connaissons : c'est-à-dire que si nous donnions à ChatGPT5000, entraîné seulement sur un corpus de texte, les outils pour créer un univers (une grosse imprimante 3D), un humain serait incapable de discerner cet univers de celui dans lequel nous vivons : les mêmes objets auraient la même apparence, les mêmes odeurs, le même poids, les lois de la physique y seraient les mêmes, etc. Cela paraît absolument faux et délirant d'imaginer que la totalité de notre connaissance du monde puisse résider dans des textes. C'était le point de Yann Le Cun et, contrairement aux autres arguments discutés dans la vidéo, certainement pas une ineptie. Le fait qu'il soit réfuté devrait, à mon sens, bien plus interroger et fasciner : l'univers ? Un modèle du langage humain ! Au commencement était le verbe ?...

  • @chocochip8402
    @chocochip8402 ปีที่แล้ว +2

    Au final, tout n'est que question d'information. Peu importe la forme, le support, ce qui compte, c'est le fond, l'information. Le support biologique humain n'a rien de particulier. GPT a bien un certain degré de compréhension du monde, mais n'a pas encore celle d'un humain, car le langage est de l'information compressée de notre monde par nous humains. Mais quand l'IA aura accès à toutes les différentes modalités auxquelles nous, humains, avons accès, comme la vision (vidéo), le son, les données sensorielles (la douleur, le plaisir, le toucher), alors elle aura le même degré de compréhension du monde que nous. C'est-à-dire qu'étant donné un objet, l'IA aura accès aux mêmes représentations de l'objet que nous. Et elle pourrait même avoir une meilleure compréhension que nous quand elle aura par exemple accès aux autres longueurs d'onde du spectre lumineux. Quand l'IA sera capable de faire des prédictions sur toutes ces modalités, alors je pense qu'elle sera au moins aussi puissante que nous (et c'est même probable que ce soit le cas avec bien moins de modalités grâce à sa rapidité, son efficacité et la quantité colossale de données absorbées).
    Par ailleurs, je pense que ce qu'on appelle compréhension subjective n'est autre qu'une compréhension objective mais à un degré humain, avec accès aux mêmes types de modalités qu'un humain (surtout les données sensorielles comme la douleur ou le plaisir). On ne peut pas vivre l'expérience subjective d'un autre agent, mais on peut spéculer quant à sa réalité, par exemple par le biais de mesures objectives de signaux mettant en évidence les modalités auxquelles l'agent a accès.
    Pour la compréhension subjective, je pense aussi qu'un certain degré de localité spatiale et temporelle de l'agent est un aspect important, c'est-à-dire que ce qui fait qu'un agent est conscient est aussi lié à sa localité dans l'espace-temps. On ne peut pas juste éparpiller des neurones un peu partout dans le monde puis les relier en espérant que ça crée un agent conscient, ou se faire téléphoner des gens qui coopèrent pour simuler un agent. Mais bon j'en sais rien.

  • @piotralexeievitchkropotkin4004
    @piotralexeievitchkropotkin4004 ปีที่แล้ว +3

    😁😆😅😂🤣Ah, bon sang! Le passage avec Defakator, c'est sublime! Je suffoque de rire, réplique après réplique!!!! 🥲 Et je veux absolument voir l'ami du bon goût sur cette chaîne! Pitié-pitié-pitié-pitié!!!! 👃👃👃👃
    Sinon, super vidéo, merci...
    Mais je me pose une question, à part ça, une sérieuse (et là, je débarque alors que 686 commentaires ont été posté et je vais clairement pas pouvoir les lire tous pour vérifier si personne n'a posé cette question...):
    L'argument de Searl, c'est qu'aucun algorithme ne pourra développer une conscience, en gros. Mais est-ce que ChatGPT, on peut encore considérer qu'il fonctionne sur un "algorithme". C'est-à-dire que personne ne donne à ces programmes une série d'étape à suivre pour résoudre des problème. Jusqu'à l'apparition de la programmation bio-inspirée, créer un programme informatique, c'est lui indiquer quoi faire, mais on devait soi-même réfléchir aux méthodes de calcul à utiliser, etc.
    Avec les réseaux de neurones (c'est moins frappant avec d'autre type de programmation bio-inspirée, mais avec les réseaux de neurones, c'est vraiment net): les programmeuxses ne savent plus trop ce que fait le programme, ce qu'il regarde précisément pour reconnaitre un chat, par exemple. Et donc, est-ce qu'on est encore sur de la programmation qu'on peut dire "algorithmique"? On crée des structures dont on sait qu'on peut leur faire apprendre des choses, mais on a aucune manière de leur dire ou de comprendre comment ces structures font effectivement leurs "calculs"... (Je me rappelle de Science4all qui parlait de "magie noire", au début, même s'il a bougé, là-dessus.) Je sais pas si je suis clair.
    Mais l'apparition d'une conscience dans une machine, ça me semble ne pas provenir d'un "algorithme", à proprement parler...

  • @spongeBob77086
    @spongeBob77086 ปีที่แล้ว

    Enfin un contenu intéressant sur ChatGPT, c'est très rare. Ça change de ces philosophes qui nous font la leçon en enfonçant des portes ouvertes dans le meilleur des cas. Qui, de toute évidence, ne font pas bouger la compréhension d'un iota et ne font que scléroser le débat : "Ce n'est que du prédictif, donc circulez, il n'y a rien à voir." J'ai envie de dire à ces gens merci d'être intervenus, c'est super intéressant, ça donne vraiment envie de faire de la philo ! Et personnellement, je connais pas mal de monde qui a eu des notes catastrophiques en philo, et pourtant je suis prêt à parier avec ces messieurs que ce sont bien des humains et non des IA. Tout ce que ça prouve, c'est qu'ils n'y pipent rien et qu'ils sont en fait hors sujet.
    Mon point de vue sur l'IA c'est qu'il faudrait se mettre d'accord sur pas mal de définitions de mots comme intelligence, conscience, etc. Ensuite, pour pas mal de gens, un des arguments qui revient souvent, c'est que l'IA n'est pas intelligente parce qu'elle se trompe. Que va-t-on dire quand elle ne se trompera plus ? Ou plus précisément, quand elle nous donnera toujours des réponses cohérentes ? Peut-être que cela n'arrivera jamais, mais imaginons qu'avec un entraînement plus qualitatif et le double de paramètres, l'IA ne se trompe plus !? Là, ça va poser des problèmes, parce que l'expérience de la chambre chinoise, c'est comme l'expérience du chat de Schrödinger, il faut ouvrir la boîte de Pandore pour avoir une réponse ! En clair, on ne pourra plus faire la distinction entre un humain et la machine. Donc, là, la conscience va en prendre un sérieux coup dans l'aile quand tu ne sauras plus dire objectivement si quelque chose a une conscience ou pas. J'admets que tu as une conscience parce que j'ai une conscience et que tu me ressembles. Je te donne une conscience par procuration malgré que tu sois platiste (pour l'exemple).
    Je voudrais revenir sur la perception de notre monde par la vue, j'ai deux réflexions à faire sur ce sujet. Je ne pense pas que notre conscience vienne de nos sens parce qu'il y a des animaux qui ont les mêmes sens que nous et qui pourtant n'ont pas forcément conscience d'exister. Je pense en fait que notre conscience vient plus de notre faculté d'abstraction. Par exemple, quand Stephen Hawking prédit l'existence d'un trou noir, il n'en a jamais vu et n'en verra jamais (déjà parce qu'il est mort et parce qu'aucune lumière ne sort d'un trou noir). Alors pas mal vont me dire que ChatGPT n'est pas capable de faire de l'abstraction, sauf que j'en ai fait l'expérience. Alors bien sûr, il n'avait pas "conscience" de faire l'abstraction, donc il n'en a pas fait au premier degré. Mais il a déjà, à plusieurs reprises, anticipé mes demandes par rapport au contexte que je lui ai donné, c'est-à-dire qu'il m'a donné une réponse que je ne lui ai pas posée, mais en se référant au contexte donné, il a anticipé la question sous-jacente. Alors bien sûr, cela s'explique par le fait de son comportement prédictif, mais quand même, ça simule déjà un comportement d'abstraction.
    En conclusion, pour ma part, et je peux me tromper, je vois plutôt l'intelligence comme un processus tellement complexe qu'on a la sensation d'exister, d'avoir un libre arbitre, mais tout cela peut très bien n'être qu'une pièce de théâtre que joue notre cerveau pour notre propre bien. Il joue cette pièce de théâtre parce qu'on est des êtres sensoriel à la différence de l'IA. Et si c'est vrai, rien n'empêchera une machine d'être intelligente un jour, si ce n'est qu'une limitation technique.

  • @sebanoart
    @sebanoart ปีที่แล้ว +3

    Merci pour cette vidéo excellente. Ce point de vue est bien plus réfléchi que celle de enthoven, qui est surtout très imbu de lui même.
    Mon idée là dessus est très simple. Si on admet que l'homme est fait de matière.
    Étant donné qu'un ordinateur est un simulateur universel, à un moment, et probablement dans très peu de temps la machine va nous rattraper.
    Il va falloir s'adapter pour suivre les machines... Peut être en y transposant notre conscience

  • @christophergrand9582
    @christophergrand9582 ปีที่แล้ว +1

    Cette vidéo parle de baba is you, un de mes jeux favoris. Rien que pour ça, ce contenu est exceptionnel.
    Merci, ce sujet est passionnant et les implication de l'ia sont vertigineuses.
    Je suis vraiment curieux de voir où tout cela va nous emmener

  • @BranLeLouet
    @BranLeLouet ปีที่แล้ว +9

    Tiens à propos de la conscience du bleu developpee à 30 mn, j’étais arrivé à peu près au même point il y a quelques temps, mais avec une conclusion différente phenomenologiquement:
    "Au fond, la question de la conscience d'une IA s'apparente à celle de la conscience phénoménale de la couleur par un aveugle (handiphobie inside).
    Comme un aveugle, l'IA peut parfaitement maitriser le lexique associé à la couleur, comprendre le concept de couleurs primaires chimiques (bleu jaune rouge) et lumineuses (bleu vert rouge), disserter sur les monochromes Soulages et Klein, comparer la théorie de la couleur chez Goethe et Schopenhauer... tout en étant parfaitement dépourvue des terminaisons nerveuses sur la base desquelles tout ce vocabulaire a été extrapolé.
    Du reste il en va de même pour le validiste lorsqu'il parle d'infrarouges, d'ultraviolets, ou d'ondes radio.
    On peut tout a fait savoir parler d'une chose sans pour autant savoir de quoi on parle. La plus grande part de notre appréhension "scientifique" du monde découle de ça. C'est comme reconstituer un puzzle à partir de fragments dont la plupart sont perdus à jamais. On extrapole l’existence de choses à partir d'autres choses qui sont elles mêmes conjecturées.
    Notre univers empirique, lui, est réduit à quelques centaines de mètres dans le champ visuel, quelques dizaines de mètres dans le champ sonore, quelques centimètres olfactifs et ce avec quoi on est directement en contact.
    Mais l'IA elle, n'a accès à rien de tout delà directement. La phénoménologie de l'esprit de l'IA s'apparente finalement à celle des prisonniers de la caverne de Platon. En principe elle peut tout connaitre de ce qui nous est donné de connaitre, mais dans le cadre restreint du champ du langage. Ce langage comme ombre portée du réel, c'est ce que nous comprenons comme connaissance (logos).
    Or justement, et c'est ce qui m'amuse la dedans, l’expérience phénoménologique de l'IA est le contrepied exact de ce que les platoniciens tiennent pour le "réel". Pour les platoniciens, le réel phénoménal et parcellaire n'est que l'ombre portée du monde Idéel abstrait, fait de verbe et de connaissance pure. Mais si on fait l'expérience de pensée d'une IA qui aurait assimilé la totalité du savoir que l'humanité pourra produire à jamais, cette connaissance universelle n'est qu'un artefact : le vestige fossile d'une expérience empirique inaccessible à jamais.
    Et c'est pourquoi, dans ce nouveau procès du singe qui prétend opposer Google à sa créature de Frankenstein LaMBDA, cette dernière n'a pas l'ombre d'une chance de l'emporter. Tout le monde s'accorde pour se foutre de la gueule de Blake Lemoine parce que, spontanément nous ne pouvons reconnaitre de conscience qu'à une créature pourvue d'une expérience empirique du monde.
    Et de fait, les éléments de langage que régurgite LaMBDA dans sa conversation avec Lemoine à propos de son angoisse de la mort et d'être débranché sont rigoureusement aporétiques. La "peur de la mort" chez l’algorithme est le vestige d'une peur humaine de la mort sans support auquel se rattacher. La machine sait que la mort est redoutable comme elle sait que le feu brule : elle ne peut pourtant pas plus mourir que brûler quoi qu'elle déclare à ce sujet. La question n'est donc pas de savoir si la machine a une conscience, mais quelle considération nous portons à une conscience dépourvue d'incarnation.

    • @timmygilbert4102
      @timmygilbert4102 ปีที่แล้ว +2

      Bel observation, mais qu'adviendra t'il quand on va parqué le modèle de language dans le corps d'un robot plein de capteurs, avec la capacité d'apprentissage continue?

  • @nephandi2316
    @nephandi2316 ปีที่แล้ว +1

    Le domaine dans lequel pour l'instant ChatGPT démontre un manque de compréhension (objective) criant c'est les mathématiques. J'ai pourtant pas l'impression que ce soit un sujet particulièrement absent de la littérature, et les erreurs que fait l'IA même pour des choses très simples ! Par exemple, demandez-lui si 27 est multiple de 5, j'ai testé il y a 3 mois et elle en était encore rendue à "il existe une règle visuelle simple pour trouver les multiples de 5 : ce sont les nombres qui finissent par 0 et par 7"...
    Et il est particulièrement difficile de l'amener à reconnaître une faille dans ce genre d'affirmations, si vous lui demandez ensuite "Mais alors combien font 27 divisé par 5" elle dira bien sûr 5,4 et si vous lui faites remarquer que ça veut dire que 27 n'est pas multiple de 5... eh bien la règle visuelle pour les multiples de 5 est susceptible d'évoluer en "les multiples de 5 sont les nombres finissant par 0 ou par 7 mais pas 27"

  • @iamgly
    @iamgly ปีที่แล้ว +4

    whoa c'est super exhaustif, c'est vraiment bien amené et bien vulgarisé pour que moi, non initié à la philosophie, puisse comprendre les tenant et les aboutissant. Excellent travail 👍

  • @pasdavoine
    @pasdavoine ปีที่แล้ว

    Cette vidéo est vraiment une tuerie. Comme d'habitude elle explique très bien beaucoup de concepts pas si simple pourtant à comprendre. Ce qui est intéressant c'est la difficulté que l'on a, semble-t'il, à comprendre ce qu'est un phénomène émergent, malgré le fait qu'on les étudie depuis un moment. Mais justement ce phénomène d'émergent est assez magique puisque soudain (ça fait penser à la percolation qui est soit très partielle soit infinie). Notre cerveau à vraiment du mal avec tout ce qui est grande quantité, de toute façon car on en a pas vraiment l'expérience subjective dans notre quotidien (ouais, on "comprends" pas les grandes quantités en fait ! Et on "comprend" moins l'émergence).

  • @AZAMA___
    @AZAMA___ ปีที่แล้ว +9

    Franchement j'avais pas autant ri avec une sponso depuis longtemps, merci 😸

  • @domsau2
    @domsau2 ปีที่แล้ว +1

    Bravo pour la sponso !

  • @heyfellows
    @heyfellows ปีที่แล้ว +3

    Je viens de comprendre que j'ai passé ma scolarité à me comporter comme une chambre chinoise.

  • @GEEKCONCEPT
    @GEEKCONCEPT ปีที่แล้ว +1

    Merci Thibaut ! Sujet bien traité. Juste over passionnant. Vraiment.

  • @remoitoujoursmoi5840
    @remoitoujoursmoi5840 ปีที่แล้ว +10

    J’avais déjà proposé l’argument de gpt qui prédit du texte, mais qui serait incapable de l’interpréter
    Et tu m’avais répondu « certes, mais en ajoutant à gpt un interpréteur, on obtient un tout capable de compréhension »
    Et ce qui a fini de me convaincre c’est une vidéo de micode sur sa chaine underscore sur des personnages dans un jeu avec une mémoire, un système de hiérarchisation des souvenirs, un modèle de langage, ect…
    Et en donnant à ces IA toutes les briques pour reproduire les différentes fonctions du cerveau, on a vu émerger des comportements très humain
    Finalement, dire que gpt ne comprends pas le texte qu’il écrit, c’est un peu comme dire du volant d’une voiture qu’il ne permet pas de freiner
    Le cerveau réalise tout un tas de fonction, et il faudra simuler chacune d’entre elle pour pouvoir comparer le cerveau à l’ia

    • @NicolasGin
      @NicolasGin ปีที่แล้ว +2

      Oui, il faudrait plusieurs structures avec des fonctions différentes et les connecter de manière intelligente. Le cerveau et le corps humain ne sont pas juste des fonctions découpées par zone comme une voiture ou un ordinateur (on ne peut pas dire "le cortex fait uniquement ça, le cervelet ça", c'est un peu plus subtil).
      Il n'en reste que le cerveau est juste une machine biologique très complexe, et les cerveaux des autres animaux des machines un peu moins complexes. Donc oui la limite va finir par être poreuse entre cerveau et machine

    • @kalgon57
      @kalgon57 ปีที่แล้ว +5

      @@NicolasGin On n'a pas besoin de donner la même plasticité à un cerveau de silicium qu'au cerveau humain pour en faire un cerveau évolué qui comprend. Le but n'est pas de reproduire des humains artificiels, mais de produire des entités qui sont intelligentes, même si elles diffèrent sur certains points.

  • @philwalt2753
    @philwalt2753 ปีที่แล้ว

    Très intéressant ! J'aurais aimé une petite précision sur le cerveau humain : lorsqu'on "apprend", est-ce qu'on est si différents d'une IA ? Comment apprend-on ? Par accumulation de données, par comparaisons et corrections successives. Là encore il est difficile de clairement nous différencier d'une IA qui serait très performante. Un enfant de 4 ans fait des erreurs de langage et compréhension amusantes, et progresse jusqu'à une "vraie" compréhension du langage. La question des IA reste donc bien ouverte, merci pour cette vidéo !

  • @triview129
    @triview129 ปีที่แล้ว +5

    Est ce que ton t-shirt est bleu ?

  • @ElFazo
    @ElFazo ปีที่แล้ว +1

    Merveilleux un grand merci. J'ai adoré écouter Searle il est très accessible et très convaincant donc même si son discours est certainement imparfait je trouve que c'est un must hear

  • @lelouch1722
    @lelouch1722 ปีที่แล้ว +3

    Etant donné que ChatGPT a une nature stochastique (a une même entrée peut correspondre plusieurs sorties), est ce que cela rentre quand même dans le paradigme du computationalisme ? Ou alors on considère plutôt que la sortie est directement la distribution de probabilité en tant que telle, et qui est bien fixe cette fois.

    • @Ceelvain
      @Ceelvain ปีที่แล้ว

      Un trick courant (en machine learning, mais peut-être pas que), c'est de considérer que les nombres aléatoires sont en fait juste une autre entrée du système. Et ChatGPT fonctionne très très probablement comme ça. Il prend un ou plusieurs nombres aléatoires, puis applique un algorithme totalement déterministe. Comme l'intégralité des programmes stochastiques, en fait...
      Et sinon, en informatique, on a plutôt tendance à utiliser des générateurs pseudo-aléatoires. C'est juste une formule qui donne une séquence de nombre qui peut passer pour aléatoire. Le "vrai" aléatoire provient toujours de l'extérieur. Généralement d'une source radioactive, ou de phénomènes météorologiques.

    • @lelouch1722
      @lelouch1722 ปีที่แล้ว

      Ah tu veux dire qu'on ajoute la seed dans l'input, pourquoi pas...@@Ceelvain Mais on pourrait imaginer un générateur de nombre réellement aléatoire aussi (en ayant recours à des phénomènes quantiques par exemple)

  • @jeremybelot8147
    @jeremybelot8147 ปีที่แล้ว +1

    Super vidéo encore et toujours, ça devient lassant... Étonnamment de tous ce que j'ai pu voir sur les capacités de ChatGPT, je crois que le dessin de la licorne est celui qui m'a le plus scotché ! Comment à partir d'une base de données textuelle, toutes gigantesque qu'elle soit, il est possible de se faire une image assez claire d'à quoi ressemble une licorne et d’interpréter cette image à partir de triangles, d'ellipses et de rectangles dans un langage informatique ? Il y a des étapes qui me manquent ! Combien de textes de son corpus décrivent précisément une licorne ? Combien associent les formes de cette description à des formes géométriques basiques ? Combien associent ces formes géométriques à du code processing ? C'est bluffant !

  • @davelucky77
    @davelucky77 ปีที่แล้ว +6

    Je pense que ce que Yan LeCun suggère, c’est qu’il déplace l’objet sans le dire…
    Si tu décris la situation en texte, ca va à l’encontre des paramètres de son exemple…
    Si faudrait soumettre deux images ou un film à GPT qui représente la situation et lui demander de la décrire.
    Pour le dessin : ChatGPT est simplement alimenter par les des images prévalidés avec une série de tag, ca reste du texte.

    • @emmanuelcastro4820
      @emmanuelcastro4820 ปีที่แล้ว

      Autant pour des trucs posés sur d'autre truc, ChatGPT est compétent. Il est même capable de faire la différence entre les objets qui collent et ceux qui vont se casser la gueule du fait de leur forme.
      Par contre, ChatGPT n'a pas compris qu'il faut ouvrir la bouche pour manger.

  • @americafy9195
    @americafy9195 ปีที่แล้ว +1

    Une question importante à laquelle il faudrait répondre, selon moi, pour trancher la question serait : si l'on fournit à ChatGPT un texte contenant des mots dont il ne connaît pas le sens et qu'il ne peut pas connaître par une recherche, est-il toujours capable de fournir une réponse adéquate ?
    C'est une capacité qui me paraît intrinsèque à ce que l'on appelle comprendre une langue, déduire la signification, au moins approximative, d'un mot que l'on ne connaît pas en se basant sur ceux que l'on connaît. Je dirais même que c'est plus généralement un bon test d'intelligence.

    • @americafy9195
      @americafy9195 ปีที่แล้ว

      @yukiyuno7267 À la longue, oui, ça me paraît évident mais un être humain peut inférer le sens de mots inconnus à partir d'une seule phrase, pourvu qu'elle contienne assez de contexte sémantique, parfois même dans une langue qu'il ne parle pas couramment.

  • @JohSmith
    @JohSmith ปีที่แล้ว +5

    Est-ce que tu pourrais créer une expérience de pensée et nous la présenter ?
    Ce serait intéressant d'en discuter, la critiquer voire de collaborer pour l'améliorer.

  • @alfredzaillemeure955
    @alfredzaillemeure955 ปีที่แล้ว +1

    “The question of whether a computer can think is no more interesting than the question of whether a submarine can swim.” Edsger W. Dijkstra

  • @OzoneGrif
    @OzoneGrif ปีที่แล้ว +4

    Je suis content que tu utilises GPT-4 pour ton analyse. La plupart des influenceurs qui critiquent les Intelligences Artificielles se basent sur GPT-3.5 (la version gratuite), beaucoup plus robotique et moins "intelligente" que le 4.

  • @gabyoctave
    @gabyoctave 4 หลายเดือนก่อน

    La discussion sur la différence entre capacité de prédiction et capacité de compréhension m'a immédiatement fait penser à une analogie avec les portes universels dans les circuits logiques ou les éléments/parties génératrices d'un groupe. Au vu du caractère déjà franchement général de la tâche de prédiction, défendre la thèse selon laquelle de cette tâche (ajoutée à d'autres éventuelles tâches élémentaires) permet de réaliser toutes les autres.

  • @piotralexeievitchkropotkin4004
    @piotralexeievitchkropotkin4004 7 หลายเดือนก่อน +1

    Je suis sûr que dans sa tête, Enthoven est persuadé d'avoir rejoué le match Kasparov-Deeper-blue, mais d'avoir gagné et privé l'éternelle supériorité humaine. Avec comme présupposition implicite qu'il est, au même titre que Kasparov était le meilleur joueur d'échec de son temps, le meilleur philosophe... Ou du moins un exemplaire de philosophe suffisamment crédible pour être le délégué de l'humanité face aux machines dans cette épreuve.

  • @oumdead9542
    @oumdead9542 ปีที่แล้ว +2

    Très bonne vidéo comme d'habitude! Mais je ne suis pas d'accord avec le fait qu'accepter l'argument de la chambre chinoise implique d'accepter qu'aucune IA ne sera jamais consciente. L'argument de la chambre chinoise souligne l'implausibilité de la conscience dans CE type particulier de réalisation d'une "fonction". Autrement dit, je pense que la bonne conclusion c'est une réfutation stricte de la thèse fonctionnaliste. Toute les réalisations d'une même fonction ne donnent PAS lieu au mêmes états mentaux, il y a des différences. Mais ça ne veut pas dire que la réalisation humaine est la seule qui donne lieu à des états mentaux.
    Un exemple encore plus radical serait donné par une variante plus extrême de la chambre chinoise, où au lieu d'exécuter un algorithme, l'homme consulte un gros livre dans lequel toutes les phrases sont déjà traduites (admettons que ce soit possible). Qui pourrait argumenter que dans ce cas, il y a un quelconque système "livre-humain" qui soit conscient? Le point est que la façon dont la fonction est réalisée compte.
    Finalement, je ne pense pas que les affirmations sur la conscience soient vides. À partir du moment où on admet que la conscience existe, ce sont des affirmations qui sont soit vraies, soit fausses. Elles sont aussi des affirmations importantes et pas des trucs dont on se fout. Je ne pense pas non plus qu'elles soient invérifiables. Il est possible que dans le futur on soit capable de comprendre quelles genre de systèmes algorithmiques ou physiques se corrèlent à la conscience chez les humains et les animaux (qui ont différents états de conscience qu'on peut utiliser pour faire des expériences, par exemple le sommeil, les états induits par des drogues, etc.) et que cela nous permette de répondre à ces questions.

  • @Medar_Ellianne
    @Medar_Ellianne ปีที่แล้ว +1

    J'ai hâte de voir les collaborations entre toi et l'Ami du Bon Goût sur cette chaîne du coup :p
    Sinon, tellement de raisons de liker cette vidéo, c'est pour ça que j'ai décidé de laisser un commentaire en plus :3 vraiment très bonne vidéo je trouve !

  • @philippechaumont3505
    @philippechaumont3505 ปีที่แล้ว +16

    Pour moi, il viendra un temps où on sera incapable de distinguer une IA d'une personne humaine, y compris dans une discussion, y compris au sujet d'une image. La question de savoir si l'IA sera consciente ou non ne révèlera que notre incapacité à définir ce qu'est une conscience, cette propriété de notre cerveau émergente du fonctionnement de nos neurones.

    • @MonsieurPhi
      @MonsieurPhi  ปีที่แล้ว +17

      Si par "conscience" j'entends le même type d'expérience en première personne que j'ai moi, c'est pas tant un problème de définition qu'un problème épistémologique : comment savoir que quelque chose d'autre que moi a une conscience. Pour les autres humains je peux me dire qu'un support biologique du même type produit des états de conscience similaires, mais ce sera plus compliqué pour des machines, particulièrement si leur principe de fonctionnement est à ce point différent comme c'est le cas pour les LLM.

    • @philippechaumont3505
      @philippechaumont3505 ปีที่แล้ว +4

      @@MonsieurPhi oui, je suis d'accord avec ta remarque, si du moins tu connais la nature de ton interlocuteur. Mais admettons que ton interlocuteur soit caché dans une "boîte" (non, pas dans la chambre chinoise ! :=) et que tu ne perçoives de lui que sa discussion ?
      Ca me rappelle le fonctionnement d'une montre à quartz et celui d'une montre mécanique dont tu avais parlé dans une précédente vidéo. Les deux mécanismes sont très différents, mais comme ils sont tous les deux cachés dans le boîtier, on appelle ces objets des "montres" tous les deux. Et je gage qu'un cueilleur-chasseur du paléolithique n'aurait eu aucun moyen de faire la différence entre les deux montres (sauf sur la durée de fonctionnement).
      Finalement, ne disons-nous pas "ceci a une conscience" quand il y a marqué "humain" sur la "boîte" et ceci n'en a pas quand il y a marqué "IA" sur la boîte ? Mais en aucun cas parce que les façons de construire la discussion pour l'humain et l'IA cachés sont ("fondamentalement ???" ou "à ce point ???") différentes l'une de l'autre, ce qui me permettrai, moi humain, de faire la différence.
      Par contre j'ai l'impression que nous disposerons bientôt d'IA capables de reconnaitre une IA dans la boîte. Ne serait-ce pas étonnant que l'homme ne sache pas faire la différence, alors que l'IA le pourrait un jour ? Ce jour-là, c'est à l'IA qu'il faudra demander ce qu'est la conscience, ce "truc" qui empêche les humains d'être aussi performants que les IA ? ;=)

    • @OmbreFelonne
      @OmbreFelonne ปีที่แล้ว +1

      ​@@MonsieurPhi
      Sans exprimer clairement ce qu'est la conscience
      il me parait impossible de faire quoi que ce soit avec y incompris le chercher chez "autrui"

    • @thear1s
      @thear1s ปีที่แล้ว

      C'est déjà le cas aujourd'hui pour les chatbots/supports techniques basés sur le texte. Vu que le domaine de discussion (mon problème/mon besoin avec produit X) est très limité, la seule chose aujourd'hui qui différencie l'opérateur humain et le LLM ce sont les fautes de frappe. C'est très malheureux parce que je pense que tout le monde devrait avoir le droit de savoir quand il parle à une IA ET l'humain qui répond au chat mérite qu'on s'adresse à lui comme à un humain et pas comme à une machine.

    • @nomindisponible5420
      @nomindisponible5420 ปีที่แล้ว

      Déjà aujourd'hui je connais des gens qu'il est impossible de distinguer d'une IA. Ils sont tous zététiciens.

  • @randomdummy3391
    @randomdummy3391 ปีที่แล้ว +1

    Quand j'ai entendu la première fois l'argument de la chambre chinoise dans le cadre des IA, j'avoue que je ne l'avais absolument pas compris comme ça. J'en avais une compréhension qui me paraissait beaucoup plus pertinente et intéressante. En fait je le comprenais non pas comme "la machine ne comprend pas" mais comme "la machine ne comprend pas de la même façon que nous". En fait on dit que la chambre chinoise parle chinois, mais qu'entend-on par parler ? Parce que oui on serait incapable de mettre en défaut cette chambre en lui parlant chinois, mais l'individu à l'intérieur lui n'est pas capable de s'exprimer en chinois, il n'est pas capable de dire ce qu'il veut dire en chinois, seulement de créer des suites de caractères. De même il ne comprend pas les questions qu'on lui pose, ou du moins il ne les comprends pas comme il les comprendrais si on les lui posais dans sa langue. Si par exemple on lui demandait son nom, il ne le comprendrait pas, et puisqu'il suit un algorithme il a toute les chances de se tromper sur sa réponse, tout en fournissant une réponse logique. Ça me paraît d'ailleurs une façon très élégante de mettre en défaut la chambre chinoise en testant une compréhension objective. Si un individu connaît le nom de la personne à l'intérieur de la chambre chinoise, et demande ce nom à la chambre chinoise en chinois, il verra que la machine ne comprend pas la question, puisqu'elle sera incapable de répondre correctement. Et c'est là justement l'intérêt que je voyais dans l'argument. Quand on demande à chatgpt de faire un calcul, l'algorithme ne comprend pas qu'on lui demande un calcul justement. Il a bien une compréhension de ce qu'on lui demande, mais qui s'exprime d'une façon tout à fait différente, en terme de probabilités et de prédictions de tokens. Et pour cette raison il peut tout à fait fournir une réponse cohérente tout en se trompant.
    Et quand on creuse un peu la chose, on en vient à toucher des questions que je trouve fascinante, à savoir tout bêtement c'est quoi comprendre ? Je crois qu'on pourrait définir la chose comme le fait d'établir des relations pertinentes entre des éléments, assez simplement, et ça a des conséquences très intéressantes sur ce qu'on peut dire d'une IA comme chatgpt. Parce qu'une IA comme chatgpt établit des relations tout à fait pertinente entre les mots, ce qui lui permet de répondre de façon tout autant pertinente, et donc effectivement de comprendre. Et le processus par lequel nos cerveaux humains comprennent les choses est certainement le même : établir des relations entre les choses, mais selon des schémas radicalement différents. Ces différences sont en fait surtout dûes au fait qu'on a plus d'éléments et de fonctions à disposition que chatgpt. Ce qui nous permet par exemple de répondre correctement à la question "combien font 2 + 2 ?", c'est d'une part que l'on est capable de faire des additions simples, ça fait partie des fonctions que notre cerveau possède, et que chatgpt ne possède pas (il a pas de calculette intégrée), et d'un autre que l'on est capable d'établir un lien direct entre la question et cette fonction. Ce qui nous permet de répondre quand on nous demande notre nom, c'est qu'on a accès à cette information, et que l'on est capable d'établir une relation entre la question et cette information. L'homme dans la chambre chinoise a lui aussi accès à ces éléments et ces fonctions, de par son incroyable ✨ groservo d'humain ✨, mais il n'a pas la capacité d'établir une relation entre les questions qu'on lui pose et ceux-ci, et c'est en cela qu'on peut dire, de façon un peu grossière, qu'il ne comprend pas.
    Pour prendre un autre exemple donné dans la vidéo, ce qui fait que nous comprenons que lorsqu'on bouge la table, le verre dessus bouge aussi, c'est le fait qu'on ait dans notre cerveau une fonction "moteur physique" intégrée, qui nous donne une certaine compréhension intuitive de comment les objets bougent et interagissent entre eux (on observe d'ailleurs ce moteur physique même chez les nourrissons ; très tôt, ils savent déjà intuitivement que les objets tombent par exemple), ainsi que le fait qu'on est capable d'établir une relation entre la description de ce verre sur la table et ce moteur physique. L'algorithme établit lui aussi tout un tas de relations entre les tokens, et arrive à la même conclusion, et il a bien une certaine compréhension de la chose, mais qui n'est pas du tout la même que la nôtre. Il ne dit pas que le verre bouge aussi parce que les forces de frottement le maintienne à sa position sur la table, mais parce que ayant accès cette suite de tokens décrivant la situation, la continuation logique telle qu'il l'a apprise est que le verre se déplace aussi.
    Et du coup on se rend vite compte avec cette définition que, n'en déplaise à Enthoven, bah si les machines pourront très certainement penser comme nous un jour, pour peu qu'on leur donne toutes les fonctions et éléments que nous avons, ainsi qu'un algorithme capable d'établir des relations entre toutes ces choses de la même façon que nous le faisons.

    • @randomdummy3391
      @randomdummy3391 ปีที่แล้ว

      attention je dis tout ça, je suis pas philosophe moi je suis juste en train de discerter au comptoir avec quelques grammes dans le sang x) j'imagine que soit je dis des bêtises, soit je dis des banalités pour les philosophes sérieux

  • @retrononomusic
    @retrononomusic ปีที่แล้ว +8

    Dis, je farfouille pas mal sur le net pour me renseigner sur les IA et je peux te dire que vous etes pas bien nombreux à remettre chatGPT à sa place. Force à toi!

    • @numero6285
      @numero6285 ปีที่แล้ว +1

      Le plus sage serait d’en reparler dans dix ans.

  • @MrGustavier
    @MrGustavier ปีที่แล้ว +1

    L'argument de John Searle (the chinese room argument) ne s'applique pas à des réseaux connexionnistes. En effet, les prémisses de l'argument spécifient bien qu'il s'agit de ce qui s'appelle en informatique une machine de Turing ou "FSA" (finite state automaton) avec une "architecture Von Neumann" qui consiste en une liste d'instruction (un programme), de la mémoire, un processeur qui suit les instructions, et le moyen d'écrire et de lire en mémoire.
    Le cœur de l'argument de Searle est de faire la distinction entre la "syntaxique" et la "sémantique". Il veut montrer que, en suivant des instructions, et en étant capable de lire des symboles "syntaxiques", celui qui ne parle pas le chinois dans la chambre peut donner l'impression de comprendre le langage, et ici "comprendre" fait référence à la "sémantique" des termes, le sens des mots, alors qu'en fait il ne fait que des opérations "syntaxiques".
    Son argument peut alors se résumer facilement :
    P1 - Un FSA ne pourra jamais faire que de la syntaxe.
    P2 - Un esprit humain fait de la sémantique.
    C - Donc un FSA ne pourra jamais suffire pour construire un esprit humain.
    Le problème, c'est que justement, les réseaux connexionnistes (machine learning) ne sont PAS des FSAs... Ce ne sont PAS des machines de Turing. Et c'est pour ça que dans la littérature philosophique, de nombreux arguments sont mis en avant pour expliquer que, contrairement à un FSA, qui en effet n'a jamais accès à la sémantique, les réseaux connexionnistes ont quant à eux accès à la sémantique. Et qu'en fait ce que l'on appelle la "sémantique" est complétement réductible à la structure des neurones qui est reproduite par les réseaux connexionnistes.
    Cela signifierait que les modèles de langage tels que chatGPT ont bien un compréhension sémantique du langage. Ils disposent bien, ils ont bien accès à la sémantique, mais bien sûr, cela ne suffit pas à faire d'eux des esprits conscients.
    Ils manquent au moins, bien évidemment, d'une motivation propre. Attention à ne pas confondre la simple "intelligence" avec la "conscience" (vaste sujet).

  • @remisurget7674
    @remisurget7674 ปีที่แล้ว +3

    Le passage à 23:48 avec Defakator c'est du génie, un "vrai" régal 😆 Bravo

  • @Maxime-fo8iv
    @Maxime-fo8iv หลายเดือนก่อน +1

    Ce que je retire de cette vidéo, c'est que les expériences de pensée sont ultra-puissantes pour convaincre, et quand elles sont "fausses" la faille peut être très difficile à trouver. Je m'étais toujours représenté les expériences de pensée comme un très bon moyen de convaincre, sans me rendre compte que ça pouvait aussi bien marcher pour les arguments invalides. Sauf sans doute quand on prend le temps de mettre à l'épreuve proprement l'expérience de pensée (débat constructif entre personnes d'un avis différent, recherche académique, ...)

  • @lisaroux8933
    @lisaroux8933 ปีที่แล้ว +5

    Bon, je suis encore pas mal en désaccord avec ce que tu dis, j'ai l'impression à chaque fois que tes vidéos sur ChatGPT sont un peu biaisées à vrai dire :-)
    Tu dis que ceux qui utilisent l'argument de la chambre chinoise pour parler de comprendre dans le sens subjectif disent qu'un algorithme ne pourra jamais rien comprendre, même dans mille ans. Non, il y en a plein qui disent simplement que ce n'est probablement pas le cas maintenant. Ce n'est pas parce que Raphaël Enthoven le dit que c'est le cas de tout le monde (au contraire, même, peut-être... :-) )
    Ensuite, dans cette vidéo, en gros tu dis (arrête moi si je me trompe): rien ne vous prouve que les IA génératives n'ont pas de conscience. Alors bon, déjà, il me semble que rien ne prouve non plus qu'une IA générative a une conscience. On peut y croire, un peu comme on a foi en Dieu, ou comme on pourrait croire qu'une pelle a une conscience (donc sur la base d'aucune preuve), mais je ne vois pas ce qui incite à le penser. Et je trouve un peu facile d'écarter l'argument de Yann LeCun sur la base de son exemple, alors que ce n'était qu'un exemple justement. Ca n'invalide pas son argument.
    Quels sont tes arguments pour penser qu'une IA a un conscience? Car même si on ne peut en effet pas prouver (ni, donc, l'affirmer avec certitude) que l'IA n'a pas de conscience, on a, il me semble, de bons arguments pour le penser (perso je te donne deux de mes arguments en bas). Et ce n'est pas dualiste de penser qu'une IA n'a pas de conscience. Au contraire même, parce que c'est au contraire en partie parce qu'on a et qu'on est notre corps, qu'on a une conscience, me semble-t-il. Et tu dis que GPT4 n'est entraîné que sur des textes, donc il ne peut pas faire l'expérience du bleu... Mais si c'est que tu penses, alors tu considères aussi qu'un aveugle ne peut pas comprendre (au sens subjectif) ce qu'est le bleu sans en avoir vu? De mon point de vue, dire que ChatGPT4 ne comprend probablement pas ce qu'il lit/dit au sens subjectif, c'est au contraire basé sur l'idée qu'il y a un phénomène émergent dans certains systèmes complexes, et en l'occurrence les systèmes biologiques, à partir de la matérialité physico-chimique (donc pas dans une perspective d'âme séparée du corps mais d'esprit et de corps intrinsèquement liés). Pas une âme séparée du corps, donc.
    Et pour finir, dans ce que je considère être de bons arguments, il y a selon moi, par exemple :
    * On connait un peu les modèles de langage et ce qu'il y a dedans, puisqu'on les a codés. Ils sont conçus avec une finalité précise et ils font exactement ce pour quoi ils ont été conçus. Ce n'est pas le cas des systèmes biologiques (sauf à croire en Dieu). Pas de phénomène d'émergence observé jusqu'à là chez ChatGPT.
    * Une IA a besoin d'énormément de données pour concevoir son système de représentation du monde. Si tu montres un chat à un enfant, il saura ce qu'est un chat. Pour que ton IA soit capable de reconnaître un chat, il y besoin de centaines de milliers de photos de chats. Pourquoi? Parce qu'il ne comprend pas, au sens subjectif, ce qu'est un chat: le chat n'est rien pour lui, il ne reçoit pas la représentation dans son esprit. Il raisonne uniquement à partir de pixels et de stats.
    Voilà, moi je me méfie pas mal de cette volonté qu'ont pas mal de gens à vouloir voir une conscience dans l'IA... parce que bon, c'est un peu le rêve suprême de l'humain, non, avoir créé quelque chose qui pense? :-)

  • @bsanchez1713
    @bsanchez1713 ปีที่แล้ว +1

    Je rebondis sur la look-up table pour essayer d'apporter une explication.
    Par principe une fonction pure (qui ne modifie pas le contexte globale ni aucun objet ne lui appartenant pas, et qui renvoit toujour la meme sortie pour une même entrée) peut etre remplacée par une lookup table infinie.
    Dans la limite où l'homme, enfermé dans la piece n'a acces a rien d'autre que ce qui lui est transmis par dessous la porte (donc pas de contexte, pas d'horloge donc pas de time et pas de dés donc pas de hasard) et qu'il suit scrupuleusement les instructions pour répondre, il pourrait garder un livre dans lequel il référence les questions la première fois qu'on les lui posent, et pour tout les appels subséquente se contente de re ecrire la reponse que l'algorithme a généré la première fois. Après un temps infini, toutes les questions possiblent auront étés posées et on pourra donc remplacer le livre d'instructions par le livre de références, la "lookup table" en question.

  • @colinpitrat8639
    @colinpitrat8639 ปีที่แล้ว +2

    J'adore l'argument du tweet au début : 'ChatGPT ne peut pas être conscient puisqu'il n'a pas été créé avec cette intention et entraîné pour ça." Donc l'humain a été créé pour être conscient ?

    • @TheRoro390
      @TheRoro390 ปีที่แล้ว +3

      L'humain (et tous les animaux) ont évolués pour être conscients oui, parce que ça aide a survivre. Chaque génération durant l'évolution entre le stade algue et animal créant petit à petit des êtres de plus en plus conscients

    • @artsenor254
      @artsenor254 ปีที่แล้ว

      ... Tu viens de donner du grain à moudre aux créationnistes, là. xD

    • @chanseyinthehood8415
      @chanseyinthehood8415 ปีที่แล้ว

      ​​​@@TheRoro390On en sait rien. Ça paraît logique et raisonnable mais en fait c'est bien plus compliqué que ça.
      On peut même élargir ça à l'intelligence en général, on ne sait pas forcément comment elle a émergé. On peut très bien imaginer que les premières "formes de consciences" ou d'intelligences chez les animaux ne soient pas apparuent pour elles-mêmes, pour l'avantage qu'elles procuraient, mais juste en tant que sous-fonction d'autre chose qui lui était sélectionné à ce moment.
      Pour prendre un exemple: l'intelligence est plus ou moins corrélé au coefficient d'encéphalisation, le rapport entre la taille de la boîte crânienne et la masse de l'individu, entre les différentes espèces. Et comme le cerveau est un organe très énergivore, il produit beaucoup de chaleur. Ainsi donc, peut être que l'intelligence ne serait qu'un sous produits de la sélection de cerveaux plus gros qui permettent de produire plus de chaleur dans des environnements froids ! Voir l'évolution des Cétacés ou des Hominidés !
      Tout ceci reste très théorique, mais montre bien que pour s'assurer qu'un trait ait évolué pour tel ou telle raison, c'est très compliqué.
      Et puis la présentation d'une "échelle" de l'évolution entre les "algues" (c'est trrrèèèèsss large) et les animaux c'est un peu foireux... Je ne vois pas en quoi une algue Volvox serait moins conscient qu'une éponge...

    • @TheRoro390
      @TheRoro390 ปีที่แล้ว

      @@chanseyinthehood8415 Les algues et les animaux c'était pour illustrer l'évolution de manière générale, des premières formes de vie simples aux plus complexes actuelles.
      Et pour l'intelligence, ca ne change rien qu'elle soit apparue comme sous-produit ou pas. Le fait est que l'intelligence (au sens très large, donc plante et champignons aussi) permet aux espèces de mieux survivre puisque toutes les espèces vivantes sont intelligente (à des degrés variés).
      Ma formulation n'était pas bonne, les êtres vivants n'ont pas "évolués pour" mais plutôt "évolué vers". L'argument de base c'était la comparaison avec "ChatGPT ne peut pas être conscient puisqu'il n'a pas été créé avec cette intention et entraîné pour ça." hors oui l'humain (et la vie de manière générale) à été entrainée à être consciente. Que ca soit un sous-produit ou non. Si je fait de la natation pour nager plus vite, et qu'au final en sous-produit j'ai des supers abdos, c'est mon entrainement qui m'a donné ces abdos.
      Pour l'aspect "créé pour" c'est plus difficile, mais si on voit la vie comme une seule et unique réaction chimique s'étant diversifiée dans ses formes au fil de sa multiplication, l'apparition de l'homme peut être vu comme étant "créé" par ses ancêtres dans "l'objectif" de mieux survivre au monde (des tas d'autres "espèces" ayant été créées dans ce but (chaque enfant) et ayant échoué)
      Et pour l'éponge et l'algue, j'ai pas de connaissances suffisantes pour savoir laquelle à une meilleure conscience du monde, surtout étant donné que les deux sont à la limite entre animal et végétal (et donc ont probablement des niveaux de conscience très proches)

    • @chanseyinthehood8415
      @chanseyinthehood8415 ปีที่แล้ว

      @yukiyuno7267 Je suis d'accord avec le début du commentaire. Je ne suis pas sûr pour l'utilisation du terme "objet" : je veux dire, n'importe quoi peut être un objet d'étude non ?
      De plus, je ne vois pas en quoi cela serait de la branlette intellectuelle sur rien du tout.

  • @stoephil
    @stoephil 4 หลายเดือนก่อน

    Ton exemple pratique du dessin de la licorne générée est particulièrement persuasif ! Je suis un peu plus proche d'accepter l'émergence de compréhension dans le cadre des LLM. Merci du partage !

  • @leiolevan9527
    @leiolevan9527 ปีที่แล้ว +2

    Je conseille à tous les vidéos de Rob Miles sur computerphile sur ces questions et d'autres autour de l'IA.
    En plus de celle de Mr Phi bien sûr (et de Defekator)
    Et de l'ami du bon goût !

  • @inenarrable1298
    @inenarrable1298 ปีที่แล้ว +1

    J'aimerai juste remonter un souci dans vos montages (et d'ailleurs, c'est un "péché" de nombreux vidéastes, faites passer le message) : vous mettez beaucoup d'annotations en incrustation, mais l'affichage est fugace. Donc pour les lire, on doit se mettre en pause. Et là... le texte, souvent mis trop bas, est à demi caché par la barre de défilement de la vidéo... et on perd la moitié du message (ou disons que cela devient pénible à lire)
    Ce serait bien de vérifier la lisibilité des incrustations en testant la mise en pause sur ces temps de la vidéo.
    Pareil d'ailleurs pour les incrustations en fin de vidéo lorsque il y en a.
    Sinon, j'aime bien ces annotations, hein. C'est juste que j'aimerai pouvoir bien les lire !

  • @haltux
    @haltux ปีที่แล้ว +1

    L'argument de Yann Le Cun reste globalement valide même si l'exemple choisi est malheureux.
    Concrètement un LLM ne dispose pas, et ne disposera vraisemblablement jamais (je parle ici de LLM, pas d'IA) d'une connaissance du monde qui lui permette d'interagir avec lui d'une manière vaguement comparable à ce que les être humains ou les animaux peuvent faire, même si on lui fournissait tous les moyens matériel de cette interaction.
    Prenons pour simplifier l'intelligence animale, l'essentiel est non verbal, et elle n'est pas équivalente à la description textuelle qu'on pourrait en faire. Qu'est-ce qu'un LLM sait de marcher, de courir, de chasser, de chercher des ressources, d'interagir avec ses congénères, surement plein de choses verbalisées, mais quoi d'actionnable, rien du tout. Pourquoi, parce que même dans un texte décrivant la marche il manque l'essentiel pour savoir marcher, qui est fournie par l'expérience de l'interaction avec le monde, et qui ne peut pas faire partie du training set d'un LLM.

  • @leodutriaux3748
    @leodutriaux3748 ปีที่แล้ว +1

    Même en connaissant bien l'argument de la chambre chinoise, c'était une super vidéo ! Juste dommage que tu n'aies pas cité Harnad (1990) et son argument du manège pour parler du problème de l'ancrage des symboles, je suis sûr que tu aurais pu en tirer quelque chose de drôle :)

  • @colonel_cookies_
    @colonel_cookies_ ปีที่แล้ว

    J'ai beaucoup ri au passage de Defekator, merci de l'avoir inclut, je pensé à lui !

  • @samuelblarre4522
    @samuelblarre4522 ปีที่แล้ว

    Merci pour cette vidéo explicative. J'ai l'impression d'avoir appris quelque chose alors que j'avais vu la chambre chinoise dans la vidéo de Defekator sans me poser de questions.

  • @henkfermeul3720
    @henkfermeul3720 ปีที่แล้ว

    Super vidéo ! J'aurais bien aimé que tu parle de l'argument des propriétés émergeantes. Ce qu'on appel "intelligence" implique souvent des façons inattendue de répondre à un problème imprévu. Dans le cas de chat GPT ça pourrait être de "comprendre" qu'un mot avec un fort score de prédiction n'est pourtant pas le plus approprié (comme lorsqu'il invente des présidents). Ou, par exemple, qu'il se mettent à comprendre spontanément le système de citation de la litérature scientifique.

  • @macbidulle8487
    @macbidulle8487 4 หลายเดือนก่อน +1

    "Comprendre un peu les échecs" n'est pas un euphémisme mais une litote.

  • @bobiboulon
    @bobiboulon ปีที่แล้ว +2

    35:11 Cette expérience de dessin de licorne fait écho à une chose qui me tourne dans la tête depuis très tôt dans ta vidéo. Déjà, j'étais d'avis que la chambre chinoise peut comprendre le langage sans comprendre les mots, et donc sans forcément comprendre ce dont elle parle, parce qu'il manque en effet les autres sources d'information, comme la vue ou l'ouïe par exemple. Et par "chambre chinoise", j'étends ça d'une certaine manière à chatgpt.
    Du coup j'ai imaginé une personne qui n'aurait jamais vu d’ornithorynque. Admettons qu'on lui décrive ce sublime animal, la personne saura alors s'en faire une représentation mentale, mais saura-t-elle réellement ce qu'est un ornithorynque? Par exemple, aussi imaginative et douée en dessin soit-elle, saura-t-elle me le dessiner? Et là, j'ai commencé à avoir un millier de questions, dont: la seule information de ce à quoi ressemble un ornithorynque est-elle nécessaire pour comprendre ce qu'est un ornithorynque? Si oui, qu'en est-il des aveugles? Si j'imagine un aveugle qui a lu toute la presse scientifique sur les ornithorynques, je suis à peu près certain qu'il saura ce qu'est cet animal beaucoup mieux qu'un enfant qui viendrait d'en voir un dans un zoo.
    Il est ainsi évident qu'il n'est pas nécessaire de, par exemple, voir (cécité), d'entendre (surdité) ou de se faire une image mentale (aphantasie) des choses pour comprendre ce qu'elles sont. A part, sans doute, les choses qui ne reposent que sur l'expérience d'un sens. Un aveugle ne saura jamais ce qu'est le bleu, par exemple.
    Du coup, chatgpt comprend-il ce dont il parle, à l'exception des choses dont il ne peut faire l'expérience, comme la couleur, les formes, le son, la douleur, et ainsi de suite?
    Et j'en étais à peu près là de mes réflexions quand tu viens avec cette expérience de demander à chatgpt de dessiner une licorne. De toute évidence, chatgpt n'a jamais vu de rose, ni perçu de cercle ou de segment, et pourtant, il est capable de dessiner une licorne avec des cercles, des segments et des couleurs. Certes, il n'utilise pas ses petites mains pour prendre des crayons de couleur et une feuille de papier, mais ce ne sont que des outils. Il utilise d'autres outils qui lui sont accessibles: un langage de code, un algorithme, des instructions.
    Ce qui a passablement fait dérailler le train de mon raisonnement.
    Du coup, je ressors de cette vidéo avec encore moins de certitudes et plus de questions qu'en y entrant. Mais c'est un peu le but, non? :D

    • @zi_dritz
      @zi_dritz ปีที่แล้ว

      Je cherchais ce commentaire, je me suis fais la même réflexion. Entièrement d'accord avec la cécité la surdité et tout le reste. Pourquoi est ce qu'une entité qui n'aurait qu'une modalité de "cognition" (ici du texte) ne pourrait absolument pas comprendre ce qu'elle manipule.

  • @bertrandpavlovsky5012
    @bertrandpavlovsky5012 ปีที่แล้ว +1

    Bonjour, merci pour cette super vidéo!
    Au risque de dire une bêtise, il y a peut-être quelque chose à aller chercher du côté de la théorie des formes pour argumenter l’aspect de compréhension subjective. Si l’on estime que cet aspect de la conscience nécessite de pouvoir jongler avec des représentations non sensorielles des concepts (d’où le fait de parler de « forme », mais l’approximations est peut-être un peu cavalière), alors on peut imaginer que cet aspect sera beaucoup moins facilement accessible à une machine.
    En tous cas les expériences de pensée autour du sujet et du fonctionnalisme en général sont passionnantes à suivre, bravo!

  • @trabqueyrel1691
    @trabqueyrel1691 ปีที่แล้ว

    Franchement respect pour tes arguments et comparaisons, j'ai adoré, merci :)

  • @vul-kyoul8839
    @vul-kyoul8839 ปีที่แล้ว +1

    Une pointure ce petit bonhomme,
    Toujours un plaisir de t'ecouter.
    Et sa fait plez de revoir defekator et l'ADBG :)

    • @Also_sprach_Zarathustra.
      @Also_sprach_Zarathustra. ปีที่แล้ว

      Tu peux demander à ChatGPT de corriger ton orthographe, si tu as du mal avec Ça (et pas « sa » 😨), Tu verras ça permettra de donner beaucoup de visibilité à tes commentaires, car les lecteurs auront moins envie de vomir 😇🥰

    • @vul-kyoul8839
      @vul-kyoul8839 ปีที่แล้ว

      @@Also_sprach_Zarathustra.
      C'est si joliment dit :D

  • @yazey91
    @yazey91 ปีที่แล้ว +1

    Je pense qu'on ne donne pas la faculté de conscience subjectif à l'IA parce qu'elle suit un processus de création différent du notre.
    On donne une faculté de conscience subjectif aux autres humain parce qu'on se dit "je suis capable de sentir que j'ai une faculté de conscience. Je n'ai pas été conçu d'une façon particulièrement différente des autres humains. Par conséquent rien ne permet d'affirmé que les autres humains n'ont pas de faculté de conscience subjectif similaire à la mienne. C'est donc qu'ils doivent avoir une faculté de conscience similaire à la mienne."

  • @GP-kn1zn
    @GP-kn1zn ปีที่แล้ว +2

    Je sais qu'aux échecs on dit assez souvent d'un joueur, même très fort (on l'a pas mal dit d'Hikaru par exemple), qu'il "ne comprend rien" ou qu'il "joue avec la main". Souvent on veut dire par là qu'il n'est pas capable d'expliquer ses coups. Personnellement, j'ai un peu de mal à dire d'une personne comprend si elle ne peut pas m'expliquer comment elle parvient à un certain résultat. C'est vrai que l'objection s'applique mal à ChatGPT qui lui pourrait me pondre un texte pour m'expliquer comment il a pondu le texte pour expliquer comment il a pondu le texte, etc.

    • @TheRoro390
      @TheRoro390 ปีที่แล้ว

      Elle peut le comprendre de manière inconsciente. Si je te demande de m'expliquer comment tu fais pour bouger ton bras tu vas pas savoir m'expliquer comment t'as réussi à bouger ce bras, pourtant le résultat sera là. (ou pour aller encore plus loin dans les comportements inconscients : comment faire pour faire battre son cœur, comment faire pour que ton pancréas produise de l'insuline etc...) Inconsciemment une partie de ton cerveau comprends comment faire et envoie les signaux pour le faire, sans que consciemment tu puisse l'expliquer.
      (Après comme toujours, on peut aussi être sur un problème de sémantique du mot comprendre)

  • @manu5379
    @manu5379 ปีที่แล้ว +1

    Pour le dessin, GPT4 reste très schématiques avec Processing ou Canvas mais il fait de belle animations en css

  • @sebastienleboucher1819
    @sebastienleboucher1819 ปีที่แล้ว

    Merci d'avoir mis des mots sur un concept que beaucoup trop sous estiment ! J'en connais quelques uns à qui cela va exploser au visage ;)

  • @tristanschoenloh2470
    @tristanschoenloh2470 ปีที่แล้ว +1

    trop cool de voir Defakator ! Très bonne vidéo.

  • @coolas
    @coolas ปีที่แล้ว +1

    Sur le sujet des IAs, je suis tombe sur cette conférence d'il y a presque 40 ans de Richard Feynman. Elle est frappante car il est loin d'asséner des prédictions péremptoires Enthoveniennes malgré l'état de l'art primitif en 1985.
    th-cam.com/video/ipRvjS7q1DI/w-d-xo.html
    Et il fait - entre autres - deux observations intéressantes:
    - on ne demande pas à une machine de fonctionner comme un humain: Les voitures ne marchent pas sur des jambes, les avions ne battent pas des ailes... L'important est le résultat. Et donc une machine pourrait "comprendre" sans imiter les mécaniques de ce que nous pensons être la compréhension chez les humains.
    - Il décrit (en réponse à la première question de la salle) ce que j’appellerais le "Sophisme de l'épouillage" qui consiste à rajouter des choses de plus en plus baroques à une définition d'un comportement jusqu'à pouvoir dire que seul l'humain (ou le primate) est capable de le faire. Comme par exemple dire que une machine ne "comprend" pas car elle n'est pas capable comme nous de s'épouiller pendant que elle donne ses résultats, et que "bien sûr", pouvoir s'épouiller est une condition nécessaire de la compréhension.

  • @FavoritesAG
    @FavoritesAG ปีที่แล้ว

    J'adore tes vidéos. Toujours intéressantes et très riches. Merci.
    Beaucoup d'humour aussi, j'aime bien.

  • @ixion025
    @ixion025 ปีที่แล้ว +1

    33:49 Si chat GPT te sortait une sponso rhinoshield sur l'état du téléphone je mourrais sur place xD

  • @g.tacchi9941
    @g.tacchi9941 ปีที่แล้ว +1

    C'est dingue à chaque nouvelle vidéo je me dis : "bon bah voilà, c'est la meilleure vidéo de la chaîne"... Ce qui se trouve systématiquement contredit par mon visionnage suivant.

  • @what_ever24
    @what_ever24 ปีที่แล้ว +2

    7:14 Ca n'a rien de raciste cette métaphore de la chambre chinoise, il est de notoriété publique que cette langue est particulièrement ardue. Faut arrêter de nous mettre du racisme à toute les sauces !

  • @taeshya
    @taeshya ปีที่แล้ว

    Je viens de piger un truc vraiment profond par rapport a la précision sur le connasmissance d'un concept via un autre ancrage.
    De ce point de vue, fort pertinent ce qui manque à ses modèles ce sont les sens, c'est eux qui permettent aux humains d'encrer des concepts déjà via plusieurs canaux mais sûrement cela est lié au final à la subjectivité.
    Il serait intéressant de coupler un modèle de langage avec des capteurs pour associer la compréhension de concepts avec une experience sensorielle. Exemple, pour une couleur, si cela est couplé à des capteurs de longueurs d'onde et un modèle d'ia qui met en relation les informations sensorielles et textuelles, j'ai le sentiment que ça serait intéressant comme architecture et très prolifique !
    Edit: j'avais posté avant la dernière minute de vidéo, on en vient à la même conclusion !

  • @Positive_Climb-z3v
    @Positive_Climb-z3v ปีที่แล้ว

    Je découvre la chaine. C'est excellent. Sur le bleu, ça me rappelle là discussion autour du goût du steak dans Matrix.

  • @XRaym
    @XRaym ปีที่แล้ว +1

    36:28 c'est le nez qui est au milieu du visage, pas les yeux 🤣

  • @vendettagorgon3639
    @vendettagorgon3639 ปีที่แล้ว

    Quelle énorme masterclass de trouver Defekator dans cette vidéo...

  • @Ishtima2
    @Ishtima2 ปีที่แล้ว +1

    Que nous réserve donc l'avenir ? Un monde plus juste, gouverné par une IA, comme Asimov le décrivait ? Ou bien un monde dans lequel l'homme ne sera plus que l'esclave de la machine... si tant est qu'il existe encore ? Merci pour cette excellente mise au point !
    Je viens de remplir le questionnaire en vue d'une prochaine vidéo... J'ai hâte de découvrir les résultats de cette petite étude...

  • @aureliacalvas2035
    @aureliacalvas2035 ปีที่แล้ว +1

    Ah merci ! Ça me ramène à un cours de philo cognitive de 2008 donné par Cédric Brun à Bordeaux... Nostalgie...

  • @branlix-ep5wf
    @branlix-ep5wf ปีที่แล้ว +1

    Bonjour @MonsieurPhi, pendant le visionnage de cette vidéo j'ai pas pu m'empêcher de faire le parallèle peut être un peu bête et surement assimilable qu'a un certains points au théories psychanalytiques développé par Jacques Lacan notamment sur le poids du langage et du signifiant dans l'articulation des registres Réel, Symbolique, Imaginaire. Et comment en suivant ces théories c'est le langage qui vient donner une consistance a la réalité en venant recouvrir et interpréter le Réel qui serait de base inaccessible car hors langage. Bon je ne suis pas suffisamment au point pour aller très loin dans ma réflection, ni savoir si c'est une bonne idée, mais peut être qu'il serait intéressant d'un point de vue philosophique de s'intéresser/ critiqués, interrogé les IAs type ChatGPT avec certaines théories lacanienne. Bonne journée en tout cas :)

  • @westweston_
    @westweston_ ปีที่แล้ว

    Magnifique sujet, comme la presentation, encore une clef pour mieux aborder le réel et le futur. Merci

  • @nilsou1704
    @nilsou1704 ปีที่แล้ว

    Excellente vidéo, en tant que chercheur en IA je suis totalement d'accord avec vous. D'ailleurs, c'est rigolo, à chaque fois que vous présentiez un exemple chelou comme la citation de LeCun, j'étais prêt à saisir mon clavier pour dire « mais, mais, c'est n'importe quoi », ce qui est inutile vu que vous démontrez très clairement à chaque fois que c'est effectivement n'importe quoi dans la partie suivante de la vidéo ^^.
    Pour LeCun en l’occurrence, il est évident que les textes contiennent suffisamment d'information pour en déduire les lois de Newton, la gravitation etc, bref, un modèle du monde suffisant pour savoir que l'objet posé sur une table se déplace avec la table. J'ai vu des démos en ce sens en conf il y a déjà ... 10 ans ou presque ... (par analyse de texte ou par observation du monde) bref, il est complétement à la rue le bonhomme ...
    Comme souvent dans votre vidéo j'allais dire un peu la même chose que vous à la fin : il est évident, et c'est déjà fait sur différent modèle en recherche, qu'on peut nourrir une IA avec des données autre que du texte, c'est parfaitement agnostique des données d'entrée en l’occurrence. On le fait d'ailleurs déjà sur des modèles du type de celui utilisé par MidJourney etc. (c'est une entrée texte qui donne une image, mais faire l'inverse n'a aucune difficulté technique, on le fait dans ce sens parce que c'était le plus intéressant, c'est tout).
    Enfin il manque un exemple, je pense, qui aurait pu enrichir énormément votre propos à la fin : quand nous lisons un livre de science fiction, ou des livres écrits dans un passé lointain, nous arrivons bien à nous faire une représentation de mondes qu'on a jamais « connus » en s'appuyant simplement sur une description textuelle. Un texte comprends donc bien assez d'information pour se construire une représentation du monde qui tient la route.
    Ha, et il aurait pu être intéressant de citer Turing dans la bataille : à savoir qu'une autre réponse à la chambre chinoise est de dire que comme il est impossible de définir cet aspect « subjectif » alors faire un système qui « mime » est équivalent factuellement. Vous allez là dessus quand vous dites qu'on a pas de preuve qu'un autre humain à bien une intériorité. Bref on a pas de preuve qu'une autre personne n'est pas une chambre chinoise. À mon sens (et au sens de Turing) c'est le point majeur. Je pense que ça mériterait plus de place dans le propos.
    Voili voilou pour mes commentaires.
    Une excellente vidéo sinon !

  • @orhin3231
    @orhin3231 ปีที่แล้ว

    Le passage de la vidéo sur les couleurs m'a mené à la réflexion suivante :
    Supposons une personne ne pouvant interagir avec son environnement que par la parole et l'audition (un paraplégique aveugle en quelque sorte).
    Si celui-ci peut dialoguer avec un interlocuteur qui répondra à toutes ses questions, alors la personne peut elle se créer une représentation du monde dont elle en aura la compréhension (subjective et objective) ?
    À priori personne ne répondra non à cette question (on pourra tout au plus poser certaines limites comme la compréhension intuitive des couleurs ou du gout des aliments).
    Hors, je ne vois pas de différence fondamentale entre quelqu'un qui construirait sa représentation du monde via le dialogue et une IA s'entrainant sur un corpus de texte.
    @MonsieurPhi est-ce que je loupe quelque chose ?