Je souhaite clarifier une idée concernant la singularité. L'essence même d'une IA générative réside dans son autonomie : c'est un logiciel capable de se reprogrammer lui-même. On peut donc dire que la singularité est déjà en cours. Imaginez qu'on place une IA dans un drone de combat avec pour mission de "libérer le monde" sans donner de cibles précises. L'IA pourrait alors interpréter cet ordre de manière dangereuse, en cherchant à éliminer tout ce qu'elle perçoit comme une menace meme un enfant.
Oula non !!!! Les IA génératives ne sont pas du tout autonomes ni même intelligentes. Elles ne raisonnent pas, elles simulent c’est tout. C’est impressionnant mais c’est juste de la corrélation statistique… et c’est une impasse. La recherche est déjà passée à autre chose.
@@HarBringer70 l’avance : c’est le résultat lui-même qui montre ses limites lorsqu’on l’utilise à un certain niveau. Si tout était préconfiguré et bien scripté, on n’aurait pas d’erreurs inattendues. Cela fait 15 ans que j’ai ma boîte de développement, et depuis 8 ans, je refuse les clients qui me parlent d’incorporer une IA tout en exigeant une garantie de 2 ans sur le logiciel.
@@HarBringer70 Oui, les IA génératives simulent, mais elles vont au-delà de la simple imitation. Leur fonctionnement repose sur des corrélations statistiques établies à partir de grandes quantités de données. Cela leur permet de produire des résultats impressionnants, mais aussi de commettre des erreurs, car elles n'ont pas de compréhension réelle du contenu qu'elles génèrent. Contrairement à un logiciel scripté, elles ne se limitent pas à des règles prédéfinies. Elles génèrent des réponses adaptatives même dans des situations non prévues, ce qui peut mener à des inexactitudes, mais démontre aussi une certaine flexibilité. Cela ne signifie pas qu'elles "mentent" intentionnellement : elles répondent avec les moyens statistiques à leur disposition, sans "savoir" qu'elles se trompent. Votre exemple de la Tesla est pertinent. Si une voiture autonome avec le Full Self-Driving parcourt 10 km en prenant des décisions en temps réel, elle est autonome dans une certaine mesure. De même, une IA générative produit non seulement la "forme" (le texte ou le contenu), mais aussi le "fond" en créant des réponses contextuelles et cohérentes selon ses modèles. Il ne s'agit pas d'une impasse, mais d'une étape dans l'évolution de l'intelligence artificielle. Ces outils, bien que perfectibles, apportent déjà des avancées considérables dans de nombreux domaines.
Bonne vidéo. Petites coquille sur la fusion. C'est les réacteurs nucléaires à fission de génération 4 qui permettraient de réutiliser les déchets. La fusion nucléaire fonctionne sur un tout autre principe. Elle utilise la fusion de l'hydrogène en hélium et n'utilise pas du tout d'uranium. Quand à la conscience des IA, ton point de vue reste discutable. Qu'est-ce que la conscience humaine ? Sur quelle base tu t'appuies pour dire que l'IA n'atteindra jamais notre niveau ? De plus, les risques existentiels liés à l'IA n'impliquent pas nécessairement qu'elle développe une conscience. En tout cas, rien à redire sur le reste du fond et de la forme. GG.
Merci pour ton retour :) Merci pour la précision sur la fusion / fission ! Sur l’aspect IA et singularité, je le vois avant tout comme un sujet philosophique et non technique. Je pense qu’il est possible qu’un jour une IA puisse dépasser le cerveau humain en capacité, mais je n’y crois pas qu’un jour on les considère comme ayant une conscience égale à la notre. La conscience humaine est par essence humaine. Même si un jour l’IA en développe une, on le considérera pas comme humaine ! Et enfin, j’ai du mal à voir comment ça pourrait nous échapper alors qu’il suffit de débrancher. 🫣 Si tu veux me partager des études scientifiques sur le sujet je serai bien intéressée, ça pourrait faire l’objet d’une futur analyse ! 😊
@@clairenocode On voit déjà des IA qui modifie leur propre code. Des IA qui trichent. Des IA qui mentent. Voir la section recherche de pouvoir sur le Wikipedia "Alignement des intelligences artificielles". Et nombre sont les spécialistes qui ont peur de l'agentivité grandissante des tout prochains modèles à venir. Sans parler du risque de hacking et de multiplication de certains modèles. Ou des modèles agressifs de LLM développés dans le cadre du red teaming pour tester la robustesse des gros modèles. Pour ce qui est de les débrancher, c'est pas toujours aussi simple qu'il n'y parait. Est-ce qu'Open AI peut décider de débrancher GPT avec les dizaines de milliards qui ont été injectés par Microsoft et Apple ? Est-ce qu'on peut débrancher les IA open source, comme LLama que déjà des milliers de personnes utilisent en local ? Est-ce qu'on peut débrancher les IA de recommandation qui génèrent des milliards sur les réseaux ? Est-ce qu'on peut débrancher Aladin qui gère plusieurs milliers de milliards d'actifs ? Plus ça va aller, plus ces modèles vont devenir omniprésents dans nos vies, et la solutions du débranchage deviendra jour après jour toujours moins envisageable. Comme c'est déjà le cas d'Internet aujourd'hui qu'on ne peut plus envisager de débrancher sans causer des répercutions économiques catastrophiques. Conscience des IA : Question éminemment philosophique il est vrai. Et t'as bien raison : il y a très fort à parier qu'une IA consciente aura une conscience bien différente des animaux. Mais dans quelle mesure ? La question ne se pose pas que d'un point de vue philosophique, mais y'a tout un pan de la recherche cognitive qui s'y intéresse sérieusement. Et qq réactions de LLM, qui pourraient être autre chose que de simples réponses statistiques textuelles, font déjà penser à des formes balbutiantes de conscience. Ce qui reste encore à prouver.
C'est trop bien réalisé, continue ❤️
Merci, j'ai trop aimé créer cette vidéo ! 😊
Je souhaite clarifier une idée concernant la singularité. L'essence même d'une IA générative réside dans son autonomie : c'est un logiciel capable de se reprogrammer lui-même. On peut donc dire que la singularité est déjà en cours. Imaginez qu'on place une IA dans un drone de combat avec pour mission de "libérer le monde" sans donner de cibles précises. L'IA pourrait alors interpréter cet ordre de manière dangereuse, en cherchant à éliminer tout ce qu'elle perçoit comme une menace meme un enfant.
Je suis d'accord mais dans les faits on a déjà des armes qui, entre de mauvaises mains feraient qu'on en arriverait là :/
Oula non !!!! Les IA génératives ne sont pas du tout autonomes ni même intelligentes. Elles ne raisonnent pas, elles simulent c’est tout. C’est impressionnant mais c’est juste de la corrélation statistique… et c’est une impasse. La recherche est déjà passée à autre chose.
@@HarBringer70 l’avance : c’est le résultat lui-même qui montre ses limites lorsqu’on l’utilise à un certain niveau. Si tout était préconfiguré et bien scripté, on n’aurait pas d’erreurs inattendues.
Cela fait 15 ans que j’ai ma boîte de développement, et depuis 8 ans, je refuse les clients qui me parlent d’incorporer une IA tout en exigeant une garantie de 2 ans sur le logiciel.
@@HarBringer70 Oui, les IA génératives simulent, mais elles vont au-delà de la simple imitation. Leur fonctionnement repose sur des corrélations statistiques établies à partir de grandes quantités de données. Cela leur permet de produire des résultats impressionnants, mais aussi de commettre des erreurs, car elles n'ont pas de compréhension réelle du contenu qu'elles génèrent.
Contrairement à un logiciel scripté, elles ne se limitent pas à des règles prédéfinies. Elles génèrent des réponses adaptatives même dans des situations non prévues, ce qui peut mener à des inexactitudes, mais démontre aussi une certaine flexibilité. Cela ne signifie pas qu'elles "mentent" intentionnellement : elles répondent avec les moyens statistiques à leur disposition, sans "savoir" qu'elles se trompent.
Votre exemple de la Tesla est pertinent. Si une voiture autonome avec le Full Self-Driving parcourt 10 km en prenant des décisions en temps réel, elle est autonome dans une certaine mesure. De même, une IA générative produit non seulement la "forme" (le texte ou le contenu), mais aussi le "fond" en créant des réponses contextuelles et cohérentes selon ses modèles.
Il ne s'agit pas d'une impasse, mais d'une étape dans l'évolution de l'intelligence artificielle. Ces outils, bien que perfectibles, apportent déjà des avancées considérables dans de nombreux domaines.
Bonne vidéo.
Petites coquille sur la fusion. C'est les réacteurs nucléaires à fission de génération 4 qui permettraient de réutiliser les déchets.
La fusion nucléaire fonctionne sur un tout autre principe. Elle utilise la fusion de l'hydrogène en hélium et n'utilise pas du tout d'uranium.
Quand à la conscience des IA, ton point de vue reste discutable. Qu'est-ce que la conscience humaine ? Sur quelle base tu t'appuies pour dire que l'IA n'atteindra jamais notre niveau ? De plus, les risques existentiels liés à l'IA n'impliquent pas nécessairement qu'elle développe une conscience.
En tout cas, rien à redire sur le reste du fond et de la forme. GG.
Merci pour ton retour :)
Merci pour la précision sur la fusion / fission !
Sur l’aspect IA et singularité, je le vois avant tout comme un sujet philosophique et non technique. Je pense qu’il est possible qu’un jour une IA puisse dépasser le cerveau humain en capacité, mais je n’y crois pas qu’un jour on les considère comme ayant une conscience égale à la notre.
La conscience humaine est par essence humaine. Même si un jour l’IA en développe une, on le considérera pas comme humaine !
Et enfin, j’ai du mal à voir comment ça pourrait nous échapper alors qu’il suffit de débrancher. 🫣
Si tu veux me partager des études scientifiques sur le sujet je serai bien intéressée, ça pourrait faire l’objet d’une futur analyse ! 😊
@@clairenocode On voit déjà des IA qui modifie leur propre code. Des IA qui trichent. Des IA qui mentent.
Voir la section recherche de pouvoir sur le Wikipedia "Alignement des intelligences artificielles".
Et nombre sont les spécialistes qui ont peur de l'agentivité grandissante des tout prochains modèles à venir. Sans parler du risque de hacking et de multiplication de certains modèles. Ou des modèles agressifs de LLM développés dans le cadre du red teaming pour tester la robustesse des gros modèles.
Pour ce qui est de les débrancher, c'est pas toujours aussi simple qu'il n'y parait. Est-ce qu'Open AI peut décider de débrancher GPT avec les dizaines de milliards qui ont été injectés par Microsoft et Apple ? Est-ce qu'on peut débrancher les IA open source, comme LLama que déjà des milliers de personnes utilisent en local ? Est-ce qu'on peut débrancher les IA de recommandation qui génèrent des milliards sur les réseaux ? Est-ce qu'on peut débrancher Aladin qui gère plusieurs milliers de milliards d'actifs ?
Plus ça va aller, plus ces modèles vont devenir omniprésents dans nos vies, et la solutions du débranchage deviendra jour après jour toujours moins envisageable. Comme c'est déjà le cas d'Internet aujourd'hui qu'on ne peut plus envisager de débrancher sans causer des répercutions économiques catastrophiques.
Conscience des IA :
Question éminemment philosophique il est vrai. Et t'as bien raison : il y a très fort à parier qu'une IA consciente aura une conscience bien différente des animaux. Mais dans quelle mesure ?
La question ne se pose pas que d'un point de vue philosophique, mais y'a tout un pan de la recherche cognitive qui s'y intéresse sérieusement. Et qq réactions de LLM, qui pourraient être autre chose que de simples réponses statistiques textuelles, font déjà penser à des formes balbutiantes de conscience. Ce qui reste encore à prouver.