Le combat du 21 eme siècle : l’homme contre l’intelligence artificielle

แชร์
ฝัง

ความคิดเห็น • 13

  • @lennygoris9258
    @lennygoris9258 หลายเดือนก่อน +2

    tu mérites vraiment plus de vues, d'abonnés. Même 100k ce serait petit comparé à ce que tu fais

    • @MewTechs
      @MewTechs  หลายเดือนก่อน

      Oh merci beaucoup ! 😁

  • @Instant_T
    @Instant_T หลายเดือนก่อน +4

    Waaa sacrée masterclass ! Répondre à cette question par l'analyse de la confrontation homme machine dans le jeu est un angle à la fois innovant et pertinent !
    Bravo 👏🏼

    • @MewTechs
      @MewTechs  หลายเดือนก่อน +2

      Merci 😁

  • @ChipsouChess
    @ChipsouChess หลายเดือนก่อน +3

    Intéressant. Keep up the good work 🔥

    • @MewTechs
      @MewTechs  หลายเดือนก่อน

      Merci on va essayer !

  • @_LuisFernandes_
    @_LuisFernandes_ หลายเดือนก่อน

    il y a pas 10^40 mais 10^120 positions possibles aux échecs, c'est infiniment plus grand que le nombre de grain de sable sur terre (7,5 x 10^18). pour ce qui est de l'IA dans les échecs, c'est basiquement plus de la puissance de calcul qu'autre chose, l'énergie nécessaire n'est pas vraiment un critère et c'est d'ailleurs plus d'efficience que de l'efficacité. Enfin chatGPT n'est pas programmé puisque c'est un réseau de neurone et n'a pas pour vocation d'être intelligent mais de prédire des séquences sémantiques. Le jour ou l'AGI (intelligence artificielle générale) verra le jour, le cerveau humain paraîtra très basique à côté. D'ailleurs pour enfoncer le clou, en quoi le cerveau est-il différent d'un ordinateur, fondamentalement ce n'est qu'un réseau de neurones (littéralement) qui effectue des opérations booléennes, donc si on reproduit ce principe numérique avec suffisamment de puissance, on a théoriquement une personne réel à l’intérieur d'une machine avec tout ce que ça implique philosophiquement.

    • @MewTechs
      @MewTechs  หลายเดือนก่อน +3

      Bonjour,
      Merci d'avoir regardé la vidéo jusqu'au bout, c'est exactement ce qu'il me faut !
      Je vais répondre point par point aux éléments que vous avez soulevés :
      - Il n'y a pas 10^40, mais 10^120 positions possibles aux échecs, ce qui est infiniment plus grand que le nombre de grains de sable sur Terre (7,5 x 10^18).
      Je me suis basé sur le nombre de Shannon (fr.wikipedia.org/wiki/Nombre_de_Shannon), qui estime le nombre de coups plausibles. Je cite :
      "En comparaison du nombre de Shannon, si l'on analyse uniquement le nombre de parties 'plausibles' (en excluant les coups absurdes), alors le résultat se situe aux alentours de 10^40 parties."
      Cela repose sur l'hypothèse de 3 coups plausibles à chaque demi-coup pour une partie moyenne de 40 coups (ou 80 demi-coups), ce qui donne environ 3^80 ≈ 10^40. Ce chiffre a été pris en compte lors du développement de Deep Blue : stanford.edu/~cpiech/cs221/apps/deepBlue.html
      Il est donc logique de ne pas explorer toutes les combinaisons absurdes, comme déplacer son roi au centre de l'échiquier dès le début.
      - L'énergie nécessaire n'est pas vraiment un critère et c'est plus une question d'efficience que d'efficacité.
      Premièrement, cela dépend de votre point de vue, mais cela va à l'encontre de l'approche d'OpenAI (et d'autres entreprises) qui cherchent à optimiser la consommation énergétique, notamment en développant leurs propres accélérateurs pour réduire l'empreinte énergétique. En fait, OpenAI facture même ses services en fonction du nombre de paramètres et de la quantité d'énergie dépensée lors d'une requête API.
      Deuxièmement, les ressources énergétiques de notre monde sont limitées, et le cerveau humain a dû s'adapter à l'énergie disponible dans son environnement. Bien que les IA actuelles ne soient pas encore confrontées à ce problème de manière significative, des architectures comme MobileNet, optimisées pour les téléphones, montrent que la réduction de la consommation énergétique sera un enjeu futur, même pour les IA plus complexes.
      - Enfin, ChatGPT n'est pas programmé.
      Le terme "apprentissage" aurait été plus approprié, mais l'idée reste la même. Les modèles comme ChatGPT sont basés sur l'architecture transformers, décrite dans le papier "Attention is All You Need" (arxiv.org/pdf/1706.03762). Ces modèles utilisent des représentations vectorielles des mots (après tokenization), suivies de calculs matriciels, de softmax et de couches feed-forward. Ces modèles sont bien programmés dans le sens où leurs prédictions dépendent TOTALEMENT des données sur lesquelles ils ont été entraînés. Par exemple, posez certaines questions à ChatGPT et à Grok sur des sujets controversés, et vous obtiendrez différentes réponses, même s'ils reposent sur des architectures similaires. La différence vient de leur entraînement et des données utilisées.
      - C'est un réseau de neurones et n'a pas vocation à être intelligent, mais à prédire des séquences sémantiques.
      Vous remettez donc en question les termes d'intelligence artificielle, voir www.researchgate.net/figure/LLMs-within-the-AI-taxonomy-LLMs-exist-as-a-subset-of-deep-learning-models-which-are-a_fig1_378394229
      Les LLMs seraient donc un sous-ensemble de l'intelligence artificielle qui ne serait donc pas voué à être intelligent ?
      On est sur une contestation de la sémantique.
      - Le jour où l'AGI verra le jour, le cerveau humain paraîtra très basique à côté.
      Ceci est votre avis et en l'état relève de la spéculation, mais si vous avez des travaux qui appuient vos propos, je suis preneur, par exemple une présentation de Yann LeCun va (en partie) dans votre sens. Ses conférences sont sur TH-cam et ses slides sont ici :
      drive.google.com/file/d/1r-mDL4IX_hzZLDBKp8_e8VZqD7fOzBkF/view
      En clair, il compare les IA modernes avec les bébés, déroulez un peu, vous verrez la slide, (Yann le numéro sur les slides svp). En résumé, pour avoir des AGI, il faut changer de paradigme, donner de plus en plus de mots a "lire" ne rendra pas les IA d'aujourd'hui plus intelligentes, il faut qu'elles "expérimentent" avec leur environnement comme le fait un enfant.
      -D'ailleurs pour enfoncer le clou, en quoi le cerveau est-il différent d'un ordinateur, fondamentalement ce n'est qu'un réseau de neurones (littéralement)
      En fin et pour enlever un cou, qui n'a finalement jamais été planté, votre affirmation relève encore d'une spéculation, ce qui n'est pas mauvais, mais on ne connait pas tout du cerveau à ma connaissance, on ne sait toujours pas par exemple quelle zone du cerveau crée la conscience, il me parait donc compliqué de répliquer ce que l'on ignore.
      Ensuite, Aujourd'hui les IA sont constituées de réseaux de neurones profonds, en revanche, le cerveau humain fonctionne différemment. Il s'appuie davantage sur un modèle de connexions larges et massivement parallèles entre différentes régions du cerveau. Ces connexions permettent une communication très rapide et simultanée entre les régions du cerveau. Cela rend le cerveau extrêmement efficace en termes d'énergie et de traitement global des informations, même si ses réseaux neuronaux ne sont pas "profonds" comme ceux de l'IA, mais plutôt larges et distribués : "wide shallow network".
      neurosciencenews.com/ai-human-brain-neuroscience-25452/
      Merci.

    • @yohanngagnerie305
      @yohanngagnerie305 หลายเดือนก่อน +2

      @@MewTechs comment anéantir un autoproclamé expert en 5 minutes mdr. Une argumentation imparable et même impressionnante. Bravo

  • @phanyles1
    @phanyles1 หลายเดือนก่อน +1

    Super vidéo !! je met la cloche et je m'abonne

    • @MewTechs
      @MewTechs  หลายเดือนก่อน

      Merci à toi :)