[Conférence SML] Mystères mathématiques des réseaux de neurones profonds - Stéphane Mallat

แชร์
ฝัง
  • เผยแพร่เมื่อ 18 ธ.ค. 2024

ความคิดเห็น • 11

  • @marcpremium7442
    @marcpremium7442 2 ปีที่แล้ว +2

    Je m’étais intéressé au sujet dans les années 90 et je confirme qu’il y avait matière à ne pas y croire! Je suis très impressionné par les progrès réalisés et fasciné par les questions mathématiques sous-jacentes. Je ne serais pas étonné qu’à terme, les réponses à ces questions mènent à une interprétation beaucoup plus convaincante de la mécanique quantique que celle de Copenhague.
    C’est une vidéo dense et très intéressante.

  • @punkpendulums
    @punkpendulums 2 ปีที่แล้ว +1

    03:47 Changement de paradigme 05:15 IA, capacité de faire de la prediction 06:21 se retrouver dans un cadre, géométrique 06:54 un questionnaire, 30.000 personnes, deuxième cohorte, prédire les réponses 09:24 problématique

  • @matardiop2276
    @matardiop2276 5 ปีที่แล้ว

    Merci !

  • @fakhermokadem11
    @fakhermokadem11 5 ปีที่แล้ว +2

    Mais s'il vous plait, S'IL VOUS PLAiT, monsieur, faites un cours en ligne pour apprentissage. On veut plus de ces cours applicatifs qui n'osent pas toucher aux mathematiques. Ou peut-on trouver plus de ressources (conferences, livres, cours) de ce type?

    • @MMIdeLyon
      @MMIdeLyon  5 ปีที่แล้ว +2

      Stéphane Mallat est professeur au Collège de France et y donne justement un cours sur le sujet, encore jusqu'au 20 mars. Ce cours est accessible en ligne à l'adresse suivante:
      www.college-de-france.fr/site/stephane-mallat/_course.htm

    • @fakhermokadem11
      @fakhermokadem11 5 ปีที่แล้ว

      Merci beaucoup@@MMIdeLyon

  • @stephanestephane4291
    @stephanestephane4291 4 ปีที่แล้ว

    J'ai pas compris pourquoi l'existence de minima locaux, n'empêche pas la descente de gradient d'être efficace 🤔

    • @junkbingo4482
      @junkbingo4482 4 ปีที่แล้ว

      parce qu'on reste coince dans le minima local et que le gradient ( base sur les developpements limites) ne permet pas d'en sortir

    • @christophecerisara8741
      @christophecerisara8741 3 ปีที่แล้ว +2

      Parce que des résultats récents montrent que dans les espaces de recherche concernés, qui sont de grandes dimensions, les optima locaux sont en fait aussi "bons" (en terme d'erreur commise par le réseau) que l'optimum global. Donc, on peut se contenter des optima locaux ! Pourquoi ? aucune certitude encore; en réalité, on ne comprend pas bien encore les propriétés de ces espaces de recherche: les optima formeraient des "surfaces" (manifold/variété) qui traversent l'espace; la proba d'avoir un vrai optimum local serait faible, car il y aurait souvent au moins une dimension avec un gradient qui va dans l'autre sens, etc, bref, encore beaucoup de choses à comprendre !