Les maths des réseaux de neurones

แชร์
ฝัง
  • เผยแพร่เมื่อ 18 ม.ค. 2025

ความคิดเห็น • 19

  • @prfontaine5387
    @prfontaine5387 9 หลายเดือนก่อน +2

    Cette vidéo fait partie d'une playlist intitulée "Les bases des réseaux de Neurones" qui est vraiment remarquable. On commence par la différentiation automatique avec un codage "from scratch", certes sans en connaître les aboutissants et puis, peu à peu, on se rapproche des réseaux, du processus d'apprentissage (fondamentalement une descente de gradient s'appuyant sur les gradients calculés par la différenciation automatique). Tout ce que j'aime en pédagogie: quasiment aucun prérequis nécessaires, on fait soi-même du code avant d'utiliser la librairie hyper-puissante (qui cache tout), progressivité dans la compréhension, introduction des notations et du vocabulaire de la communauté ... Bravo et merci !!

    • @alexandretl
      @alexandretl  9 หลายเดือนก่อน

      Merci beaucoup pour votre commentaire! Content que la playlist vous serve

  • @U.KOCORA
    @U.KOCORA ปีที่แล้ว +2

    Merci beaucoup pour cette vidéo de vectorisation. Ça aide

  • @gno7553
    @gno7553 7 หลายเดือนก่อน

    Très bien expliqué. Ça permet de voir l'application de l’algèbre linéaire.

    • @alexandretl
      @alexandretl  7 หลายเดือนก่อน

      Merci! Dans le même style et qui parle d'algèbre liénaire, il y a aussi ma vidéo "Qu'est-ce qu'il se passe dans un réseau de neurones ?"

  • @theStarpoon
    @theStarpoon ปีที่แล้ว

    Y a t'il une méthode vectoriel pour faire la rétro propagation du gradient pour effectuer l'apprentissage ?

  • @climborre7216
    @climborre7216 11 หลายเดือนก่อน

    Bonjour comment se nomme le logiciel de montage pour vos vidéos ? Animation etc

    • @alexandretl
      @alexandretl  11 หลายเดือนก่อน

      Je fais les animations avec Manim (librairie Python) et le montage est fait sur DaVinci Resolve

  • @redone7696
    @redone7696 ปีที่แล้ว

    Est-ce qu’on peut dire qu’un réseau de neurones n’est ni plus ni moins qu’un composé de plusieurs fonctions lineaire ?

    • @alexandretl
      @alexandretl  ปีที่แล้ว +1

      Si on prend pour fonction d'activation la fonction identité (f(x)=x), oui c'est bien ça, mais justement l'interêt c'est de pouvoir faire plus complexe que juste du linéaire, donc on prend des fonctions d'activations non linéaires

  • @lfbbtin7436
    @lfbbtin7436 11 หลายเดือนก่อน

    * A^[l] contient n[l-1] lignes

    • @alexandretl
      @alexandretl  11 หลายเดือนก่อน +1

      Non, A^[l] est de taille (n[l], m) avec m le nombre d'exemples, puisqu'elle a la même taille que Z^[l] qui est obtenu avec Z^[l] = W^[l]*A[l-1] + b^[l].
      Par exemple si tu regardes A^[0] = X c'est bien de taille (n, m) où n vaut n^[0].
      (à noter qu'il existe une autre convention où l'on place la dimension du batch m en premier)

    • @lfbbtin7436
      @lfbbtin7436 11 หลายเดือนก่อน

      @@alexandretl merci pour votre réponse, je voulais dire
      A^[l] contient n[l-1] lignes
      mais oui en effet je me suis bien trompé c’est n[l] lignes et m colonnes
      L’ensemble des vidéos théoriques sont vraiment de super qualité. Ici il s’agit du forwardpass pour le réseau de neurones. Où puis je trouver le backpass? Merci

    • @alexandretl
      @alexandretl  11 หลายเดือนก่อน

      ​@@lfbbtin7436 Merci bien ! Dans la playlist "Les bases des réseaux de neurones" sur ma chaîne (notamment la vidéo Coder backpropagation en Python pour le côté pratique du backward pass, et les vidéos sur les graphes de calcul pour le côté un peu plus théorique)

  • @yashhhhhhhhh-d8v
    @yashhhhhhhhh-d8v ปีที่แล้ว

    English please

    • @alexandretl
      @alexandretl  ปีที่แล้ว +1

      Math is the universal language

    • @yashhhhhhhhh-d8v
      @yashhhhhhhhh-d8v ปีที่แล้ว

      @@alexandretl at least captions , really liked your animations

    • @alexandretl
      @alexandretl  ปีที่แล้ว

      @@yashhhhhhhhh-d8v thanks! actually i'm planning on opening an english channel

    • @yashhhhhhhhh-d8v
      @yashhhhhhhhh-d8v ปีที่แล้ว

      @@alexandretl thank u