RNN1/ Réseaux récurrents (RNN)

แชร์
ฝัง

ความคิดเห็น •

  • @bouramacoulibaly1981
    @bouramacoulibaly1981 2 ปีที่แล้ว +3

    La meilleure vidéo que j'ai trouvé sur les réseaux récurrents. Merci beaucoup Professeur!

    • @CNRS-FIDLE
      @CNRS-FIDLE  2 ปีที่แล้ว

      Merci à vous pour votre intérêt concernant notre formation et pour votre retour :-)

  • @qf4364
    @qf4364 3 ปีที่แล้ว +3

    Merci beaucoup ! Très clair meilleur que beaucoup de vidéo en anglais!

    • @CNRS-FIDLE
      @CNRS-FIDLE  3 ปีที่แล้ว

      Merci beaucoup !

    • @Lydias_1999
      @Lydias_1999 2 ปีที่แล้ว

      Bonjour
      Vous avez compris pourquoi on utilise la transposé de W?

  • @ibrahimabarry8839
    @ibrahimabarry8839 3 ปีที่แล้ว +2

    merci Mr, vous expliquez tres bien.

  • @MateniaVlaxou
    @MateniaVlaxou 3 ปีที่แล้ว +1

    Super explication, bravo !!!!

  • @thomasavron7916
    @thomasavron7916 ปีที่แล้ว

    Merci ! Super clair notamment sur les LSTM !😊

  • @SAMATECHOSINT
    @SAMATECHOSINT 28 วันที่ผ่านมา

    superbe

  • @yveslacroix4554
    @yveslacroix4554 3 ปีที่แล้ว

    Merci pour vos efforts

    • @CNRS-FIDLE
      @CNRS-FIDLE  3 ปีที่แล้ว

      Merci beaucoup !
      Rendez-vous le 20 janvier pour le direct !

  • @didierleprince6106
    @didierleprince6106 2 ปีที่แล้ว

    Excellent pédagogue. Merci (:

    • @CNRS-FIDLE
      @CNRS-FIDLE  2 ปีที่แล้ว

      Merci à vous également :-)

  • @naimsouni4428
    @naimsouni4428 3 ปีที่แล้ว

    superbe vidéo !

  • @alexs7139
    @alexs7139 ปีที่แล้ว

    Bonne vidéo: la meilleure sur les RNN (en français en plus!). Dommage que sur la partie LSTM, votre tête cache les légendes: ça rend le schéma assez incompréhensible 😅 (si on ne connaît pas déjà l’architecture…)

    • @CNRS-FIDLE
      @CNRS-FIDLE  ปีที่แล้ว

      Merci beaucoup !
      Notez qu'une nouvelle version de cette séquence est disponible sur notre chaine, dans laquelle nous avons été plus attentifs à cela ;-)

  • @chaymaegattoua5215
    @chaymaegattoua5215 3 ปีที่แล้ว

    Merci bcp,,,,c'est très interessant

  • @louiseti4883
    @louiseti4883 2 ปีที่แล้ว

    Merci pour la qualité de la vidéo !!
    J'aurai une question quant à la taille des vecteurs en Output : pourquoi sont-ils de tailles égales au nombre de neurones de la hidden cell ? Ne pouvons-nous pas choisir leur taille librement comme nous pourrions le faire dans des réseaux de neurones classiques ?

    • @CNRS-FIDLE
      @CNRS-FIDLE  2 ปีที่แล้ว

      Merci pour votre retour !
      Dans les cas des réseaux récurrents, on parle plutôt de cellules. La sortie d'un RNN sera un vecteur ayant un nombre de composantes identique au nombre de cellules constituant le réseau (voir slide 17).

  • @hamzarahmani2100
    @hamzarahmani2100 2 ปีที่แล้ว

    Merci pour la vidéo. Toutefois vous n'avez pas expliqué comment le modèle est entrainé? Où est ce que intervient l'erreur MSE et le nombre d'itérations?

    • @CNRS-FIDLE
      @CNRS-FIDLE  2 ปีที่แล้ว

      Vous pourrez trouver ces réponses dans la première séquence, également disponible en replay sur notre chaine :-)

  • @Lydias_1999
    @Lydias_1999 2 ปีที่แล้ว

    Bonjour monsieur
    Merci pour votre explication
    Mais j'ai pas bien compris pourquoi on utilise la transposé de W au lieu de W tout court ???
    Merci Pour vôtre réponse

    • @CNRS-FIDLE
      @CNRS-FIDLE  2 ปีที่แล้ว

      On utilise la transposée de W afin de permettre la multiplication avec le vecteur X.

  • @THIERRYSIKANDI
    @THIERRYSIKANDI ปีที่แล้ว

    bonsoir prof vous êtes le meilleur merci infiniment .Svp j'ai un gros probleme pour le installation des application nécessaire pour la formation ,svp je peut avoir de aide?

    • @CNRS-FIDLE
      @CNRS-FIDLE  ปีที่แล้ว

      Vous trouverez sur notre site les différentes procédures actualisées de récupération et installation de l'environnement.
      La procédure via Docker est celle que nous conseillons, mais une installation traditionnelle, via un environnement virtuel Python est également possible.

  • @hamadoumossigarba1201
    @hamadoumossigarba1201 2 ปีที่แล้ว

    Bonjour,
    Peut-on utiliser cette technique pour un registre distribué ?

    • @CNRS-FIDLE
      @CNRS-FIDLE  2 ปีที่แล้ว

      Pas sûr du tout....
      Les Transformers (cf. seq. 8) sont par contre beaucoup plus performants et parallélisables :-)

  • @SAMATECHOSINT
    @SAMATECHOSINT 28 วันที่ผ่านมา

    peut on voir les cours complets du deep en pdf?

    • @CNRS-FIDLE
      @CNRS-FIDLE  23 วันที่ผ่านมา

      Bonjour, Vous pouvez retrouver tous les supports de cours sur notre site internet : fidle.cnrs.fr/
      Dans l'onglet "Ressources", vous pouvez télécharger tous les supports de cours.

  • @teeg-wendezougmore6663
    @teeg-wendezougmore6663 2 ปีที่แล้ว

    Merci beaucoup pour ce partage. Comment peut-on citer ce cours dans un document scientifique?

    • @CNRS-FIDLE
      @CNRS-FIDLE  2 ปีที่แล้ว +2

      Ah, bonne question ;-)
      Par exemple :
      Jean-Luc Parouty et al., Formation Introduction au Deep Learning (FIDLE), fidle.cnrs.fr, 2022
      Merci à vous de nous citer !

    • @teeg-wendezougmore6663
      @teeg-wendezougmore6663 2 ปีที่แล้ว

      @@CNRS-FIDLE Merci