merci beaucoup d'avoir pris le temps de nous expliquer, je suis passé de quelqu'un qui ne comprenait rien en RNN et au deep learning à quelqu'un qui le maitrise à la perfection 🙏🙏
J'avais fait du RNN il y a 3 ans. Je m'y remets après 2 ans Hors du circuit. Et bien et bien et bien... Très bonne vidéo. Bravo pour le côté pédagogique, pour la clarté du propos. Ni trop vite ni trop lentement. Il faut candidater chez fast.ai ;) bravo encore
Wow très impressionant de tomber sur une vidéo d'une telle qualité sur un sujet comme celui-ci et en français. Tout était super clair merci beaucoup. Juste une petite question : Quel est donc l'intérêt des RNN dans la pratique s'ils ont un point faible aussi conséquent ? Je me souviens d'un prof qui nous avait demandé de le faire pour un projet de système de recommendations. Mais avec un défaut aussi conséquent, j'ai dû mal à voir comment cela peut-il être viable dans la pratique. Parce que dans la pratique je doute qu'on veuille se restreindre à des réseaux minuscules.
wow!! très cool Prof! svp! pouvez-vous m'aider avec certains articles qui parlent de la prédiction des trafics routiers basée sur les réseaux de neurones profonds?
Salut, ta vidéo est vraiment super bien, on comprend très bien ce que tu cherches à expliquer ! J'ai une ptite question... si on a plusieurs hidden layers, on utiliserait lequel pour transmettre l'information au réseau t+1 ? Merci, ++
Vidéo très intéressante ,.@Thibault Neveu, je veux savoir est ce que c'est la bonne méthode pour l'apprentissage de mon chatbot ,je vous explique j'ai utiliser dialogflow pour le traitement nlp t la ,je dois remplir toutes les expressions possibles pour une action pour cella je veux utiliser une méthode d’apprentissage d'IA pour régler ce probleme ,le faite de donner des expressions et a lui de trouver les expression qui ont le même sens ?
Merci pour la vidéo (y) bizarrement la seule syllabe qui se prononce pareil qu'en français "hid" dans "hidden" tu la prononce mal hahah (Just for fun Thank's for the great content dude ;) )
Je répond à cette question dans la vidéo à un moment à 20:44, dit moi si tu ne comprend pas l'explication. Word2Vec utilise pas de RNN car son but est différent. Le but de Word2Vec est avant tout de trouver une représenation vectorielle des mots.
@@larotu00 La question à se poser c'est est-ce que la dimension temporel est importante dans la résolution du problème que tu souhaites résoudre. Pour word2vec ce n'est pas forcément important l'ordre des mots, car le vecteur de chaque mot est deduit à partir du contexte, peu importe l'ordre du contexte. Par contre pour de la traduction automatique par exemple, c'est important de connaître lordre des mots en en entré pour faire la traduction.
Pour les valeurs négatives on dit pas qu'elle sont petites car les valeurs petites sont les valeurs proches de zero.. on dit des valeurs grandes en valeur absolue
merci beaucoup d'avoir pris le temps de nous expliquer, je suis passé de quelqu'un qui ne comprenait rien en RNN et au deep learning à quelqu'un qui le maitrise à la perfection 🙏🙏
J'avais fait du RNN il y a 3 ans. Je m'y remets après 2 ans Hors du circuit. Et bien et bien et bien... Très bonne vidéo. Bravo pour le côté pédagogique, pour la clarté du propos. Ni trop vite ni trop lentement. Il faut candidater chez fast.ai ;) bravo encore
Merci beaucoup , vidéo super , explications détaillés , bonne continuation
cette surprise de voir des vidéo explicative en français! Merci!
Elles sont super tes vidéos, merci beaucoup !!
Excellente explication. Merci Thibault!
Bravo...simple et clair, merci bcp
bien expliqué, la meilleur vidéo que j'ai vu jusqu'a présent
Toutefois, merci; j'ai appris bien de choses!
Présentation très claire des RNN !
Waouh ,c'est vraiment épatant ,merci beaucoup !!
Comme d'habitude, c'est clair, propre, merci à toi pour ces vidéos
Tu explique juste, très bien, merci beaucoup
Vidéo très intéressante et très clair, hâte de voir la suite
Bonjour, Merci beaucoup , pour les explications détaillées , tu es bcp de talents en IA et aussi en Tuto's
merci
franchement merci, jusqu'à présent j'avais pas pigé l'histoire du vanishing gradient, Siraj n'a qu'à bien se tenir !
vraiment des explications claires, Merci bcp pour ces vidéos
Wow très impressionant de tomber sur une vidéo d'une telle qualité sur un sujet comme celui-ci et en français. Tout était super clair merci beaucoup. Juste une petite question : Quel est donc l'intérêt des RNN dans la pratique s'ils ont un point faible aussi conséquent ? Je me souviens d'un prof qui nous avait demandé de le faire pour un projet de système de recommendations. Mais avec un défaut aussi conséquent, j'ai dû mal à voir comment cela peut-il être viable dans la pratique. Parce que dans la pratique je doute qu'on veuille se restreindre à des réseaux minuscules.
Cette vidéo est génial merci
Excellente explication merci
Merci Thibault
wow!! très cool Prof! svp! pouvez-vous m'aider avec certains articles qui parlent de la prédiction des trafics routiers basée sur les réseaux de neurones profonds?
Salut, ta vidéo est vraiment super bien, on comprend très bien ce que tu cherches à expliquer ! J'ai une ptite question... si on a plusieurs hidden layers, on utiliserait lequel pour transmettre l'information au réseau t+1 ?
Merci, ++
Super intéressant. Merci
Vidéo très intéressante ,.@Thibault Neveu, je veux savoir est ce que c'est la bonne méthode pour l'apprentissage de mon chatbot ,je vous explique j'ai utiliser dialogflow pour le traitement nlp t la ,je dois remplir toutes les expressions possibles pour une action pour cella je veux utiliser une méthode d’apprentissage d'IA pour régler ce probleme ,le faite de donner des expressions et a lui de trouver les expression qui ont le même sens ?
Impeccable !
@Thibault Neveu Merci pour la présentation. Où puis-je trouver les slides?
Merci pour cette vidéo maintenant j'amerais savoir tu as fais quoi comme formation afin d'etre bon en intelligence artificielle.merci d'avance
Super vidéo merci !
Salut Thibaut j'ai des question sur l'implémentation de RNN avec Keras stp
Propre , Merci
Merci beaucoup
j'arrive pas bien à comprendre comment la boucle de récurrence est caractérisée avec keras
Merci !
pour info, le i de "hidden" se prononce [i] pas [aïe].
Merci pour la vidéo (y) bizarrement la seule syllabe qui se prononce pareil qu'en français "hid" dans "hidden" tu la prononce mal hahah (Just for fun Thank's for the great content dude ;) )
Nice
En quoi un RNN est bien meilleur qu'un réseau "normal" avec plusieurs mots en entrée ? (et des mots "vides" quand il n'y a pas de précédents)
C'est ce qui se fait pour Word2Vec non ?
Je répond à cette question dans la vidéo à un moment à 20:44, dit moi si tu ne comprend pas l'explication. Word2Vec utilise pas de RNN car son but est différent. Le but de Word2Vec est avant tout de trouver une représenation vectorielle des mots.
@@ThibaultNeveu si j'ai compris mais je me demandais selon les modèles quelle était la différence en terme de performances
@@larotu00 La question à se poser c'est est-ce que la dimension temporel est importante dans la résolution du problème que tu souhaites résoudre. Pour word2vec ce n'est pas forcément important l'ordre des mots, car le vecteur de chaque mot est deduit à partir du contexte, peu importe l'ordre du contexte. Par contre pour de la traduction automatique par exemple, c'est important de connaître lordre des mots en en entré pour faire la traduction.
@@ThibaultNeveu d'accord merci
Pour les valeurs négatives on dit pas qu'elle sont petites car les valeurs petites sont les valeurs proches de zero.. on dit des valeurs grandes en valeur absolue
Slide 21, vanish == disparaitre
Du coup en fait ça fait trop!🤮