Je tiens encore à souligner votre beau travail et espère que vous continuerez d'ajouter de nouvelles vidéos sur votre chaîne ! :) Encore une fois bravo et bonne continuation!
C'est décidé je regarderais 42 fois la même vidéos et pour les cheveux je les couperais de la même valeur. Avec l'espoir de devenir aussi talentueux que vous :)). Bravo et merci !
Encore un sujet très bien expliqué, des super vidéos qui m'aide beaucoup à progresser! J'espère qu'il y aura des vidéos sur les RNN cela m'aiderai pour mon projet de reconnaissance vidéo !
bonsoir mr , est ce que vous pouvez nous faire des videos sur les rnn et librosa s'il vous plait merci , je crois que sa pourrait intéresser pas mal de monde merci .
Merci encore pour votre travail pédagogique. Je ne sais pas si ma question est pertinente mais est-ce qu'il y a d'autre méthode d'apprentissage que l’équation de Bellman? En discutant avec une autre personne, je posai la question de savoir si la descente de gradient peut être considérer comme une méthode de renforcement ( car on renforce le réseau avec les entrainements passés) et cette personne me disait que non car ca n'utilisait pas l’équation de Bellman. De même l’équation de Bellman s'applique-t-elle seulement au Q learning ou aussi aux CNN ou RNN?
Bonjour, je ne sais pas si il y a d'autre méthode que celle de Bellman, je suppose que oui, mais je n'en ai jamais vu, il faut dire que son équation est intuitive, efficace. Il faut juste dire ce que l'on entend par "méthode par renforcement"; si on prend une définition simple, comme par exemple: méthode qui consiste à corriger les paramètres d'un système, au fil d'expérience, permettant à celui-ci de donner le résultat que l'on souhaite obtenir après un certain nombre d'itération; dans ce cas, on peut dire que la descente de gradient est un moyen d'atteindre cette objectif. En Q learning (je suis en train de préparer des vidéos sur ce sujet passionnant), il y a 2 choses, l'équation de Bellman qui nous donne, avec un apprentissage, au fil d'expérience, ce que l'on peut obtenir en moyenne comme récompense si on est dans un état et que l'on choisit une action, et cette espérance/moyenne est utilisé dans la fonction de perte qui est donnée à l'algorithme de descente de gradient pour corriger le réseau; les 2 algorithmes travaillent en parallèle. Laurent
Petite question : Quand vous cherchez le tableau de low_values et high_values vous le faites pour combien de epoch ? (car pour 10 epochs j'ai des valeurs différentes du coup je sais pas si je peux choisir 42 pour la suite)
Pour ces valeurs, ce sont censé être les valeurs max et min des variables d'états; je pensais avoir pris les valeurs aux extrêmes; Quelles valeurs avez-vous ? Laurent
Bonjour Laurent, j'aimerai faire une reconnaissance d’œuf pour cela j'ai déjà une camera ip installé dans le poulailler qui diffuse avec un flux rtsp (ou récupération d'image) et un raspberry pi (3B+) pour faire tourner le programme mais je ne sais pas quel plateforme je devrai utiliser OpenCV ? il faudrai que j'exécute le script de reconnaissance à 10h par exemple avec une tache cron après pour l'envoi de notification ou autre ce n'ai pas un problème Merci
bonsoir monsieur j'ai un probleme concernant tensorflow, il est installé mais je n'arrive pas à l'importer, on me dit: ImportError: DLL load failed: Une routine d’initialisation d’une bibliothèque de liens dynamiques (DLL) a échoué.
Bonjour, merci pour votre travail. En python 3.10, il faudra changer deux trois choses sur le code, gym a été update aussi. J'ai passé la vitesse du common de -0.57 à 0.57 ( au lieu de 0.07 ) Il faut rajouter render_mode="human" dans le .make pour afficher le jeu et le .render n'est plus utile J'ai supprimé le render = false et true J'ai ajouté un break à la boucle while, car maintenant on en sort à l'unique condition que l'on gagne, il n'y a donc jamais d'echec.
Je tiens encore à souligner votre beau travail et espère que vous continuerez d'ajouter de nouvelles vidéos sur votre chaîne ! :) Encore une fois bravo et bonne continuation!
Merci pour ce message très sympa :)
oui je vais en ajouter, mais ma liste de vidéo à faire augmente plus vite qu'elle ne se vide :)
Laurent
C'est décidé je regarderais 42 fois la même vidéos et pour les cheveux je les couperais de la même valeur. Avec l'espoir de devenir aussi talentueux que vous :)). Bravo et merci !
Faut pas exagérer :) mais merci :)
merci beaucoup laurent
vous etes le meilleur
Encore un sujet très bien expliqué, des super vidéos qui m'aide beaucoup à progresser! J'espère qu'il y aura des vidéos sur les RNN cela m'aiderai pour mon projet de reconnaissance vidéo !
Hello
j'ai les RNN dans ma longue liste de vidéo à faire, mais j'ai pris beaucoup de retard !
Laurent
@@l42project47 D'accord, ça fait plaisir! Dans tous les cas, toutes les vidéos sont intéressantes.
merci beaucoup, c'est tres ediffiant
bonsoir mr , est ce que vous pouvez nous faire des videos sur les rnn et librosa s'il vous plait
merci , je crois que sa pourrait intéresser pas mal de monde merci .
merci
Merci encore pour votre travail pédagogique. Je ne sais pas si ma question est pertinente mais est-ce qu'il y a d'autre méthode d'apprentissage que l’équation de Bellman? En discutant avec une autre personne, je posai la question de savoir si la descente de gradient peut être considérer comme une méthode de renforcement ( car on renforce le réseau avec les entrainements passés) et cette personne me disait que non car ca n'utilisait pas l’équation de Bellman. De même l’équation de Bellman s'applique-t-elle seulement au Q learning ou aussi aux CNN ou RNN?
Bonjour,
je ne sais pas si il y a d'autre méthode que celle de Bellman, je suppose que oui, mais je n'en ai jamais vu, il faut dire que son équation est intuitive, efficace.
Il faut juste dire ce que l'on entend par "méthode par renforcement"; si on prend une définition simple, comme par exemple: méthode qui consiste à corriger les paramètres d'un système, au fil d'expérience, permettant à celui-ci de donner le résultat que l'on souhaite obtenir après un certain nombre d'itération; dans ce cas, on peut dire que la descente de gradient est un moyen d'atteindre cette objectif.
En Q learning (je suis en train de préparer des vidéos sur ce sujet passionnant), il y a 2 choses, l'équation de Bellman qui nous donne, avec un apprentissage, au fil d'expérience, ce que l'on peut obtenir en moyenne comme récompense si on est dans un état et que l'on choisit une action, et cette espérance/moyenne est utilisé dans la fonction de perte qui est donnée à l'algorithme de descente de gradient pour corriger le réseau; les 2 algorithmes travaillent en parallèle.
Laurent
Petite question : Quand vous cherchez le tableau de low_values et high_values vous le faites pour combien de epoch ? (car pour 10 epochs j'ai des valeurs différentes du coup je sais pas si je peux choisir 42 pour la suite)
Pour ces valeurs, ce sont censé être les valeurs max et min des variables d'états; je pensais avoir pris les valeurs aux extrêmes; Quelles valeurs avez-vous ?
Laurent
Bonjour Laurent,
j'aimerai faire une reconnaissance d’œuf pour cela j'ai déjà une camera ip installé dans le poulailler qui diffuse avec un flux rtsp (ou récupération d'image) et un raspberry pi (3B+) pour faire tourner le programme mais je ne sais pas quel plateforme je devrai utiliser OpenCV ? il faudrai que j'exécute le script de reconnaissance à 10h par exemple avec une tache cron après pour l'envoi de notification ou autre ce n'ai pas un problème
Merci
Bonjour; avec opencv ça devrait en effet être jouable, peut être avec la fonction inrange, ou une détection par différence.
Laurent
@@l42project47 Merci pour votre réponse,
auriez-vous un exemple d'utilisation que je pourrai modifier (je suis pas très fort en python)
Merci
bonsoir monsieur j'ai un probleme concernant tensorflow, il est installé mais je n'arrive pas à l'importer, on me dit: ImportError: DLL load failed: Une routine d’initialisation d’une bibliothèque de liens dynamiques (DLL) a échoué.
Bonjour,
je ne sais pas, je n'ai jamais eu cette erreur, je suis sous windows 10.
Laurent
MARCI ... c'est vraiment très intéressant. Mais si on est dans un environnement multi agents qui coopèrent ensemble pour atteindre un objectif
Bonjour, merci pour votre travail.
En python 3.10, il faudra changer deux trois choses sur le code, gym a été update aussi.
J'ai passé la vitesse du common de -0.57 à 0.57 ( au lieu de 0.07 )
Il faut rajouter render_mode="human" dans le .make pour afficher le jeu et le .render n'est plus utile
J'ai supprimé le render = false et true
J'ai ajouté un break à la boucle while, car maintenant on en sort à l'unique condition que l'on gagne, il n'y a donc jamais d'echec.
Il faut aussi rajouter une condition de réussite pour que Epsilon baisse sinon s'il baisse trop vite il n'apprend plus correctement
gym n'est pas utilisable via Anaconda apparemment