Bonjour tout le monde ! J'ai noté une erreur dans la vidéo 02:14 : la dérivée partielle de J en a est 1/m * sum ( x^2 [ ax^2 + bx + c - y ] ). Dans la vidéo j'ai laissé traîner un 2 en oubliant qu'il se simplifie avec 1/2m
salut, comment utiliser un modèle de machine learning pour développer une application? ; par exemple si j'ai besoin de créé une application web de prévision météorologique avec phyton comment intégré la régression lineaire vue dans cette formation pour mon application ? merci 🙏
vos explications sont géniales Guillaume, vous nous avez permis de comprendre et appliquer la data science en un temps optimal, je viens de découvrir votre chaine , c'es vraiment une mine d'or. malgré que j'ai déja fait math sup et spé et une formation d'ingénieur en statistique ç'a fait plus de 10 ans, mais on nous a jamais fourni des cours et des explications assez claires et efficaces comme les vôtres. je te souhaite plein de succès ;) vous êtes vraiment unique car en plus de cela vous êtes modestes et vous répondez à tous les commentaires
Franchement ça ne fait mème pas une semaine que j'ai commencé les cours sur Le Machine Learning Python et avec vos vidéos je ne suis vraiment plus confus. Je suis mème encore plus excité. Waouuuuh Bravo
Merci beaucoup, je ne pensais pas qu'on peut dire grande chose d'intéressant sue la régression linéaire, mais ta vidéo a été très éclairante et ma fait comprendre des nouvelles choses!
Merci beaucoup. La prochaine Vidéo Machine Learning sortira dans quelques semaines. En attendant, je travaille sur la série Python (quand même très intéressante !)
Des tutos de grande qualité, claires et instructifs. je m'abonne. pour cet exemple, il fallait juste faire un exemple code avec Z = X²+Y²+YX+b, un affichage déjà en 3D, qu'on peut visualiser, et facile à comprendre. Mais c'est déjà excellent le tuto. Merci !
Salut superbe vidéo, ça serai formidable que tu nous parle de l'algorithme random forest dans les vidéos a l'avenir, ça aiderai beaucoup gens à comprendre, le fait que tu illustre tous avec des exemples tes vidéos sont super claires et précis, bon courage pour la suite. 😊
Bonne question : le 2 vient de la dérivée composée qui contient un x^2. Du coup il y a un 2 provenant de (f(x) - y)^2 et un autre 2 provenant de x^2. Ainsi en divisant par 1/2m, il nous reste un 2. Est-ce-que ma réponse est claire ?
@@MachineLearnia mais si je dérive Ax^2 par rapport à A ça me donne x^2 et non pas 2x^2 ? Mais admettons qu'il y a un 2, il faudrait aussi modifier ta fonction coût ? En plus des matrices thêta et de x ? Car elle ne prend pas en compte ce 2
@@bilon5670 J'ai en effet pris le temps de poser le calcul et je me rends compte de l'erreur ! C'est tout ma faute, je ne sais pas comment cette erreur a pu passer inaperçue pendant le tournage et le montage et qu'en plus personne ne l'a soulevé depuis des mois ! Donc merci a toi et je vais corriger ca avec un autre commentaire en haut ! Grand MERCI !
Super vidéo, merci beaucoup. La transition 2D vers 3D vers nD est très bien expliqué. Je n'est pas encore tout vu mais se serais génial si tu pouvais faire un exemple de prédiction / catégorisation sur des dataset importées.
Merci pour ces supers vidéos Guillaume! Petite question, si on veut faire du polynomiale sur n features, la matrice X doit être comment? [x(feat1)^2 // x(feat2)^2 // x(featn)^^2 // x(feat1) // x(feat n) // 1] ? Merci par avance
Je ne comprend pas l'interet de l'utilisation de la variable X2. SI on ne peut pas observer une corrélation entre la variable X2 et y avec le scatterplot. Est-ce que celle-ci améliore réellement notre m odèle?
bahaha je viens de galérer pendant 10min parce que mon modèle faisait pleins de lignes qui partaient des bons endroits et convergeaient de plus en plus vers le centre plutôt que d'en faire une seule, en fait j'avais écrit "plt.plot(x[:,0], predict, c='r')" à la place de "plt.scatter(x[:,0], predict, c='r')" je vais chialer X) vidéo de très bonne qualité sinon
Bonjour, je suis en train d'écrire un programme à 5 features, en supposant qu'une régression linéaire suffise pour chaque variable, je me retrouverai avec la dimension de theta étant (6,1). Ma question est la suivante, si pour le feature p compris entre 1 et 5 une régression linéaire n'est pas satisfaisante dois je rajouter un vecteur de x(p)**2 dans ma matrice X et une ligne à mon vecteur colonne theta ? Comment puis je déterminer à l'avance les dimensions de ma matrice X dans ce cas là ? Existe t il un algorithme permettant à mon programme de trouver la forme de ma matrice X en fonction de coefficients de détermination qui évalueraient 1 à 1 les régressions polynomiales sur mes features ? En espérant ne pas être à côté de la plaque et clair ^^
Bonjour Yann, Oui la question est parfaitement claire ! Il existe ne effet des algorithmes pour ajouter automatiquement les combinaisons polynomiales a votre dataset. Par exemple en partant de 2 variables x1, x2, vous pouvez créer automatiquement une matrice 1, x1, x2, x1^2, x1*x2, x2^2 Pour ca je te conseille d'utiliser le package sklearn et son transformer appelé PolynomialFeatures J'ai fait une série tout entiere sur la programmation python pour faire du machine learning et je te conseille de la regarder pour entrer dans la pratique. Cette série actuelle est plus dans l'explication mathématique de certains algorithmes de base du ML
Bonjour monsieur merci pour vos explications très simple et facile à comprendre , s'il vous plait pouvez vous nous faire une vidéo explicative sur la régression logistique !!!? j'en ai vraiment besoin de comprendre cette méthode pour mon projet si c'est possible . merci
Le theta_final possède maintenant 3 valeurs au lieu de 2 dans le cas d'une régression linéaire simple. Pourtant l'équation n'est pas de type ax² + bx + c ? Ou alors je me trompe. Comment donc interpréter le résultat ? Quelle est donc l'équation finale qui permettra de calculer y = f(x) sachant qu'il y a 2 features et donc 2 valeurs différentes pour x ? Merci pour la réponse.
En ajoutant une colonnes x^2 dans la matrice X, ainsi qu'un troisième paramètres dans theta, on obtient en effet un modèle de la forme f(x) = ax^2 + bx + c. (polynôme de degré 2) Dans ce cas il n'y avait cependant qu'une Feature x ! (que l'on a étendu a x^2) Si on développe un modele sur plusieurs features (par exemple x1, x2) alors on écrira f(x1, x2) = .... (et la ca dépend du nombre de degrés que l'on désire avoir dans le modele). Dans Sklearn, on utilisera le transformer PolynomialFeatures pour augmenter facilement le nombre de dimensions de notre probleme, je vous conseille de visualiser ma vidéo sur le preprocessing a l'avenir, vous comprendrez mieux (et les vidéos sur sklearn par la meme occasion)
@@MachineLearniaMerci pour la réponse mais pour m'aider à mieux comprendre : quelle est la formule correspondante à f(x1, x2) dans l'exemple de la vidéo ? Il doit bien y avoir une formule associée sinon à quoi cela sert de connaitre les valeurs de théta ? Cela me permettrait de comprendre comment on résout le problème et surtout de trouver des valeurs résultat. Pour les vidéos (comme celles sur Sklearn) j'ai bien l'intention de les visionner mais entre votre très bon livre, votre site de qualité, les superbes vidéos machine learning, Python, etc. et la compréhension mathématique, il y a de quoi faire. ;) En tout cas, très bon travail : merci encore.
Bonjour Guillaume, Merci beaucoup pour cette formation. En tentant de refaire la même chose, je tombe systématiquement sur Theta_final de dimension (3, 100). Je cherche depuis hier mon erreur mais je ne trouve rien. pouvez-vous me dire ou je me suis trompé ? vous remerciant
Bonjour, comment peut-on savoir le degré de la fonction polynomiale ? Puisque là vous déterminez le degré à partir du graphe mais si on avez eu 10 features, comment auriez-vous fait ?
Bonjour j'aimerais savoir si c'est possible d'écrire un algorithme de classification d'application( malware ou begnin) avec le modèle de régression linéaire. Merci beaucoup pour les videos.☺
Vous êtes formidable , très bien expliqué ...bravo .J'aimerais utiliser un programme AI pour prédire une variable (0 ou 1) a partir de n features, c'est pour un besoin de prévisions météorologiques :) j'imagine que ce sera une autre méthode autre que la regression liniaire multiple.
Un grand merci à votre série de vidéo sur la régression linéaire avec la mathode de descent de gradient.. Y-il un site Web qui donne des problème de régression à résoudre ? .. Si ui donner moi un nom de l'un des site.. Et merci beaucoup
Je vais en chercher un car a ma connaissance il n'y en a pas. Mais vous pouvez aller sur Kaggle ou bien travailler avec les datasets de Sklearn pour vous faire la main.
Bonjour , j'aimerai savoir si il serait possible d'avoir des fiches d'exercices en machine learning surout sur ce que on a vu jusqu'a present cest a dire ,regression lineire et autre . Aussi j'aimerai des exos qui englobe tout ce que on a vu , ces exos me permettrons d'avoir une application concrete de ce qui a ete vu jusqu'a present
Tu mets en pls les cours que j'ai commencé à prendre sur le machin learning. J'ai créé un bot de trading avec le langage de programmation mql4 et j'ai pour objectif d'apprendre le python créer un machin learning qui communique avec celui-ci pour qu'il prenne les meilleurs positions. Merci à toi.
Bonjour, merci pour vos videos, elles sont tops Qu'en est-il du besoin que la fonction de cout soit toujours convexe ( pour avoir uniquement un minimum globale), le respecte on toujours en ajoutant de nouveaux parametres theta / x**n etc .. ?
Pour les problemes de regression : Tant que les erreurs sont distribuées de facon normales, la fonction Cout est toujours convexe et converge vers la solution optimum. Mais ca n'est pas toujours le cas.
Bonjour, Merci encore pour vos vidéos! J'ai mis en dataset des valeurs de débit d'une canalisation ainsi que des valeurs de température pour un y = prolifération de mollusques entre autres. J'ai normalisé les données X et y en les divisant par la valeur max contenu dans X. Est-ce normal d'obtenir un theta différent à chaque exécution du code ? Dois-je sélectionner un autre modèle que polynomiale ? Bon Après-midi
Oui c'est normal d'obtenir un théta différent, car cela dépend de votre initialisation. Mais en principe vous devriez converger vers une solution sensiblement similaire a chaque fois, sinon c'est que votre algorithme a besoin de plus d'intérations
@@MachineLearnia Bonjour, merci de votre réponse. Je crois que la corrélation entre les variables utilisées et le dataset est trop faible pour établir une relation. Cela ne converge pas du tout vers les mêmes valeurs à chaque exécution malgré la modification du pas et du nombre d'iterations. J'obtiens un coût final très faible mais je crois que c'est parce que la courbe étudié est constante. En remplaçant les donnés par une fonction connue je converge en effet vers un theta en particulier. Bonne journée 🎩
Bonjour et merci pour toutes ces vidéos qui sont super ludiques et très bien expliquées! J'avais une question : comment tester l’homoscédasticité des résidus? Quelle est la conséquence si l'hypothèse h0 selon laquelle les variances sont constantes n'est pas rejetée? merci!!
Vous entrez la dans des questions épineuses, mais c'est bien ! Vosu pouvez faire un test statistiques, mais ca n'est meme pas nécessaire pour les regression linéaires, car on peut démontrer que les résidus suivent une loi normale.
Bonjour a 7min43 tu teste le modèle avec le nouveau scalaire theta et la nouvelle matrice X , cependant que je le teste chez moi la machine me dit qu'il y a une erreur dans la fonction " model", c'est ecrit: " ValueError: setting an array element with a sequense" . Je ne comprend pas le problème car j'ai pas touché à la fonction "model".
Bonjour, C'est vraiment très clair, très pédagogique. J'ai une petite question. Sur un data à 1 feature, il est relativement simple de trouver le modèle en traçant le nuage de points. Par contre lorsqu'il y a plusieurs données, est ce qu'il faut tracer un graphe pour chaque variable (y = f(x1), puis y f(x2) .......) ? Est il possible dans ce cas d'avoir pour une colonne de donnée avec un modèle affine, et pour l'autre un modèle parabolique ? Bonne journée Merci
Bonjour, quand on travaille sur un probleme multi-dimensionnel, on n'affiche en général pas notre modele (vous pouvez faire l'essaie, vous ne verrez qu'un nuage de point par dessus un autre). Donc, pour valider la qualite du modele, on affiche a la place ce qu'on appelle des courbes d'apprentissage (de souvenir je les ai tracé ici dans cette série de vidéo, sinon elles sont dans ma série de vidéos sur sklearn)
@@MachineLearnia Merci pour cette réponse, j'imagine qu'il faut jouer ensuite avec le coef de prédiction en essayant d'obtenir la valeur la plus élevée? Bonne journée
Des superbes vidéos pour mon auto apprentisage, je vous remercie infiniment. Par ailleurs j'aimerais savoir le procédé avec les codes pour arriver à mon équation du modèle. J'ai déjà implémenté jusqu'à avoir un modèle de régression linéaire qui marche moyennement bon avec plusieurs features. J'ai normalisé les données, qui sont toutes quanti, avec PowerTransformer mais j'arrive pas à retrouver les coefficients du modèle...
Salut j'espère que vous allez bien superbe vidéo je voulais savoir comment on met des équations dans les cellule markdow ? Si tu a une doc à me conseiller ?
Bonjour, je souhaite te remercier pour cette formation qui est tout simplement superbe. J'ai une question concernant la régression linéaire avec 2 variables et la régression polynômiales, je vois que le vecteur teta et le même, j'ai pas très bien compris la différence, merci
@@elemaine91 le vecteru theta comprends les différents parametres. Si on le crée en écrivant X.shape[1] cela donne automatiquement autant de parametres dans théta que de variables dans X.
Bonjour Guillaume, Je vous remercie pour votre travail qui m'aide beaucoup. Allez-vous présenter la régression PLS? Il me semble que cette régression est adapté pour un modèle à plusieurs variables cibles?? Merci
Bonjour, en réalité le modèle que je présente ici est aussi capable de faire des régression multi-target. Ill suffit de poser cela par matrice pour s'en rendre compte. Pour aller plus vite, je vous conseille d'utiliser Sklearn : SGDRegressor
Merci beaucoup pour tous ces efforts consentis pour notre instruction Guillaume Saint-Cirgue (je vous envie car vous avez déjà commencés à impacter le monde francophone dans le domaine de L’IA) .une question : Dans votre livre apprendre le machine Learning on (vous) utilise directement des méthodes embarquées dans les librairies qu’on import dès le début lorsque sur TH-cam vous faites des démonstrations (qui sont très intéressantes). Du coup je me demande s’il est nécessaire de maîtriser ces démonstrations pour faire du machine Learning. Merci !
Merci beaucoup pour votre commentaire ! Il n'est pas nécessaire d'écrire ses propres algorithmes en partant de zéros pour faire du machine learning. Il est utile de voir les démonstrations (que je montre dans les vidéos) pour comprendre la mécanique des algorithmes ! :)
Excellent travail merci bcp, je pense qu'on peut aussi programmer la valeur de learning_rate à fin de chercher une valeur optimale au lieur de choisir une valeur fixe.
bonjour boujour :) Petite question quand je fais la régression j'ai plein de ligne rouge de régression qui apparaissent au lieu d'une seul. As-tu une idée de pourquoi ? Thomas
Bonjour Thomas ! Oui c'est normal, la fonction plt.plot() trace la courbe dans l'ordre des points de X. Pour corriger ce probleme, utilise soit la fonction plt.scatter, ou bien si tu as vraiment envie d'avoir une courbe, il te faut faire la chose suivante new_x = np.linspace(0, 10, nb_points) plt.plot(new_x, model(new_x, theta))
@@MachineLearnia bonjour Guillaume, j'ai effectivement corrigé avec les points cependant, je ne comprend pas ce que tu ajoute dans la fonction linespace notamment nb_points, cela représente-t'il le nombre de données ? Et où faut-il inclure cette partie dans le programme ? À la même ligne où se trouvait "plt.plot()" ?
Je vous remercie une autre fois pour cette riche formation j'ai une petite question , si y=sqrt(a*x^2+bx+c) en gros la courbe que vous avez dessiner sur la tablette en début de cette vidéo , es ce que notre mine d'or fonctionne toujours si oui comment s'il vous plaît ? mon idée c'est ds la matrice de X je mets directement une colonne sqrt(a*x^2+bx+c) et une colonne des ones . Merci d'avance
Si vous faites cela c'est un peu comme "tricher" -> en effet dans la vraie vie vous ne connaîtrez pas l'équation derrière les phénomenes étranges que vous observés et pour lesquelles vous devez développer un modele de ML. Donc, ce que vous devez faire, c'est de créer beaucoup de variables polynomiale dans votre matrice X (vous pouvez visionner la série Python Machine Learning - épisode 22/30 sur le preprocessing) pour bien comprendre comment ajouter des variables automatiquement dans un programme.
Bonjour. Merci bcp pour les # presentations !! C'est tres clair, Sinon on a bien compris le principe de l'algo de gradient srtout sans la lib python, est ce que c'est possible d'avoir des video comapartives avec l'algo gradient stochastique ainsi que le gradient with momentum ( adaptive lerning rate) Merci d'avance
Bonjour, Vous avez dit dans la dernière vidéo que vous allez expliquer comment importer nos propres données concernant la régression linéaire, néanmoins vous ne l'avez pas présenté dans cette ML#9. Merci et bonne continuation!
Bonjour, j'en parle dans des vidéos suivantes sur la chaine TH-cam. On importe souvent des données avec Pandas, j'en ai fait 2 tutoriels, vous les trouverez facilement en écrivant dans youtube : "Pandas Machine Learnia"
Lui : " il va falloir faire des centaines d'équations..." Moi : " Erreur 404, la page demandé est inaccessible" Lui : "Heureusement, il existe une solution qui permet de tout contenir." Moi : " Bravo! ta débloqué la fibre cérébrale mon pote, on va prédire la bourse et se faire un paquet de fric LETS GOOOOOOO (je rigole ^^, je veux juste faire un bot qui défonce tout sur Trackmania)
Bonjour Guillaume j'ai lu le ebook gratuit que tu m'a offert. Jai une question -Je veux classer plusieur variété (y) de maïs suivant la quantité des élements nutritifs(x) qui s'y trouve - Je veux que ma machine indique le maïs varité (y) approprié en fonction des besoins nutritionnels(x) de l'individu pour sa croissance. Quelles solutions ou methodes puis-je utilisé pour resoudre ce probleme? Sachant que les (y) sont des valeur nominale et les (x) des valeurs quantitatives Merci d'avance en gardant espoir que j'aurai une reponse de ta part
Bonsoir, pour la vidéo précédente j’ai écris le code et l’enregistrer avec jupiter mais avec cette vidéo j’ai essayer d’ouvrir le même fichier pour effectuer les modification, je parviens pas à l’ouvrir avec jupiter. J’ai besoin d’aide
Bonjour, il va me falloir plus de détails pour pouvoir vous aider, vous pouvez nous rejoindre sur le Discord pour parler de votre probleme. Mais faites bien attention de toujours travailler avec Jupyter Notebook si vous commencer un project Jupyter.
Hello une petite question. Quand on continue a entrainer le modele apres le pas 400 on voit que l'on tend vers une droite horizontale et que le modèle ne s'améliore plus. Intuitivelent j'aurais pensé qu'en continuant d'avancer on allait commencer a diverger puisque on dépasse le minimum et qu'on comlence à "remonter la vallée"...?
Salut Rodolphe ! Imagine que l'on remonte d'un tout petit pas, alors le gradient du tour suivant nous pousserait a repartir dans l'autre direction, voila pourquoi on ne peut que converger. De plus, au fur et a mesure que l'on converge, le gradient se fait de plus en plus petit (le fond du bol est de plus en plus "plat") ce qui fait que la position du modèle ralentit au fur et a mesure de sa descente, tout comme une bille qui roule au fond d'un bol. Certes la bille remote de l'autre coté, puis redescent (comme j'ai expliqué eu haut de mon message) mais en temps normal, cela ne se produit pas pour la descente de gradient (elle tombe et converge d'un coup)
@@MachineLearnia ah oui ! Dans tous les cas on repasse positif et ca repart dans l'autre sens mais on ne le voit pas parceque ca "ralentit" énormément. Enbtout cas un enorme bravo et respect pour tes vidéos c'est juste incroyable de concision et d'efficacité. Je manipule pas mal de data et je "connais" ces principes "de loin" (en gros je demande a notre data scientist quand j'ai besoin d'un modèle). Hyper intéressant de comprendre le truc de l'intérieur. Merci !
Pour un modèle à plusieurs variables, celles-ci sont déjà présentent dans la Matrice X, donc tu n'as rien à faire. En ce qui concerne theta, il suffit d'ajouter n+1 lignes (ou n est le nombre de features+degrés) Est-ce-que ma réponse est claire ? :)
J'ai réussi à combiner les deux, merci j'ai compris. Cependant j'arrive rapidement à des erreurs de mémoire sur Jupiter avec des modèles d'ordre supérieur.
@@bilon5670 C'est parce qu'il faut normaliser vos données avant de les passer dans la fonction de descente de gradient, Sinon le modele n'arrive pas a converger, je vais expliquer ca dans la prochaine vidéo de cette série (mais j'ai déja fait une autre vidéo qui explique cela : c'est la vidéo 22/30 Python Machine Learning sur le preprocessing)
Bonjour et merci pour toutes ces videos accessibles et super bien expliquées... est-ce que celle-ci est la dernière de la série ML ou d'autres sont à venir ? En tout cas, c'est génial ce que tu fais
J ai voulu reproduire votre exemple sur Jupyter et pour le point 7 « évaluation finale » j’ai un coef de détermination 0,58 alors que vous êtes à 0,97. Pourriez-vous s il vous plait expliquer pourquoi? En vous remerciant
Bonjour, sans plus de détails je ne saurais pas vous idre, il faudrait voir votre code et vos données, le random_state etc. Pourriez vous venir sur Discord pour en parler ? Merci
@@MachineLearnia Merci beaucoup de ce retour🙂.Après réflexion c’est vrai que le nuage de points est plus dispersé que dans votre exemple, du coup j’imagine que la fonction coûts est plus importante et donc cela explique ce résultat? Je veux bien venir sur Discord mais je ne l’ai jamais utilisé… comment fait-on? Encore merci
Bonjour ! Oui tout est possible sur matlab, c'est pour ca que j'explique les formules mathématiques a mettre en place (elles seront les mêmes avec Matlab, je l'ai déjà fait par le passé)
Bonjour ,merci pour cette vidéo ça m'a trop aidé pour ma formation j une petite question on utilise just les deux modèles simples et multiples pour l'analyse de données ou existe t-il d'autres , si oui lesquels ? Et merci 😊
bonjour dans la partie 'régression multiples variables' je ne comprend pas pourquoi le thêta aléatoire à 3 éléments alors que c est un modèle linéaire donc 2 éléments non ? Sinon à part cela j adore ta pédagogie matthias
Bonjour, un modèle linéaire (ou modèle affine) est un modèle qui fait la somme pondérée de ces entrées. Alors aucun probleme de faire la somme de 3 entrées (ou plus). Vous ne faites que rajouter des dimensions a votre probleme : au lieu d'une droite, vous obtenez un plan, puis un hyperplan, etc etc.
Désolé pour la réponse tardive, l'algorithme TH-cam ne m'avait pas notifier de votre commentaire ! Eh bien on peut travailler avec les datasets de sklearn : par exemple Boston et California_housing. Ce sont 2 datasets qui vous exercent a prédire le prix d'une propriété en fonction de pleins de variables différentes (la surface, la zone, le nombre de pieces, etc.)
Bonjour Guillaume, Je vous adresse un grand bravo pour votre investissement, votre plaisir à partager vos connaissances. Je découvre le langage Python, et je commence à écrire quelques petits programmes. Je découvre également le machine learning. Très intéressant, vos explications passionnantes. Serait il possible d'avoir quelques tutos qui présentent d'autres exemples dans des domaines variés et concrets ? Je vous souhaite bonne continuation. Petit bémol, je ne reçois pas votre livre malgré les recommandations répétées aux uns et aux autres
emballez c'est pesé! j'ai bien aimé la touche finale de montrer la courbe 3D. au passage l'aide matplotlib est "insane". quand on regarde l'introduction sur leur site on tombe de suite dans des explications archi complexes.
Bonjour, c'est moi ou dans cet exemple x2 n'a presque pas d'impact sur y au vue de la dispersion graphique ? On voit bien sur le teta : a=81,... b=5,.... .
Quand je parle de dispersion graphique, j'entends par là celles des 2 projections. L'une concentrée et linéaire et l'autre pas. Bref un plan formé avec une droite presque à l'horizontale en x2.
Merci. Autre petite question : existe-t-il d'autres modèles mathématiques en data science comme ceux de l'analyse du signal (filtrage du bruit) ou les courbes de Bézier (interpolation continue mais non linéaire ) pour le traitement des données ? Sinon superbe travail, tes vidéos sont très pédagogiques c'est plaisant !
Merci beaucoup. Le cas général était donné dans cette video : On garde la formulation matricielle du modele, de la fonction Cout et de la descente de gradient, et il suffit simplement d'ajouter des variables polynomiales a l'intérieure de la matrice X, tout en ajoutant un nombre identique de coefficients dans theta. Est-ce-que ma réponse est claire ou bien préférez-vous que j'explique plus en détails ?
@@MachineLearnia Bonjour Guillaume, Oui j'ai vu qu'on a parlé de la régression polynomiale simple( avec un facteur) et de la régression linéaire multiple (plusieurs facteurs). Je parle du cas générique qui est la régression polynomiale multiple. Merci bcp pour ton aide.
Bonjour, j'ai changé de pc et j'ai voulu telecharger jupyter seul. J'ai réussi à l'installer sans problème, mais quand je lance Jupyter quand j'ecris du code et que j'essaie de le compiler j'y arrive pas ça compile pas. Tu as une idée de comment regler ça ?
Bonjour, alors il peut y avoir une tonne de raisons différentes, donc comme ca je ne saurais pas te dire. As-tu bien installer Python sur ton ordinateur avant d'installer Jupyter Notebook? Si tu apprécies les notebooks, tu peux tout simplement utiliser google colab.
@@MachineLearnia salut, oui j'avais installé python 3.8 avant. Mais tkp j'ai trouvé d'ou venait le problème. C'était le kernel qui était pas à jour ou un truc comme ça. Une ligne decode dans powershell et C'était réglé.
Bonjour Guillaume, Merci beaucoup pour tes vidéos qui sont très bien faites et très claires ! 👌 J'ai une petite question concernant la régression linéaire multiple. Tout d'abord conseilles-tu de normaliser les données en entrée pour avoir des ordres de grandeurs comparables ? De plus, une fois qu'on a un modèle est-il possible de l'analyser pour en déduire l'influence et l'importance de chacun des paramètres ? Et si oui comment ? 🤓
Bonjour Marie et merci beaucoup :) - Il faut presque toujours normaliser les données avant leur entrée dans la machine (j'en parle en détail dans la vidéo 22/30 preprocessing avec sklearn) - Oui on peut déterminer l'importance de chaque variable par l'analyse des coefficients Theta de notre modèle (et je montre en dessin comment avec la vidéo 23/30). Dans la pratique on utilise Sklearn pour faire du Machine Learning (ce package est tout simplement merveilleux) Et les modèles développé avec Sklearn ont presque tous un attribut .coef_ (qui permet d'analyser l'importance des variables) ou un attribut feature_importance_ (qui trie les variables selon leur importance pour un modèle donné) Si tu as d'autres questions, n'hésite pas. C'est un plaisir de vous aider :)
Hello, oui tu peux faire cela, mais ca n'est pas du tout le meme modele. Tu peux le faire avec sklearn également en une ligne de code, il y a l'estimateur : gaussian_process.kernels.RBF (il me semble que c'est celui-la, j'ai un doute)
Bonjour ! Déjà merci pour tes vidéos, je suis en première année d'études d'ingénieur en polytech à Bxl et je kiffe regarder tes vidéos histoire de m'avancer un peu ! Pourrais-tu partager avec gitub le bout de code ou le logiciel qui t'a permis de faire la représentation 3D à la fin de la vidéo ? Et ça marche aussi pour les représentations de données dans des espaces multidimensionnels (de dim > 3), merci bcp !
Bonjour Antoine et merci. Le github est en lien dans la description. J'ai une section sur les graphiques 3D avec Matplotlib dans le repertoire github.com/MachineLearnia/Python-Machine-Learning/blob/master/15%20-%20Matplotlib%20Top%20Graphiques.ipynb
Merci pour toutes ces vidéos ! Je me pose la question suivante : il est parfois indiqué quand lors de présentations sur le ML de diviser le dataset en deux, voire trois, parties (ex : 80% des données utilisées pour déduire le modèle - 20% pour sa validation). Que pensez-vous de cette pratique ? D'après votre expérience, est-elle intéressante ? Merci.
Bonjour Théo, diviser son dataset en 2 parties (Train set et test set) est indispensable ! mais je n'en parle pas dans cette vidéo. En revanche, j'en parle sur la vidéo 20 et 21 de la série Python Spécial Machine Learning. Je les recommande vivement car ce sont les vidéos les plus travaillées de la chaine, et les plus récentes.
Bonjour ! Je recherche des modeles pour de la prévision de vente de produits saisonniers et non saisonniers. Auriez vous des pistes à m'indiquer? Merci pour votre assistance, et merci pour vos vidéos, je sais quel travail cela peut représenter.
Bonjour tout le monde ! J'ai noté une erreur dans la vidéo
02:14 : la dérivée partielle de J en a est 1/m * sum ( x^2 [ ax^2 + bx + c - y ] ). Dans la vidéo j'ai laissé traîner un 2 en oubliant qu'il se simplifie avec 1/2m
Et bien dis-donc : moi qui croyais que tu étais le meilleur. ;)
@@noel9335 Personne n'est parfait en matière de la science, donc quelque fois on peut se tromper c'est normal
salut, comment utiliser un modèle de machine learning pour développer une application? ; par exemple si j'ai besoin de créé une application web de prévision météorologique avec phyton comment intégré la régression lineaire vue dans cette formation pour mon application ?
merci 🙏
@@alainvihumbira8354 ,
/
Je n'en reviens toujours pas de ce que cette formation est en libre accès. C'est un cadeau fait à la science. Merci de tout coeur sieur Guillaume.
vos explications sont géniales Guillaume, vous nous avez permis de comprendre et appliquer la data science en un temps optimal, je viens de découvrir votre chaine , c'es vraiment une mine d'or. malgré que j'ai déja fait math sup et spé et une formation d'ingénieur en statistique ç'a fait plus de 10 ans, mais on nous a jamais fourni des cours et des explications assez claires et efficaces comme les vôtres. je te souhaite plein de succès ;) vous êtes vraiment unique car en plus de cela vous êtes modestes et vous répondez à tous les commentaires
Merci beaucoup pour votre message de soutien Kamal, ca me fait très plaisir :)
Si vous avez des questions n'hésitez pas !
@@MachineLearnia Merci infiniment Guillaume , God bless you ;)
Le meilleur pédagogue que j'ai eu à suivre sur TH-cam. Vos vidéos sont cultes! Je m'en sers comme bibliothèque tout le temps
Franchement ça ne fait mème pas une semaine que j'ai commencé les cours sur Le Machine Learning Python et avec vos vidéos je ne suis vraiment plus confus. Je suis mème encore plus excité. Waouuuuh
Bravo
Vous êtes le meilleur pédagogue que j'ai jamais vu. J'aimerais tellement vous rencontrer mon professeur.
Merci beaucoup ! Avec plaisir :)
Grand merci. je benis Dieu d'avoir tombé sur vos videos
Merci beaucoup
Bonjour, c'est très clair et bien expliqué! Merci pour ce format avec autant de contenu sur youtube
Merci beaucoup
Merci beaucoup, je ne pensais pas qu'on peut dire grande chose d'intéressant sue la régression linéaire, mais ta vidéo a été très éclairante et ma fait comprendre des nouvelles choses!
trooop fort, ravier de tomber sur cette chaîne!!
Merci beaucoup. La prochaine Vidéo Machine Learning sortira dans quelques semaines. En attendant, je travaille sur la série Python (quand même très intéressante !)
Des tutos de grande qualité, claires et instructifs. je m'abonne. pour cet exemple, il fallait juste faire un exemple code avec Z = X²+Y²+YX+b, un affichage déjà en 3D, qu'on peut visualiser, et facile à comprendre. Mais c'est déjà excellent le tuto. Merci !
Merci beaucoup. Oui je suis d'accord avec vous :)
Excellente vidéo .. on attend la suite :)
Merci beaucoup ! :)
Encore une fois très bien expliqué. Merci !
Je vous en prie !
Merci pour les cours
Vous êtes le meilleur enseignant
Vous êtes au top, un grand merci !
Merci :)
Salut superbe vidéo, ça serai formidable que tu nous parle de l'algorithme random forest dans les vidéos a l'avenir, ça aiderai beaucoup gens à comprendre, le fait que tu illustre tous avec des exemples tes vidéos sont super claires et précis, bon courage pour la suite. 😊
Merci beaucoup. Oui j'ai prévu de faire des random forest a l'avenir ! :)
Merci de votre travail.
C'est beau ! le tableau derrière de vous
merci beaucoup :)
Merci , monsieur
en faite c'est beaucoup plus simple ici
Merci, j'aime beaucoup tes vidéos.
Merci :)
C'est trop bien ces vidéos !
Merci :)
Merci pour ton livre je t'admire beaucoup
tu iras loin
Merci beaucoup a toi ! Toi aussi tu iras loin j'en suis sur !
2:14 je ne comprends pas d'où vient le 2 en facteur pour la dérivé partielle de J par rapport à a, il disparait avec le 1/(2m) non ?
Bonne question : le 2 vient de la dérivée composée qui contient un x^2. Du coup il y a un 2 provenant de (f(x) - y)^2 et un autre 2 provenant de x^2. Ainsi en divisant par 1/2m, il nous reste un 2. Est-ce-que ma réponse est claire ?
@@MachineLearnia mais si je dérive Ax^2 par rapport à A ça me donne x^2 et non pas 2x^2 ?
Mais admettons qu'il y a un 2, il faudrait aussi modifier ta fonction coût ? En plus des matrices thêta et de x ? Car elle ne prend pas en compte ce 2
@@bilon5670 J'ai en effet pris le temps de poser le calcul et je me rends compte de l'erreur ! C'est tout ma faute, je ne sais pas comment cette erreur a pu passer inaperçue pendant le tournage et le montage et qu'en plus personne ne l'a soulevé depuis des mois ! Donc merci a toi et je vais corriger ca avec un autre commentaire en haut !
Grand MERCI !
Super vidéo, merci beaucoup.
La transition 2D vers 3D vers nD est très bien expliqué.
Je n'est pas encore tout vu mais se serais génial si tu pouvais faire un exemple de prédiction / catégorisation sur des dataset importées.
Merci ! Je fais des exemples de projets dans mon autre série de vidéos Python Machine Learning
Descente de gradient, mais montée en puissance ! 😉
Oui Monsieur ! ;)
Merci pour ces supers vidéos Guillaume! Petite question, si on veut faire du polynomiale sur n features, la matrice X doit être comment? [x(feat1)^2 // x(feat2)^2 // x(featn)^^2 // x(feat1) // x(feat n) // 1] ? Merci par avance
Je ne comprend pas l'interet de l'utilisation de la variable X2. SI on ne peut pas observer une corrélation entre la variable X2 et y avec le scatterplot. Est-ce que celle-ci améliore réellement notre m odèle?
bahaha je viens de galérer pendant 10min parce que mon modèle faisait pleins de lignes qui partaient des bons endroits et convergeaient de plus en plus vers le centre plutôt que d'en faire une seule, en fait j'avais écrit "plt.plot(x[:,0], predict, c='r')" à la place de "plt.scatter(x[:,0], predict, c='r')" je vais chialer X)
vidéo de très bonne qualité sinon
Ah oui c'est une erreur courante ! Bravo a toi d'voir su trouver.
@@MachineLearnia merci X)
Bonjour, je suis en train d'écrire un programme à 5 features, en supposant qu'une régression linéaire suffise pour chaque variable, je me retrouverai avec la dimension de theta étant (6,1). Ma question est la suivante, si pour le feature p compris entre 1 et 5 une régression linéaire n'est pas satisfaisante dois je rajouter un vecteur de x(p)**2 dans ma matrice X et une ligne à mon vecteur colonne theta ? Comment puis je déterminer à l'avance les dimensions de ma matrice X dans ce cas là ? Existe t il un algorithme permettant à mon programme de trouver la forme de ma matrice X en fonction de coefficients de détermination qui évalueraient 1 à 1 les régressions polynomiales sur mes features ? En espérant ne pas être à côté de la plaque et clair ^^
Bonjour Yann,
Oui la question est parfaitement claire ! Il existe ne effet des algorithmes pour ajouter automatiquement les combinaisons polynomiales a votre dataset. Par exemple en partant de 2 variables x1, x2, vous pouvez créer automatiquement une matrice 1, x1, x2, x1^2, x1*x2, x2^2
Pour ca je te conseille d'utiliser le package sklearn et son transformer appelé PolynomialFeatures
J'ai fait une série tout entiere sur la programmation python pour faire du machine learning et je te conseille de la regarder pour entrer dans la pratique. Cette série actuelle est plus dans l'explication mathématique de certains algorithmes de base du ML
Merci pour les videos c'est tres bien expliqué
De rien :)
Vous avez utilisé quel version de python ? Dans la formation ?
@Machine learnia merci beaucoup pour cette videos
Merci pour cette vidéo très instructive. Très joli travail !
Le diable se cache dans les détails.
Merci encore, and keep it up !
Merci a vous :)
Nickel... tu as déjà fait une vidéo sur la régression logistique, merci.
Je vais bientôt faire une vidéo sur la régression logistique, merci beaucoup !
Salut merci pour le tutoriel.
Svp j'aimerais voir le cas où l'on a plus de trois features et les targets sont expliquées par tous les features.
Merci
Oui ça va bientôt venir :) Merci
Bonjour monsieur merci pour vos explications très simple et facile à comprendre , s'il vous plait pouvez vous nous faire une vidéo explicative sur la régression logistique !!!? j'en ai vraiment besoin de comprendre cette méthode pour mon projet si c'est possible . merci
J'en ai fait une dans ma série sur le Deep Learning :)
@@MachineLearnia d'accord monsieur je vous remercie infiniment :)
Le theta_final possède maintenant 3 valeurs au lieu de 2 dans le cas d'une régression linéaire simple. Pourtant l'équation n'est pas de type ax² + bx + c ? Ou alors je me trompe.
Comment donc interpréter le résultat ? Quelle est donc l'équation finale qui permettra de calculer y = f(x) sachant qu'il y a 2 features et donc 2 valeurs différentes pour x ?
Merci pour la réponse.
En ajoutant une colonnes x^2 dans la matrice X, ainsi qu'un troisième paramètres dans theta, on obtient en effet un modèle de la forme f(x) = ax^2 + bx + c. (polynôme de degré 2)
Dans ce cas il n'y avait cependant qu'une Feature x ! (que l'on a étendu a x^2)
Si on développe un modele sur plusieurs features (par exemple x1, x2) alors on écrira f(x1, x2) = .... (et la ca dépend du nombre de degrés que l'on désire avoir dans le modele). Dans Sklearn, on utilisera le transformer PolynomialFeatures pour augmenter facilement le nombre de dimensions de notre probleme, je vous conseille de visualiser ma vidéo sur le preprocessing a l'avenir, vous comprendrez mieux (et les vidéos sur sklearn par la meme occasion)
@@MachineLearniaMerci pour la réponse mais pour m'aider à mieux comprendre : quelle est la formule correspondante à f(x1, x2) dans l'exemple de la vidéo ? Il doit bien y avoir une formule associée sinon à quoi cela sert de connaitre les valeurs de théta ?
Cela me permettrait de comprendre comment on résout le problème et surtout de trouver des valeurs résultat.
Pour les vidéos (comme celles sur Sklearn) j'ai bien l'intention de les visionner mais entre votre très bon livre, votre site de qualité, les superbes vidéos machine learning, Python, etc. et la compréhension mathématique, il y a de quoi faire. ;)
En tout cas, très bon travail : merci encore.
Bonjour Guillaume,
Merci beaucoup pour cette formation.
En tentant de refaire la même chose, je tombe systématiquement sur Theta_final de dimension (3, 100). Je cherche depuis hier mon erreur mais je ne trouve rien. pouvez-vous me dire ou je me suis trompé ?
vous remerciant
c'est un probleme de broadcasting. Faites bien le y.reshape au début du code !
Bonjour, comment peut-on savoir le degré de la fonction polynomiale ? Puisque là vous déterminez le degré à partir du graphe mais si on avez eu 10 features, comment auriez-vous fait ?
Superbe Vidéo ! Grand Merci ! Je m'abonne ;)
Merci beaucoup ! :)
Bonjour j'aimerais savoir si c'est possible d'écrire un algorithme de classification d'application( malware ou begnin) avec le modèle de régression linéaire.
Merci beaucoup pour les videos.☺
Vous êtes formidable , très bien expliqué ...bravo .J'aimerais utiliser un programme AI pour prédire une variable (0 ou 1) a partir de n features, c'est pour un besoin de prévisions météorologiques :) j'imagine que ce sera une autre méthode autre que la regression liniaire multiple.
super, comme toujours :)
Merci :)
Très bonne vidéo ! 😃😃😃
Merci beaucoup ! :)
Un grand merci à votre série de vidéo sur la régression linéaire avec la mathode de descent de gradient.. Y-il un site Web qui donne des problème de régression à résoudre ? .. Si ui donner moi un nom de l'un des site.. Et merci beaucoup
Je vais en chercher un car a ma connaissance il n'y en a pas. Mais vous pouvez aller sur Kaggle ou bien travailler avec les datasets de Sklearn pour vous faire la main.
Bonjour , j'aimerai savoir si il serait possible d'avoir des fiches d'exercices en machine learning surout sur ce que on a vu jusqu'a present
cest a dire ,regression lineire et autre .
Aussi j'aimerai des exos qui englobe tout ce que on a vu , ces exos me permettrons d'avoir une application concrete de ce qui a ete vu jusqu'a present
Bonjour, je n'en dispose pas a l'heure actuelle, mais j'en mettrai a l'avenir sur mon site Internet.
Tu mets en pls les cours que j'ai commencé à prendre sur le machin learning. J'ai créé un bot de trading avec le langage de programmation mql4 et j'ai pour objectif d'apprendre le python créer un machin learning qui communique avec celui-ci pour qu'il prenne les meilleurs positions. Merci à toi.
Très pédagogique !
Merci !
Merci beaucoup :)
Bonjour, merci pour vos videos, elles sont tops
Qu'en est-il du besoin que la fonction de cout soit toujours convexe ( pour avoir uniquement un minimum globale), le respecte on toujours en ajoutant de nouveaux parametres theta / x**n etc .. ?
Pour les problemes de regression : Tant que les erreurs sont distribuées de facon normales, la fonction Cout est toujours convexe et converge vers la solution optimum. Mais ca n'est pas toujours le cas.
pour la regression lineaire a deux features c est quoi la nouvelle fonctions du models vu que theta est de dimention (3,1)?
Le modele serait le suivant : f(x1, x2) = ax1 + bx2 + c.
Il y a 3 coefficients dans le vecteur theta (a, b, c)
Merci beaucoup , super vidéo !
Merci !
Bonjour,
Merci encore pour vos vidéos!
J'ai mis en dataset des valeurs de débit d'une canalisation ainsi que des valeurs de température pour un y = prolifération de mollusques entre autres.
J'ai normalisé les données X et y en les divisant par la valeur max contenu dans X.
Est-ce normal d'obtenir un theta différent à chaque exécution du code ?
Dois-je sélectionner un autre modèle que polynomiale ?
Bon Après-midi
Oui c'est normal d'obtenir un théta différent, car cela dépend de votre initialisation. Mais en principe vous devriez converger vers une solution sensiblement similaire a chaque fois, sinon c'est que votre algorithme a besoin de plus d'intérations
@@MachineLearnia Bonjour, merci de votre réponse. Je crois que la corrélation entre les variables utilisées et le dataset est trop faible pour établir une relation. Cela ne converge pas du tout vers les mêmes valeurs à chaque exécution malgré la modification du pas et du nombre d'iterations. J'obtiens un coût final très faible mais je crois que c'est parce que la courbe étudié est constante. En remplaçant les donnés par une fonction connue je converge en effet vers un theta en particulier.
Bonne journée 🎩
Bonjour et merci pour toutes ces vidéos qui sont super ludiques et très bien expliquées! J'avais une question : comment tester l’homoscédasticité des résidus? Quelle est la conséquence si l'hypothèse h0 selon laquelle les variances sont constantes n'est pas rejetée? merci!!
Vous entrez la dans des questions épineuses, mais c'est bien ! Vosu pouvez faire un test statistiques, mais ca n'est meme pas nécessaire pour les regression linéaires, car on peut démontrer que les résidus suivent une loi normale.
@@MachineLearnia Merci!
Bonjour a 7min43 tu teste le modèle avec le nouveau scalaire theta et la nouvelle matrice X , cependant que je le teste chez moi la machine me dit qu'il y a une erreur dans la fonction " model", c'est ecrit: " ValueError: setting an array element with a sequense" . Je ne comprend pas le problème car j'ai pas touché à la fonction "model".
Je t'invite a voir mon code sur Github, il est fonctionnel. Si tu obtiens cette erreur, il y a peut-etre une petite différence.
Bonjour, C'est vraiment très clair, très pédagogique.
J'ai une petite question. Sur un data à 1 feature, il est relativement simple de trouver le modèle en traçant le nuage de points. Par contre lorsqu'il y a plusieurs données, est ce qu'il faut tracer un graphe pour chaque variable (y = f(x1), puis y f(x2) .......) ?
Est il possible dans ce cas d'avoir pour une colonne de donnée avec un modèle affine, et pour l'autre un modèle parabolique ?
Bonne journée Merci
Bonjour, quand on travaille sur un probleme multi-dimensionnel, on n'affiche en général pas notre modele (vous pouvez faire l'essaie, vous ne verrez qu'un nuage de point par dessus un autre).
Donc, pour valider la qualite du modele, on affiche a la place ce qu'on appelle des courbes d'apprentissage (de souvenir je les ai tracé ici dans cette série de vidéo, sinon elles sont dans ma série de vidéos sur sklearn)
@@MachineLearnia Merci pour cette réponse,
j'imagine qu'il faut jouer ensuite avec le coef de prédiction en essayant d'obtenir la valeur la plus élevée?
Bonne journée
c une bonne formation pour ml merci ...
De rien !
Des superbes vidéos pour mon auto apprentisage, je vous remercie infiniment.
Par ailleurs j'aimerais savoir le procédé avec les codes pour arriver à mon équation du modèle.
J'ai déjà implémenté jusqu'à avoir un modèle de régression linéaire qui marche moyennement bon avec plusieurs features.
J'ai normalisé les données, qui sont toutes quanti, avec PowerTransformer mais j'arrive pas à retrouver les coefficients du modèle...
Si vous utilisez sklearn, vous pouvez voir les coefficients du modele avec l'attribut estimateur.coef_
Salut j'espère que vous allez bien superbe vidéo je voulais savoir comment on met des équations dans les cellule markdow ? Si tu a une doc à me conseiller ?
Il faut les écrire en LateX
@@MachineLearnia merci
Bonjour, je souhaite te remercier pour cette formation qui est tout simplement superbe.
J'ai une question concernant la régression linéaire avec 2 variables et la régression polynômiales, je vois que le vecteur teta et le même, j'ai pas très bien compris la différence, merci
Le code pour le créer est le meme, mais comme le nombre de variables dans X augmente, theta augmente avec lui.
Ce que j'ai pas compris, est ce que e vecteur teta dépend du nombre de variables ou du nombre de paramètres dans le model (a, b, c) ?
@@elemaine91 le vecteru theta comprends les différents parametres. Si on le crée en écrivant X.shape[1] cela donne automatiquement autant de parametres dans théta que de variables dans X.
@@MachineLearnia Aah d'accord merci pour l'éclaircissement, j'ai très bien compris maintenant
@@elemaine91 de rien :)
Bonjour Guillaume, Je vous remercie pour votre travail qui m'aide beaucoup. Allez-vous présenter la régression PLS? Il me semble que cette régression est adapté pour un modèle à plusieurs variables cibles?? Merci
Bonjour, en réalité le modèle que je présente ici est aussi capable de faire des régression multi-target. Ill suffit de poser cela par matrice pour s'en rendre compte. Pour aller plus vite, je vous conseille d'utiliser Sklearn : SGDRegressor
@@MachineLearnia super je vais me renseigner la dessus ! Une vidéo peut être ?? Bonne continuation et à bientôt.
Bonjour , j'ai un probleme , c'est que la courbe du modele polynomiale apparait tres eppaisse
Merci beaucoup pour tous ces efforts consentis pour notre instruction Guillaume Saint-Cirgue
(je vous envie car vous avez déjà commencés à impacter le monde francophone dans le domaine de L’IA)
.une question :
Dans votre livre apprendre le machine Learning on (vous) utilise directement des méthodes embarquées dans les librairies qu’on import dès le début lorsque sur TH-cam vous faites des démonstrations (qui sont très intéressantes). Du coup je me demande s’il est nécessaire de maîtriser ces démonstrations pour faire du machine Learning. Merci !
Merci beaucoup pour votre commentaire !
Il n'est pas nécessaire d'écrire ses propres algorithmes en partant de zéros pour faire du machine learning. Il est utile de voir les démonstrations (que je montre dans les vidéos) pour comprendre la mécanique des algorithmes ! :)
Excellent travail merci bcp,
je pense qu'on peut aussi programmer la valeur de learning_rate à fin de chercher une valeur optimale au lieur de choisir une valeur fixe.
Oui en effet, c'est ce qui est fait avec sklearn dans SGDRegressor
Très bonne vidéo.
la no-linéarité vient du fait que le "coefficient directeur" suivant la direction x2 est petit par rapport à celui de x1, je pense?
Non, c'est juste que les données ne suivent pas une tendance linéaires.
bonjour boujour :)
Petite question quand je fais la régression j'ai plein de ligne rouge de régression qui apparaissent au lieu d'une seul.
As-tu une idée de pourquoi ?
Thomas
Bonjour Thomas !
Oui c'est normal, la fonction plt.plot() trace la courbe dans l'ordre des points de X.
Pour corriger ce probleme, utilise soit la fonction plt.scatter, ou bien si tu as vraiment envie d'avoir une courbe, il te faut faire la chose suivante
new_x = np.linspace(0, 10, nb_points)
plt.plot(new_x, model(new_x, theta))
Bonjour Thomas,
J'ai eu le même souci que toi alors que Guillaume n'a pas ce souci. en fait ,lui il a utilisé la fct scatter et non pas plot :)
@@MachineLearnia bonjour Guillaume, j'ai effectivement corrigé avec les points cependant, je ne comprend pas ce que tu ajoute dans la fonction linespace notamment nb_points, cela représente-t'il le nombre de données ? Et où faut-il inclure cette partie dans le programme ? À la même ligne où se trouvait "plt.plot()" ?
Je vous remercie une autre fois pour cette riche formation
j'ai une petite question , si y=sqrt(a*x^2+bx+c) en gros la courbe que vous avez dessiner sur la tablette en début de cette vidéo , es ce que notre mine d'or fonctionne toujours si oui comment s'il vous plaît ? mon idée c'est ds la matrice de X je mets directement une colonne sqrt(a*x^2+bx+c) et une colonne des ones .
Merci d'avance
Si vous faites cela c'est un peu comme "tricher" -> en effet dans la vraie vie vous ne connaîtrez pas l'équation derrière les phénomenes étranges que vous observés et pour lesquelles vous devez développer un modele de ML. Donc, ce que vous devez faire, c'est de créer beaucoup de variables polynomiale dans votre matrice X (vous pouvez visionner la série Python Machine Learning - épisode 22/30 sur le preprocessing) pour bien comprendre comment ajouter des variables automatiquement dans un programme.
@@MachineLearnia Je vous remercie pour votre réponse , je suis entrain de regarder la formation python je suis encore en 04/30 , step by step :D
Bonjour.
Merci bcp pour les # presentations !! C'est tres clair, Sinon on a bien compris le principe de l'algo de gradient srtout sans la lib python, est ce que c'est possible d'avoir des video comapartives avec l'algo gradient stochastique ainsi que le gradient with momentum ( adaptive lerning rate)
Merci d'avance
Merci beaucoup ! Je vais faire un tel comparatif dans ma série sur le Deep Learning prévue ce trimestre :)
Bonjour, est-ce normal d'obtenir un thêta différent à chaque exécution du code ? Bonne journée
confère mon autre message :)
Bonjour,
Vous avez dit dans la dernière vidéo que vous allez expliquer comment importer nos propres données concernant la régression linéaire, néanmoins vous ne l'avez pas présenté dans cette ML#9.
Merci et bonne continuation!
Bonjour, j'en parle dans des vidéos suivantes sur la chaine TH-cam. On importe souvent des données avec Pandas, j'en ai fait 2 tutoriels, vous les trouverez facilement en écrivant dans youtube : "Pandas Machine Learnia"
@@MachineLearnia Merci
Bonsoir à vous
Je ne parviens pas à recevoir votre sur le machine learning.
Lui : " il va falloir faire des centaines d'équations..."
Moi : " Erreur 404, la page demandé est inaccessible"
Lui : "Heureusement, il existe une solution qui permet de tout contenir."
Moi : " Bravo! ta débloqué la fibre cérébrale mon pote, on va prédire la bourse et se faire un paquet de fric LETS GOOOOOOO (je rigole ^^, je veux juste faire un bot qui défonce tout sur Trackmania)
Bonjour Guillaume j'ai lu le ebook gratuit que tu m'a offert. Jai une question
-Je veux classer plusieur variété (y) de maïs suivant la quantité des élements nutritifs(x) qui s'y trouve
- Je veux que ma machine indique le maïs varité (y) approprié en fonction des besoins nutritionnels(x) de l'individu pour sa croissance.
Quelles solutions ou methodes puis-je utilisé pour resoudre ce probleme? Sachant que les (y) sont des valeur nominale et les (x) des valeurs quantitatives
Merci d'avance en gardant espoir que j'aurai une reponse de ta part
Enfin une personne qui partage son objectif avec du ML. Très intéressante application. Avez vous réussi ?
Bonsoir, pour la vidéo précédente j’ai écris le code et l’enregistrer avec jupiter mais avec cette vidéo j’ai essayer d’ouvrir le même fichier pour effectuer les modification, je parviens pas à l’ouvrir avec jupiter. J’ai besoin d’aide
Bonjour, il va me falloir plus de détails pour pouvoir vous aider, vous pouvez nous rejoindre sur le Discord pour parler de votre probleme. Mais faites bien attention de toujours travailler avec Jupyter Notebook si vous commencer un project Jupyter.
@@MachineLearnia D’accord, merci
Hello une petite question. Quand on continue a entrainer le modele apres le pas 400 on voit que l'on tend vers une droite horizontale et que le modèle ne s'améliore plus. Intuitivelent j'aurais pensé qu'en continuant d'avancer on allait commencer a diverger puisque on dépasse le minimum et qu'on comlence à "remonter la vallée"...?
Salut Rodolphe ! Imagine que l'on remonte d'un tout petit pas, alors le gradient du tour suivant nous pousserait a repartir dans l'autre direction, voila pourquoi on ne peut que converger. De plus, au fur et a mesure que l'on converge, le gradient se fait de plus en plus petit (le fond du bol est de plus en plus "plat") ce qui fait que la position du modèle ralentit au fur et a mesure de sa descente, tout comme une bille qui roule au fond d'un bol. Certes la bille remote de l'autre coté, puis redescent (comme j'ai expliqué eu haut de mon message) mais en temps normal, cela ne se produit pas pour la descente de gradient (elle tombe et converge d'un coup)
@@MachineLearnia ah oui ! Dans tous les cas on repasse positif et ca repart dans l'autre sens mais on ne le voit pas parceque ca "ralentit" énormément. Enbtout cas un enorme bravo et respect pour tes vidéos c'est juste incroyable de concision et d'efficacité. Je manipule pas mal de data et je "connais" ces principes "de loin" (en gros je demande a notre data scientist quand j'ai besoin d'un modèle). Hyper intéressant de comprendre le truc de l'intérieur.
Merci !
@@rodolpheseror7501 De rien ! :)
super prof
Dernière question sur ta superbe vidéo :), si je veux un modèle polynomiale sur plusieurs features, que dois-je modifier sur les matrices x et thêta ?
Pour un modèle à plusieurs variables, celles-ci sont déjà présentent dans la Matrice X, donc tu n'as rien à faire. En ce qui concerne theta, il suffit d'ajouter n+1 lignes (ou n est le nombre de features+degrés)
Est-ce-que ma réponse est claire ? :)
@@MachineLearniaOui j'ai bien compris pour thêta mais pour x ? Dans quel ordre faut-il ranger les x1^2,x2^2,xn^2 et 1 ? L'ordre est-il important ?
J'ai réussi à combiner les deux, merci j'ai compris. Cependant j'arrive rapidement à des erreurs de mémoire sur Jupiter avec des modèles d'ordre supérieur.
@@bilon5670 C'est parce qu'il faut normaliser vos données avant de les passer dans la fonction de descente de gradient, Sinon le modele n'arrive pas a converger, je vais expliquer ca dans la prochaine vidéo de cette série (mais j'ai déja fait une autre vidéo qui explique cela : c'est la vidéo 22/30 Python Machine Learning sur le preprocessing)
@@MachineLearnia Je te remercie, tes vidéos sont superbes !
Bonjour et merci pour toutes ces videos accessibles et super bien expliquées... est-ce que celle-ci est la dernière de la série ML ou d'autres sont à venir ? En tout cas, c'est génial ce que tu fais
Merci Guillaume. Non ce n'est pas la dernière de la série, d'autres vont bientôt venir !
@@MachineLearnia : Génial ! Je finis cette série et en attendant les suivantes, je passerai sur la série Python pour ML :)
@@guillaumetopenot7143 Bravo pour ton enthousiasme ! :)
Super tuto!
Merci beaucoup :)
J ai voulu reproduire votre exemple sur Jupyter et pour le point 7 « évaluation finale » j’ai un coef de détermination 0,58 alors que vous êtes à 0,97. Pourriez-vous s il vous plait expliquer pourquoi? En vous remerciant
Bonjour, sans plus de détails je ne saurais pas vous idre, il faudrait voir votre code et vos données, le random_state etc. Pourriez vous venir sur Discord pour en parler ? Merci
@@MachineLearnia Merci beaucoup de ce retour🙂.Après réflexion c’est vrai que le nuage de points est plus dispersé que dans votre exemple, du coup j’imagine que la fonction coûts est plus importante et donc cela explique ce résultat? Je veux bien venir sur Discord mais je ne l’ai jamais utilisé… comment fait-on? Encore merci
C’est bon j’ai créer un compte. Cdt
est ce possible sur matleb tout ce que vous faite??
Bonjour ! Oui tout est possible sur matlab, c'est pour ca que j'explique les formules mathématiques a mettre en place (elles seront les mêmes avec Matlab, je l'ai déjà fait par le passé)
Bonjour ,merci pour cette vidéo ça m'a trop aidé pour ma formation j une petite question on utilise just les deux modèles simples et multiples pour l'analyse de données ou existe t-il d'autres , si oui lesquels ? Et merci 😊
Bonjour, oui il en existe tout pleins, j'en parle dans d'autres vidéos, notamment les vidéos de sklearn.
bonjour dans la partie 'régression multiples variables' je ne comprend pas pourquoi le thêta aléatoire à 3 éléments alors que c est un modèle linéaire donc 2 éléments non ?
Sinon à part cela j adore ta pédagogie
matthias
Bonjour, un modèle linéaire (ou modèle affine) est un modèle qui fait la somme pondérée de ces entrées. Alors aucun probleme de faire la somme de 3 entrées (ou plus). Vous ne faites que rajouter des dimensions a votre probleme : au lieu d'une droite, vous obtenez un plan, puis un hyperplan, etc etc.
Salut Guillaume
Je ne parviens pas à avoir le document sur le machine learning
Comment faire ? Stp
Il est également disponible sur notre discord dans la section ressources.
@@MachineLearnia d'accord merci j'ai pu l'avoir
Superbe vidéo, j'aimerais mettre en pratique tout ça avec un autre exemple ou pouvons nous trouver des data set pour apprendre notre modèle
Désolé pour la réponse tardive, l'algorithme TH-cam ne m'avait pas notifier de votre commentaire ! Eh bien on peut travailler avec les datasets de sklearn : par exemple Boston et California_housing. Ce sont 2 datasets qui vous exercent a prédire le prix d'une propriété en fonction de pleins de variables différentes (la surface, la zone, le nombre de pieces, etc.)
Bonjour Guillaume,
Je vous adresse un grand bravo pour votre investissement, votre plaisir à partager vos connaissances. Je découvre le langage Python, et je commence à écrire quelques petits programmes. Je découvre également le machine learning. Très intéressant, vos explications passionnantes.
Serait il possible d'avoir quelques tutos qui présentent d'autres exemples dans des domaines variés et concrets ?
Je vous souhaite bonne continuation.
Petit bémol, je ne reçois pas votre livre malgré les recommandations répétées aux uns et aux autres
Bonjour et merci beaucoup. Oui je vais faire des videos de projets bientot. Pour le livre vous avez donc vérifié le dossier Promotions ?
emballez c'est pesé! j'ai bien aimé la touche finale de montrer la courbe 3D. au passage l'aide matplotlib est "insane". quand on regarde l'introduction sur leur site on tombe de suite dans des explications archi complexes.
Oui le site de Matplotlib est vraiment pas cool. J'ai fait 2 tutos a ce sujet aussi.
Bonjour, c'est moi ou dans cet exemple x2 n'a presque pas d'impact sur y au vue de la dispersion graphique ? On voit bien sur le teta : a=81,... b=5,.... .
Quand je parle de dispersion graphique, j'entends par là celles des 2 projections. L'une concentrée et linéaire et l'autre pas. Bref un plan formé avec une droite presque à l'horizontale en x2.
Oui c'est correct, c'est ce que j'essaie de montrer sur le graphique 3D a la fin ! Bien vu ! :)
Merci.
Autre petite question : existe-t-il d'autres modèles mathématiques en data science comme ceux de l'analyse du signal (filtrage du bruit) ou les courbes de Bézier (interpolation continue mais non linéaire ) pour le traitement des données ?
Sinon superbe travail, tes vidéos sont très pédagogiques c'est plaisant !
Bonjour Guillaume,
Super Vidéo, comme d'habitude!
Peut-on, stp, avoir le cas général : polynomial et multiple?
Merci beaucoup pour ton aide.
Merci beaucoup. Le cas général était donné dans cette video : On garde la formulation matricielle du modele, de la fonction Cout et de la descente de gradient, et il suffit simplement d'ajouter des variables polynomiales a l'intérieure de la matrice X, tout en ajoutant un nombre identique de coefficients dans theta.
Est-ce-que ma réponse est claire ou bien préférez-vous que j'explique plus en détails ?
@@MachineLearnia Bonjour Guillaume,
Oui j'ai vu qu'on a parlé de la régression polynomiale simple( avec un facteur) et de la régression linéaire multiple (plusieurs facteurs). Je parle du cas générique qui est la régression polynomiale multiple.
Merci bcp pour ton aide.
est ce que tu peux m'éclaircir l'idée comment utiliser l'intelligence artificielle pour détecter et localiser les défaut sur un système PV ?
Bonjour, j'ai changé de pc et j'ai voulu telecharger jupyter seul. J'ai réussi à l'installer sans problème, mais quand je lance Jupyter quand j'ecris du code et que j'essaie de le compiler j'y arrive pas ça compile pas. Tu as une idée de comment regler ça ?
Bonjour, alors il peut y avoir une tonne de raisons différentes, donc comme ca je ne saurais pas te dire. As-tu bien installer Python sur ton ordinateur avant d'installer Jupyter Notebook? Si tu apprécies les notebooks, tu peux tout simplement utiliser google colab.
@@MachineLearnia salut, oui j'avais installé python 3.8 avant. Mais tkp j'ai trouvé d'ou venait le problème. C'était le kernel qui était pas à jour ou un truc comme ça. Une ligne decode dans powershell et C'était réglé.
@@donellessame9194 Ah oui c'est tres fréquent en effet.
Bonjour Guillaume,
Merci beaucoup pour tes vidéos qui sont très bien faites et très claires ! 👌
J'ai une petite question concernant la régression linéaire multiple. Tout d'abord conseilles-tu de normaliser les données en entrée pour avoir des ordres de grandeurs comparables ? De plus, une fois qu'on a un modèle est-il possible de l'analyser pour en déduire l'influence et l'importance de chacun des paramètres ? Et si oui comment ? 🤓
Bonjour Marie et merci beaucoup :)
- Il faut presque toujours normaliser les données avant leur entrée dans la machine (j'en parle en détail dans la vidéo 22/30 preprocessing avec sklearn)
- Oui on peut déterminer l'importance de chaque variable par l'analyse des coefficients Theta de notre modèle (et je montre en dessin comment avec la vidéo 23/30). Dans la pratique on utilise Sklearn pour faire du Machine Learning (ce package est tout simplement merveilleux) Et les modèles développé avec Sklearn ont presque tous un attribut .coef_ (qui permet d'analyser l'importance des variables) ou un attribut feature_importance_ (qui trie les variables selon leur importance pour un modèle donné)
Si tu as d'autres questions, n'hésite pas. C'est un plaisir de vous aider :)
Bonjour @Guillaume j’ai pas pu trouver le code sur ton site ?
Bonjour ! Il est disponible sur mon github, il le sera bientot sur mon site
Bonjour Guillaume, est ce que je peut remplacer le vecteur X par la fonction Gaussian RBF's. tel que y=∑θi∅i , et ∅i c'est la fonction gaussien
Hello, oui tu peux faire cela, mais ca n'est pas du tout le meme modele. Tu peux le faire avec sklearn également en une ligne de code, il y a l'estimateur : gaussian_process.kernels.RBF
(il me semble que c'est celui-la, j'ai un doute)
@@MachineLearnia j'ai utiliser gaussian_process.kernels.RBF et je doit récupérer les valeur θi comment faire
Hello est-il possible de faire la même chose mais pour une courbe qui semble exponentielle?
Bonjour, oui c'est possible ! Vous pouvez-meme tenter de créer une variable exponentielle dans X.
Bonjour ! Déjà merci pour tes vidéos, je suis en première année d'études d'ingénieur en polytech à Bxl et je kiffe regarder tes vidéos histoire de m'avancer un peu ! Pourrais-tu partager avec gitub le bout de code ou le logiciel qui t'a permis de faire la représentation 3D à la fin de la vidéo ? Et ça marche aussi pour les représentations de données dans des espaces multidimensionnels (de dim > 3), merci bcp !
Bonjour Antoine et merci. Le github est en lien dans la description. J'ai une section sur les graphiques 3D avec Matplotlib dans le repertoire github.com/MachineLearnia/Python-Machine-Learning/blob/master/15%20-%20Matplotlib%20Top%20Graphiques.ipynb
Merci pour toutes ces vidéos !
Je me pose la question suivante : il est parfois indiqué quand lors de présentations sur le ML de diviser le dataset en deux, voire trois, parties
(ex : 80% des données utilisées pour déduire le modèle - 20% pour sa validation).
Que pensez-vous de cette pratique ? D'après votre expérience, est-elle intéressante ?
Merci.
Bonjour Théo, diviser son dataset en 2 parties (Train set et test set) est indispensable ! mais je n'en parle pas dans cette vidéo. En revanche, j'en parle sur la vidéo 20 et 21 de la série Python Spécial Machine Learning. Je les recommande vivement car ce sont les vidéos les plus travaillées de la chaine, et les plus récentes.
Bonjour ! Je recherche des modeles pour de la prévision de vente de produits saisonniers et non saisonniers. Auriez vous des pistes à m'indiquer? Merci pour votre assistance, et merci pour vos vidéos, je sais quel travail cela peut représenter.
Bonjour et merci ! :) Je vous conseille d'essayer des modeles de type RNN avec Keras.
@@MachineLearnia merci pour votre réponse. Savez vous ou je pourrais trouver ça, sous une forme évidemment digestible pour moi :)
moi je suis perdu ,pour la réalisation de l'affichage de la figure(plot(x,y) on m'a dit que x et y n'ont pas la même dimension
Salut, merci beaucoup pour tes vidéos ! Est-ce que tu comptes faire des vidéos sur le classificateur bayésien, l'ACP et l'ACI?
Salut et merci beaucoup :)
Oui je vais faire des vidéos sur les modeles de Bayes, ils sont tres importants ! (en janvier je pense)
Oui je suis intéressé par ACP.. On vous attente merci bcp pour vos efforts
Rien à dire & c encore mieux ...;)
Merci :)