Bonjour Guillaume, excellente explication riche de détail , j ai visionné cette vidéo au moins 5 fois et je vais pas hésiter de la revoir car c'est la base de tout ce que tu va nous expliquer par la suite ( il faut assimiler la base pour se batire solidement merci encore Beau travail)
Oui c'est tout a fait correct ! Le fait que tu aies compris que cette vidéo constitue la base va te permettre de parfaitement comprendre les modèles plus complexes ! Ce commentaire est tout a fait pertinent, je vote un pouce bleu et j’espère que d'autres le feront !
Merci Mr. Guillaume, ainsi grand merci à vous Mr. Mohamed surtout pour vôtres messages (.......j'ai visionné cette vidéo au moins 5 fois.....), au départ je n'ai y rien compris (vu que je suis autodidacte) ce qui m’a rendu très angoissé pendant une nuit, maintenant je commence à comprendre avec une deuxième lecture. Mon angoisse m'a fait perdre le réflexe de revoir la vidéo, votre message (et surtout .revoir..5 fois...) Mr. Mohamed était très utile pour moi.
Salut à tous ! Pour vous rendre directement à une section de cette vidéo: 0:40 : Introduction 1:00 : le Modèle matriciel 4:12 : la Fonction Coût (erreur quadratique moyenne) sous forme de matrice 6:35 : le Gradient sous forme de matrice 10:02 : Descente de Gradient (matrice) 10:46 : Régression Polynomiale Bon visionnage ! :)
Commentaire identique à vous, M. Guillaumes j'ai enfin compris pourquoi après toutes les autres équations, on doit utiliser la forme matricielle, pourquoi l'on a F = X.O, comment et pourquoi des ces termes est composé comme il l'est, bref... Merci infiniment.
Cette formation : c'est que du bonheur. Enfin une personne très compétente qui prend plaisir à partager son savoir : et en plus qui le fait bien car très pédagogue. Je passe presque les vidéos en boucle tellement c'est passionnant. Enfin l'Informatique basé sur des Mathématiques telle qu'on l'apprend à l'Université. Aujourd'hui trop de gens pensent être informaticien et ces personnes ne basent pas leur travaux sur les mathématiques : ils n'ont rien compris et cela donne cette pléthore d'applications qui ne fonctionnent pas (manque de performance, bugs, etc.). Que tous ceux qui se disent spécialistes et qui font des formations (souvent payantes) prennent de la graine. Merci encore et encore.
Merci Guillaume pour la clarté de votre exposé et votre excellente pédagogie. Vos vidéos sont intéressantes et agréables et un bon rafraîchissement de culture scientifique : il y a un réel plaisir intellectuel à vous suivre.
Attention !!! Ça a peut-être déjà été dit mais (X.O - Y)² ne veut pas dire "chaque élément de (X.O - Y) au carré", ce qui est en l'occurrence le sens voulu. C'est important de le savoir parce qu'une matrice de taille mx1 ne peut pas être multipliée par une matrice de taille mx1 (comme lors de la mise au carré d'une matrice justement)! Disons que c'est un abus de langage de l'écrire comme ça Sinon, le contenu est hyper qualitatif, c'est un luxe pour chacun d'avoir accès à ces vidéos ! Merci !!
@@MachineLearnia Très bonne vidéo, ainsi que toutes les explications, excellent!!! Quant à la notation soulevée par @t.b.5493, on peut juste enlever le symbole de sommation et remplacer tout le paquet par le produit matriciel (XO - Y)^T * (XO - Y) afin d'obtenir la somme des carrés au sens que nous voulons.
Bonjour. Ces deux vidéos sur la régression linéaire vont droit à l'essentiel. Même lorsqu'on a un peu peur des formules de maths (comme moi !) on est tout surpris de quand même comprendre à chaque étape et on suit toujours le fil sans jamais se perdre. Vous avez un réel talent de pédagogue et en plus la volonté de le faire partager gratuitement au plus grand nombre. Bref, tout ce qu'il faut pour progresser linéairement ! MERCI
Bonjour Guillaume, je trouve tes formations vraiment super. Ils sont vraiment bien detaillées. Ça faisait longtemps je recherchais de l'information aussi bien détaillée sur les réseau de neurones. Bravo
J'ai fais de la data science il y a 2 ans à Telecom Paris. J'ai fais autre chose en master (Recherche Opérationnel) et une année de césure ensuite. Autant dire que je commençais à oublier tout ça! Merci pour ce rappel, on apprend quand même beaucoup plus vite qu'avec les cours en anglais d'enseignants chercheurs plus chercheurs qu'enseignant !
Man je n'ai jamais compris pourquoi je ne comprenais pas cette notion de ML ... En fait je n'avais pas encore rencontré ton explication. Franchement t'es un Special One
C'est vraiment une vidéo génial. Ces transformations matricielles ont failli me faire abandonner le ML quand j'ai débuté avec un autre cours, mais avec cette vidéo, bah c'est comme de l'eau à boire. Merci. vous faite vraiment un travail génial. :)
Cher Guillaume, Un grand merci pour la qualité de tes vidéos et ton sens pédagogique hors du commun. Le contenu répond parfaitement à mes besoins, à mon niveau et je prend un grand plaisir à les voir et revoir. Mais la plus belle chose que j’ai découverte en te regardant, c’est Otis McDonald!! Et donc merci pour ça aussi…
Super ! Vraiment bravo pour cette série, dont cet épisode me parait clairement le plus important depuis le début. Si mes profs avaient eu cette qualité autrefois ... je crois qu'il y aurait pas mal de sujet que j'aurais évité de sécher. Par ailleurs je tiens à souligner le coté très humain et très vivant de la forme, très important pour la concentration. J'ai hâte de voir la suite ...
C'est cool parce que quand j'avais appris ça la première fois, le prof avait directement généralisé à une dimension n, sur un point de vue mathématique ça changeait pas grand chose, mais niveau intuition, c'est bien plus simple ici ! Merci bien !
certains esprits supérieurs et la collaboration d'autres personnes ne font que mettre en évidence ce qui était déjà là, caché derrière le décors. la façon dont tout s'emboite est prodigieuse. les explications de cette vidéo étaient d'une clarté faramineuse. ah si seulement j'avais une meilleure mémoire, malgré mes efforts quotidiens. en tous cas, rien que pour découvrir ce domaine ça valait le détour. les années passent et je reste un éternel élève. moyen mais bon j'ose espérer que je finirai par progresser un peu
bonjour Guillaume. Je suis nouveau sur ta chaine et j'ai dja beaucoup appris !!! L'intelligence artificielle est un domaine qui me passionne et tu viens de me donner plus de motivations pour atteindre mes objectifs. T'es le meilleur Guillaume....:)
Merci beaucoup pour ces séries l'explication est juste impeccable, la seule remarque du carré de la matrice qu'on a déjà soulevé; mais sinon c'est très très bien fait, merci encore une fois
Cher Guillaume, Bravo et merci pour votre livre et votre excellent cours de machine learning par vidéo. Ce sont de très beaux cadeaux aux internautes curieux de comprendre les choses en profondeur : ils peuvent ainsi véritablement pratiquer et s'exercer à créer des applications et non pas seulement voir défiler des masses de termes techniques sibyllins. Votre présentation sur la mise en forme matricielle des équations de la descente de gradient est fort intéressante mais je ne saisis pas la symbolique de la formule J(théta) =(1/2m)Sigma(X.théta-Y)². Pourquoi ce Sigma puisque tous les éléments de cette somme sont implicitement déjà contenus dans la matrice (X.théta-Y) ? D'autre part cette matrice de dimension mx1 ne peut être multipliée par une matrice de dimension mx1, donc pas non plus par elle-même, autrement dit élevée au carré. Comme vous l'expliquez plus loin à propos de la formulation du gradient, je crois qu'il faudrait faire intervenir une transposition de matrice pour retomber sur le scalaire désiré, ce qui donnerait la formule : J(théta) =(1/2m) [Transposée(X.théta-Y)]( X.théta-Y) Cordialement
Merci beaucoup pour votre message. En effet pour etre mathématiquement correct il faudrait écrire le tout avec une transposée comme vous l'avez fait. C'est juste pour simplifier et vulgariser que j'écris cette formule pour "programme Python", car cela aide la plupart des débutants a comprendre sans se soucier des "maths" a ce stade. Donc je vous affirme que vous avez raison ! :) A Bientot !
Bonjour, Guillaume. Non seulement votre cours est remarquable mais en plus le "Service Après-Cadeau" est irréprochable. Merci pour votre réponse aussi soignée qu'ultra-rapide. Le premier MOOC que j'ai suivi était, début 2013, une bonne formation à Python par Udacity ... que j'ai oubliée depuis faute d'usage. Quel dommage que Machine Learnia n'ait pas existé à l'époque pour mettre ces connaissances en pratique ! Cordialement.
Je lis des choses sur les normes d'applications linéaires, puis-je plutôt me fier à une telle norme (genre la racine de la somme des carrés de theta_final, moyennée sur plusieurs tirages allez hop ^^). Merci pour vos réponses, Master Learnia :P
@@MachineLearnia J'ai eu du mal à poster ma question en 1 message, je pense que le comm d'intro a sauté: J'ai appliqué le code et les principe de cette vidéo sur un problème d'estimation, qui comporte a priori beaucoup de features (8 catégorielles et 5 numériques). J'ai opté pour un modèle linéaire sur les features numériques, mais pour chaque configuration sur les features catégorielles (oui j'explore ^^). Comment puis-je tester la sensibilité d'une feature catégorielle sur l'objectif, avec ce modèle "linéaire ramifié" ? Sur la base des coeff de theta ?
Bonjour, Félicitations pour ce cours que je prends avec grand plaisir ! je suis intrigué par la notation ∑ Y2 pour la somme des coordonnées, je n'ai pas trouvé cette convention. Une simplification de votre part ou une syntaxe usuelle?
Bonjour, Oui c'est possible de faire un peu d'IA sans avoir un gros bagage en mathématique. Par exemple je vous conseille de jouer un peu avec un outil de data mining qui s'appelle ORANGE. Ce n'est pas de la vraie IA mais cela vous permet quand même de construire des modèles de machine learning capable de prendre des décision intelligentes basées sur un dataset que vous fournissez. Je ferai des vidéos a ce sujet dans le futur proche ! :) stay with us ! :) Bon courage :)
7:30 Un detail - Faites gaffe que dans l'expression (X*Theta-Y)^2, le carre n'est pas le produit de la matrice par elle meme, c'est le carre de chaque valeur. (ou bien ecrivez (X*Theta-Y) dot (X*Theta-Y).T, c'est votre somme).
@@MachineLearnia Le "carre" d'une matrice existe (produit de la matrice par elle-meme) mais pas pour celle-la. Par contre (pour les spectateurs) a l'implementation il n'y pas ce probleme, c'est juste la notation mathematique.
En effet, une expression matricielle parfaite serait Transpose(X.theta -Y)*(X.theta -Y)/2m. Ainsi plus besoin de signe somme ni du carré qui n'en est pas un vrai ici.
Bonjour Guillaume, excellente explication riche de détail , j ai visionné cette vidéo au moins 5 fois et je vais pas hésiter de la revoir car c'est la base de tout ce que tu va nous expliquer par la suite ( il faut assimiler la base pour se batire solidement merci encore Beau travail)
Oui c'est tout a fait correct ! Le fait que tu aies compris que cette vidéo constitue la base va te permettre de parfaitement comprendre les modèles plus complexes ! Ce commentaire est tout a fait pertinent, je vote un pouce bleu et j’espère que d'autres le feront !
Merci Mr. Guillaume, ainsi grand merci à vous Mr. Mohamed surtout pour vôtres messages (.......j'ai visionné cette vidéo au moins 5 fois.....), au départ je n'ai y rien compris (vu que je suis autodidacte) ce qui m’a rendu très angoissé pendant une nuit, maintenant je commence à comprendre avec une deuxième lecture.
Mon angoisse m'a fait perdre le réflexe de revoir la vidéo, votre message (et surtout .revoir..5 fois...) Mr. Mohamed était très utile pour moi.
Un des meilleurs cours sur le ML et le DL. Avec un peu de persévérance; la plupart devraient y arriver. Merci
Salut à tous ! Pour vous rendre directement à une section de cette vidéo:
0:40 : Introduction
1:00 : le Modèle matriciel
4:12 : la Fonction Coût (erreur quadratique moyenne) sous forme de matrice
6:35 : le Gradient sous forme de matrice
10:02 : Descente de Gradient (matrice)
10:46 : Régression Polynomiale
Bon visionnage ! :)
Si mon prof m'avait expliqué l'utilité des matrices de cette façon, j'allais adorer l'algèbre linéaire. Merci Guillaume!
Commentaire identique à vous, M. Guillaumes j'ai enfin compris pourquoi après toutes les autres équations, on doit utiliser la forme matricielle, pourquoi l'on a F = X.O, comment et pourquoi des ces termes est composé comme il l'est, bref... Merci infiniment.
Cette formation : c'est que du bonheur.
Enfin une personne très compétente qui prend plaisir à partager son savoir : et en plus qui le fait bien car très pédagogue.
Je passe presque les vidéos en boucle tellement c'est passionnant. Enfin l'Informatique basé sur des Mathématiques telle qu'on l'apprend à l'Université. Aujourd'hui trop de gens pensent être informaticien et ces personnes ne basent pas leur travaux sur les mathématiques : ils n'ont rien compris et cela donne cette pléthore d'applications qui ne fonctionnent pas (manque de performance, bugs, etc.).
Que tous ceux qui se disent spécialistes et qui font des formations (souvent payantes) prennent de la graine.
Merci encore et encore.
Merci pour ton message, c'est un plaisir de vous aider et de partager les maths du machine learning avec vous :)
Merci Guillaume pour la clarté de votre exposé et votre excellente pédagogie. Vos vidéos sont intéressantes et agréables et un bon rafraîchissement de culture scientifique : il y a un réel plaisir intellectuel à vous suivre.
Attention !!! Ça a peut-être déjà été dit mais (X.O - Y)² ne veut pas dire "chaque élément de (X.O - Y) au carré", ce qui est en l'occurrence le sens voulu. C'est important de le savoir parce qu'une matrice de taille mx1 ne peut pas être multipliée par une matrice de taille mx1 (comme lors de la mise au carré d'une matrice justement)! Disons que c'est un abus de langage de l'écrire comme ça
Sinon, le contenu est hyper qualitatif, c'est un luxe pour chacun d'avoir accès à ces vidéos ! Merci !!
Tout a fait ! j'aurais du faire cette précision dans la vidéo !
@@MachineLearnia Très bonne vidéo, ainsi que toutes les explications, excellent!!!
Quant à la notation soulevée par @t.b.5493, on peut juste enlever le symbole de sommation et remplacer tout le paquet par le produit matriciel (XO - Y)^T * (XO - Y) afin d'obtenir la somme des carrés au sens que nous voulons.
Bonjour. Ces deux vidéos sur la régression linéaire vont droit à l'essentiel. Même lorsqu'on a un peu peur des formules de maths (comme moi !) on est tout surpris de quand même comprendre à chaque étape et on suit toujours le fil sans jamais se perdre. Vous avez un réel talent de pédagogue et en plus la volonté de le faire partager gratuitement au plus grand nombre. Bref, tout ce qu'il faut pour progresser linéairement ! MERCI
Merci Sébastien, je suis content de voir que le but recherché est atteint :)
Bonjour Guillaume,
je trouve tes formations vraiment super. Ils sont vraiment bien detaillées.
Ça faisait longtemps je recherchais de l'information aussi bien détaillée sur les réseau de neurones. Bravo
Merci beaucoup a vous ! :)
J'ai fais de la data science il y a 2 ans à Telecom Paris. J'ai fais autre chose en master (Recherche Opérationnel) et une année de césure ensuite. Autant dire que je commençais à oublier tout ça! Merci pour ce rappel, on apprend quand même beaucoup plus vite qu'avec les cours en anglais d'enseignants chercheurs plus chercheurs qu'enseignant !
Man je n'ai jamais compris pourquoi je ne comprenais pas cette notion de ML ... En fait je n'avais pas encore rencontré ton explication. Franchement t'es un Special One
Merci beaucoup. Content de savoir que tu es compris a présent ! :)
Excellente illustration du dicton : "Ce qui se conçoit bien, s'énonce clairement" ! Bravo !
Merci, ca me touche beaucoup ! :)
Merci beaucoup pour cette formation riche et facile à assimiler! J'ai trouvé le courage d'aller plus en avant.
Pouce bleu depuis la Grece. Tu es un formidable enseignant et genereux. Merci pour tout.
Merci beaucoup. Ce message me va droit au coeur. :)
vous etes pas seulement un super prof mais vous incarner l ecole moderne bravo
Merci beaucoup, c'est un honneur ! :)
Mais merci Monsieur !!! Merci de m'avoir permis de comprendre les maths derrière le programme, merci, merci, merci !!!
Super cette deuxième partie ! Les infographies que tu as réalisées sur ton blog sont aussi très pratiques pour bien comprendre !
Merci :)
not all heroes wear caps u re really a hero
Respect
keep going
support this man
Thanks a lot !!! :)
Une vraie mine d'information. Pour moi qui est en première année du cycle ingénieur et qui veut prendre de l'avance. MERCI.
De rien :)
C'est vraiment une vidéo génial. Ces transformations matricielles ont failli me faire abandonner le ML quand j'ai débuté avec un autre cours, mais avec cette vidéo, bah c'est comme de l'eau à boire.
Merci. vous faite vraiment un travail génial. :)
Je suis tres content d'avoir pu vous aider a y voir pus clair ! :)
C'est de pures merveilles tes vidéos. Je suis à peine de m'abonner à ta page et je kiff grave. Merci pour tout.
Merci beaucoup, c'est un plaisir ! :)
Cher Guillaume, Un grand merci pour la qualité de tes vidéos et ton sens pédagogique hors du commun. Le contenu répond parfaitement à mes besoins, à mon niveau et je prend un grand plaisir à les voir et revoir. Mais la plus belle chose que j’ai découverte en te regardant, c’est Otis McDonald!! Et donc merci pour ça aussi…
Tout le plaisir est pour moi :)
Excellent, ça m'a aidé pour mon devoir de Machine Learning
chapeau et merci 100 fois
Super !
Vraiment bravo pour cette série, dont cet épisode me parait clairement le plus important depuis le début.
Si mes profs avaient eu cette qualité autrefois ... je crois qu'il y aurait pas mal de sujet que j'aurais évité de sécher.
Par ailleurs je tiens à souligner le coté très humain et très vivant de la forme, très important pour la concentration.
J'ai hâte de voir la suite ...
Merci beaucoup. Je suis ravi si la vidéo vous est utile ! :)
vos cour m'aide beaucoup je débute en ML merci beaucoup
C'est cool parce que quand j'avais appris ça la première fois, le prof avait directement généralisé à une dimension n, sur un point de vue mathématique ça changeait pas grand chose, mais niveau intuition, c'est bien plus simple ici ! Merci bien !
Ah ca fait plaisir, parce que je comprends totalement ce que tu veux dire :)
Il a tellement de chemise ce mec mdr, c'est incroyable. En tout cas elles sont grave bonnes tes vidéos. Milles merci
ahah merci !
merci pour ces cours trés facile a comprendre , vous avez su rendre un sujet complexe accessible a tous bon courage pour la suite de vos videos
Tout simplement : Vous êtes super monsieur. Je vous souhaite bonne continuation
Merci beaucoup a vous :)
Cours très exceplicite. Merci pour ton partage de connaissance 🙂
Cette chaîne est extraordinaire. Un énorme merci !
Merci beaucoup :)
Impressionnant de clarté, un grand merci !
You are magical too. So accessibly well explained. Thank you so much.
Grand merci pour tout ce que tu fournis comme boulot monstre ! Big up
Merci pour la reconnaissance :)
vraiment j'adore votre manière d'expliquer
Merci beaucoup
Bravo Mensieur Guillaume très bonne explication
de rien !
certains esprits supérieurs et la collaboration d'autres personnes ne font que mettre en évidence ce qui était déjà là, caché derrière le décors. la façon dont tout s'emboite est prodigieuse. les explications de cette vidéo étaient d'une clarté faramineuse. ah si seulement j'avais une meilleure mémoire, malgré mes efforts quotidiens. en tous cas, rien que pour découvrir ce domaine ça valait le détour. les années passent et je reste un éternel élève. moyen mais bon j'ose espérer que je finirai par progresser un peu
Merci beaucoup pour vos compliments ! Vous avez la bonne démarche de continuer d'apprendre en vous auto-formant, vous irez loin !
Merci infiniment pour cette vidéo bien détaillé sur la base de tout la suite.
de rien !
Bonjour Guillaume, merci beaucoup pour ces explications très riches.
De rien !
Thanks a lot , the way that you explain is very awesome , and the language you use is very simple , you deserve all the best.
Thank you very much :)
Très intéressant. Merci Guillaume.
Très bien expliqué! Chapeau bas.
merci beaucoup
travail exceptionnel
Trés grand Merci pour la présentation et la méthode d'expliquer les equations
Merci beaucoup. :)
Bonjour, encore un petit compliment au passage, pour cette formation extraordinaire :)
Merci :)
meilleure explication merci énormément pour votre précieux effort !
Je vous en prie !
merci pour vos efforts
bonjour Guillaume. Je suis nouveau sur ta chaine et j'ai dja beaucoup appris !!! L'intelligence artificielle est un domaine qui me passionne et tu viens de me donner plus de motivations pour atteindre mes objectifs. T'es le meilleur Guillaume....:)
Merci ! Je suis très content de pouvoir t'aider de la sorte :)
Bon courage et a bientôt !
Merci beaucoup pour ces séries l'explication est juste impeccable, la seule remarque du carré de la matrice qu'on a déjà soulevé; mais sinon c'est très très bien fait, merci encore une fois
Très bien l'explication
Génialissime !
Merci, c'est expliqué et super clair.
Ca fait plaisir ! :)
you've a funny and efficient way to explain the content. thanks bro !
Thanks :)
Waw, vraiment très très clair. (excellent contenu, pédagogie et montage ...).
Merci !
Mais oui c'est clair ! Très clair comme d'habitude 😉
ahah merci :)
Magnifique 🤩
mérciii beaucoup Guillaume pour vos efforts
Merci Unes :)
merci beaucoup Monsieur Guillaume
Merci a vous !
vraiment super merci pour tout.
u'r the best tous simplement 💪, merciii 🙏
Merci a vous !
Merciiii😇,très clair et facile.
Intéressante 👌
de rien :)
Merci pour cette vidéo!
de rien :)
Excellente vidéo merci bcp
Merci beaucoup :) si vous avez la moindre question, posez la en commentaire dans les vidéos, j'y réponds toujours
@@MachineLearnia merci infiniment
Merci infiniment j'ai bien compris la tache👍
Merci pour l'explication vous êtes le meilleur 😊
Thanks a lot ! :D
Beau résumé.
salut Guillaume, merci bien pour tes videos.
De rien !
Merci !! Hyper claire et instructif ! :)
Merci a vous :)
Merci beaucoup ! Simple, clair; efficace.
Merci :)
merci...et bravo
Merci infirment Guillaume !!!!
De rien :)
Easy to follow :) Thanks a lot !
Many thanks mate :)
Merci infiniment.
de rien :)
Merci, très clair
Merci beaucoup
Un grand bravo !!!!!
Vos vidéos sont très claires et bien expliquées.
Pourriez-vous faire une vidéo sur la régression logistique svp ?
J'en ai déja sortie quelques unes sur mon Tipeee, mais oui j'en ferai également sur TH-cam. Merci :)
sympa. Merci encore
Très intéressante formation Guillaume.
Merci
Thank you very much
C'est géniale
Très bonnes vidéos, merci ;)
De rien :)
Qu'est-ce vous vous amusez bien, oui vous êtes the best of the learning..... Merci d'avance Guillaume, je veux pouvoir décrypté vos explications
Je suis tres heureux de vous aider
tres bon cours j'avoue
Bonjour et merci beaucoup !
Génial !!!🤩🤩😍
Merci ;)
GRAND MERCI
Je vois que vous avez vu toute la série ! Bravo et merci :)
Merçi
brillant
merci
de rien !
Merci, super vidéo ...
Merci beaucoup
Merci bp
je vous en prie :)
Cher Guillaume,
Bravo et merci pour votre livre et votre excellent cours de machine learning par vidéo. Ce sont de très beaux cadeaux aux internautes curieux de comprendre les choses en profondeur : ils peuvent ainsi véritablement pratiquer et s'exercer à créer des applications et non pas seulement voir défiler des masses de termes techniques sibyllins.
Votre présentation sur la mise en forme matricielle des équations de la descente de gradient est fort intéressante mais je ne saisis pas la symbolique de la formule J(théta) =(1/2m)Sigma(X.théta-Y)².
Pourquoi ce Sigma puisque tous les éléments de cette somme sont implicitement déjà contenus dans la matrice (X.théta-Y) ? D'autre part cette matrice de dimension mx1 ne peut être multipliée par une matrice de dimension mx1, donc pas non plus par elle-même, autrement dit élevée au carré. Comme vous l'expliquez plus loin à propos de la formulation du gradient, je crois qu'il faudrait faire intervenir une transposition de matrice pour retomber sur le scalaire désiré, ce qui donnerait la formule : J(théta) =(1/2m) [Transposée(X.théta-Y)]( X.théta-Y)
Cordialement
Merci beaucoup pour votre message. En effet pour etre mathématiquement correct il faudrait écrire le tout avec une transposée comme vous l'avez fait. C'est juste pour simplifier et vulgariser que j'écris cette formule pour "programme Python", car cela aide la plupart des débutants a comprendre sans se soucier des "maths" a ce stade. Donc je vous affirme que vous avez raison ! :)
A Bientot !
Bonjour, Guillaume.
Non seulement votre cours est remarquable mais en plus le "Service Après-Cadeau" est irréprochable. Merci pour votre réponse aussi soignée qu'ultra-rapide. Le premier MOOC que j'ai suivi était, début 2013, une bonne formation à Python par Udacity ... que j'ai oubliée depuis faute d'usage. Quel dommage que Machine Learnia n'ait pas existé à l'époque pour mettre ces connaissances en pratique !
Cordialement.
super video
Merci :)
Je lis des choses sur les normes d'applications linéaires, puis-je plutôt me fier à une telle norme (genre la racine de la somme des carrés de theta_final, moyennée sur plusieurs tirages allez hop ^^).
Merci pour vos réponses, Master Learnia :P
Je ne suis pas sur de bien comprendre, désolé ^^
@@MachineLearnia J'ai eu du mal à poster ma question en 1 message, je pense que le comm d'intro a sauté:
J'ai appliqué le code et les principe de cette vidéo sur un problème d'estimation, qui comporte a priori beaucoup de features (8 catégorielles et 5 numériques). J'ai opté pour un modèle linéaire sur les features numériques, mais pour chaque configuration sur les features catégorielles (oui j'explore ^^). Comment puis-je tester la sensibilité d'une feature catégorielle sur l'objectif, avec ce modèle "linéaire ramifié" ? Sur la base des coeff de theta ?
Bonjour,
Félicitations pour ce cours que je prends avec grand plaisir ! je suis intrigué par la notation ∑ Y2 pour la somme des coordonnées, je n'ai pas trouvé cette convention. Une simplification de votre part ou une syntaxe usuelle?
J'ai pas tout compris mais j'suis curieux et persuadé que c'est l'avenir. Je m'y mets tout doucement
Bravo, ca c'est de la motivation, tu iras loin !
bonjour je suis intéressé par l intelligence artificielle mais j ai 55 ans et je suis nul en maths es ce possible ? merci
Bonjour, Oui c'est possible de faire un peu d'IA sans avoir un gros bagage en mathématique. Par exemple je vous conseille de jouer un peu avec un outil de data mining qui s'appelle ORANGE. Ce n'est pas de la vraie IA mais cela vous permet quand même de construire des modèles de machine learning capable de prendre des décision intelligentes basées sur un dataset que vous fournissez. Je ferai des vidéos a ce sujet dans le futur proche ! :) stay with us ! :)
Bon courage :)
super
Mercii
exellents
7:30 Un detail - Faites gaffe que dans l'expression (X*Theta-Y)^2, le carre n'est pas le produit de la matrice par elle meme, c'est le carre de chaque valeur. (ou bien ecrivez (X*Theta-Y) dot (X*Theta-Y).T, c'est votre somme).
Oui vous avez raison ! Le carré d'une matrice / d'un vecteur ca n'existe pas, c'est le carré des éléments du tableau.
@@MachineLearnia Le "carre" d'une matrice existe (produit de la matrice par elle-meme) mais pas pour celle-la. Par contre (pour les spectateurs) a l'implementation il n'y pas ce probleme, c'est juste la notation mathematique.
@@cboisvert2 Oui une matrice doit etre carrée. Ca n'est pas un cas général.
En effet, une expression matricielle parfaite serait Transpose(X.theta -Y)*(X.theta -Y)/2m.
Ainsi plus besoin de signe somme ni du carré qui n'en est pas un vrai ici.