RÉGRESSION LINÉAIRE (partie 2/2) - ML#6

แชร์
ฝัง
  • เผยแพร่เมื่อ 26 ม.ค. 2025

ความคิดเห็น • 311

  • @Mohamed-uf5jh
    @Mohamed-uf5jh 5 ปีที่แล้ว +95

    Bonjour Guillaume, excellente explication riche de détail , j ai visionné cette vidéo au moins 5 fois et je vais pas hésiter de la revoir car c'est la base de tout ce que tu va nous expliquer par la suite ( il faut assimiler la base pour se batire solidement merci encore Beau travail)

    • @MachineLearnia
      @MachineLearnia  5 ปีที่แล้ว +19

      Oui c'est tout a fait correct ! Le fait que tu aies compris que cette vidéo constitue la base va te permettre de parfaitement comprendre les modèles plus complexes ! Ce commentaire est tout a fait pertinent, je vote un pouce bleu et j’espère que d'autres le feront !

    • @oualisalaheddine5587
      @oualisalaheddine5587 3 ปีที่แล้ว

      Merci Mr. Guillaume, ainsi grand merci à vous Mr. Mohamed surtout pour vôtres messages (.......j'ai visionné cette vidéo au moins 5 fois.....), au départ je n'ai y rien compris (vu que je suis autodidacte) ce qui m’a rendu très angoissé pendant une nuit, maintenant je commence à comprendre avec une deuxième lecture.
      Mon angoisse m'a fait perdre le réflexe de revoir la vidéo, votre message (et surtout .revoir..5 fois...) Mr. Mohamed était très utile pour moi.

  • @nasrberrached8912
    @nasrberrached8912 ปีที่แล้ว +7

    Un des meilleurs cours sur le ML et le DL. Avec un peu de persévérance; la plupart devraient y arriver. Merci

  • @ouedraogowendeguudialban69
    @ouedraogowendeguudialban69 2 ปีที่แล้ว +8

    Si mon prof m'avait expliqué l'utilité des matrices de cette façon, j'allais adorer l'algèbre linéaire. Merci Guillaume!

    • @Nonamed4040
      @Nonamed4040 11 หลายเดือนก่อน

      Commentaire identique à vous, M. Guillaumes j'ai enfin compris pourquoi après toutes les autres équations, on doit utiliser la forme matricielle, pourquoi l'on a F = X.O, comment et pourquoi des ces termes est composé comme il l'est, bref... Merci infiniment.

  • @noel9335
    @noel9335 4 ปีที่แล้ว +6

    Cette formation : c'est que du bonheur.
    Enfin une personne très compétente qui prend plaisir à partager son savoir : et en plus qui le fait bien car très pédagogue.
    Je passe presque les vidéos en boucle tellement c'est passionnant. Enfin l'Informatique basé sur des Mathématiques telle qu'on l'apprend à l'Université. Aujourd'hui trop de gens pensent être informaticien et ces personnes ne basent pas leur travaux sur les mathématiques : ils n'ont rien compris et cela donne cette pléthore d'applications qui ne fonctionnent pas (manque de performance, bugs, etc.).
    Que tous ceux qui se disent spécialistes et qui font des formations (souvent payantes) prennent de la graine.
    Merci encore et encore.

    • @MachineLearnia
      @MachineLearnia  4 ปีที่แล้ว +1

      Merci pour ton message, c'est un plaisir de vous aider et de partager les maths du machine learning avec vous :)

  • @MachineLearnia
    @MachineLearnia  5 ปีที่แล้ว +30

    Salut à tous ! Pour vous rendre directement à une section de cette vidéo:
    0:40 : Introduction
    1:00 : le Modèle matriciel
    4:12 : la Fonction Coût (erreur quadratique moyenne) sous forme de matrice
    6:35 : le Gradient sous forme de matrice
    10:02 : Descente de Gradient (matrice)
    10:46 : Régression Polynomiale
    Bon visionnage ! :)

  • @t.b.5493
    @t.b.5493 3 ปีที่แล้ว +3

    Attention !!! Ça a peut-être déjà été dit mais (X.O - Y)² ne veut pas dire "chaque élément de (X.O - Y) au carré", ce qui est en l'occurrence le sens voulu. C'est important de le savoir parce qu'une matrice de taille mx1 ne peut pas être multipliée par une matrice de taille mx1 (comme lors de la mise au carré d'une matrice justement)! Disons que c'est un abus de langage de l'écrire comme ça
    Sinon, le contenu est hyper qualitatif, c'est un luxe pour chacun d'avoir accès à ces vidéos ! Merci !!

    • @MachineLearnia
      @MachineLearnia  3 ปีที่แล้ว

      Tout a fait ! j'aurais du faire cette précision dans la vidéo !

    • @chamirngandjia1198
      @chamirngandjia1198 9 หลายเดือนก่อน +1

      @@MachineLearnia Très bonne vidéo, ainsi que toutes les explications, excellent!!!
      Quant à la notation soulevée par @t.b.5493, on peut juste enlever le symbole de sommation et remplacer tout le paquet par le produit matriciel (XO - Y)^T * (XO - Y) afin d'obtenir la somme des carrés au sens que nous voulons.

  • @sebastiencrepel5032
    @sebastiencrepel5032 4 ปีที่แล้ว +4

    Bonjour. Ces deux vidéos sur la régression linéaire vont droit à l'essentiel. Même lorsqu'on a un peu peur des formules de maths (comme moi !) on est tout surpris de quand même comprendre à chaque étape et on suit toujours le fil sans jamais se perdre. Vous avez un réel talent de pédagogue et en plus la volonté de le faire partager gratuitement au plus grand nombre. Bref, tout ce qu'il faut pour progresser linéairement ! MERCI

    • @MachineLearnia
      @MachineLearnia  4 ปีที่แล้ว

      Merci Sébastien, je suis content de voir que le but recherché est atteint :)

  • @nicomaistre
    @nicomaistre 10 หลายเดือนก่อน

    Merci Guillaume pour la clarté de votre exposé et votre excellente pédagogie. Vos vidéos sont intéressantes et agréables et un bon rafraîchissement de culture scientifique : il y a un réel plaisir intellectuel à vous suivre.

  • @michelbouchard8847
    @michelbouchard8847 3 ปีที่แล้ว +1

    Bonjour Guillaume,
    je trouve tes formations vraiment super. Ils sont vraiment bien detaillées.
    Ça faisait longtemps je recherchais de l'information aussi bien détaillée sur les réseau de neurones. Bravo

  • @freddygoudou801
    @freddygoudou801 5 ปีที่แล้ว +2

    Man je n'ai jamais compris pourquoi je ne comprenais pas cette notion de ML ... En fait je n'avais pas encore rencontré ton explication. Franchement t'es un Special One

    • @MachineLearnia
      @MachineLearnia  5 ปีที่แล้ว

      Merci beaucoup. Content de savoir que tu es compris a présent ! :)

  • @matthieundumbi3888
    @matthieundumbi3888 5 ปีที่แล้ว +1

    Pouce bleu depuis la Grece. Tu es un formidable enseignant et genereux. Merci pour tout.

    • @MachineLearnia
      @MachineLearnia  5 ปีที่แล้ว

      Merci beaucoup. Ce message me va droit au coeur. :)

  • @ulyssevs6848
    @ulyssevs6848 3 ปีที่แล้ว

    Excellente illustration du dicton : "Ce qui se conçoit bien, s'énonce clairement" ! Bravo !

    • @MachineLearnia
      @MachineLearnia  3 ปีที่แล้ว

      Merci, ca me touche beaucoup ! :)

  • @amyd.2840
    @amyd.2840 5 ปีที่แล้ว +9

    Super cette deuxième partie ! Les infographies que tu as réalisées sur ton blog sont aussi très pratiques pour bien comprendre !

  • @adamabamba4009
    @adamabamba4009 4 ปีที่แล้ว +1

    C'est de pures merveilles tes vidéos. Je suis à peine de m'abonner à ta page et je kiff grave. Merci pour tout.

    • @MachineLearnia
      @MachineLearnia  4 ปีที่แล้ว +1

      Merci beaucoup, c'est un plaisir ! :)

  • @StefyRAZAFINDRAVAO
    @StefyRAZAFINDRAVAO 5 หลายเดือนก่อน

    Merci beaucoup pour cette formation riche et facile à assimiler! J'ai trouvé le courage d'aller plus en avant.

  • @madiounimohsen6956
    @madiounimohsen6956 4 ปีที่แล้ว +1

    not all heroes wear caps u re really a hero
    Respect
    keep going
    support this man

  • @hilion8479
    @hilion8479 2 ปีที่แล้ว

    J'ai fais de la data science il y a 2 ans à Telecom Paris. J'ai fais autre chose en master (Recherche Opérationnel) et une année de césure ensuite. Autant dire que je commençais à oublier tout ça! Merci pour ce rappel, on apprend quand même beaucoup plus vite qu'avec les cours en anglais d'enseignants chercheurs plus chercheurs qu'enseignant !

  • @jeremiebarraud5745
    @jeremiebarraud5745 3 ปีที่แล้ว

    Cher Guillaume, Un grand merci pour la qualité de tes vidéos et ton sens pédagogique hors du commun. Le contenu répond parfaitement à mes besoins, à mon niveau et je prend un grand plaisir à les voir et revoir. Mais la plus belle chose que j’ai découverte en te regardant, c’est Otis McDonald!! Et donc merci pour ça aussi…

  • @AI-xb1zb
    @AI-xb1zb 4 ปีที่แล้ว

    vous etes pas seulement un super prof mais vous incarner l ecole moderne bravo

    • @MachineLearnia
      @MachineLearnia  4 ปีที่แล้ว

      Merci beaucoup, c'est un honneur ! :)

  • @marie-pierrediquero9222
    @marie-pierrediquero9222 ปีที่แล้ว

    Mais merci Monsieur !!! Merci de m'avoir permis de comprendre les maths derrière le programme, merci, merci, merci !!!

  • @aliounebadarapierreniang793
    @aliounebadarapierreniang793 4 ปีที่แล้ว

    C'est vraiment une vidéo génial. Ces transformations matricielles ont failli me faire abandonner le ML quand j'ai débuté avec un autre cours, mais avec cette vidéo, bah c'est comme de l'eau à boire.
    Merci. vous faite vraiment un travail génial. :)

    • @MachineLearnia
      @MachineLearnia  4 ปีที่แล้ว +1

      Je suis tres content d'avoir pu vous aider a y voir pus clair ! :)

  • @taskmaster9113
    @taskmaster9113 4 ปีที่แล้ว

    Une vraie mine d'information. Pour moi qui est en première année du cycle ingénieur et qui veut prendre de l'avance. MERCI.

  • @laurentlarsonneur3948
    @laurentlarsonneur3948 5 ปีที่แล้ว +2

    Super !
    Vraiment bravo pour cette série, dont cet épisode me parait clairement le plus important depuis le début.
    Si mes profs avaient eu cette qualité autrefois ... je crois qu'il y aurait pas mal de sujet que j'aurais évité de sécher.
    Par ailleurs je tiens à souligner le coté très humain et très vivant de la forme, très important pour la concentration.
    J'ai hâte de voir la suite ...

    • @MachineLearnia
      @MachineLearnia  5 ปีที่แล้ว

      Merci beaucoup. Je suis ravi si la vidéo vous est utile ! :)

  • @fromzerotodatamaster7932
    @fromzerotodatamaster7932 2 ปีที่แล้ว

    Excellent, ça m'a aidé pour mon devoir de Machine Learning

  • @mohamedanasselyamani4323
    @mohamedanasselyamani4323 4 ปีที่แล้ว

    Tout simplement : Vous êtes super monsieur. Je vous souhaite bonne continuation

  • @willylatache
    @willylatache ปีที่แล้ว +1

    chapeau et merci 100 fois

  • @khalidsultani6006
    @khalidsultani6006 4 ปีที่แล้ว +1

    Thanks a lot , the way that you explain is very awesome , and the language you use is very simple , you deserve all the best.

  • @nicolasdujardin7285
    @nicolasdujardin7285 5 ปีที่แล้ว

    Cette chaîne est extraordinaire. Un énorme merci !

  • @younesamghar538
    @younesamghar538 3 ปีที่แล้ว +1

    Grand merci pour tout ce que tu fournis comme boulot monstre ! Big up

    • @MachineLearnia
      @MachineLearnia  3 ปีที่แล้ว +1

      Merci pour la reconnaissance :)

  • @assmosh7792
    @assmosh7792 2 ปีที่แล้ว

    vos cour m'aide beaucoup je débute en ML merci beaucoup

  • @moussabamba6216
    @moussabamba6216 5 ปีที่แล้ว +1

    vraiment j'adore votre manière d'expliquer

  • @AA-be4pq
    @AA-be4pq 3 ปีที่แล้ว

    Il a tellement de chemise ce mec mdr, c'est incroyable. En tout cas elles sont grave bonnes tes vidéos. Milles merci

  • @thecaptainT15
    @thecaptainT15 3 ปีที่แล้ว

    C'est cool parce que quand j'avais appris ça la première fois, le prof avait directement généralisé à une dimension n, sur un point de vue mathématique ça changeait pas grand chose, mais niveau intuition, c'est bien plus simple ici ! Merci bien !

    • @MachineLearnia
      @MachineLearnia  3 ปีที่แล้ว +1

      Ah ca fait plaisir, parce que je comprends totalement ce que tu veux dire :)

  • @ardenbouet
    @ardenbouet 2 ปีที่แล้ว +1

    Cours très exceplicite. Merci pour ton partage de connaissance 🙂

  • @mbokonimundele2118
    @mbokonimundele2118 5 ปีที่แล้ว

    Qu'est-ce vous vous amusez bien, oui vous êtes the best of the learning..... Merci d'avance Guillaume, je veux pouvoir décrypté vos explications

    • @MachineLearnia
      @MachineLearnia  5 ปีที่แล้ว

      Je suis tres heureux de vous aider

  • @rafikdiaf2956
    @rafikdiaf2956 3 ปีที่แล้ว

    merci pour ces cours trés facile a comprendre , vous avez su rendre un sujet complexe accessible a tous bon courage pour la suite de vos videos

  • @abdelrahmane657
    @abdelrahmane657 ปีที่แล้ว

    You are magical too. So accessibly well explained. Thank you so much.

  • @PotatoNeko
    @PotatoNeko ปีที่แล้ว

    Impressionnant de clarté, un grand merci !

  • @zainasadoun1423
    @zainasadoun1423 3 ปีที่แล้ว

    Merci infiniment pour cette vidéo bien détaillé sur la base de tout la suite.

  • @cyrilww3750
    @cyrilww3750 4 ปีที่แล้ว

    Bonjour, encore un petit compliment au passage, pour cette formation extraordinaire :)

  • @1conscience0dimension
    @1conscience0dimension 3 ปีที่แล้ว

    certains esprits supérieurs et la collaboration d'autres personnes ne font que mettre en évidence ce qui était déjà là, caché derrière le décors. la façon dont tout s'emboite est prodigieuse. les explications de cette vidéo étaient d'une clarté faramineuse. ah si seulement j'avais une meilleure mémoire, malgré mes efforts quotidiens. en tous cas, rien que pour découvrir ce domaine ça valait le détour. les années passent et je reste un éternel élève. moyen mais bon j'ose espérer que je finirai par progresser un peu

    • @MachineLearnia
      @MachineLearnia  3 ปีที่แล้ว +1

      Merci beaucoup pour vos compliments ! Vous avez la bonne démarche de continuer d'apprendre en vous auto-formant, vous irez loin !

  • @deux-d1313
    @deux-d1313 5 ปีที่แล้ว

    bonjour Guillaume. Je suis nouveau sur ta chaine et j'ai dja beaucoup appris !!! L'intelligence artificielle est un domaine qui me passionne et tu viens de me donner plus de motivations pour atteindre mes objectifs. T'es le meilleur Guillaume....:)

    • @MachineLearnia
      @MachineLearnia  5 ปีที่แล้ว +1

      Merci ! Je suis très content de pouvoir t'aider de la sorte :)
      Bon courage et a bientôt !

  • @samirroumaqui3851
    @samirroumaqui3851 3 ปีที่แล้ว

    Bravo Mensieur Guillaume très bonne explication

  • @berraiscomputerengineerig396
    @berraiscomputerengineerig396 3 ปีที่แล้ว

    Bonjour Guillaume, merci beaucoup pour ces explications très riches.

  • @assiabelaroui7622
    @assiabelaroui7622 2 หลายเดือนก่อน

    Merci beaucoup pour ces séries l'explication est juste impeccable, la seule remarque du carré de la matrice qu'on a déjà soulevé; mais sinon c'est très très bien fait, merci encore une fois

  • @abdelabdel3201
    @abdelabdel3201 5 ปีที่แล้ว +1

    Trés grand Merci pour la présentation et la méthode d'expliquer les equations

  • @moisemuhesi1525
    @moisemuhesi1525 2 ปีที่แล้ว

    you've a funny and efficient way to explain the content. thanks bro !

  • @hamadoumossigarba1201
    @hamadoumossigarba1201 ปีที่แล้ว

    Très intéressant. Merci Guillaume.

  • @cladissemeyapsoh5053
    @cladissemeyapsoh5053 2 ปีที่แล้ว

    Très bien expliqué! Chapeau bas.

  • @benabdallahrahma8245
    @benabdallahrahma8245 3 ปีที่แล้ว

    meilleure explication merci énormément pour votre précieux effort !

  • @mostafachellal239
    @mostafachellal239 2 ปีที่แล้ว

    Waw, vraiment très très clair. (excellent contenu, pédagogie et montage ...).

  • @alexandretritz8555
    @alexandretritz8555 5 ปีที่แล้ว +3

    Mais oui c'est clair ! Très clair comme d'habitude 😉

  • @bilon5670
    @bilon5670 5 ปีที่แล้ว +2

    Je ne comprends pas pourquoi tu arrives à sortir le carrée de la matrice 5:38 car la matrice carrée d'une matrice m*1 n'existe pas sauf si m=1

    • @bilon5670
      @bilon5670 5 ปีที่แล้ว +2

      Non merci j'ai compris. J'ai raisonné en matrice mais c'est un vecteur. Un vecteur au carré donne le module au carré. Ce qui donne bien la somme des carrés de chacune des composantes. Thanks!!!

    • @MachineLearnia
      @MachineLearnia  5 ปีที่แล้ว +1

      Bravo pour avoir compris tout seul !

  • @sarahkaddour1745
    @sarahkaddour1745 4 ปีที่แล้ว +1

    Merciiii😇,très clair et facile.
    Intéressante 👌

  • @chhoumifathi
    @chhoumifathi 8 หลายเดือนก่อน

    merci beaucoup
    travail exceptionnel

  • @jubarassoul5929
    @jubarassoul5929 3 ปีที่แล้ว

    u'r the best tous simplement 💪, merciii 🙏

  • @wallwall3140
    @wallwall3140 4 หลายเดือนก่อน

    Magnifique 🤩

  • @abdelbassetnemiche7140
    @abdelbassetnemiche7140 3 ปีที่แล้ว

    merci pour vos efforts

  • @90fazoti
    @90fazoti 5 ปีที่แล้ว +2

    Excellente vidéo merci bcp

    • @MachineLearnia
      @MachineLearnia  5 ปีที่แล้ว +1

      Merci beaucoup :) si vous avez la moindre question, posez la en commentaire dans les vidéos, j'y réponds toujours

    • @90fazoti
      @90fazoti 5 ปีที่แล้ว

      @@MachineLearnia merci infiniment

  • @diallotaslimamindiakassa5040
    @diallotaslimamindiakassa5040 3 ปีที่แล้ว

    Merci, c'est expliqué et super clair.

  • @khadijanaji6632
    @khadijanaji6632 4 ปีที่แล้ว

    Merci pour l'explication vous êtes le meilleur 😊

  • @hassanben_amar2495
    @hassanben_amar2495 3 ปีที่แล้ว

    salut Guillaume, merci bien pour tes videos.

  • @heinzkantklausvonstanffenb571
    @heinzkantklausvonstanffenb571 4 หลายเดือนก่อน

    Merci infiniment j'ai bien compris la tache👍

  • @eltrach
    @eltrach 5 ปีที่แล้ว

    mérciii beaucoup Guillaume pour vos efforts

  • @belcobarry408
    @belcobarry408 2 ปีที่แล้ว

    Très bien l'explication

  • @MeriemBelhadi-xw4rn
    @MeriemBelhadi-xw4rn 8 หลายเดือนก่อน

    Génialissime !

  • @TARTUFF36
    @TARTUFF36 3 ปีที่แล้ว

    Merci !! Hyper claire et instructif ! :)

  • @aghileslounis
    @aghileslounis 4 ปีที่แล้ว +1

    excellente video, le seul point que je n'arrive pas a comprendre c'est a 6:35 comment on a pu enlever la sommation pour le gradient avec theta ?

    • @MachineLearnia
      @MachineLearnia  4 ปีที่แล้ว +2

      La somme est "cachée" (mais belle et bien présente) dans le calcul matricielle X.T (X.theta - y). Si tu ne le vois pas, je t'invite a faire toi meme le calcul matricielle sur une feuille (tres bon exercice)

    • @aghileslounis
      @aghileslounis 4 ปีที่แล้ว

      @@MachineLearnia oui c'est ce que j'avais fait et j'ai compris, tout simplement un produit de matrice est une somme en realité

    • @MachineLearnia
      @MachineLearnia  4 ปีที่แล้ว

      @@aghileslounis Tout comme une multiplication est une somme (3*4 = 4+4+4)

  • @thomasstroebel2266
    @thomasstroebel2266 4 ปีที่แล้ว

    Un grand bravo !!!!!
    Vos vidéos sont très claires et bien expliquées.
    Pourriez-vous faire une vidéo sur la régression logistique svp ?

    • @MachineLearnia
      @MachineLearnia  4 ปีที่แล้ว

      J'en ai déja sortie quelques unes sur mon Tipeee, mais oui j'en ferai également sur TH-cam. Merci :)

  • @mohammedherrag7070
    @mohammedherrag7070 4 ปีที่แล้ว

    merci beaucoup Monsieur Guillaume

  • @harrytutle3682
    @harrytutle3682 4 ปีที่แล้ว

    Merci beaucoup ! Simple, clair; efficace.

  • @0xmar23x
    @0xmar23x 4 ปีที่แล้ว

    Très intéressante formation Guillaume.

  • @TanguyDr
    @TanguyDr 4 ปีที่แล้ว

    Merci pour cette vidéo!

  • @aragon5956
    @aragon5956 5 ปีที่แล้ว +1

    Génial !!!🤩🤩😍

  • @frlafela1559
    @frlafela1559 2 ปีที่แล้ว

    Monsieur Guillaume svp dans la derivé quand en fait la maj des paramètres en fait la somme de tt nos point si j 7 point par exemple ou bien j calcul pour chaque ligne pour faire un maj??

  • @kameltourki2359
    @kameltourki2359 5 ปีที่แล้ว +1

    Easy to follow :) Thanks a lot !

  • @alae3870
    @alae3870 5 หลายเดือนก่อน

    Salut je veux savoir si cela est général donc il est inchangeable du coup on les utilise comme ça directement et on le donne à la machine durant la programmation ou bien pour chaque exemple voulu on a une nouvelle fonction de cout ......???

  • @cboisvert2
    @cboisvert2 4 ปีที่แล้ว +1

    7:30 Un detail - Faites gaffe que dans l'expression (X*Theta-Y)^2, le carre n'est pas le produit de la matrice par elle meme, c'est le carre de chaque valeur. (ou bien ecrivez (X*Theta-Y) dot (X*Theta-Y).T, c'est votre somme).

    • @MachineLearnia
      @MachineLearnia  4 ปีที่แล้ว

      Oui vous avez raison ! Le carré d'une matrice / d'un vecteur ca n'existe pas, c'est le carré des éléments du tableau.

    • @cboisvert2
      @cboisvert2 4 ปีที่แล้ว

      @@MachineLearnia Le "carre" d'une matrice existe (produit de la matrice par elle-meme) mais pas pour celle-la. Par contre (pour les spectateurs) a l'implementation il n'y pas ce probleme, c'est juste la notation mathematique.

    • @MachineLearnia
      @MachineLearnia  4 ปีที่แล้ว

      @@cboisvert2 Oui une matrice doit etre carrée. Ca n'est pas un cas général.

    • @nicolasgregoriou1
      @nicolasgregoriou1 2 ปีที่แล้ว

      En effet, une expression matricielle parfaite serait Transpose(X.theta -Y)*(X.theta -Y)/2m.
      Ainsi plus besoin de signe somme ni du carré qui n'en est pas un vrai ici.

  • @king_mgk
    @king_mgk 2 ปีที่แล้ว

    2:05 au niveau du modèle, au cas où on a n features, la dimension de têta est elle toujours égal à (n+1) ×1?
    Je me dis que le F serait de dimension m×n
    Du coup ça m'embrouille, surtout au niveau de la fonction coût

    • @MachineLearnia
      @MachineLearnia  2 ปีที่แล้ว +1

      Oui Théta sera de dimension (n+1, 1)
      la fonction cout est un nombre réel, donc il sera toujours de dimension (1)

    • @king_mgk
      @king_mgk 2 ปีที่แล้ว

      @@MachineLearnia ah d'accord
      Merci pour le retour

  • @abdellazizlawrizy
    @abdellazizlawrizy 3 ปีที่แล้ว

    Beau résumé.

  • @FreshHorrorShorts
    @FreshHorrorShorts 5 ปีที่แล้ว

    Bonjour Guillaume, Merci bcp pour ta chaine, tes vidéos et explications qui sont de loin ce qu'il y a de mieux sur le sujet ... Je suis un grand fan ! J'aurai une question par rapport à la regression polynomiale stp : à 12:15 tu dis que n=2 car on a x^2 et x dans le polynôme. Mais la dimension "n" au départ c'est le nombre de "features" du dataset non ? Pour moi n=1 dans ce cas et la matrice X est de dimension m * (n+deg du pôlynome). Merci d'avance pour ta réponse, t'es un boss !

    • @MachineLearnia
      @MachineLearnia  5 ปีที่แล้ว

      Bonjour et merci :)
      On dispose de n variables, et on ajoute une colonne "biais" dans notre modele. On se retrouve donc avec n+1 inputs pour le modèle. Mille excuses si je n'ai pas été très clair dans la vidéo. Si tu as d'autres questions, n'hésites pas (ce sont de bonnes questions d'ailleurs !)

  • @René-w4d
    @René-w4d 9 วันที่ผ่านมา

    bonjour, jai voulu avec excel 365 appliquer les formules de la vidéo, pour une droite de régression linéaire pas de problème, mais je n' y suis pas arrivé avec une regresion polynomiale de degré 2 quelqu 'un pourrait-il maider

  • @alexfranck5896
    @alexfranck5896 3 ปีที่แล้ว

    vraiment super merci pour tout.

  • @FrancisPortogallo
    @FrancisPortogallo 11 หลายเดือนก่อน

    Bonjour,
    Félicitations pour ce cours que je prends avec grand plaisir ! je suis intrigué par la notation ∑ Y2 pour la somme des coordonnées, je n'ai pas trouvé cette convention. Une simplification de votre part ou une syntaxe usuelle?

  • @thierrycariou884
    @thierrycariou884 5 ปีที่แล้ว +6

    bonjour je suis intéressé par l intelligence artificielle mais j ai 55 ans et je suis nul en maths es ce possible ? merci

    • @MachineLearnia
      @MachineLearnia  5 ปีที่แล้ว +8

      Bonjour, Oui c'est possible de faire un peu d'IA sans avoir un gros bagage en mathématique. Par exemple je vous conseille de jouer un peu avec un outil de data mining qui s'appelle ORANGE. Ce n'est pas de la vraie IA mais cela vous permet quand même de construire des modèles de machine learning capable de prendre des décision intelligentes basées sur un dataset que vous fournissez. Je ferai des vidéos a ce sujet dans le futur proche ! :) stay with us ! :)
      Bon courage :)

  • @Wawan-i8w7u
    @Wawan-i8w7u 4 ปีที่แล้ว

    Très bonnes vidéos, merci ;)

  • @jeremiepgeb9240
    @jeremiepgeb9240 3 ปีที่แล้ว

    A partir de 2:40 , stp peux-tu nous dire un peu sur la colonne remplie de 1, je veux parler de la dernière colonne de la matrice X, cette colonne remplie de 1 provient d’où, qu’elle est la signification de cette colonne.

    • @MachineLearnia
      @MachineLearnia  3 ปีที่แล้ว

      C'est une colonne de Biais. Elle permet d'ajuster le comportement du modele (avec un parametre b) qui est indépedant des données d'entrées (d'ou le nom de biais) -> cela permet d'ajouter une biais a la prise de décision (sans compter ce que les informations d'entrée nous disent). D'un point de vue mathématique, ce "1" est multiplié au "b" : f(x) = ax + 1*b

    • @jeremiepgeb9240
      @jeremiepgeb9240 3 ปีที่แล้ว

      @@MachineLearnia merci pour ton explication.

  • @trongphongngo6623
    @trongphongngo6623 4 ปีที่แล้ว

    Merci infirment Guillaume !!!!

  • @linuxmacos5727
    @linuxmacos5727 4 ปีที่แล้ว

    comment appel ton le support sur lequel tu ecris et qui saffiche a lecran svp merci jen aurais ausssi besoin pour mes tutos merci davance pour le nom et merci pour les videos

    • @MachineLearnia
      @MachineLearnia  4 ปีที่แล้ว

      C'est une tablette graphique voici le lien :amzn.to/2UppDNm

  • @cyrilww3750
    @cyrilww3750 4 ปีที่แล้ว

    J'ai appliqué le code et les principe de cette vidéo sur un problème d'estimation, qui comporte a priori beaucoup de features (8 catégorielles et 5 numériques). J'ai opté pour un modèle linéaire sur les features numériques, mais pour chaque configuration sur les features catégorielles (oui j'explore ^^). Comment puis-je tester la sensibilité d'une feature catégorielle sur l'objectif, avec ce modèle "linéaire ramifié" ? Sur la base des coeff de theta ?

    • @MachineLearnia
      @MachineLearnia  3 ปีที่แล้ว

      C'est une bonne question ! Pour cela, je conseille d'utiliser les outils et les techniques que je montre dans la vidéo 23/30 de la série Python Machine Learning (cette vidéo porte sur la sélection de variables)

  • @djibrildiouf1203
    @djibrildiouf1203 5 ปีที่แล้ว +2

    Merci, très clair

  • @Manon-4096
    @Manon-4096 4 ปีที่แล้ว +1

    Bonjour,
    Scikit learn il accepte directement des matrice de features, ça veut dire qu’il rajoute lui même la colonne de biais ?

    • @MachineLearnia
      @MachineLearnia  4 ปีที่แล้ว +1

      Oui, c'est exact !

    • @Manon-4096
      @Manon-4096 4 ปีที่แล้ว

      D’accord ! Bon ben grâce à vous j’ai tout compris :-) merci !

  • @René-w4d
    @René-w4d 9 วันที่ผ่านมา

    merci guillaume

  • @rymabellal8778
    @rymabellal8778 2 หลายเดือนก่อน

    Bonsoir, merci pour vos vidéos, puis je avoir accès à votre livre svp

  • @Schpountzie
    @Schpountzie 4 ปีที่แล้ว

    Pour commencer : Un grand merci pour tes cours ! Vraiment. Sorry pour my bad math mais... à 02:39 , pourquoi dans la matrice des X tu ajoute une colonne de "1" ?

    • @MachineLearnia
      @MachineLearnia  4 ปีที่แล้ว +1

      Merci beaucoup. On rajoute le "1" pour que le calcul matricielle donne f(x) = a*x + b*1, ca permet de développer une fonction affine pour notre modele linéaire

  • @langeo3279
    @langeo3279 4 ปีที่แล้ว

    J'ai pas tout compris mais j'suis curieux et persuadé que c'est l'avenir. Je m'y mets tout doucement

    • @MachineLearnia
      @MachineLearnia  4 ปีที่แล้ว

      Bravo, ca c'est de la motivation, tu iras loin !

  • @habibbouchouicha3223
    @habibbouchouicha3223 3 ปีที่แล้ว

    es que vous avez une vidéo pour l'algorithme id3 et c4.5

    • @MachineLearnia
      @MachineLearnia  3 ปีที่แล้ว

      Oui j'ai prévu de le faire un peu plus tard, merci pour votre suggestion :)

  • @philippemargueret9289
    @philippemargueret9289 2 ปีที่แล้ว

    Bonjour
    Je trouve vos explications trés claires.Auriez vous une vidéo sur la méthode des gradients conjugués?

  • @jadepierre2330
    @jadepierre2330 2 ปีที่แล้ว

    Super formations merci beaucoup! Petite question, pourquoi pour le gradient garde t on un signe somme, alors que pour le gradient descent cette somme est implicite dans le calcul vectoriel?

  • @aubemadara5597
    @aubemadara5597 3 ปีที่แล้ว

    Bonjour est-ce que les paramètres a et b on les met comme on veux ou les utilise toujours?

    • @MachineLearnia
      @MachineLearnia  3 ปีที่แล้ว

      Vous avez toujours besoin de parametres, c'est ce qui défini le comportement de votre modele. Donc vous devez toujours les mettre. Mais vous pouvez inventer d'autre configurations comme f(x1, x2, x3) = a*x1 + b*x2 + c*x3 + e*x1x2 + d*x2x3 etc etc