Si tous les professeurs étaient comme toi, la terre serait un paradis. J'ai appris de toi ce que je n'ai pas appris de mes professeurs dans mon master d'apprentissage automatique. Merci beaucoup Monsieur et bonne continuation.
@@arsenedydykouadio1520 oui il faut regarder dans la playlist en entrant complètement dans sa chaine youtube et tu verras la suite au numéro 18/30 puisque si tu regardes bien le titre de la vidéo c'est 17/30 où nous sommes.
Aucun mot ne peut exprimer ma gratitude envers vous, vos vidéos sont très pédagogiques, votre démarche est très généreuse et ça répond exactement à mon besoin (Je fais un master Big Data) maintenant je Like avant de regarder la vidéo. Mille mercis
C'est vraiment un travail de dingue ce que tu fais tu ajoutes plein de contenu à chaque nouvelle vidéo, tu es disponible pour tout le monde malgré la communauté qui se veut toujours plus importante franchement chapeau!
Merci beaucoup, ta reconnaissance fait tres plaisir :) Parfois je loupe un ou 2 commentaire, mais c'est rare j'essaie vraiment de repondre a tout le monde.
Etant en reconversion, votre série de vidéos sur le ML et plus particulièrement Python me sont très utiles, elles sont très accessibles et faciles à comprendre. Merci
Hello, Merci pour cette superbe chaîne. Toutes les informations sont super bien expliquées et bien détaillées. Merci encore et surtout t'arrêtes pas :)
je suis étudiante en master "digital text analysis". Je viens d'avoir un bootcamp d'introduction à python ponctué d'un examen que j'ai raté allègrement (notamment) parce que je n'avais rien compris du tout à "pandas", sur lequel la plupart de l'examen portait. Nous avons travaillé sur ces données du Titanic en classe mais je n'avais pas compris une seule ligne de code. J'ai acheté une adhésion à DataCamp pour m'aider mais rien n'y a fait. Et puis je viens de tomber sur votre chaîne! Vous êtes un excellent professeur! Je m'apprête à regarder chacune de vos vidéos excellement expliquées! Merci infiniment.
Je suis navré que vous n'ayez pas réussi votre premier examen, mais ne vous en faite pas, vous aurez l'occasion de vous rattraper ! C'est super si a présent vous avez bien compris tout ca ! :) Si le machine learning vous intéresse également, vous pouvez télécharger mon livre gratuit sur mon site Internet (le lien est dans la description) Allez, gardez la motivation et bon courage dans vos études ! :D
Bonjour, j'ai connu votre chaîne moins d'un mois de cela et je me las pas de vos video... J'apprends le machine learning à travers vos vidéo...vraiment très pratique et jespere qu'à la fin de la 30iem vidéo je serai un expert du domaine Hahaaa...vraiment courage à vous !
Bonjour et bravo d'avoir fait tout ce chemin en moins d'UN mois ! Félicitations ! Le chemin pour devenir data scientist est long mais je me donne comme mission que les gens qui me suivent atteignent TOUS leurs objectifs un jour !
@@MachineLearnia c'est ça l'objectif ! En plus j'apprends facilement avec vous...vos explication sont compréhensives. Et je suis plus que déterminé pour devenir un data scientist.
Bonjour et merci pour votre travail! Actuellement en reconversion professionnelle dans le domaine de la data et de l'IA, je ne peux que recommander vos vidéos! Pour ceux qui ont eu du mal à charger le dataset malgré le fait de le mettre dans le même dossier que votre notebook. Il m'est arrivé la même chose ! Cela peut être dû a JupyterLab qui est moins stable que Jupyter Notebook. J'ai fermé JupyterLab puis j'ai ouvert sur Jupyter Notebook et problême résolu! Retourner sur JupyterLab et là même en relançant votre kernel, surprise le dataset se charge correctement! Voilà 1er jour et 1ère participation ^^ A plus
Bravo et merci pour ces tutos, même si dans mon cas c'est plus la découverte et la curiosité car a 70ans et retraité, je n'ai pas d'application concrète à développer ! Mais c'est très intéressant et sa complète mon expérience en python.
Je me demandais quel était l'intérêt de Pandas vs une base de données, même en ram genre SQLite. Là, je crois cerner l'intérêt en voyant qu'on peut y faire des slices, des masques, bref, bien plus pythonesque et concis si j'ai bien compris. Je viens du vieux monde, merci pour cette encore excellente vidéo !
Aaah Kaggle, je compte faire BEAUCOUP de vidéos dessus, mais pas dans l'immédiat (je vais poursuivre la série Python pour les prochaines semaines) :D Stay tuned !
Excellent ! Cependant, pourquoi à 15:02 on a 3 lignes qui sortent alors qu'on a écrit data.loc[0 : 2 , ['age','sex'] ] ? Nous devrions avoir que les lignes d'index 0 et 1 non ?
Bonjour, Superbe collection de vidéo . Elles sont très pédagogiques; Avez-vous fait ou ferez-vous une vidéo expliquant comment créer un dataset à partir de ses propres images par exemple dans le cadre d' une classification? Merci encore
Merci beaucoup pour vos vidéos (TOP DU TOP). Dans un DataFrame déjà constitué et rempli, est-il possible d'inclure ( copier/coller) des colonnes d'un autre tableau (provenant d'Excel, par exemple )? Merci d'avance.
Bonjour. Je suis bloquée dès la première étape. En effet, dès que j'essaie d'importer le fichier, ce message d'erreur s'affiche : FileNotFoundError. Je n'ai aucune solutions. Que faire ? Merci d'avance.
Excellente vidéo et super intéressante merci encore, j'ai une question si on supprime tout les valeurs NAN du dataset avec dropna() ça risque de biaiser notre modèle d'apprentissage après ? merci
Merci :) Oui... et non. Tout dépend ! Si les données qui sont supprimées sont distribuées normalement a travers les classes du Dataset, alors le risque de biais est faible. Si en revanche les données NaN sont toutes liées a une situation particuliere , alors le modele sera en effet "biaisé" (ce n'est pas le vrai terme pour parler de ca) car il n'aura jamais vu des données correspondant a une situation particuliere.
Salut, super série. Merci pour ton partage. Y a un petit typo à 2:28, un point traine sur df.['column'].value_counts() entre df et ['column']. Merci encore.
bonsoir monsieur, j'ai un problème avec le chargement du dataset du titanique que j'ai téléchargé . Au niveau de spyder, quand je le charge, on me dit un truc du genre fichier introuvable que dois je faire ? merci .
Très bonne vidéo comme d'habitude. Petite question : à 0:00 ou 9:20 quand on groupby le sexe et classe, on voit que 96% des femmes en classe 1 survivent VS 89% de celles en classe 2. Y'a-t-il un moyen de voir s'il y a une différence significative entre ces deux catégories et les autres à l'aide d'une ANOVA, t-test ? Le module scipy.stats propose quelques fonctionnalités mais y'a-t-il un moyen pour grouper les catégories non significativement différentes entre elles et hiérarchiser ces groupes ? Exemple : %survie des femmes 1 et 2 > %survie femmes 3 > %survie hommes 1 > %survie hommes 2 et 3
Oui tout a fait ! il faut pour cela calculer la crosstab avec les variables sex, pcass, et survived (utilisez pd.crosstab()) puis il faut effectuer un test de chi2 avec la fonction de scipy chi2_contigency. Cela vous retourne la statistique chi2, la p_value, et le tableau des valeurs attendus, et vous pouvez avec rejeter votre hypothese H0 si p_value < 0.02 (ou tout autre valeur alpha que vous aurez choisie) :)
Salut Guillaume! La correction de l'exercice en fin de vidéo se trouve dans quelle vidéo? (Je n'ai rien trouvé dans la vidéo 18). Merci pour ta réponse 👍
Salut Guillaume, quel bonheur tes vidéos!! Idéal et nettement plus "user friendly" que de se plonger dans les docs officielles ;-). Je me demandais s'il était possible d'accéder à des "chapitres" précis de la vidéo sans avoir besoin de la parcourir complètement pour pouvoir revenir sur certaines fonctions... Est-ce qu'il y a un descriptif de tes vidéos? Un grand merci à toi. De716
Hello et merci a toi. Alors pour info je suis en train de préparer un petit livre qui résume toutes les fonctions qu'on a vu dans cette série de vidéos. Et sinon au bas de chaque vidéo il y a dans la description la timeline pour accéder plus rapidement aux différents cahpitres.
@@MachineLearnia Salut Guillaume, j'ai une question au sujet des masques : est-il possible d'utliser un dataframe comme masque d'un dataframe plus grand? J'ai en fait une base de questions, avec en index le nom des objectifs et pour chaque objectif correspondent des questions avec un niveau de taxonomie spécifique... Le template pour faire l'exam est un tableau avec une partie de ces mêmes objectifs et des niveaux de taxonomie. J'aimerais donc utiliser ce template pour aller sélectionner directement toutes les questions correspondantes à ces objectifs et taxonomies... Est-ce faisable? Mille merci encore pour tes vidéos.de716
Bonjour, vous pourrez trouver de l'aide sur notre discord. A titre personnel je peux aussi vous aider, mais mon temps est limité car je recois beaucoup de demande et j'ai également un travail a temps plein.
@@MachineLearnia d'accord je suis déjà sur discorde et je discute avec des gens mais j'aurais besoin de votre aide aussi est-ce que je peux avoir votre mail
Merci pour toutes ces superbes vidéos. Néanmoins j'ai un PB avec le fichier xls titanic3. Quand je fais le read_excel ça renvoie une erreur, je pense que c'est lié au changement de configuration régionale de l'ordinateur, le mien est configuré en FR. Séparation virgule ou point-virgule ? UTF-8 ?
Je suis vos séries, et vraiment j'avance bien avec vous, du coup je vous demande de nous faire une vidéo d'analyse de base de données " Chicago crime" Merci
Bonjour Guillaume, Merci beaucoup encore une fois pour la qualité de tes vidéos elles sont vraiment excellentes. j'ai une question concernant groupby est ce possible de grouper par une fonction (mise en forme de valeurs) ou uniquement par colonne? Pour illustrer mon propos, j'ai une colonne avec des code insee et je voudrais grouper par département, donc les 2 premiers caractères du code insee. Je n'ai pas trouvé d'information sur le site pandas...merci d'avance j'ai essayé sans succès : in[19] df.groupby(['entite',df['code_insee'].astype(str).str[0:2]).sum() in[20] dept = df['code_insee'].astype(str).str[0:2] df.groupby(['entite',dept).sum() :x
Merci beaucoup. Dans cette situation, je créerai tout simplement une colonne temporaire qui contient les 2 premiers caractères sur code insee pour ensuite effectuer cette opération de groupby.
Merci infiniment , rien ne peut exprimer la joie que j'ai d'avoir tomber sur cette formation qui m'aide beaucoup dans ma carrière de Data scientiste
Si tous les professeurs étaient comme toi, la terre serait un paradis. J'ai appris de toi ce que je n'ai pas appris de mes professeurs dans mon master d'apprentissage automatique.
Merci beaucoup Monsieur et bonne continuation.
svp la suite de cette video existe?
@@arsenedydykouadio1520 oui il faut regarder dans la playlist en entrant complètement dans sa chaine youtube et tu verras la suite au numéro 18/30 puisque si tu regardes bien le titre de la vidéo c'est 17/30 où nous sommes.
Aucun mot ne peut exprimer ma gratitude envers vous, vos vidéos sont très pédagogiques, votre démarche est très généreuse et ça répond exactement à mon besoin (Je fais un master Big Data) maintenant je Like avant de regarder la vidéo. Mille mercis
C'est un bonheur de pouvoir vous aider Nadia ! Bravo et bon courage pour votre Master ! :)
Très utile l'ajout des timecodes depuis les dernières vidéos. Cette chaîne c'est comme le vin, ça se bonifie avec temps !!!
Merci beaucoup !
Tout simplement le meilleur cours de Pandas que j'ai vu sur internet !
Vidéo très pédagogique. Tu vas vraiment à l'essentiel sans faire des bavardages inutiles. Merci et courage pour ton travail.
Je suis honoré de l'apprendre, merci !
Un immense bravo pour vos qualités pédagogiques !!!!
C'est vraiment un travail de dingue ce que tu fais tu ajoutes plein de contenu à chaque nouvelle vidéo, tu es disponible pour tout le monde malgré la communauté qui se veut toujours plus importante franchement chapeau!
Merci beaucoup, ta reconnaissance fait tres plaisir :) Parfois je loupe un ou 2 commentaire, mais c'est rare j'essaie vraiment de repondre a tout le monde.
Etant en reconversion, votre série de vidéos sur le ML et plus particulièrement Python me sont très utiles, elles sont très accessibles et faciles à comprendre. Merci
De rien, merci a vous :)
C'est la première vidéo que j'ai vue de votre chaîne. Merci pour votre travail et votre altruisme
Merci beaucoup, bienvenue dans notre communauté ! :)
La vidéo est vraiment de qualité ! Bien plus explicite que des cours sur Udemy ! Un grand merci !
Merci beaucoup, ca fait plaisir :)
J'aurais aimé avoir un prof comme vous impossible de qualifier vos contenus tellement que c'est clair et riche
Merci a vous !
Que de temps gagné grace à cette chaine. Merci
Ça me fait très plaisir de l'apprendre, merci ! :)
C'est toujours un vrai régal. Merci
Merci beaucoup :)
Le meilleure professeur 😅, merci infiniment
je cherche à me former en BI.... Un grand merci, c'est tout à fait le genre de vidéo que je recherche !!! très clair à comprendre
Merci ! J'ens suis tres content ! :)
Même en 2024 cette vidéo m'est toujours utile. Merci infiniment ❤
oui je confirme a l'instant même
je confirme
On était 1000 abonnés en Octobre 2019 et on est plus de 6000 en Janvier 2020 , c'est un résultat de vos vidéos hyper jolies Merci beaucoup à vous !
Merci ! C'est aussi grace a vous qui étiez présent avant les 1000 abonés et qui etes encore la aujourd'hui !
et plus de 150K en 2024 !!!
Pandas ouvre les yeux sur un univers infini de possibilités c'est génial bravo Guillaume cette vidéo est magnifique
Merci beaucoup. Vive Pandas !
Video très clair, facile à suivre et riche d'informations. Merci !
Merci ! C'est un plaisir :)
C'est absolument excellent tes tutos. Merci beaucoup !
Merci beaucoup et de rien :)
je veux vous remercier pour cette excellente formation vraiment m a beaucoup aider dans mes etudes.
Hello,
Merci pour cette superbe chaîne. Toutes les informations sont super bien expliquées et bien détaillées.
Merci encore et surtout t'arrêtes pas :)
Merci beaucoup !
Franchement une master Class. Merci prof
merci bq, ils m'ont invité pour une journée le wagon live, au bout de 3 hours on a rien fait en comparant avec cette vidéo, merci a vous.
Merci beaucoup pour votre retour et bon courage pour la suite :)
je suis étudiante en master "digital text analysis". Je viens d'avoir un bootcamp d'introduction à python ponctué d'un examen que j'ai raté allègrement (notamment) parce que je n'avais rien compris du tout à "pandas", sur lequel la plupart de l'examen portait. Nous avons travaillé sur ces données du Titanic en classe mais je n'avais pas compris une seule ligne de code. J'ai acheté une adhésion à DataCamp pour m'aider mais rien n'y a fait.
Et puis je viens de tomber sur votre chaîne! Vous êtes un excellent professeur! Je m'apprête à regarder chacune de vos vidéos excellement expliquées! Merci infiniment.
Je suis navré que vous n'ayez pas réussi votre premier examen, mais ne vous en faite pas, vous aurez l'occasion de vous rattraper ! C'est super si a présent vous avez bien compris tout ca ! :) Si le machine learning vous intéresse également, vous pouvez télécharger mon livre gratuit sur mon site Internet (le lien est dans la description)
Allez, gardez la motivation et bon courage dans vos études ! :D
@@MachineLearnia merci de me répondre! :) J'ai déjà téléchargé votre livre. Je suis sûre qu'il m'aidera! :)
un grand merci, tu m'as sauvé la vie
Carrément !? Que ce passe-t-il ? un projet a rendre en urgence ?
Ca me fait plaisir :)
@@MachineLearnia vous m'avez aidé à préparer un cours. encore une fois merci
Très bon travail, bien organisé, bien clair.
Un grand merci Guillaume, c'est rare de trouver un travail de cette qualité. Tu me sauves mon ami ;)
Mais de rien :)
Super introduction ! Merci pour cette vidéo :)
Merci beaucoup :)
Toujours au top.Je sens que je vas basculer de R vers Python =D. Bravo et nous te soutenons !
Merci beaucoup pour le soutien ! :)
Très bonne vidéos, t'as sauvé mon cours d'exploitation de base de donnée
Je suis heureux de l'apprendre ! merci a toi :)
rien n'a dire . Merci beaucoup pour toutes ces explications .
vraiment c´est merveilleux. je dirai la suite...
Un merci du fond du coeur
Merci pour cette vidéo,j'ai vraiment aimé
Merci beaucoup
Bonjour, j'ai connu votre chaîne moins d'un mois de cela et je me las pas de vos video... J'apprends le machine learning à travers vos vidéo...vraiment très pratique et jespere qu'à la fin de la 30iem vidéo je serai un expert du domaine Hahaaa...vraiment courage à vous !
Bonjour et bravo d'avoir fait tout ce chemin en moins d'UN mois ! Félicitations ! Le chemin pour devenir data scientist est long mais je me donne comme mission que les gens qui me suivent atteignent TOUS leurs objectifs un jour !
@@MachineLearnia c'est ça l'objectif ! En plus j'apprends facilement avec vous...vos explication sont compréhensives. Et je suis plus que déterminé pour devenir un data scientist.
MERCI BRO , C'EST TRES INTERESSANT LE CONTENU , UNE FOIS DE PLUS MERCI, JE SUIS NOUVEAU SUR LA CHAINE
Bienvenue a toi alors :)
Très bonne vidéo encore, continue comme ça. Merci
Merci :)
Merci pour ces tutos.
Ca me fait plaisir ! Merci de les suivre :)
Bonjour et merci pour votre travail!
Actuellement en reconversion professionnelle dans le domaine de la data et de l'IA, je ne peux que recommander vos vidéos!
Pour ceux qui ont eu du mal à charger le dataset malgré le fait de le mettre dans le même dossier que votre notebook. Il m'est arrivé la même chose !
Cela peut être dû a JupyterLab qui est moins stable que Jupyter Notebook.
J'ai fermé JupyterLab puis j'ai ouvert sur Jupyter Notebook et problême résolu!
Retourner sur JupyterLab et là même en relançant votre kernel, surprise le dataset se charge correctement!
Voilà 1er jour et 1ère participation ^^
A plus
Merci beaucoup Vincent ! Et merci d'avoir partager ton astuce !
merci infiniment Guillaume génial
Merci :)
@@MachineLearnia je vous en prie
Vraiment très explicite. Merci un cour suivie et j'arrive à avancer sur mon projet.
Merci beaucoup ca me fait très plaisir comme retour ;)
C'est vraiment formidable 🙏🏽🙏🏽
merci infiniment pour votre effort
Bravo et merci pour ces tutos, même si dans mon cas c'est plus la découverte et la curiosité car a 70ans et retraité, je n'ai pas d'application concrète à développer ! Mais c'est très intéressant et sa complète mon expérience en python.
Merci a vous ! Je suis tres heureux de pouvoir proposer mon contenu a des gens curieux comme vous :)
Franchement tes vidéos sont vraiment au top du top
merci !
J'ai vraiment aimé cette vidéo
Encore une excellente vidéo qui me permet de faire le lien avec Excel que j'utilise au quotidien
Je suis content que cela vous aide :)
Salut Guillaume belle vidéo comme d'habitude puissance force courage à toi merci pour le lien
Merci beaucoup ! Que la force soit avec toi également :)
Merci infiniment, c'était claire !!
ta vidéo est géniale, merci je comprends beaucoup mieux les bases de pandas :)
Ca fait tres plaisir de pouvoir aider !
Eh bien c'est tout simplement génial pour débuter. Merci beaucoup :)
De rien :)
j'adore. C'est très explicite
Merci !
vraiment mercii beaucoup
C'est un plaisir de produire ces vidéos. merci !
Excellente explication. Merci
Je vous en prie.
super tuto simple à comprendre, merci
Je vous en prie !
super la vidéo ! merci
Merci
merci infiniment
Je vous en prie, merci beaucoup !
T'es le meilleur Guillaume :)
Merci :)
@@MachineLearnia Mais tu n'a pas repondu concernant mon probleme de jupyter
Un grand merci
vidéo clair, facile à suivre
Merci pour votre réponse.
Quand je t'appe le code:
Pd.read_excel('hh.xls')
Le fichier ne télécharge pas ??
Je me demandais quel était l'intérêt de Pandas vs une base de données, même en ram genre SQLite. Là, je crois cerner l'intérêt en voyant qu'on peut y faire des slices, des masques, bref, bien plus pythonesque et concis si j'ai bien compris. Je viens du vieux monde, merci pour cette encore excellente vidéo !
Merci pour le commentaire. Oui Pandas est vraiment puissant et pratique. Il a été développé par des organisme de l'industrie Financière.
Belle vidéo très bien expliquer je m'abonne !
Merci beaucoup :)
Super, comme d'hab !
Merci beaucoup :)
Bonjour
Nous serons très heureux que vous venez sur les fonctions discriminantes dans la reconnaissance des formes
je vais le faire, merci ! :)
Super vidéo merci ❤️❤️❤️
De rien ! :)
Je vois kaggle arriver au loin x)
Pour mon plus grand plaisir.
Aaah Kaggle, je compte faire BEAUCOUP de vidéos dessus, mais pas dans l'immédiat (je vais poursuivre la série Python pour les prochaines semaines) :D
Stay tuned !
merci pour cette vidéo
époustouflant
Merci
Merci !
merci bcp
Excellent !
Cependant, pourquoi à 15:02 on a 3 lignes qui sortent alors qu'on a écrit data.loc[0 : 2 , ['age','sex'] ] ? Nous devrions avoir que les lignes d'index 0 et 1 non ?
Il est possible que j'ai executé une cellule, puis changé le code, et que j'ai oublié d’exécuter la cellule... Mais en effet tu as raison
Lourd
Ahah !
woooowww très cool. Merci infiniment
Merci content de savoir que la vidéo vous a plu !
thanks man,
merci
Good choice!
Bonjour,
Superbe collection de vidéo . Elles sont très pédagogiques;
Avez-vous fait ou ferez-vous une vidéo expliquant comment créer un dataset à partir de ses propres images par exemple dans le cadre d' une classification?
Merci encore
Bonjour et merci beaucoup ! Oui je compte faire plusieurs vidéos pour faire de la vision par ordinateur sur vos propres images (d'ici quelques mois)
Thxx ❤❤❤🇹🇳
You are welcome :)
Merci beaucoup pour vos vidéos (TOP DU TOP). Dans un DataFrame déjà constitué et rempli, est-il possible d'inclure ( copier/coller) des colonnes d'un autre tableau (provenant d'Excel, par exemple )? Merci d'avance.
excellent
Thanks!
Merci , svp des autres projets
il y en a pleins d'autres sur la chaine
👍🏻👍🏻👍🏻
Bonjour. Je suis bloquée dès la première étape. En effet, dès que j'essaie d'importer le fichier, ce message d'erreur s'affiche : FileNotFoundError. Je n'ai aucune solutions. Que faire ?
Merci d'avance.
Merci :)
de rien :)
Excellente vidéo et super intéressante merci encore, j'ai une question si on supprime tout les valeurs NAN du dataset avec dropna() ça risque de biaiser notre modèle d'apprentissage après ? merci
Merci :)
Oui... et non. Tout dépend ! Si les données qui sont supprimées sont distribuées normalement a travers les classes du Dataset, alors le risque de biais est faible. Si en revanche les données NaN sont toutes liées a une situation particuliere , alors le modele sera en effet "biaisé" (ce n'est pas le vrai terme pour parler de ca) car il n'aura jamais vu des données correspondant a une situation particuliere.
@@MachineLearnia merci bcp
@@90fazoti de rien, c'était une bonne question qui méritait une réponse adéquate ! :)
Salut, super série. Merci pour ton partage.
Y a un petit typo à 2:28, un point traine sur df.['column'].value_counts() entre df et ['column'].
Merci encore.
Merci beaucoup pour avoir remarquer cela ! :)
bonsoir monsieur, j'ai un problème avec le chargement du dataset du titanique que j'ai téléchargé . Au niveau de spyder, quand je le charge, on me dit un truc du genre fichier introuvable que dois je faire ? merci .
Très bonne vidéo comme d'habitude.
Petite question : à 0:00 ou 9:20 quand on groupby le sexe et classe, on voit que 96% des femmes en classe 1 survivent VS 89% de celles en classe 2. Y'a-t-il un moyen de voir s'il y a une différence significative entre ces deux catégories et les autres à l'aide d'une ANOVA, t-test ? Le module scipy.stats propose quelques fonctionnalités mais y'a-t-il un moyen pour grouper les catégories non significativement différentes entre elles et hiérarchiser ces groupes ?
Exemple : %survie des femmes 1 et 2 > %survie femmes 3 > %survie hommes 1 > %survie hommes 2 et 3
Oui tout a fait ! il faut pour cela calculer la crosstab avec les variables sex, pcass, et survived (utilisez pd.crosstab())
puis il faut effectuer un test de chi2 avec la fonction de scipy chi2_contigency. Cela vous retourne la statistique chi2, la p_value, et le tableau des valeurs attendus, et vous pouvez avec rejeter votre hypothese H0 si p_value < 0.02 (ou tout autre valeur alpha que vous aurez choisie) :)
Très claire ….
Salut Guillaume! La correction de l'exercice en fin de vidéo se trouve dans quelle vidéo? (Je n'ai rien trouvé dans la vidéo 18). Merci pour ta réponse 👍
Salut ! La réponse est bien dans la vidéo 18 (avant l'exercice sur le bitcoin)
Ok je la pensais en fin de vidéo! Merci!
salut, j'arrive pas a ouvrir le fichier il affiche un message d'erreur "[Errno 2] No such file or directory: 'titanic3.xls'
" je sais pas prq ?
Salut, as-tu penser a mettre ton fichier dans ton répertoire de travail ? Il faut faire cela depuis l'explorateur Jupyter.
@@MachineLearnia merci beaucoup pour votre réponse bro c'est fait.
@@n.moussaoui2608 Super ! :)
Salut Guillaume, quel bonheur tes vidéos!! Idéal et nettement plus "user friendly" que de se plonger dans les docs officielles ;-). Je me demandais s'il était possible d'accéder à des "chapitres" précis de la vidéo sans avoir besoin de la parcourir complètement pour pouvoir revenir sur certaines fonctions... Est-ce qu'il y a un descriptif de tes vidéos? Un grand merci à toi.
De716
Hello et merci a toi. Alors pour info je suis en train de préparer un petit livre qui résume toutes les fonctions qu'on a vu dans cette série de vidéos.
Et sinon au bas de chaque vidéo il y a dans la description la timeline pour accéder plus rapidement aux différents cahpitres.
Ah super j’avais pas vu. Et c’est top pour le livre, encore merci pour ce partage de tes connaissances ça aide beaucoup la communauté !!
@@MachineLearnia Salut Guillaume, j'ai une question au sujet des masques : est-il possible d'utliser un dataframe comme masque d'un dataframe plus grand? J'ai en fait une base de questions, avec en index le nom des objectifs et pour chaque objectif correspondent des questions avec un niveau de taxonomie spécifique... Le template pour faire l'exam est un tableau avec une partie de ces mêmes objectifs et des niveaux de taxonomie. J'aimerais donc utiliser ce template pour aller sélectionner directement toutes les questions correspondantes à ces objectifs et taxonomies... Est-ce faisable? Mille merci encore pour tes vidéos.de716
Merci beaucoup pour la formation.
Actuellement j'ai un projet de mémoire sur le machine learning et j'aimerais avoir vos ton aide
Bonjour, vous pourrez trouver de l'aide sur notre discord. A titre personnel je peux aussi vous aider, mais mon temps est limité car je recois beaucoup de demande et j'ai également un travail a temps plein.
@@MachineLearnia d'accord je suis déjà sur discorde et je discute avec des gens mais j'aurais besoin de votre aide aussi
est-ce que je peux avoir votre mail
merci de m'envoyer un message privé sur discord alors, Mon email est donné sur la page youtube
Slt Guillaume ! du coup le fichier excel doit-être importé dans le Jupyter ou pas? Merci d'avance
Salut, oui il faut importer le fichier Excel dans ton dossier de travail dans Jupyter
@@MachineLearnia merci Guillaume c'est très gentil... les cours sont vraiment magnifique
Merci pour toutes ces superbes vidéos. Néanmoins j'ai un PB avec le fichier xls titanic3. Quand je fais le read_excel ça renvoie une erreur, je pense que c'est lié au changement de configuration régionale de l'ordinateur, le mien est configuré en FR. Séparation virgule ou point-virgule ? UTF-8 ?
Salut, vous utilisez quoi pour afficher les data directement dans localhost ?
Je suis vos séries, et vraiment j'avance bien avec vous, du coup je vous demande de nous faire une vidéo d'analyse de base de données " Chicago crime"
Merci
J'ai prévu de le faire en 2021, c'est parfait ! ^^
@@MachineLearnia merci infiniment , j'attends avec impatience
Bonjour Guillaume,
Merci beaucoup encore une fois pour la qualité de tes vidéos elles sont vraiment excellentes.
j'ai une question concernant groupby est ce possible de grouper par une fonction (mise en forme de valeurs) ou uniquement par colonne?
Pour illustrer mon propos, j'ai une colonne avec des code insee et je voudrais grouper par département, donc les 2 premiers caractères du code insee. Je n'ai pas trouvé d'information sur le site pandas...merci d'avance
j'ai essayé sans succès :
in[19]
df.groupby(['entite',df['code_insee'].astype(str).str[0:2]).sum()
in[20]
dept = df['code_insee'].astype(str).str[0:2]
df.groupby(['entite',dept).sum()
:x
Merci beaucoup. Dans cette situation, je créerai tout simplement une colonne temporaire qui contient les 2 premiers caractères sur code insee pour ensuite effectuer cette opération de groupby.
@@MachineLearnia Merci beaucoup, tes vidéos sont vraiment très enrichissantes et poussent à aller plus loin. Bravo !
Merci pour la vidéo
Peut tu nous faire une ainsi concernent le réseau U-Net et la bibliothèque Keras?