f h La crédence (de l'italien credenza, « croyance ») est un meuble, ou partie de buffet, où l'on range et expose la vaisselle, les plats précieux et les objets servant pendant le repas. De nos jours, ce terme désigne également, dans une cuisine, la partie du mur située entre le plan de travail et les meubles hauts. Généralement recouverte de faïences ou d'inox, elle permet de protéger la paroi des éclaboussures d'eau à l'arrière de l'évier et de graisse à l'arrière de la plaque de cuisson. Le terme désigne également une table où l’on pose les objets nécessaires au culte dans la religion catholique. De rien 😇
Essaye de regarder ses premières vidéos ou les vidéos d'hygiène mentale pour comprendre, mais je pense qu'il faut attendre la fin de la série pour espérer mieux comprendre la crédence de la théorie, qui est le résultat de la formule de bayse ^^
@@Tibo243 merci, en effet c'est une très bonne chaine et beaucoup plus facile d’accès, malheureusement elle ne traite qu'une infime parti des sujet abordé par science4all
Apprenti-statisticien, je suis en plein milieu du sujet que vous traitez. J'ai trouvé la vidéo intéressante mais très théorique et assez difficile d'accès pour qqn qui ne sait pas ce qu'est la p-valeur. J'aurais aimé plus d'exemples : notamment des cas de faux positifs ou de théories fausses avec des p-valeurs très faibles.
Si lire "statistiquement significatif" te fait grincer des dents, alors n'ouvre surtout pas un bouquin de maths de TS ou de TES ! On y trouve des intervalles de fluctuation asymptotiques à gogo avec prise de décision sans jamais appeler les choses par leurs noms (risque de première ou de seconde espèce) et même des théorèmes faux ! (voir le papier de Daniel Perrin sur le sujet).
Jeune doctorant en sciences, j'attendais cette vidéo (et les suivantes ! ) avec impatience pour être sur de ne pas dire trop de bêtise dans la suite de mon travail xD Excellent vidéo, excellente série, comme d'hab'
Tes vidéos sont vraiment d'une grande qualité et d'une grande profondeur. Je suis dans le monde de la recherche et de la vulgarisation depuis plusieurs années, et jamais je n'ai vu quelqu'un qui avait aussi bien compris et l'incompréhensible. Merci
Super vidéo comme d’hab. Mais lê, tu nous avais habitué à nous donner plus d’exemple concrets pour illustrer tes théories. Je veux bien un épisode de plus avec des exemples de p-value et des théories fausses avec des erreurs de raisonnement scientifique ...
meilleure vidéo que j'ai vue sur le sujet. je suis en école d'ingénieur et notre prof de stats (parti pour raisons personnelles) nous avait fait une présentation similaire. son travail de recherche est la relecture de thèses en maths appliquées. étant donné la barrière de langue (prof taiwanais parlant anglais), peu d'étudiants ont réussi à saisir l'importance d'ajouter d'autres valeurs statistiques pour pouvoir choisir si on fait confiance ou pas en la théorie.
C'est un manière compliquée de dire que si tu as une hypothèse T, et une expérience qui peut rejeter cette hypothèse T, le fait que les données observées soient au dela du seuil de vraisemblance fixé par D démontre que ta théorie T a x% de chances d'être fausse. Par contre si tes données sont en-deça du seuil D, cela ne démontre en aucun cas que T est vraie, simplement que **les données observées sont compatible avec T et ne la rejettent pas**. Une théorie scientifique selon Popper, c'est le fait qu'on puisse inventer une expérience dont les observations permettent de rejeter une hypothèse (et non pas de la démontrer, comme en mathématiques), et le test de Fisher est l'instrument statistique qui permet de conclure si les données observées rejettent T ou non. Alors pourquoi est-ce que Le Monde a titré que le boson de Higgs est confirmé à 99,9999% ? Parce que les données sont compatibles avec la théorie de l'existence du boson. Mais ce qui est intéressant, c'est que cette hypothèse est une *prédiction*: les physiciens ont prédit l'existence du boson, et on construit une expérience qui a permis de détecter pour la première fois des événements particuliers compatibles avec cette existence. C'est une hypothèse beaucoup plus forte qu'enregistrer des observations et essayer de bâtir une théorie a posteriori qui explique ces observations. De la même manière, la théorie de la relativité a été considérée comme vraie après qu'Einstein ait fait la prédiction que le mouvement de Mercure suivait un certain motif que personne n'avait remarqué auparavant et que la théorie de Newton ne pouvait expliquer. Cette prédiction a été confirmée par les observations d'Eddington, ce qui a été la première confirmation de la relativité d'Einstein.
j'étais en train bosser l' économétrie avec ma belle soeur APRES avoir vu ta série bayésienne, et au moment où j'aborde la partie des tests d'hypothèse F (et t d'ailleurs) je me suis dit : une minute, la vraisemblable sous H0 du coefficient des MCO observé sur mon échantillon, n'est pas la crédence de H0! je n'ai ni la plausibilité à priori de H0 , ni la vraisemblable de mon estimateur sous l' hypothèse alternative, pour réévaluer la crédence de H0 sachant la valeur observée de mon estimateur .Et là, lumière, je repasse sur cette vidéo et je comprends enfin! Gloire à toi merci !
je valoriserais déjà H0 à 0,5. Gros problème pour la vraisemblance sous les hypothèses alternatives, ça doit bien être pour ça qu'on s'arrête à la vraisemblance sous H0 😅
Non parce que si je comprends bien ce que Lê essaie de dire, les données peuvent être très vraisemblables sans que la théorie qui correspond à ces données ne le soit
admettons que tu lance un dé à six faces 3 fois. ton tu tombe 3x sur la face 6. tu peux dire : toutes les faces ont le chiffre 6 (et dans ce cas p(résultat sachant seul face 6) = 1 les données sont très vraisemblable (vrai semblable = qui semble vrai) Cependant, si ton dé est parfaitement équilibré et à 6 faces, alors la probabilité d'obtenir ce résultat est 1/216 (comme par ailleurs toutes les autres suites si tu prend en compte l'ordre de sortie) cette théorie, bien que peu vraisemblable est plus crédible, vu que tu as lancé le dé
A bon? Tu trouves? Bè moi, il m'a plus embrouillé qu'autre chose. J'avais déja du mal avec la p-value, mais là c'est la catastrophe. Ce qu'il appel p-value, ça ressemble à 100% à l'erreur de première espèce. Du coup j'vois pas du tout la différence. Aussi, un petit détail, il parle à 1000 reprise de la "CREDENCE D'UNE THEORIE". J'ai pas énormément de vocabulaire, mais je suis persuadé qu'une crédence c'est un meuble italien. J'ai l'impression qu'il confond avec "CREDIBILITEE D'UNE THEORIE". Mais j'suis pas sur. Enfin bref, je chipote. Mais en tous cas ce qu'il appel p-value j'arrive pas à voir la différence avec l'erreur de première espèce.
@@sharkserberus je n'ai pas le terme non plus pour moi la crédence c'est un type de carrelage, mais je passe peut-etre trop de temps chez Castorama en ce moment...
On fait les malins à chipoter mais si on me demande d'expliquer la p-value simplement à la caisse de Castorama je vais avoir deux trois goutes de sueur. @science4All ça manque peut être d'un petit exemple de type Gérard a 3 billes, il en prête 2 à Germaine etc... ( Oui mon exemple se passe dans une maison de retraite). Quoi qu'il en soit voilà ce que j'en ai compris : Si on cherche à prouver l'âge de Zinedine Zidane via une théorie (ou un algo) T, qu'on l'applique sur les données D des âges et du nombre de personnes actuellement vivantes sur terres afin de tester la théorie T (ce qui va me donner une sorte de courbe en cloche pas tout à fait réguliere mais avec des extrémités contenant peu d'individus comme les exemples). Alors si ma Théorie T tombe sur mettons la nouvelle Jeanne calment (je ne sais pas qui est la nouvelle du coup du coup) ou sur un bébé qui vient de naître, alors la théorie est hautement improbable car son application renvoie à des résultats qui résultent d'abératons. On sait tous évidemment que Zidane est un dieu, il n'a par définition pas d'âge. Bon c'est ce que j'en ai retiré, je me plante peut-être.
Je suis en fin de L3 math appliquées et je ne savais pas que la notion de p-value était aussi importante en science . Il faut ,car c'est sûrement important que je pige bien la différence entre Credence et vraissemblance. Par crédence , tu entends, crédibilité ?
Toujours aussi excellent. J'ai beau être statisticien (en formation), je passe toujours du temps à me triturer le cerveau pour recomprendre la p-value. Encore médecine, elle a une grande force dans le sens où elle permet l'innovation. La p-value est permissive, et elle a permis la mise sur le marché de médicaments qui ont ensuite été suivi. Le problème c'est qu'il y a donc sur le marché des médicaments inefficaces (parfois depuis des décennies).
Bon, si je comprends bien, pour affiner les résultats donné par la p-value, il va falloir qu'on pense à inventer une p-value de la p-value elle-même. Je propose de l'appeler la "meta-p-value"
Je cherche en effet la définition du mot mais il semblerait le terme n'existe pas. Ou en tout cas pas de la façon dont il l'utilise. Car une crédence est apparement un meuble ou plat servant à poser de la vaisselle et verreries. Rien à voir avec le sujet donc même si c'est une métaphore ça ne marche pas. Il faudrait qu'il voit ton commentaire car l'erreur est de taille. D'autant plus lorsque l'on appelle ça un proverbe.
A moins que l'on considére que la crédence est ici le contenant dans lequel on range la théorie mais dans ce cas là autant dire boite, tiroir, sac, coffre,... Bref une phraséologie plus quune citation bien approximative à mon goût si l'on considère qu'elle est valable au sens de la logique. Et même si certains considère cela comme un raisonnement "valable" alors pourquoi Science4All écrit que Schmidt confond vraisemblance et crédence ? Il confond la vraisemblance des résultats avec le contenant de la théorie ? Ca n'a pas de sens. Même en raissonnant de façon ad hoc je n'arrive pas à lui donner raison.
@@realeyes2193 Crédence = crédibilité ou croyance pour Le il me semble. Il utilise souvent des termes qui lui sont propre ou emprunté à ses lectures et qu'il trouve plus utile pour penser certain problème. (comme "hooliganisme" ou "incentive" par exemple)
@@romainchoisy2582 C'est mon point de vue evidemment mais je trouve cela dommage d'utiliser des termes abscons lorsque l'on fait de la vulgarisation. Le but est justement de rendre des concepts difficile plus compréhensible pour la masse. Attention je n'ai rien contre le fait d'utiliser un vocabulaire riche et scientifique. Mais là ça n'est pas du bon français. C'est comme si je disais : "L'amphigourisme de beaux termes n'est pas le salut du savoir #proverbe de la pensée critique“. Je viens de l'inventer ça sonne cool ça sonnerai encore mieux si j' exhibais mes diplômes en science littéraire (argument d'autorité). Et ajoutez à cela le petit "proverbe" pour finir de gagner la cohésion de l'auditoire sur une phrase à peine valable et voila comment on joue au jeu de la démagogie. ^^
Moi, il m'a plus embrouillé qu'autre chose. J'avais déja du mal avec la p-value, mais là c'est la catastrophe. Ce qu'il appel p-value, ça ressemble à 100% à l'erreur de première espèce. Pourtant je suis persuadé qu'en pratique, les deux objets sont différents. Du coup j'vois pas du tout la différence. Aussi, un petit détail, il parle à 1000 reprise de la "CREDENCE D'UNE THEORIE". J'ai pas énormément de vocabulaire, mais je suis persuadé qu'une crédence c'est un meuble italien. J'ai l'impression qu'il confond avec "CREDIBILITEE D'UNE THEORIE". Mais j'suis pas sur. Enfin bref, je chipote. Mais en tous cas ce qu'il appel p-value j'arrive pas à voir la différence avec l'erreur de première espèce.
Super vidéo comme toujours ! Par contre le terme de "crédence" me semble assez difficile à interpréter, on pourrait avoir un peu de détail sur cette opposition Crédence/Vraisemblance (je crois qu'il y a déjà eu un commentaire sur la question un peu plus bas). En tous cas merci pour cette nouvelle série sur Bayes et l'épistémologie, ça manquait vraiment dans le milieu de la vulgarisation :)
Génial ! J'ai rien compris mais c'est passionnant. Enfin, je présume que j'ai rien compris, mais peut-être que je me trompe. Bref, merci de partager de l'info sur tous ces sujets.
Je crois que si tu comprends la formule de Bayes c'est pas hyper compliqué: la p value calcule le terme p(D sachant T), et on fait l'erreur de penser qu'elle calcule p(T sachant D). Ce qui donne à cet indicateur un pouvoir énorme qu'il n'a pas. Du coup il faudrait faire des tests stats avec d'autres jeux de données, et tester des théories alternatives pour espérer calculer une crédence au sens bayésien.
@@gilleschabert8852 Je ne suis aaaabsolument pas sûr de savoir de quoi je parle. D'ailleurs en relisant mon post précédent je le trouve assez péremptoire. Lê est mathématicien, ce que je ne suis pas, et il dit lui-même que la p-value est mal comprise et expliquée par des mathématiciens eux-mêmes, Lê inclus ! Ceci dit il répète du début à la fin son proverbe bayésien préféré, or la "vraisemblance des données", si j'ai bien compris, est p(D sachant T), et la "crédence de la théorie" est p(T), ce qu'il avait expliqué dans des vidéos précédentes (du moins ce que j'en avais retenu). Pour le reste, ce n'est pas un manque de clarté mais des précisions nécessaires pour remettre les énoncés de la presse dans un contexte statistique plus rigoureux.
@@cyrlav7748 Si on veut expliquer ça en quelques phrases c'est vraiment pas mal résumé, c'est un peu simplifié évidemment mais ça donne une bonne idée à un non mathématicien ce qui est le plus important.
Merci infiniment pour cette vidéo ! Elle m'a permis de comprendre la p-valeur plus facilement que d'autres explications. Bonne continuation Ps : t'es vraiment génial mec haha !
Merci pour ce contenu. L'usage erroné de la p-valeur (et des statistiques en général) est l'une des causes les plus probables de la crise de la reproductibilité en sciences. Le sujet est effectivement loin d'être anodin, il est en fait très important et trop peu abordé !
C'eût été plus clair de conserver H0 : l'hypothèse dont on cherche à évaluer la vraissemblance est l'hypothèse nulle (la négation logique de la théorie qui nous intéresse), c'est-à-dire qu'on cherche à évaluer la probabilité du contraire logique de la théorie à démontrer ; autrement dit, on quantifie la probabilité de se tromper. Par exemple, on veut prouver qu'il existe une corrélation entre deux variables A et B, au-delà des hasards de la mesure. On commence par supposer qu'il n'y a pas de corrélation entre deux variables, on pose l'hypothèse nulle H0 : absence de corrélation entre A et B. Si la p-valeur vaut 0.01, cela signifie que la probabilité que H0 soit vraie est de 1%, donc que la probabilité qu'il n'y ai pas de corrélation est de 1%. La probabilité de la négation de l'hypothèse nulle est ainsi de 99% (p-valeur = P(H0) = 0.01 donc P(non-H0) = 1 - 0.01 = 0.99), et la négation de l'hypothèse nulle, c'est l'existence d'une corrélation entre A et B - si on considère le principe du tiers exclu : H0 ou non-H0, l'un des deux évènements doit forcément se réaliser, et l'un exclut l'autre. Donc la probabilité de l'existence d'une corrélation est de 99%. D'où plus la p-valeur est faible, plus la vraissemblance des données est forte. (Et à noter ici qu'on ne considère pas l'ampleur de la corrélation, seulement sa significativité c'est-à-dire la probabilité qu'elle ne soit pas liée à un hasard de mesure.) (Corrigez-moi si je me trompe.) Sinon, j'ai rien compris de la vidéo, à part peut-être que "la p-valeur concerne la probabilité d'une conclusion sachant la théorie vraie" (13:41). Est-ce que ça veut dire qu'on applique le principe du tiers exclu ? Mais que dans la "vraie vie" on ne peut pas être certain de ce principe, qu'il y a toujours la possibilité d'alternatives, d'hypothèses tiers, autres que H0 et non-H0 ? Et l'idée que "la vraissemblance des données ne se confond pas avec la crédibilité de la théorie", est-ce que ça veut dire qu'on distingue l'existence ou non d'une significativité des résultats, avec la théorie elle-même ? Mais alors est-ce qu'il n'y aurait pas une grosse confusion dans la vidéo, qui en fait mélange la p-valeur, qui s'applique pour déterminer la vraissemblance des données, c'est-à-dire l'existence ou non d'une significativité de la mesure (déterminée par rapport à quoi ?), et la "théorie" qui n'a rien à voir avec la p-valeur ? Enfin bref, sachant qu'aucun exemple concret et précis n'est donné dans la vidéo, se contentant d'abstractions, et présupposant d'autres connaissances en mobilisant des concepts définis ailleurs ("la crédence de la théorie"), ça n'aide pas à se représenter les choses, et c'est assez incompréhensible :-/
Merci pour tout le travail effectuer très bien expliquer je trouve je n'en suis pas un spécialiste je n'arriverais pas a le refaire mais en me concentrant du long de la vidéo j'en comprend les conclusions du aux conditions et les dérives qu'elles peuvent avoir si c'est très mal expliqué et donc très mal compris il faudrait que je regarde une nouvelle fois la vidéo voir plus pour vraiment comprendre quand les gens font une erreur a ce sujet, Voilà mon ressenti j'espère qu'il vous aideras et bonne continuation!!
Superbe vidéo Il me semble qu au début tu pourrais également employer le terme conjecture Par ailleurs sur un sujet dérivé il y a le livre "philosophie du renseignement" qui recommande d appliquer les théories de la réfutation pour identifier la désinformation mais sans l outilleur comme toi avec une approche statistique Bravo encore👏
Excellent travail? Moi, il m'a plus embrouillé qu'autre chose. J'avais déja du mal avec la p-value, mais là c'est la catastrophe. Ce qu'il appel p-value, ça ressemble à 100% à l'erreur de première espèce. Pourtant je suis persuadé qu'en pratique, les deux objets sont différents. Du coup j'vois pas du tout la différence. Aussi, un petit détail, il parle à 1000 reprise de la "CREDENCE D'UNE THEORIE". J'ai pas énormément de vocabulaire, mais je suis persuadé qu'une crédence c'est un meuble italien. J'ai l'impression qu'il confond avec "CREDIBILITEE D'UNE THEORIE". Mais j'suis pas sur. Enfin bref, je chipote. Mais en tous cas ce qu'il appel p-value j'arrive pas à voir la différence avec l'erreur de première espèce.
Shark. Sigma il me semble que tu commences cette série par le dernier numéro en date. Pour ce qui est des détails qui te dérangent, lê en parle dans la série dédiée. Si tu ne comprends toujours pas (un peu comme moi) bah... regarde ces autres vidéos (ceci n’est pas un impératif catégorique)
Anecdote. Il y a longtemps, j'avais bossé sur les marchés financiers, et j'y remarquais que les gens utilisaient des outils comme des moyennes mobiles basées sur l'historique des cours, et se mettaient aussi à programmer leurs propres indicateurs; et là pour bien les calibrer ils utilisaient un truc comme la p-value, c'est à dire que l'algorithme devait "englober" ce qui s'était passé précédemment pour être considéré comme valide, on appelait cela "encadrer la volatilité".. et bien ça ne marchait pas, rien ne prédisait les mouvements du marché ni même n'arrivait à les encadrer, même chez les grands professionnels, parce qu'il y avait évidemment un problème de confondre causes et conséquences, les données étaient des conséquences et la théorie( l'algorithme) se basait donc sur le passé pour se valider. Ainsi aucun algorithme ne durait dans le temps, allant toujours à un moment donné "dévier" complètement, il fallait continuellement le réajuster, et des programmes toujours plus gourmands en données voyaient le jour, jusqu'à des réseaux de neurones. Considérations. Dans la nature, il y a toujours une usure, ainsi plus une donnée est ancienne et plus elle est usée, pour autant une donnée neuve est-elle "juste"? on peut comparer avec l'humain, il est nouveau-né, neuf et se mets à grandir puis un jour à vieillir, alors à quel moment de la vie se placerait la théorie voulant modéliser l'humain ? que serait un humain "moyen" selon une théorie avec ses écart-types ?
Exactement. C'est ce qui fait qu'on sur-interprète des modèles. D'où l'importance de les retester avec de nouveaux jeux de données indépendants et un degré de liberté supérieur au nombre de paramètres ajustables.
Tous ces modèles reposent sur l'hypothèse que les données se comporterons dans le futur de la même manière que dans le passé. Cette hypothèse n'est pas faite parce-qu’on pense qu'elle est vrai (en finance et en science humaine on sait qu'elle est fausse) mais parce que les données passés sont les seules qu'on ait pour faire des prévisions. C'est pour ça que dans un environnement mouvant ton modèle doit être tout le temps réactualisé. Plus il y a de temps entre ta période d’apprentissage et ta période de prévision plus il y a de chance pour que l’environnement ait bougé et que ton modèle ne marche plus. Cependant je ne suis pas d'accord pour dire que "dans la nature, il y a toujours une usure des données". C'est vrai souvent dans les sciences humaines mais pas dans les sciences dures. Si tu fais un modèle statistique sur la diffusion de la chaleur en thermodynamique, un modèle sur les mouvement brownien d'une particule, un modèle sur la désintégration des déchets radioactives. Tu verras que ton modèle reste valide même 100 ans après. Conclusion en fait c'est simple soit ton hypothèse de "constance des données" est vrai et dans ce cas si ton modèle converge alors tu n'auras pas de problème d'usure des données. Soit cette hypothèse est fausse dans ce cas la tu considères que sur un court laps de temps ton modèle reste proche de la réalité mais tu dois le réactualiser sans cesse. Le plus souvent ça fonctionne bien car même en sciences humaines les choses évoluent le plus souvent à la manière d'une fonction continue. Mais quand il y a une crise tel que pour les subprimes cela crée des discontinuités. Il devient alors extrêmement naïf de parler d'intervalle de confiance ou de p-value.
@@bernardgouniafier9487 OK, mais, le but d'une nouvelle théorie ou d'un nouveau modèle est justement d'être davantage prédictif. Par exemple de pouvoir prédire crise des subprimes et autres. Si la science ne servait qu'à confirmer ce qu'on sait déjà... Comme dirait Fermi : "si vos données confirment la théorie, alors vous avez confirmé la théorie. Si vos données sont en désaccord avec la théorie, alors vous avez fait une découverte." (sous-entendu : dans le dernier cas, et si les données sont fiables, il faut trouver une meilleure théorie).
Quand on fait un test d'hypothèse, il y a un état avant et un état après le test. On a déjà accepté l'état d'avant puisqu'il est l'état dans lequel on se trouve. Le test permet éventuellement de proposer un argument rationnel pour changer d'état. D'ailleurs, si le test s'avère significatif, on accepte H0. Oui mais jusqu'au prochain test qui nous fera à nouveau changer ou bien qui permettra de raffiner l'hypothèse la plus probable. Autrement dit on est toujours dans l'acception d'une hypothèse. Si vous préférez dire que vous n'acceptez jamais aucune hypothèse et que vous êtes en permanence dans le status quo, comme vous voulez. En rationnalité on appelle ça l'acception.
@@richardspirtz5863 Quand on fait un test d'hypothèse, on rejette H0 ou non. Si on rejette H0, là aussi on accepte ou non H1 et oui... on peut rejeter H0 et ne pas accepter H1 (il existe des cas clairement non tranchés ni pour H0 ou H1). En pratique, on fait ce que vous dite. On rejette l'hypothèse courante pour accepter la nouvelle future hypothèse qui sera elle même éventuellement rejetée avec des nouvelles mesures etc etc...
excellente vidéo, c'est vrai qu'on nous explique pas bien toutes les subtilités de la p-valeur, on sait qu'on l'utilise abusivement pour "valider" des hypothèses mais en pratique on l'oublie
Salut merci beaucoup pour cette vidéo! Je suppose que tu as lu "How not to be Wrong", de Jordan Ellenberg. En tout cas, je le conseille fortement à tes abonnés intéressés par ce sujet. Il se trouve dans ce livre une série d'exemples croustillants sur les travers de la p-value, comme la fameuse étude démontrant que les albinos n'existent pas ou que les saumons morts placés dans un IRM reconnaissent les visages humains. En tout cas, ce sujet est à la fois inquiétant, hilarant, et hautement stimulant! Je profite de ce commentaire pour te remercier infiniment pour toutes tes vidéos qui vont grandement me servir. Je passe le bac spé Maths, en candidat libre cette année de mes 28 ans, pour intégrer une fac de philo et me diriger vers l'épistémologie. Sans le travail de passionnés comme toi, l'accès au savoir serait une toute autre affaire. Tes engagements pour une science juste (et juste) sont très précieux pour notre société.
"La vraisemblance des données n'est pas la crédence de la théorie", j'ai bien compris que tu étais fier de cette phrase expliqué quelques vidéo plus tôt, mais sincèrement, la balancer sans expliquer, ni le rapport, ni en quoi ça s'applique ici, c'est pas incroyable, surtout que le mot crédence n'est pas tellement utilisé, sinon bonne vidéo même si assez compliqué
Hello, suite à la lecture des commentaires, je m'interroge aussi sur le mot crédence, que tu utilises tout le temps, mais dont le sens est est défini dans les dictionnaires uniquement comme un meuble de cuisine. Du coup d'où vient le sens que tu lui attribues ?
Bonjour ! Merci pour toute tes vidéos, excellentes et hyper intéressantes ! J'ai réfléchis longtemps à l’énigme des deux enfants et j'ai voulu faire une petite analyse "Fréquentiste" (de profane, je précise que je ne suis pas du tout mathématicien). J'ai donc fais un tableur pour illustrer les différentes façon de percevoir l’énigme avec un système de jet de dé avec pour résultat "0 = fille" ou "1 = garçon". J'ai une question cependant. Le résultat de 33% attendu ne tombe bien entendu jamais pile sur cette valeur et j'aimerais calculer le seuil correspondant à une certaine p value (par exemple 1%) pour les fluctuation statistique de ce fameux "33%". J'ai en effet beaucoup de mal à comprendre comment se calcule concrètement la p value, et ce, malgré mes recherches sur internet. Je tombe le plus souvent sur des explications très compliquées et je ne comprend pas tout. J'ai cru comprendre que la fonction "loi normale" devrait pouvoir m'aider mais je n'arrives pas à comprendre comment l'utiliser. Merci d'avance à ceux qui accepteront de m'aider ! Voici le lien du tableur : docs.google.com/spreadsheets/d/1SARJNvSnIY_2u1KQbkgza2VA7YrmVO3lU9UFNSfwDTI/edit?usp=sharing
Bonjour Lê. Je suis l'un de vos abonnés et viens simplement vous saluer. Bravo et bonne continuation dans vos projets. "La vraisemblance des données n'est pas la crédence de la théorie" ou ce n'est pas parce que les données semblent vraies qu'il faut apporter du crédit à la théorie car cette dernière peut-être fausse...
" La p-value concerne la probabilité d'une conclusion sachant la théorie vrai, et ça en faite ça ne nous dit pas grand chose de la probabilité de la théorie sachant qu'elle a été rejetée tout ça parce que la vraisemblance des données n'est pas la crédence de la théorie" Merci Science4All
bien jouer pour le référencement de la vidéo car même en la regardant deux fois, la comprendre c'est difficile (alors que d'habitude j'y arrive asser bien en une fois)
Pour ceux qui connaissent il n'y a évidement aucun intérêt nouveau. Vous faites parti des 0,000000000001% de la population ...... heu je plaisante avec les 99,99999999999999999% de probabilité
Pourrais tu commenter sur le role de l'hypothese alternative ? Dans le cas ou l'on test par exemple HO lambda =1 vs H1 lambda =4 pour une lois de Poisson, la defenition de l'hypothèse alternative peut jouer un role important sur la significativité de la p value. Ceci est très different de tester H0 lambda =1 vs H1 lambda est different de 1.
@@Alsh0ck pas besoin de diplôme certes, ce n'est pas ce que je voulais dire, mais de connaissance préalable de méthodologie, et d'habitude de ce style de raisonnement, ça par contre c'est utile et la concentration bien que nécessaire ne saurait les remplacé a elle seul
Cher Lê, je ne sais pas si tu vas poursuivre cette série (à l'heure où j'écris ce commentaire tu es es à l'épisode 52 de la série Bayes, c'est déjà beaucoup et on t'en remercie). Cependant, je tiens à faire ici quelques remarques générales, ayant moi-même enseignés les mathématiques et ayant décidé de "me taper" toute la série... Je trouve cette série à la fois très excitante et un peu pénible. Très excitante, parce que tu aborde des sujets passionnants pour ceux qui s'intéressent aux maths, à la méthode scientifique et aux sciences, et un peu pénible parce que ton enseignement manque de clarté - surtout pour des non-initiés, et encore plus pour des non-lecteurs d'articles. J'ai listé quelques pistes d'améliorations, libre à toi d'en tenir compte. Je comprends que l'ambition de ta chaine (c'est dans le titre :) est de faire un seul et même contenu à la fois pour satisfaire les initiés et les non initiés. C'est ambitieux mais pas impossible, j'apprécie ta démarche et ton engagement, et je t'y encourage. Quelques pistes d'améliorations : éviter les notations bizarres ou confuses qui desservent le propos (surtout quand on aborde un sujet complexe, eg "d rond" pour désigner la borne des queues de distributions, c'est une très mauvaise idée) ; éviter les digressions qui n'apportent rien aux propos (surtout si on aborde un sujet complexe) ; écrire un script (plan de cours détaillé) et essayer de ne pas se disperser, quitte à faire une annexe en fin de vidéo pour aborder des questions ... annexes - type "pour aller plus loin") ; ne pas essayer de tout expliquer ; éviter de mélanger notation US et notation fr (on dit "pee-valiou" ou "paix-valeur", pas "paix-valiou") ; enfin, tu es une personne magnifique mais je ne vois pas l'intéret de te filmer constamment en action - le coté prof à coté de son tableau ? évidemment c'est un choix et un style et je le respecte, et d'ailleurs rien n’empêche de faire pause / rembobiner / passer en vitesse 1/2 ou bien de suivre seulement avec l'audio, cependant je ne suis pas fan car en voulant rendre ton propos plus "vivant" et plus "humain" ça a un effet délétère, en effet ta gestuelle capte forcément en partie l'attention du spectateur et donc l'esprit n'est pas concentré à 100% sur telle formule ou telle citation placé en vis-à-vis, or certains propos nécessitent une bon niveau de concentration pour être compris - en particulier en tenant compte des remarques faites précédemment qui rendent souvent le propos plus difficile à cerner. A part ces micro-remarques (rien de méchant ni d'insurmontable, ce sont des pistes pour améliorer la réception du sujet abordé), tu fais d'énormes efforts pour rendre le propos intéressant, compréhensible et ludique, ce qui est tout à fait louable. Merci pour ta contribution notable et appréciable aux contenus de vulga francophone sur YT, et merci pour ton travail avec Tournesol et bravo pour tes travaux sur la théorie des modèles, et tes travaux sur la sécurité et l'éthique des systèmes fédérés d'apprentissage automatique. Longue vie à science4all !
Bonjour les copains, dans un soucis de bonne compréhension de la vidéo est-ce que qqn pourrait me dire ce que Lê place en abscisse et en ordonnée lorsqu'il parle de sa fameuse courbe en cloche ? (disons qu'ainsi j'aurai peut-être compris un truc à la vidéo) Merci, bonne journée
En abscisse c'est la valeurs des données. En ordonné c'est la densité de probabilité. L'essentiel à retenir c'est que l'aire sous la courbe entre 2 droites verticales correspond à la probabilité que les données soient comprises entre ces 2 valeurs. Exemple : imaginons que la courbe en cloche soit associé à un générateur aléatoire de nombre. En abscisse on a donc la valeur du nombre donnée par le générateur. L'aire totale sous cette courbe est de 1, ce qui fait que la probabilité que la valeur donné par le générateur est entre - infini et +infini est de 1. Si l'on veut connaitre la probabilité que notre générateur sorte un nombre entre 1 et 2, elle est donnée par l'aire sous la courbe prise entre les droites d'abscisse 1 et 2.
Chouette vidéo ! Je "pense" avoir compris... En gros, d'après ce que j'en comprends, la p-value indique la probabilité de trouver des données qui rendraient la théorie fausse ? Mais la confusion vient du fait que "un moins la probabilité qu'une théorie soit fausse" n'est pas du tout égal à la probabilité que la théorie soit vraie... Donc en fait on peut jamais prouver qu'une théorie est vraie, juste qu'il y a très peu de chances qu'elle soit fausse...
Ouais... en encore que SI la théorie est vrai sur la base d'hypothèse valide, tu peu aussi validé statistiquement des hypothèses erroné et donc validé un plantage... d'ou l'importance de faire plusieurs hypothèse, plusieurs expérience...
Pour vulgariser: C'est dans le truc "la vraisemblance des données n'est pas la crédence de la théorie, il voit clair, il appuie sur le bon point! Après voir la sémantique de chaque terme." La crédence de la théorie, c'est l'irréfutable. Ce qui est complexe, donc on le pose sous forme de statistique. Pourquoi complexe. Car dans le monde de la mathématique. On peut travailler dans des dimensions basique, 1, 2, 3, 4,.... 9 on arrive au limite de l'esprit humain. Mais dans le monde de la réalité. L'univers est à n dimension. La fusion de l'eau solide à l'état liquide, se calcule dans la réalité dans un univers à n dimension. Dimension de température, dimension de cinétique, dimension de pression, dimension de champ électrique, dimension de champ magnétique, dimension de gravité, effet tunnel, force de van..., dimension de phénomène interconnecté. Exemple la caléfaction est un phénomène interconnecté (Sans rapport avec la fusion, là on est dans la vaporisation, mais la fusion de l'eau trop complexe pour mes petits neurones). .... Bref aucune théorie n'est irréfutable dans la réalité, car tout dépend du référentiel, dans la relativité restreinte, ça va, dans la générale, on pédale. Ce n'est valable que dans le monde merveilleux et parfait des mathématiques. Le pourquoi on a créé la p value. Un genre de repère turlututu. Tchusss.tu déchires sinon, un tel travail! Wahow! Respect! Meilleurs qu'un buzz d'orange bud!
Super vidéo Lê ! Discuter et préciser le sens de la p-value est fondamental. Juste une question, quand tu parles de « la crédence de la théorie », tu parles de P(T) ou de P(T|D) ?
Ces histoires de p-values, ça permet de voir avec un autre oeil les indices suggérant l'existence d'une 9ème planète très au-delà de Neptune (mais puisque des télescopes assez puissants entrent en service d'ici quelques années, ça permet de faire des paris bayésiens et d'espérer une réponse prochainement).
@Lê corriges moi si je me trompe, est-ce qu'un titre valide aurait pu être "les chercheurs n'ont pas réussi à invalider la théorie du boson de Higgs à plus de 0,0001%" ?
Non ça ne serait pas bayésien... On ne peut rien dire sur la théorie sans invoquer un préjugé. Or la p-value est une information sans préjugé. Un titre (relativement) correct serait "les chercheurs ont trouvé des données très invraisemblables selon la théorie sans boson de Higgs".
@@le_science4all ok je pense avoir compris alors. Mais ton titre je le trouve "mal tourné", je penche plutôt pour "Sans la théorie du boson de Higgs, les données des chercheurs du CERN seraient très invraisemblables"
Super vidéo j'avoue que le bayésianisme ne me convient pas toujours, (notamment quand tu avais fait une conférence pour Vulgarizators, je n'étais absolument pas convaincu par ce que tu disais) mais quand tu appliques ça à l'épistémologie ça prend tout de suite plus de sens pour moi. Ce qui amène une question : ici je trouve qu'il est plus simple de réfléchir de manière bayésienne (et étant donné le nombre d'échantillons auquel on a accès en général selon les sciences c'est parfois trop faible pour qu'une approche fréquentiste soit envisageable) cependant les mêmes objets peuvent être définis avec une approche fréquentiste. Dans ce cas particulier(donc p value et interprétation des résultats d'expériences), si on supposait que le nombre d'échantillons est très important, est-ce que tu as des arguments pour m'expliquer qu'une approche bayésienne est plus forte/adaptée qu'une approche fréquentiste?
Je ne sais plus si j'ai prévu d'en parler. Mais le fréquentisme avec un très grand nombre de données a quand même des aspects bizarres... Par exemple, s'il y a beaucoup de données, alors une p-value à 1% veut avant tout dire que l'hypothèse nulle est quasi-vraie (la taille d' effet est alors très faible).
Superbe vidéo, même si sa complexité ne la rend pas tout publique. Je trouve ça désolant de constaté que cette vidéo serait énormément utile dans le milieu pédagogique pour beaucoup mieux comprendre ce que l'on y suit. Je suis en étude d'éco/gestion et j'ai une matière Etudes des probabilités Statistiques mais je ne crois pas qu'on est jamais réellement définis la p-value ce qui fait que le cours reste "flou" et beaucoup plus difficile à suivre et comprendre. Avec ta vidéo en introduction je suis sûre que ça aurait été beaucoup plus simple.
Est-ce qu'il y aurait pas moyen de créer "l'inverse de la p value" c'est à dire une valeur qui part du principe que la théorie T est fausse, et regarde la probabilité d'obteir des résultats pires que ceux qu'on a eu?
J'ai beau chercher des informations sur ce qu'est la crédence, on me renvoie uniquement vers des sujets autour de la cuisine. Je vois pas ce que la cuisine fait dans cette vidéo
Je t'invite à (re-?)regarder cette vidéo : th-cam.com/video/brm5THIraEM/w-d-xo.html où il explique ce qu'il appelle crédence d'une théorie. En gros c'est le terme P(T|D), qu'on peut interpréter comme le degré de confiance en la théorie.
Merci pour les explications ! cependant, tu ne donnes pas de solutions, comment peut on correctement estimer la crédence d'une théorie ? Y a t-il dautres outil statistiques utiles ?
Tu as changé tes réglages de fond vert ? le détourage est moins bon que d'habitude (juste pour trouver un truc à redire) Très bonne vidéo, faut s'accrocher, mais j'adore
Si je ne m'abuse, la "p-value" est au final *la probabilité que le résultat d'une expérience soit compatible avec une théorie* . *_P.ex. :_* Je tire 10 fois à pile ou face. Soit la théorie "il y a autant de chance de faire pile que face à chaque lancé" (soit proba de "pile" = 1/2, proba de "face" = 1/2), le résultat "théorique" serait 5 "pile" et 5 "face". Or disons que je constate 7 piles et 3 faces. Est-ce vraiment "surprenant" ? Au point de me faire douter de la théorie qu'avec ma pièce, la probabilité de faire pile ou face, en terme de proba _a priori_ à chaque lancé, est bien égale ? La "p-value" nous donne cette probabilité = celle de constater un tel résultat alors même que l'hypothèse est bien vraie. En l'occurrence (si je ne m'abuse) p = 0,17. Donc 17% de chance d'obtenir un tel résultat si ma pièce est effectivement équilibrée. A peu près 1 chance sur 6. Ce qui n'a rien d'incroyable ; il suffit d'avoir déjà joué aux petits chevaux pour savoir qu'arriver à un résultat qui n'a "que" 1 chance sur 6 de se produire n'est heureusement pas exceptionnel ;) . Maintenant je tire 100 fois à pile ou face. J'obtiens 70 piles et 30 faces. Les proportions sont inchangées par rapport à l’expérience précédente des 10 lancés, mais intuitivement on sent que ça coince ... Mieux que l'intuition, *la p-value nous donne une mesure objective de la vraisemblance de la théorie initiale confrontée à l'expérience* . En l'occurrence, la probabilité que la pièce soit effectivement équilibrée devant un tel résultat tombe à p = 0,00005 ... soit *0,005%* ! (1 chance sur 20 000) Là c'est plus le même délire. La pièce n'est vraisemblablement *pas* équilibrée (= on a de bonnes raisons de rejeter l'hypothèse de départ (l' "hypothèse nulle") devant un tel constat). A NOTER (en passant :P) que ce rejet peut mener à une conclusion *fausse* , car en fait l'expérience ne teste pas _que_ l'équilibre de la pièce, mais un ensemble de conditions expérimentales. C'est là que ça se corse, parce qu'une différence très significative ne veut pas forcément dire une mise en échec de l'hypothèse de départ, peut-être simplement le protocole expérimental ne la teste pas correctement ;) . D'où le caractère *crucial* du bon épluchage des "matériels et méthode" d'une publi scientifique, et le passage en revue minutieux des résultats sur les autres paramètres que celui d'intérêt (car y relever des aberrations inattendues est signe que des facteurs confondants ce sont introduits dans l'expérience, exposant à un risque de résultat simplement ininterprétable, tout rutilant soit l'infinitésimalité du "petit p" revendiqué).
J’ai juste une question qui me tourmente depuis un moment en statistique, comment est ce possible que nous estimons nos données à l’aide d’une loi de type normale mais que nous avons besoin de ces même données pour déterminé la loi qu’elle suivent?? J’ai l’impression que c’est un peu le serpent qui se mort la queue ou peut être que je me trompe.
Super l'explication de la p-value ! Faut la penser, la méditer et la reméditer , même pour les initiés, je pense. Et quelle proportion accordait à la vraisemblance des données par rapport à la crédence de la théorie ? Et quelle crédence a cette vraisemblance ? Faut-il, du coup, en accordait une ? Ha oui, mais comment réfuter en étant vraiment sur, alors ? La p-value,c' est mieux que l'absence de p-value, mais cela peut ne pas être totalement satisfaisant. Comment on fait alors ? Dur, dur, la migraine là...
Ah la la et je viens d’avoir partiel de test statistiques aujourd’hui tu aurais du la sortir hier cette vidéo car j’en ai eu des p-valeur à calculer 🤣🤣🤣 en tout cas merci !!
Bonjour tout le monde, Merci beaucoup pour cette vidéo Lê ! J'ai entrepris des études de médecines et je pense faire typiquement parti de ces personnes qui interprètent très régulièrement des p-value sans en comprendre le sens😁. Même si je sens bien que je suis très loin d'avoir bien compris toutes les implications et que j'ai encore beaucoup de chose à apprendre cette vidéo a vraiment créée une rupture sur le manière que j'avais d'appréhender cette donnée. Vivement le suite 😉. (Par contre j’ai un concours dans 20 jours et maintenant je suis plus du tout sûr de comprendre pleinement la p-value^^) Petite question pour ceux qui auraient compris plus loin que moi. J’essaye d’appliquer à ce que je croise quand je lis des études: Les études que je lis comparent souvent deux traitements (T1 et T2) et leurs effets sont mesurés grâce à un jeu de données D1 pour T1 et D2 pour T2 en général avec cette forme : Hypothèse H0 : les deux traitements sont aussi efficaces l’un que l’autre soit D1/D2=1 Hypothèse H1 : il y a une différence d’efficacité entre les deux traitements soit D1/D2 # 1 Seuil = 5 % Donc si j’ai pas trop compris de travers : *Si on mesure D1/D2 # 1 avec p=0,05 alors on peut dire que si H1 est vraie alors cette donnée a 5 % de chance de la réfuter. → Ceci serait un interprétation correcte de la p-value. *Par contre j’avais aussi l’habitude de comprendre dans cette situation que la probabilité que H1 soit quand même fausse malgré ces données était de 5 %.→Ceci est une mauvaise interprétation de la p-value car cette dernière est définie pour H1 vraie et n’est donc pas informative pour les situations où H1 fausse. Merci 😊.
Existe t il des cas dans lesquels la distribution de la densité de probabilité ne suit pas une loi normale ? Et d ailleurs pourquoi en suit elle une ? Cela a t il un rapport avec le théorème central limite ou est ce hors sujet ?
si je fais un test d'égalité de proportions par exemple et que je dis que je veux savoir si la différence entre les proportions est significative (au sens français du terme) est-ce faux?
Pour ceux qui ont lu le livre, y'a comme un air de déjà vu ... x) sinon j'ai un questionnement vis-à-vis de la p-value : j'ai bien compris qu'il fallait une courbe de gauss pour la calculer mais peut-on construire la courbe avec n'importe quelle donnée ? C'est là que pige pas. Comment peut-on placer les résultats du LHC sur une courbe de gauss ? Quelles données ils utilisent (et/ou transforment) ? La chaîne "La statistique expliquée à mon chat" montre l'exemple avec des lancers de dés, ok c'est évident que l'on puisse tracer une courbe de gausse sans problème mais pour le reste ... merci pour ta ou vos réponses, si plusieurs personnes souhaitent y répondre.
Merci pour cette vidéo. La p-value était une chose floue conceptuellement pour moi. Je pense avoir enfin bien saisi le concept. Et oui même en Centrale Paris je crois que mon prof de math/stat était pas tout à fait au point dessus (ou c'est juste moi, surement d'ailleurs, et c'était y'a 15 ans). A noter qu'à la première lecture de la vidéo, au premier tiers, j'ai juste penser (à tord) que c'était juste la loi des grand nombre/loi normale, les distributions gaussiennes...etc...etc....on connais tous. Puis je me suis dis que c'était pas possible que ce soit un truc aussi simple pour qu'un doctorant en math admette avoir eu du mal à saisir le concept. J'ai dû regarder 5 fois la vidéo et je pense avoir saisi le tuc.....en tout cas j'ai touché le concept et va falloir que je le laisse mûrir en moi (comme la relativité générale et la physique quantique.....au delà des équations c'est le concept qu'il est difficile à approcher).
Je travaille dans les statistiques en assurance. Je confirme que + de 80% de mes collègues qui font des stats comprennent mal et utilisent mal la p-value. Il prennent les résultats des tests pour argent comptant sans réflexion ni analyse. Comme si le fait d'avoir une p-value les dispensaient de réfléchir à la signification du test effectué.
Ce n'est pas parce que le critère de réfutabilité est vu comme nécessaire qu'il est suffisant, et notamment que l'activité scientifique se restreindrait à réfuter des théories. Le critère de Popper n'est que l'exigence que les théories soient compatibles avec les données. Il est souvent aussi requis que les théories soient originales (ce qui évite les hypothèses ad hoc), c'est à dire qu'elles ne se contentent pas d'organiser les données existantes mais prédisent aussi des observations inédites. Cela correspond à l'exigence bayésienne de prédiction des données à partir des théories, avec évidemment l'avantage que l'approche bayésienne est quantitative. En somme, je ne comprends pas pourquoi tu associes le popperisme avec le fréquentisme, alors que le bayésianisme est la version quantifiée du poppérisme...
avec mes cours de statistiques que j'ai en école d'ingé c'est deja pas tout a fait évident a comprendre, alors je veux bien comprendre que certains moldus veuillent que ce soit vulgarisé :'( très interessant!
Résumé rapide: On a une théorie T, et des données récoltées D. On peut calculer une valeur appelée *p-value* qui correspond à la vraisemblance des données D *dans le cadre de la théorie T SUPPOSÉE vraie.* Donc si cette *p-value* est suffisamment faible (seuil fixé) on peut rejeter la théorie T. MAIS : la vraisemblance des données n'est pas la crédence de la théorie (ex: théorie de gravitation universelle d'Isaac Newton vs relativité générale d'Albert Einstein; les données récoltées sur la surface terrestre valide LES DEUX théories à très peu de choses près pourtant on sait bien que l'une décrit bien plus de phénomènes correctement que l'autre…)
Très bonne vidéo, ai-je trouvé, cher Lê ! 8-) J'ai notamment apprécié que tu aies pris soin de souligner que, si la p-valeur est effectivement l'objet de bien des abus et confusions, ça n'en reste pas moins un outil très intéressant et dont l'invention a marqué un grand progrès scientifique… Concernant le critère de réfutabilité de Popper que tu évoques, j'avais trouvé particulièrement intéressante la vidéo de Monsieur Phi sur le sujet (Grain de Philo #22) où il soulignait comme ce très pertinent critère avait, tout comme la notion de p-valeur, tendance à être interprété de façon caricaturale et in fine erronée… Peut-être pourrais-tu ajouter un lien vers cette vidéo ? (encore que, cela s'éloignerait peut-être un peu trop du sujet traité… :-S). En tout cas, bravo pour cette vidéo très réussie sur un sujet particulièrement subtil à traiter dans un tel format de vulgarisation en 10 minutes ! :-D
Oui, je reparlerai plus longuement de ce dont a parlé Mr Phi, car en effet, c'est très important pour bien comprendre le degré de validité des sciences 😉
Au niveau 7'09'' vous dites que "D est hautement invraisemblable (ou improbable) si la probabilité des données extrêmes (sachant T) est très faible. N'est-ce pas le contraire ?
C'est un anglicisme. Lé en fait beaucoup. Il faut comprendre "crédibilité". Il utilise aussi incentives à la place de "motivations". Ça m'agace au plus haut point mais ça n'enlève rien à la qualité du propos...
@@michelq6548 Pour moi , je n'ai plus qu 'a aller voir ailleurs . Car cette erreur est martelée par les mots et par l’écrit , des dizaines de fois et c'est me semble t il un des points forts de l'analyse , qui m’échappe . Que penser d'un penseur qui laisse passer des erreurs aussi grossières et aussi lourdes de conséquences ? Pour moi , je ne perdrai plus de temps sur ce site pourtant sympathique .
@@lotrelotre4689 C'est y aller un peu fort. Pour sa défense Lê fait aussi des conférences en anglais ! Alors oui l'erreur se répète, il faut faire la subtitution à chaque fois...
Moi, il m'a plus embrouillé qu'autre chose. J'avais déjà du mal avec la p-value, mais là c'est la catastrophe. Ce qu'il appel p-value, ça ressemble à 100% à l'erreur de première espèce. Pourtant je suis persuadé qu'en pratique, les deux objets sont différents. Du coup j'vois pas du tout la différence. Aussi, un petit détail, il parle à 1000 reprise de la "CREDENCE D'UNE THEORIE". J'ai pas énormément de vocabulaire, mais je suis persuadé qu'une crédence c'est un meuble italien. J'ai l'impression qu'il confond avec "CREDIBILITEE D'UNE THEORIE". Mais j'suis pas sur. Enfin bref, je chipote. Mais en tous cas ce qu'il appel p-value j'arrive pas à voir la différence avec l'erreur de première espèce.
En plus de ce que tu viens de dire il faut en plus ajouter les hypothèses faites pour pouvoir calculer les probabilités. Notamment la distribution de la statistique étudiée que l on suppose par exemple normale. On a au moins le théorème limite centrale pour aider dans certains cas mais souvent ces verifications et précautions quant aux conclusions sont oubliées.
D'où une cause majeure de surinterprétation (validation d'un modèle pourtant faux). Prenez un modèle hypersophistiqué (du genre : formule avec 12 paramètres ajustables), et trois ou quatre données. Ajustez les 12 paramètres à vos données. Bingo : régression géniale, p-value hyper-faible. Cela veut juste dire que si votre modèle est vrai, alors la probabilité que les données collent au modèle est grande. Pourtant, la probabilité que le modèle soit vrai est en fait proche de zéro dans ce cas précis... Mais Lê : admettez que ce genre d'exemple reste rare : on fait gaffe à tout un tas de précautions : quand j'étais jury de thèse, je retoquais systématiquement des modèles qui avaient davantage de paramètres ajustables que de jeux de données indépendants (erreur de degrés de liberté...) ET je demandais à ce que les étudiants arrêtent de coller systématiquement une interprétation phénoménologique à un calage purement statistique sans indice phénoménologique (bref : sans découverte phénoménologique, un paramètre ajusté n'est qu'un paramètre). Certes, pas mal de mauvaises publis passent au travers des mailles du filet, mais quand même : admettez que les fréquentistes ne sont pas si débiles. Ils sont aussi bayésiens, en réalité.
Au niveau thèse, il y a vraiment des étudiants qui présentent des modèles avec plus de paramètres qu'il n'y a de données ? C'est extrêmement inquiétant, c'est l'une des premières choses que l'on apprend dans des cursus de qualité en statistiques. Théoriquement c'est une aberration et même empiriquement, il me semble que nombreux sont les logiciels qui envoient des messages d'erreur au moment d'estimer les paramètres desdits modèles...
@@SydnoBushido En effet, même si en général c''est presque tout le temps corrigé à la relecture (ça ne passe pas le manuscrit définitif). Par contre, j'ai déjà vu des modèles ajustés sur un jeu de données certes un peu plus grand que leur nombre de paramètres ajustables, mais sur un seul jeu de données. Sans tester avec un seul autre.
Y-ai-il eu des études empiriques sur le sujet ? Par exemple, en inversant l'approche, en partant d'une T connue et acceptée. Si "crédence T", nous pourrions constater la p-value pour cette T : par exemple pour le Boson de Higges 99,9999%. Nous pourrions réaliser cette constatation pour plusieurs théories T, et toutes leurs "crédence", et rechercher leurs p-values si on les connaît. Normalement, on les connaît. Nous pourrions alors voir si les valeurs de ces p-values sont proches ou pas; réfléchir à l'idée d'en faire une moyenne; voir si en appliquant cette moyenne de p-value trouvée, on valide la crédence T. De telle façon à obtenir une sorte d'indice qui nous dirait qu'à chaque fois qu'on obtient une p-value égale ou très très proche de cette moyenne des p-values obtenue concernant les crédences de multiples T, nous pourrions donc en conclure la crédence de cette nouvelle théorie T. Peut-être pas pour éliminer nécessairement la recherche de la p-value en cours, mais pour donner un indicateur de p-value d'autant plus fort si le nombre de p-values concerne un grand nombre de crédence en des théories nT pour construire cette "p-value moyenne".
ERRATUM : Popper est mort en 1994 et non pas en 1914.
Bonjour,
Peux tu préciser la définition de "crédence de la théorie"?
f h
La crédence (de l'italien credenza, « croyance ») est un meuble, ou partie de buffet, où l'on range et expose la vaisselle, les plats précieux et les objets servant pendant le repas.
De nos jours, ce terme désigne également, dans une cuisine, la partie du mur située entre le plan de travail et les meubles hauts. Généralement recouverte de faïences ou d'inox, elle permet de protéger la paroi des éclaboussures d'eau à l'arrière de l'évier et de graisse à l'arrière de la plaque de cuisson.
Le terme désigne également une table où l’on pose les objets nécessaires au culte dans la religion catholique.
De rien 😇
Par adaptation, il s’agit d’un meuble où l’on range la théorie 🤷♂️
@@maximed9957
Je connais cette définition. WOUHAHHAHAHAHAAHAHHAHA
Essaye de regarder ses premières vidéos ou les vidéos d'hygiène mentale pour comprendre, mais je pense qu'il faut attendre la fin de la série pour espérer mieux comprendre la crédence de la théorie, qui est le résultat de la formule de bayse ^^
Personne ne connaitrait une chaine qui vulgarise les propos de Lê !? Si oui cela m 'intéresse grandement
LOL :-D
Oui c'est science4all4all
Pour la p-value (et la vulgarisation statistique en général) celle-ci est pas mal : th-cam.com/video/xVIt51ybvu0/w-d-xo.html
@@Tibo243 merci, en effet c'est une très bonne chaine et beaucoup plus facile d’accès, malheureusement elle ne traite qu'une infime parti des sujet abordé par science4all
Y'a son livre aussi ! Dans un format écrit on peut prendre un peu plus le temps de comprendre.
Apprenti-statisticien, je suis en plein milieu du sujet que vous traitez. J'ai trouvé la vidéo intéressante mais très théorique et assez difficile d'accès pour qqn qui ne sait pas ce qu'est la p-valeur. J'aurais aimé plus d'exemples : notamment des cas de faux positifs ou de théories fausses avec des p-valeurs très faibles.
Waw, merci pour cette pièce bien complète sur la p-value qui finira à n'en pas douter dans moult descriptions de mes vidéos !
Salut ! Petite coquille à 3:25 : Popper est mort en 1994 et non pas en 1914 🙂
Je me disais bien qu'il était mort bien jeune
Mort à douze ans, quelle tristesse. Un sacré génie.
Si lire "statistiquement significatif" te fait grincer des dents, alors n'ouvre surtout pas un bouquin de maths de TS ou de TES ! On y trouve des intervalles de fluctuation asymptotiques à gogo avec prise de décision sans jamais appeler les choses par leurs noms (risque de première ou de seconde espèce) et même des théorèmes faux ! (voir le papier de Daniel Perrin sur le sujet).
Fiufff heuuu..?
Tjrs l une des meilleures vidéos en stats !
Bravo
Après 4 ans elle est tjrs utile !
Jeune doctorant en sciences, j'attendais cette vidéo (et les suivantes ! ) avec impatience pour être sur de ne pas dire trop de bêtise dans la suite de mon travail xD
Excellent vidéo, excellente série, comme d'hab'
😂 😂 😂 Et j viens d finir la music de Wale ft Lloyd Sabotage Love et j'ai fait le même constat.
DAB
Tes vidéos sont vraiment d'une grande qualité et d'une grande profondeur.
Je suis dans le monde de la recherche et de la vulgarisation depuis plusieurs années, et jamais je n'ai vu quelqu'un qui avait aussi bien compris et l'incompréhensible.
Merci
Super vidéo comme d’hab. Mais lê, tu nous avais habitué à nous donner plus d’exemple concrets pour illustrer tes théories. Je veux bien un épisode de plus avec des exemples de p-value et des théories fausses avec des erreurs de raisonnement scientifique ...
c'est clair que des exemple ca aiderait a comprendre mieux de quoi on parle, parce que la je crois qu'on est un certain nombre completement perdu
meilleure vidéo que j'ai vue sur le sujet. je suis en école d'ingénieur et notre prof de stats (parti pour raisons personnelles) nous avait fait une présentation similaire. son travail de recherche est la relecture de thèses en maths appliquées. étant donné la barrière de langue (prof taiwanais parlant anglais), peu d'étudiants ont réussi à saisir l'importance d'ajouter d'autres valeurs statistiques pour pouvoir choisir si on fait confiance ou pas en la théorie.
J'ai rien compris à part que c'était dur à comprendre, mais c'était super intéressant 😁
C'est un manière compliquée de dire que si tu as une hypothèse T, et une expérience qui peut rejeter cette hypothèse T, le fait que les données observées soient au dela du seuil de vraisemblance fixé par D démontre que ta théorie T a x% de chances d'être fausse. Par contre si tes données sont en-deça du seuil D, cela ne démontre en aucun cas que T est vraie, simplement que **les données observées sont compatible avec T et ne la rejettent pas**.
Une théorie scientifique selon Popper, c'est le fait qu'on puisse inventer une expérience dont les observations permettent de rejeter une hypothèse (et non pas de la démontrer, comme en mathématiques), et le test de Fisher est l'instrument statistique qui permet de conclure si les données observées rejettent T ou non.
Alors pourquoi est-ce que Le Monde a titré que le boson de Higgs est confirmé à 99,9999% ? Parce que les données sont compatibles avec la théorie de l'existence du boson. Mais ce qui est intéressant, c'est que cette hypothèse est une *prédiction*: les physiciens ont prédit l'existence du boson, et on construit une expérience qui a permis de détecter pour la première fois des événements particuliers compatibles avec cette existence. C'est une hypothèse beaucoup plus forte qu'enregistrer des observations et essayer de bâtir une théorie a posteriori qui explique ces observations. De la même manière, la théorie de la relativité a été considérée comme vraie après qu'Einstein ait fait la prédiction que le mouvement de Mercure suivait un certain motif que personne n'avait remarqué auparavant et que la théorie de Newton ne pouvait expliquer. Cette prédiction a été confirmée par les observations d'Eddington, ce qui a été la première confirmation de la relativité d'Einstein.
th-cam.com/video/SPcYt9PVCtM/w-d-xo.html
Belle vidéo. Un peu difficile. Il faut que je médite un peu...
th-cam.com/video/SPcYt9PVCtM/w-d-xo.html
La vraisemblance des données n'est pas la crédence de la théorie. Wé oké je crois que j'ai copris maintenant ^^
Merci. Superbe vidéo comme toujours!!
j'étais en train bosser l' économétrie avec ma belle soeur APRES avoir vu ta série bayésienne, et au moment où j'aborde la partie des tests d'hypothèse F (et t d'ailleurs) je me suis dit : une minute, la vraisemblable sous H0 du coefficient des MCO observé sur mon échantillon, n'est pas la crédence de H0! je n'ai ni la plausibilité à priori de H0 , ni la vraisemblable de mon estimateur sous l' hypothèse alternative, pour réévaluer la crédence de H0 sachant la valeur observée de mon estimateur .Et là, lumière, je repasse sur cette vidéo et je comprends enfin! Gloire à toi merci !
je valoriserais déjà H0 à 0,5. Gros problème pour la vraisemblance sous les hypothèses alternatives, ça doit bien être pour ça qu'on s'arrête à la vraisemblance sous H0 😅
Vraiment une de tes vidéo les plus importantes !
Toujours cool tes vidéos! J'ai l'impression que tes vidéos précédentes m'ont bien aidé à comprendre la P-value.
OK mais du coup est-ce qu'on peut dire que la vraisemblance des données c'est un peu comme la crédence de la théorie ?
Non parce que si je comprends bien ce que Lê essaie de dire, les données peuvent être très vraisemblables sans que la théorie qui correspond à ces données ne le soit
admettons que tu lance un dé à six faces 3 fois. ton tu tombe 3x sur la face 6. tu peux dire : toutes les faces ont le chiffre 6 (et dans ce cas p(résultat sachant seul face 6) = 1 les données sont très vraisemblable (vrai semblable = qui semble vrai)
Cependant, si ton dé est parfaitement équilibré et à 6 faces, alors la probabilité d'obtenir ce résultat est 1/216 (comme par ailleurs toutes les autres suites si tu prend en compte l'ordre de sortie) cette théorie, bien que peu vraisemblable est plus crédible, vu que tu as lancé le dé
Non si j'ai bien compris la vraisemblance des données n'est pas la crédence de la théorie
2:59 j'ai déjà dit 200 fois "mais putain c'est quoi la p-value" devant mon écran. 3:00 je me calme, ça va mieux. Superbe vidéo pouce bleu.
A bon? Tu trouves? Bè moi, il m'a plus embrouillé qu'autre chose. J'avais déja du mal avec la p-value, mais là c'est la catastrophe. Ce qu'il appel p-value, ça ressemble à 100% à l'erreur de première espèce. Du coup j'vois pas du tout la différence. Aussi, un petit détail, il parle à 1000 reprise de la "CREDENCE D'UNE THEORIE". J'ai pas énormément de vocabulaire, mais je suis persuadé qu'une crédence c'est un meuble italien. J'ai l'impression qu'il confond avec "CREDIBILITEE D'UNE THEORIE". Mais j'suis pas sur. Enfin bref, je chipote. Mais en tous cas ce qu'il appel p-value j'arrive pas à voir la différence avec l'erreur de première espèce.
@@sharkserberus je n'ai pas le terme non plus pour moi la crédence c'est un type de carrelage, mais je passe peut-etre trop de temps chez Castorama en ce moment...
Ça semble venir d'un anglicisme en.wikipedia.org/wiki/Credence_(statistics) @@sharkserberus
On fait les malins à chipoter mais si on me demande d'expliquer la p-value simplement à la caisse de Castorama je vais avoir deux trois goutes de sueur. @science4All ça manque peut être d'un petit exemple de type Gérard a 3 billes, il en prête 2 à Germaine etc... ( Oui mon exemple se passe dans une maison de retraite). Quoi qu'il en soit voilà ce que j'en ai compris : Si on cherche à prouver l'âge de Zinedine Zidane via une théorie (ou un algo) T, qu'on l'applique sur les données D des âges et du nombre de personnes actuellement vivantes sur terres afin de tester la théorie T (ce qui va me donner une sorte de courbe en cloche pas tout à fait réguliere mais avec des extrémités contenant peu d'individus comme les exemples). Alors si ma Théorie T tombe sur mettons la nouvelle Jeanne calment (je ne sais pas qui est la nouvelle du coup du coup) ou sur un bébé qui vient de naître, alors la théorie est hautement improbable car son application renvoie à des résultats qui résultent d'abératons. On sait tous évidemment que Zidane est un dieu, il n'a par définition pas d'âge. Bon c'est ce que j'en ai retiré, je me plante peut-être.
Je suis en fin de L3 math appliquées et je ne savais pas que la notion de p-value était aussi importante en science .
Il faut ,car c'est sûrement important que je pige bien la différence entre Credence et vraissemblance.
Par crédence , tu entends, crédibilité ?
Superbe vidéo ! Je m'attendais à ce que tu enchaines sur les travaux de Neyman-Pearson, dommage ;) Superbe vidéo
Toujours aussi excellent. J'ai beau être statisticien (en formation), je passe toujours du temps à me triturer le cerveau pour recomprendre la p-value.
Encore médecine, elle a une grande force dans le sens où elle permet l'innovation. La p-value est permissive, et elle a permis la mise sur le marché de médicaments qui ont ensuite été suivi. Le problème c'est qu'il y a donc sur le marché des médicaments inefficaces (parfois depuis des décennies).
Non. Il n'y a pas que des arguments statistiques dans les études. Plus le fait qu'il n'y a pas qu'une seule étude pour un médicament.
@@richardspirtz5863 J'ai pas compris
Super, hâte de voir les prochaines
Bon, si je comprends bien, pour affiner les résultats donné par la p-value, il va falloir qu'on pense à inventer une p-value de la p-value elle-même. Je propose de l'appeler la "meta-p-value"
Il va falloir aussi créer une méta méta P-value?
Crédence n'existe pas en français. Enfin je ne l'ai jamais rencontré. Crédibilité, ou vraisemblance me parait plus approprié.
Je cherche en effet la définition du mot mais il semblerait le terme n'existe pas. Ou en tout cas pas de la façon dont il l'utilise. Car une crédence est apparement un meuble ou plat servant à poser de la vaisselle et verreries. Rien à voir avec le sujet donc même si c'est une métaphore ça ne marche pas.
Il faudrait qu'il voit ton commentaire car l'erreur est de taille. D'autant plus lorsque l'on appelle ça un proverbe.
A moins que l'on considére que la crédence est ici le contenant dans lequel on range la théorie mais dans ce cas là autant dire boite, tiroir, sac, coffre,... Bref une phraséologie plus quune citation bien approximative à mon goût si l'on considère qu'elle est valable au sens de la logique. Et même si certains considère cela comme un raisonnement "valable" alors pourquoi Science4All écrit que Schmidt confond vraisemblance et crédence ? Il confond la vraisemblance des résultats avec le contenant de la théorie ? Ca n'a pas de sens. Même en raissonnant de façon ad hoc je n'arrive pas à lui donner raison.
@@realeyes2193 Crédence = crédibilité ou croyance pour Le il me semble. Il utilise souvent des termes qui lui sont propre ou emprunté à ses lectures et qu'il trouve plus utile pour penser certain problème. (comme "hooliganisme" ou "incentive" par exemple)
Et il l'explique au début de la série il me semble :)
Edit : Episode 3
@@romainchoisy2582 C'est mon point de vue evidemment mais je trouve cela dommage d'utiliser des termes abscons lorsque l'on fait de la vulgarisation. Le but est justement de rendre des concepts difficile plus compréhensible pour la masse. Attention je n'ai rien contre le fait d'utiliser un vocabulaire riche et scientifique. Mais là ça n'est pas du bon français. C'est comme si je disais : "L'amphigourisme de beaux termes n'est pas le salut du savoir #proverbe de la pensée critique“. Je viens de l'inventer ça sonne cool ça sonnerai encore mieux si j' exhibais mes diplômes en science littéraire (argument d'autorité). Et ajoutez à cela le petit "proverbe" pour finir de gagner la cohésion de l'auditoire sur une phrase à peine valable et voila comment on joue au jeu de la démagogie. ^^
encore une fois, c'est intéressant mais vraiment trop compliqué pour des non-matheux !
Yes enfin une bonne vidéo sur la p-value merci! plus qu'à regarder cette vidéo deux trois fois pour avoir une base ^^'
Moi, il m'a plus embrouillé qu'autre chose. J'avais déja du mal avec la p-value, mais là c'est la catastrophe. Ce qu'il appel p-value, ça ressemble à 100% à l'erreur de première espèce. Pourtant je suis persuadé qu'en pratique, les deux objets sont différents. Du coup j'vois pas du tout la différence. Aussi, un petit détail, il parle à 1000 reprise de la "CREDENCE D'UNE THEORIE". J'ai pas énormément de vocabulaire, mais je suis persuadé qu'une crédence c'est un meuble italien. J'ai l'impression qu'il confond avec "CREDIBILITEE D'UNE THEORIE". Mais j'suis pas sur. Enfin bref, je chipote. Mais en tous cas ce qu'il appel p-value j'arrive pas à voir la différence avec l'erreur de première espèce.
Super vidéo comme toujours ! Par contre le terme de "crédence" me semble assez difficile à interpréter, on pourrait avoir un peu de détail sur cette opposition Crédence/Vraisemblance (je crois qu'il y a déjà eu un commentaire sur la question un peu plus bas). En tous cas merci pour cette nouvelle série sur Bayes et l'épistémologie, ça manquait vraiment dans le milieu de la vulgarisation :)
Génial ! J'ai rien compris mais c'est passionnant. Enfin, je présume que j'ai rien compris, mais peut-être que je me trompe. Bref, merci de partager de l'info sur tous ces sujets.
Va voire hygiène mentale y fait aussi des vidéos sut le bayesinannisme
J'me sens un peu idiot en écoutant tes vidéos mais ça m'intéresse et j'essaie de retenir le maximum
Je crois que si tu comprends la formule de Bayes c'est pas hyper compliqué: la p value calcule le terme p(D sachant T), et on fait l'erreur de penser qu'elle calcule p(T sachant D). Ce qui donne à cet indicateur un pouvoir énorme qu'il n'a pas.
Du coup il faudrait faire des tests stats avec d'autres jeux de données, et tester des théories alternatives pour espérer calculer une crédence au sens bayésien.
@@cyrlav7748, si ce que vous dîtes est vrai, alors vous êtes infiniment plus clair que M. Lê!
@@gilleschabert8852 Je ne suis aaaabsolument pas sûr de savoir de quoi je parle. D'ailleurs en relisant mon post précédent je le trouve assez péremptoire. Lê est mathématicien, ce que je ne suis pas, et il dit lui-même que la p-value est mal comprise et expliquée par des mathématiciens eux-mêmes, Lê inclus !
Ceci dit il répète du début à la fin son proverbe bayésien préféré, or la "vraisemblance des données", si j'ai bien compris, est p(D sachant T), et la "crédence de la théorie" est p(T), ce qu'il avait expliqué dans des vidéos précédentes (du moins ce que j'en avais retenu).
Pour le reste, ce n'est pas un manque de clarté mais des précisions nécessaires pour remettre les énoncés de la presse dans un contexte statistique plus rigoureux.
@@cyrlav7748 Si on veut expliquer ça en quelques phrases c'est vraiment pas mal résumé, c'est un peu simplifié évidemment mais ça donne une bonne idée à un non mathématicien ce qui est le plus important.
Idem
Si seulement tu avais été mon prof d'inférence statistique et d'économetrie, je n'aurais pas galéré à suivre ces cours.
Merci infiniment pour cette vidéo ! Elle m'a permis de comprendre la p-valeur plus facilement que d'autres explications. Bonne continuation
Ps : t'es vraiment génial mec haha !
Merci pour ce contenu. L'usage erroné de la p-valeur (et des statistiques en général) est l'une des causes les plus probables de la crise de la reproductibilité en sciences. Le sujet est effectivement loin d'être anodin, il est en fait très important et trop peu abordé !
C'eût été plus clair de conserver H0 : l'hypothèse dont on cherche à évaluer la vraissemblance est l'hypothèse nulle (la négation logique de la théorie qui nous intéresse), c'est-à-dire qu'on cherche à évaluer la probabilité du contraire logique de la théorie à démontrer ; autrement dit, on quantifie la probabilité de se tromper.
Par exemple, on veut prouver qu'il existe une corrélation entre deux variables A et B, au-delà des hasards de la mesure. On commence par supposer qu'il n'y a pas de corrélation entre deux variables, on pose l'hypothèse nulle H0 : absence de corrélation entre A et B. Si la p-valeur vaut 0.01, cela signifie que la probabilité que H0 soit vraie est de 1%, donc que la probabilité qu'il n'y ai pas de corrélation est de 1%. La probabilité de la négation de l'hypothèse nulle est ainsi de 99% (p-valeur = P(H0) = 0.01 donc P(non-H0) = 1 - 0.01 = 0.99), et la négation de l'hypothèse nulle, c'est l'existence d'une corrélation entre A et B - si on considère le principe du tiers exclu : H0 ou non-H0, l'un des deux évènements doit forcément se réaliser, et l'un exclut l'autre. Donc la probabilité de l'existence d'une corrélation est de 99%. D'où plus la p-valeur est faible, plus la vraissemblance des données est forte. (Et à noter ici qu'on ne considère pas l'ampleur de la corrélation, seulement sa significativité c'est-à-dire la probabilité qu'elle ne soit pas liée à un hasard de mesure.)
(Corrigez-moi si je me trompe.)
Sinon, j'ai rien compris de la vidéo, à part peut-être que "la p-valeur concerne la probabilité d'une conclusion sachant la théorie vraie" (13:41). Est-ce que ça veut dire qu'on applique le principe du tiers exclu ? Mais que dans la "vraie vie" on ne peut pas être certain de ce principe, qu'il y a toujours la possibilité d'alternatives, d'hypothèses tiers, autres que H0 et non-H0 ?
Et l'idée que "la vraissemblance des données ne se confond pas avec la crédibilité de la théorie", est-ce que ça veut dire qu'on distingue l'existence ou non d'une significativité des résultats, avec la théorie elle-même ? Mais alors est-ce qu'il n'y aurait pas une grosse confusion dans la vidéo, qui en fait mélange la p-valeur, qui s'applique pour déterminer la vraissemblance des données, c'est-à-dire l'existence ou non d'une significativité de la mesure (déterminée par rapport à quoi ?), et la "théorie" qui n'a rien à voir avec la p-valeur ?
Enfin bref, sachant qu'aucun exemple concret et précis n'est donné dans la vidéo, se contentant d'abstractions, et présupposant d'autres connaissances en mobilisant des concepts définis ailleurs ("la crédence de la théorie"), ça n'aide pas à se représenter les choses, et c'est assez incompréhensible :-/
Merci pour tout le travail effectuer très bien expliquer je trouve je n'en suis pas un spécialiste je n'arriverais pas a le refaire mais en me concentrant du long de la vidéo j'en comprend les conclusions du aux conditions et les dérives qu'elles peuvent avoir si c'est très mal expliqué et donc très mal compris il faudrait que je regarde une nouvelle fois la vidéo voir plus pour vraiment comprendre quand les gens font une erreur a ce sujet, Voilà mon ressenti j'espère qu'il vous aideras et bonne continuation!!
c'est rare que je fasse des commentaires mais, excellente vidéo !
Superbe vidéo
Il me semble qu au début tu pourrais également employer le terme conjecture
Par ailleurs sur un sujet dérivé il y a le livre "philosophie du renseignement" qui recommande d appliquer les théories de la réfutation pour identifier la désinformation mais sans l outilleur comme toi avec une approche statistique
Bravo encore👏
Excellent travail Lê !!! Bonne continuation !
C'est quoi "Lê".
@@ENIMAS c'est son nom je pense.
Excellent travail? Moi, il m'a plus embrouillé qu'autre chose. J'avais déja du mal avec la p-value, mais là c'est la catastrophe. Ce qu'il appel p-value, ça ressemble à 100% à l'erreur de première espèce. Pourtant je suis persuadé qu'en pratique, les deux objets sont différents. Du coup j'vois pas du tout la différence. Aussi, un petit détail, il parle à 1000 reprise de la "CREDENCE D'UNE THEORIE". J'ai pas énormément de vocabulaire, mais je suis persuadé qu'une crédence c'est un meuble italien. J'ai l'impression qu'il confond avec "CREDIBILITEE D'UNE THEORIE". Mais j'suis pas sur. Enfin bref, je chipote. Mais en tous cas ce qu'il appel p-value j'arrive pas à voir la différence avec l'erreur de première espèce.
Shark. Sigma il me semble que tu commences cette série par le dernier numéro en date. Pour ce qui est des détails qui te dérangent, lê en parle dans la série dédiée. Si tu ne comprends toujours pas (un peu comme moi) bah... regarde ces autres vidéos (ceci n’est pas un impératif catégorique)
Anecdote. Il y a longtemps, j'avais bossé sur les marchés financiers, et j'y remarquais que les gens utilisaient des outils comme des moyennes mobiles basées sur l'historique des cours, et se mettaient aussi à programmer leurs propres indicateurs; et là pour bien les calibrer ils utilisaient un truc comme la p-value, c'est à dire que l'algorithme devait "englober" ce qui s'était passé précédemment pour être considéré comme valide, on appelait cela "encadrer la volatilité".. et bien ça ne marchait pas, rien ne prédisait les mouvements du marché ni même n'arrivait à les encadrer, même chez les grands professionnels, parce qu'il y avait évidemment un problème de confondre causes et conséquences, les données étaient des conséquences et la théorie( l'algorithme) se basait donc sur le passé pour se valider. Ainsi aucun algorithme ne durait dans le temps, allant toujours à un moment donné "dévier" complètement, il fallait continuellement le réajuster, et des programmes toujours plus gourmands en données voyaient le jour, jusqu'à des réseaux de neurones.
Considérations. Dans la nature, il y a toujours une usure, ainsi plus une donnée est ancienne et plus elle est usée, pour autant une donnée neuve est-elle "juste"? on peut comparer avec l'humain, il est nouveau-né, neuf et se mets à grandir puis un jour à vieillir, alors à quel moment de la vie se placerait la théorie voulant modéliser l'humain ? que serait un humain "moyen" selon une théorie avec ses écart-types ?
Exactement. C'est ce qui fait qu'on sur-interprète des modèles. D'où l'importance de les retester avec de nouveaux jeux de données indépendants et un degré de liberté supérieur au nombre de paramètres ajustables.
Tous ces modèles reposent sur l'hypothèse que les données se comporterons dans le futur de la même manière que dans le passé. Cette hypothèse n'est pas faite parce-qu’on pense qu'elle est vrai (en finance et en science humaine on sait qu'elle est fausse) mais parce que les données passés sont les seules qu'on ait pour faire des prévisions. C'est pour ça que dans un environnement mouvant ton modèle doit être tout le temps réactualisé. Plus il y a de temps entre ta période d’apprentissage et ta période de prévision plus il y a de chance pour que l’environnement ait bougé et que ton modèle ne marche plus.
Cependant je ne suis pas d'accord pour dire que "dans la nature, il y a toujours une usure des données". C'est vrai souvent dans les sciences humaines mais pas dans les sciences dures. Si tu fais un modèle statistique sur la diffusion de la chaleur en thermodynamique, un modèle sur les mouvement brownien d'une particule, un modèle sur la désintégration des déchets radioactives. Tu verras que ton modèle reste valide même 100 ans après.
Conclusion en fait c'est simple soit ton hypothèse de "constance des données" est vrai et dans ce cas si ton modèle converge alors tu n'auras pas de problème d'usure des données.
Soit cette hypothèse est fausse dans ce cas la tu considères que sur un court laps de temps ton modèle reste proche de la réalité mais tu dois le réactualiser sans cesse. Le plus souvent ça fonctionne bien car même en sciences humaines les choses évoluent le plus souvent à la manière d'une fonction continue. Mais quand il y a une crise tel que pour les subprimes cela crée des discontinuités. Il devient alors extrêmement naïf de parler d'intervalle de confiance ou de p-value.
@@bernardgouniafier9487 OK, mais, le but d'une nouvelle théorie ou d'un nouveau modèle est justement d'être davantage prédictif. Par exemple de pouvoir prédire crise des subprimes et autres. Si la science ne servait qu'à confirmer ce qu'on sait déjà... Comme dirait Fermi : "si vos données confirment la théorie, alors vous avez confirmé la théorie. Si vos données sont en désaccord avec la théorie, alors vous avez fait une découverte." (sous-entendu : dans le dernier cas, et si les données sont fiables, il faut trouver une meilleure théorie).
Là tu me fais plaisir :) .... C'est tellement difficile aux étudiants de comprendre que rejeter H0, ne veux pas dire forcément accepter H1 ... :)
Non.
Ben si en fait. On accepte H1 à défaut de mieux pour le moment.
@@richardspirtz5863 Comme tu dis, c'est un choix par défaut pas une acceptation....
Quand on fait un test d'hypothèse, il y a un état avant et un état après le test. On a déjà accepté l'état d'avant puisqu'il est l'état dans lequel on se trouve. Le test permet éventuellement de proposer un argument rationnel pour changer d'état.
D'ailleurs, si le test s'avère significatif, on accepte H0. Oui mais jusqu'au prochain test qui nous fera à nouveau changer ou bien qui permettra de raffiner l'hypothèse la plus probable.
Autrement dit on est toujours dans l'acception d'une hypothèse.
Si vous préférez dire que vous n'acceptez jamais aucune hypothèse et que vous êtes en permanence dans le status quo, comme vous voulez. En rationnalité on appelle ça l'acception.
@@richardspirtz5863 Quand on fait un test d'hypothèse, on rejette H0 ou non. Si on rejette H0, là aussi on accepte ou non H1 et oui... on peut rejeter H0 et ne pas accepter H1 (il existe des cas clairement non tranchés ni pour H0 ou H1). En pratique, on fait ce que vous dite. On rejette l'hypothèse courante pour accepter la nouvelle future hypothèse qui sera elle même éventuellement rejetée avec des nouvelles mesures etc etc...
excellente vidéo, c'est vrai qu'on nous explique pas bien toutes les subtilités de la p-valeur, on sait qu'on l'utilise abusivement pour "valider" des hypothèses mais en pratique on l'oublie
Salut merci beaucoup pour cette vidéo! Je suppose que tu as lu "How not to be Wrong", de Jordan Ellenberg. En tout cas, je le conseille fortement à tes abonnés intéressés par ce sujet. Il se trouve dans ce livre une série d'exemples croustillants sur les travers de la p-value, comme la fameuse étude démontrant que les albinos n'existent pas ou que les saumons morts placés dans un IRM reconnaissent les visages humains. En tout cas, ce sujet est à la fois inquiétant, hilarant, et hautement stimulant!
Je profite de ce commentaire pour te remercier infiniment pour toutes tes vidéos qui vont grandement me servir. Je passe le bac spé Maths, en candidat libre cette année de mes 28 ans, pour intégrer une fac de philo et me diriger vers l'épistémologie. Sans le travail de passionnés comme toi, l'accès au savoir serait une toute autre affaire. Tes engagements pour une science juste (et juste) sont très précieux pour notre société.
"La vraisemblance des données n'est pas la crédence de la théorie", j'ai bien compris que tu étais fier de cette phrase expliqué quelques vidéo plus tôt, mais sincèrement, la balancer sans expliquer, ni le rapport, ni en quoi ça s'applique ici, c'est pas incroyable, surtout que le mot crédence n'est pas tellement utilisé, sinon bonne vidéo même si assez compliqué
Hello, suite à la lecture des commentaires, je m'interroge aussi sur le mot crédence, que tu utilises tout le temps, mais dont le sens est est défini dans les dictionnaires uniquement comme un meuble de cuisine. Du coup d'où vient le sens que tu lui attribues ?
Bonjour ! Merci pour toute tes vidéos, excellentes et hyper intéressantes !
J'ai réfléchis longtemps à l’énigme des deux enfants et j'ai voulu faire une petite analyse "Fréquentiste" (de profane, je précise que je ne suis pas du tout mathématicien). J'ai donc fais un tableur pour illustrer les différentes façon de percevoir l’énigme avec un système de jet de dé avec pour résultat "0 = fille" ou "1 = garçon".
J'ai une question cependant. Le résultat de 33% attendu ne tombe bien entendu jamais pile sur cette valeur et j'aimerais calculer le seuil correspondant à une certaine p value (par exemple 1%) pour les fluctuation statistique de ce fameux "33%". J'ai en effet beaucoup de mal à comprendre comment se calcule concrètement la p value, et ce, malgré mes recherches sur internet. Je tombe le plus souvent sur des explications très compliquées et je ne comprend pas tout. J'ai cru comprendre que la fonction "loi normale" devrait pouvoir m'aider mais je n'arrives pas à comprendre comment l'utiliser. Merci d'avance à ceux qui accepteront de m'aider !
Voici le lien du tableur :
docs.google.com/spreadsheets/d/1SARJNvSnIY_2u1KQbkgza2VA7YrmVO3lU9UFNSfwDTI/edit?usp=sharing
La réponse m’intéresse fortement !
Bonjour Lê. Je suis l'un de vos abonnés et viens simplement vous saluer. Bravo et bonne continuation dans vos projets.
"La vraisemblance des données n'est pas la crédence de la théorie" ou ce n'est pas parce que les données semblent vraies qu'il faut apporter du crédit à la théorie car cette dernière peut-être fausse...
" La p-value concerne la probabilité d'une conclusion sachant la théorie vrai, et ça en faite ça ne nous dit pas grand chose de la probabilité de la théorie sachant qu'elle a été rejetée tout ça parce que la vraisemblance des données n'est pas la crédence de la théorie" Merci Science4All
bien jouer pour le référencement de la vidéo car même en la regardant deux fois, la comprendre c'est difficile (alors que d'habitude j'y arrive asser bien en une fois)
Merci pour ta vidéo elle est top :)
On peut rejeter avec une p-value inférieur à 1% l'hypothèse
H0: "Cette vidéo n'est pas intéressante!"
Pour ceux qui connaissent il n'y a évidement aucun intérêt nouveau. Vous faites parti des 0,000000000001% de la population ...... heu je plaisante avec les 99,99999999999999999% de probabilité
Pourrais tu commenter sur le role de l'hypothese alternative ?
Dans le cas ou l'on test par exemple HO lambda =1 vs H1 lambda =4 pour une lois de Poisson, la defenition de l'hypothèse alternative peut jouer un role important sur la significativité de la p value. Ceci est très different de tester H0 lambda =1 vs H1 lambda est different de 1.
La p-value ne dépend pas de l'hypothèse alternative. Seule la "puissance statistique" en dépend.
Tu appeles ta chaîne "science for all" mais tes vidéos sont quand même très compliqués à comprendre😂
En meme temps science for all of the peoples who have a high school's mathematic level. C'est un peu long..
@@ThomasLePanda certes mais ca serait plus clair
C'est pas parce qu'on ne comprend pas quelque chose, qu'il ne faut s'y interesser. Au contraire même ...
@@equilibri621 Ce serait surtout faux. Ce n'est pas parce que c'est compliqué qu'il y a besoin de diplôme, il y a juste besoin de concentration.
@@Alsh0ck pas besoin de diplôme certes, ce n'est pas ce que je voulais dire, mais de connaissance préalable de méthodologie, et d'habitude de ce style de raisonnement, ça par contre c'est utile et la concentration bien que nécessaire ne saurait les remplacé a elle seul
Cher Lê, je ne sais pas si tu vas poursuivre cette série (à l'heure où j'écris ce commentaire tu es es à l'épisode 52 de la série Bayes, c'est déjà beaucoup et on t'en remercie). Cependant, je tiens à faire ici quelques remarques générales, ayant moi-même enseignés les mathématiques et ayant décidé de "me taper" toute la série...
Je trouve cette série à la fois très excitante et un peu pénible.
Très excitante, parce que tu aborde des sujets passionnants pour ceux qui s'intéressent aux maths, à la méthode scientifique et aux sciences, et un peu pénible parce que ton enseignement manque de clarté - surtout pour des non-initiés, et encore plus pour des non-lecteurs d'articles.
J'ai listé quelques pistes d'améliorations, libre à toi d'en tenir compte. Je comprends que l'ambition de ta chaine (c'est dans le titre :) est de faire un seul et même contenu à la fois pour satisfaire les initiés et les non initiés. C'est ambitieux mais pas impossible, j'apprécie ta démarche et ton engagement, et je t'y encourage.
Quelques pistes d'améliorations : éviter les notations bizarres ou confuses qui desservent le propos (surtout quand on aborde un sujet complexe, eg "d rond" pour désigner la borne des queues de distributions, c'est une très mauvaise idée) ; éviter les digressions qui n'apportent rien aux propos (surtout si on aborde un sujet complexe) ; écrire un script (plan de cours détaillé) et essayer de ne pas se disperser, quitte à faire une annexe en fin de vidéo pour aborder des questions ... annexes - type "pour aller plus loin") ; ne pas essayer de tout expliquer ; éviter de mélanger notation US et notation fr (on dit "pee-valiou" ou "paix-valeur", pas "paix-valiou") ; enfin, tu es une personne magnifique mais je ne vois pas l'intéret de te filmer constamment en action - le coté prof à coté de son tableau ? évidemment c'est un choix et un style et je le respecte, et d'ailleurs rien n’empêche de faire pause / rembobiner / passer en vitesse 1/2 ou bien de suivre seulement avec l'audio, cependant je ne suis pas fan car en voulant rendre ton propos plus "vivant" et plus "humain" ça a un effet délétère, en effet ta gestuelle capte forcément en partie l'attention du spectateur et donc l'esprit n'est pas concentré à 100% sur telle formule ou telle citation placé en vis-à-vis, or certains propos nécessitent une bon niveau de concentration pour être compris - en particulier en tenant compte des remarques faites précédemment qui rendent souvent le propos plus difficile à cerner. A part ces micro-remarques (rien de méchant ni d'insurmontable, ce sont des pistes pour améliorer la réception du sujet abordé), tu fais d'énormes efforts pour rendre le propos intéressant, compréhensible et ludique, ce qui est tout à fait louable. Merci pour ta contribution notable et appréciable aux contenus de vulga francophone sur YT, et merci pour ton travail avec Tournesol et bravo pour tes travaux sur la théorie des modèles, et tes travaux sur la sécurité et l'éthique des systèmes fédérés d'apprentissage automatique. Longue vie à science4all !
Bonjour les copains,
dans un soucis de bonne compréhension de la vidéo est-ce que qqn pourrait me dire ce que Lê place en abscisse et en ordonnée lorsqu'il parle de sa fameuse courbe en cloche ? (disons qu'ainsi j'aurai peut-être compris un truc à la vidéo)
Merci, bonne journée
En abscisse c'est la valeurs des données. En ordonné c'est la densité de probabilité.
L'essentiel à retenir c'est que l'aire sous la courbe entre 2 droites verticales correspond à la probabilité que les données soient comprises entre ces 2 valeurs.
Exemple : imaginons que la courbe en cloche soit associé à un générateur aléatoire de nombre.
En abscisse on a donc la valeur du nombre donnée par le générateur.
L'aire totale sous cette courbe est de 1, ce qui fait que la probabilité que la valeur donné par le générateur est entre - infini et +infini est de 1.
Si l'on veut connaitre la probabilité que notre générateur sorte un nombre entre 1 et 2, elle est donnée par l'aire sous la courbe prise entre les droites d'abscisse 1 et 2.
Chouette vidéo ! Je "pense" avoir compris...
En gros, d'après ce que j'en comprends, la p-value indique la probabilité de trouver des données qui rendraient la théorie fausse ?
Mais la confusion vient du fait que "un moins la probabilité qu'une théorie soit fausse" n'est pas du tout égal à la probabilité que la théorie soit vraie...
Donc en fait on peut jamais prouver qu'une théorie est vraie, juste qu'il y a très peu de chances qu'elle soit fausse...
Ouais... en encore que SI la théorie est vrai sur la base d'hypothèse valide, tu peu aussi validé statistiquement des hypothèses erroné et donc validé un plantage...
d'ou l'importance de faire plusieurs hypothèse, plusieurs expérience...
@@darkguano8685 Les faux positifs ?
Pour vulgariser: C'est dans le truc "la vraisemblance des données n'est pas la crédence de la théorie, il voit clair, il appuie sur le bon point! Après voir la sémantique de chaque terme." La crédence de la théorie, c'est l'irréfutable. Ce qui est complexe, donc on le pose sous forme de statistique. Pourquoi complexe. Car dans le monde de la mathématique. On peut travailler dans des dimensions basique, 1, 2, 3, 4,.... 9 on arrive au limite de l'esprit humain. Mais dans le monde de la réalité. L'univers est à n dimension. La fusion de l'eau solide à l'état liquide, se calcule dans la réalité dans un univers à n dimension. Dimension de température, dimension de cinétique, dimension de pression, dimension de champ électrique, dimension de champ magnétique, dimension de gravité, effet tunnel, force de van..., dimension de phénomène interconnecté. Exemple la caléfaction est un phénomène interconnecté (Sans rapport avec la fusion, là on est dans la vaporisation, mais la fusion de l'eau trop complexe pour mes petits neurones). .... Bref aucune théorie n'est irréfutable dans la réalité, car tout dépend du référentiel, dans la relativité restreinte, ça va, dans la générale, on pédale. Ce n'est valable que dans le monde merveilleux et parfait des mathématiques. Le pourquoi on a créé la p value. Un genre de repère turlututu. Tchusss.tu déchires sinon, un tel travail! Wahow! Respect! Meilleurs qu'un buzz d'orange bud!
Super vidéo Lê ! Discuter et préciser le sens de la p-value est fondamental. Juste une question, quand tu parles de « la crédence de la théorie », tu parles de P(T) ou de P(T|D) ?
P(T|D) ☺
Ces histoires de p-values, ça permet de voir avec un autre oeil les indices suggérant l'existence d'une 9ème planète très au-delà de Neptune (mais puisque des télescopes assez puissants entrent en service d'ici quelques années, ça permet de faire des paris bayésiens et d'espérer une réponse prochainement).
merci beaucoup, j'ai enfin compris ce que c'était la p_value :) Crédence est la la loi à priori c'est ca .
encore une formidable video. Merci. Merci.
@Lê corriges moi si je me trompe, est-ce qu'un titre valide aurait pu être "les chercheurs n'ont pas réussi à invalider la théorie du boson de Higgs à plus de 0,0001%" ?
Non ça ne serait pas bayésien... On ne peut rien dire sur la théorie sans invoquer un préjugé. Or la p-value est une information sans préjugé.
Un titre (relativement) correct serait "les chercheurs ont trouvé des données très invraisemblables selon la théorie sans boson de Higgs".
@@le_science4all ok je pense avoir compris alors. Mais ton titre je le trouve "mal tourné", je penche plutôt pour "Sans la théorie du boson de Higgs, les données des chercheurs du CERN seraient très invraisemblables"
C'est quoi la crédence de la théorie ?
Tu nous rabâche ça mais je ne sais pas trop ce que c'est.
Sans chercher au pif, la crédibilité ?
Bonjour.
La crédence d'une théorie est expliqué dans les premiers épisode de la série sur le bayesianisme =)
remplacer 'crédence' par 'croyance' ça sera plus clair ! A moins que l'orateur soit aussi cuisiniste.
Super vidéo j'avoue que le bayésianisme ne me convient pas toujours, (notamment quand tu avais fait une conférence pour Vulgarizators, je n'étais absolument pas convaincu par ce que tu disais) mais quand tu appliques ça à l'épistémologie ça prend tout de suite plus de sens pour moi. Ce qui amène une question : ici je trouve qu'il est plus simple de réfléchir de manière bayésienne (et étant donné le nombre d'échantillons auquel on a accès en général selon les sciences c'est parfois trop faible pour qu'une approche fréquentiste soit envisageable) cependant les mêmes objets peuvent être définis avec une approche fréquentiste. Dans ce cas particulier(donc p value et interprétation des résultats d'expériences), si on supposait que le nombre d'échantillons est très important, est-ce que tu as des arguments pour m'expliquer qu'une approche bayésienne est plus forte/adaptée qu'une approche fréquentiste?
Je ne sais plus si j'ai prévu d'en parler. Mais le fréquentisme avec un très grand nombre de données a quand même des aspects bizarres... Par exemple, s'il y a beaucoup de données, alors une p-value à 1% veut avant tout dire que l'hypothèse nulle est quasi-vraie (la taille d' effet est alors très faible).
Superbe vidéo, même si sa complexité ne la rend pas tout publique. Je trouve ça désolant de constaté que cette vidéo serait énormément utile dans le milieu pédagogique pour beaucoup mieux comprendre ce que l'on y suit. Je suis en étude d'éco/gestion et j'ai une matière Etudes des probabilités Statistiques mais je ne crois pas qu'on est jamais réellement définis la p-value ce qui fait que le cours reste "flou" et beaucoup plus difficile à suivre et comprendre. Avec ta vidéo en introduction je suis sûre que ça aurait été beaucoup plus simple.
t'es bien sur au dessus du tout publique toi
Est-ce qu'il y aurait pas moyen de créer "l'inverse de la p value" c'est à dire une valeur qui part du principe que la théorie T est fausse, et regarde la probabilité d'obteir des résultats pires que ceux qu'on a eu?
J'ai beau chercher des informations sur ce qu'est la crédence, on me renvoie uniquement vers des sujets autour de la cuisine. Je vois pas ce que la cuisine fait dans cette vidéo
Je t'invite à (re-?)regarder cette vidéo : th-cam.com/video/brm5THIraEM/w-d-xo.html où il explique ce qu'il appelle crédence d'une théorie.
En gros c'est le terme P(T|D), qu'on peut interpréter comme le degré de confiance en la théorie.
C'est un anglicisme. Crédence = crédibilité
Merci beaucoup pour cette vidéo très abordable sur un sujet si important !
Merci pour les explications ! cependant, tu ne donnes pas de solutions, comment peut on correctement estimer la crédence d'une théorie ? Y a t-il dautres outil statistiques utiles ?
Tu as changé tes réglages de fond vert ? le détourage est moins bon que d'habitude (juste pour trouver un truc à redire)
Très bonne vidéo, faut s'accrocher, mais j'adore
tu peux même ajouter parmi les utilisateur de p-value les trader (sens large), et en général, ça leur coûte cher :p
Aie, j'ai la boite crânienne qui pique. Serait-il possible d'ajouter quelques exemples concrets pour les noobs comme moi?
Si je ne m'abuse, la "p-value" est au final *la probabilité que le résultat d'une expérience soit compatible avec une théorie* .
*_P.ex. :_*
Je tire 10 fois à pile ou face. Soit la théorie "il y a autant de chance de faire pile que face à chaque lancé" (soit proba de "pile" = 1/2, proba de "face" = 1/2), le résultat "théorique" serait 5 "pile" et 5 "face". Or disons que je constate 7 piles et 3 faces. Est-ce vraiment "surprenant" ? Au point de me faire douter de la théorie qu'avec ma pièce, la probabilité de faire pile ou face, en terme de proba _a priori_ à chaque lancé, est bien égale ?
La "p-value" nous donne cette probabilité = celle de constater un tel résultat alors même que l'hypothèse est bien vraie. En l'occurrence (si je ne m'abuse) p = 0,17. Donc 17% de chance d'obtenir un tel résultat si ma pièce est effectivement équilibrée. A peu près 1 chance sur 6. Ce qui n'a rien d'incroyable ; il suffit d'avoir déjà joué aux petits chevaux pour savoir qu'arriver à un résultat qui n'a "que" 1 chance sur 6 de se produire n'est heureusement pas exceptionnel ;) .
Maintenant je tire 100 fois à pile ou face. J'obtiens 70 piles et 30 faces. Les proportions sont inchangées par rapport à l’expérience précédente des 10 lancés, mais intuitivement on sent que ça coince ... Mieux que l'intuition, *la p-value nous donne une mesure objective de la vraisemblance de la théorie initiale confrontée à l'expérience* . En l'occurrence, la probabilité que la pièce soit effectivement équilibrée devant un tel résultat tombe à p = 0,00005 ... soit *0,005%* ! (1 chance sur 20 000) Là c'est plus le même délire. La pièce n'est vraisemblablement *pas* équilibrée (= on a de bonnes raisons de rejeter l'hypothèse de départ (l' "hypothèse nulle") devant un tel constat).
A NOTER (en passant :P) que ce rejet peut mener à une conclusion *fausse* , car en fait l'expérience ne teste pas _que_ l'équilibre de la pièce, mais un ensemble de conditions expérimentales. C'est là que ça se corse, parce qu'une différence très significative ne veut pas forcément dire une mise en échec de l'hypothèse de départ, peut-être simplement le protocole expérimental ne la teste pas correctement ;) . D'où le caractère *crucial* du bon épluchage des "matériels et méthode" d'une publi scientifique, et le passage en revue minutieux des résultats sur les autres paramètres que celui d'intérêt (car y relever des aberrations inattendues est signe que des facteurs confondants ce sont introduits dans l'expérience, exposant à un risque de résultat simplement ininterprétable, tout rutilant soit l'infinitésimalité du "petit p" revendiqué).
J’ai juste une question qui me tourmente depuis un moment en statistique, comment est ce possible que nous estimons nos données à l’aide d’une loi de type normale mais que nous avons besoin de ces même données pour déterminé la loi qu’elle suivent?? J’ai l’impression que c’est un peu le serpent qui se mort la queue ou peut être que je me trompe.
Super l'explication de la p-value ! Faut la penser, la méditer et la reméditer , même pour les initiés, je pense. Et quelle proportion accordait à la vraisemblance des données par rapport à la crédence de la théorie ? Et quelle crédence a cette vraisemblance ? Faut-il, du coup, en accordait une ? Ha oui, mais comment réfuter en étant vraiment sur, alors ? La p-value,c' est mieux que l'absence de p-value, mais cela peut ne pas être totalement satisfaisant. Comment on fait alors ? Dur, dur, la migraine là...
Bonjour,
Si j'ai un risque de 5%
Est ce que une pvalue de 4% a le même interprétation qu'une pvalue de 0,04%?
Merci
Ah la la et je viens d’avoir partiel de test statistiques aujourd’hui tu aurais du la sortir hier cette vidéo car j’en ai eu des p-valeur à calculer 🤣🤣🤣 en tout cas merci !!
Bonjour tout le monde,
Merci beaucoup pour cette vidéo Lê ! J'ai entrepris des études de médecines et je pense faire typiquement parti de ces personnes qui interprètent très régulièrement des p-value sans en comprendre le sens😁. Même si je sens bien que je suis très loin d'avoir bien compris toutes les implications et que j'ai encore beaucoup de chose à apprendre cette vidéo a vraiment créée une rupture sur le manière que j'avais d'appréhender cette donnée. Vivement le suite 😉. (Par contre j’ai un concours dans 20 jours et maintenant je suis plus du tout sûr de comprendre pleinement la p-value^^)
Petite question pour ceux qui auraient compris plus loin que moi. J’essaye d’appliquer à ce que je croise quand je lis des études:
Les études que je lis comparent souvent deux traitements (T1 et T2) et leurs effets sont mesurés grâce à un jeu de données D1 pour T1 et D2 pour T2 en général avec cette forme :
Hypothèse H0 : les deux traitements sont aussi efficaces l’un que l’autre soit D1/D2=1
Hypothèse H1 : il y a une différence d’efficacité entre les deux traitements soit D1/D2 # 1
Seuil = 5 %
Donc si j’ai pas trop compris de travers :
*Si on mesure D1/D2 # 1 avec p=0,05 alors on peut dire que si H1 est vraie alors cette donnée a 5 % de chance de la réfuter. → Ceci serait un interprétation correcte de la p-value.
*Par contre j’avais aussi l’habitude de comprendre dans cette situation que la probabilité que H1 soit quand même fausse malgré ces données était de 5 %.→Ceci est une mauvaise interprétation de la p-value car cette dernière est définie pour H1 vraie et n’est donc pas informative pour les situations où H1 fausse.
Merci 😊.
il n'y a aucun sens à la machin chose
Existe t il des cas dans lesquels la distribution de la densité de probabilité ne suit pas une loi normale ? Et d ailleurs pourquoi en suit elle une ? Cela a t il un rapport avec le théorème central limite ou est ce hors sujet ?
si je fais un test d'égalité de proportions par exemple et que je dis que je veux savoir si la différence entre les proportions est significative (au sens français du terme) est-ce faux?
Merci de remettre en cause 3 ans de travail sur un projet de recherche aaaaaaaaaaah ! :D
Pour ceux qui ont lu le livre, y'a comme un air de déjà vu ... x) sinon j'ai un questionnement vis-à-vis de la p-value : j'ai bien compris qu'il fallait une courbe de gauss pour la calculer mais peut-on construire la courbe avec n'importe quelle donnée ? C'est là que pige pas. Comment peut-on placer les résultats du LHC sur une courbe de gauss ? Quelles données ils utilisent (et/ou transforment) ? La chaîne "La statistique expliquée à mon chat" montre l'exemple avec des lancers de dés, ok c'est évident que l'on puisse tracer une courbe de gausse sans problème mais pour le reste ... merci pour ta ou vos réponses, si plusieurs personnes souhaitent y répondre.
Merci pour cette vidéo. La p-value était une chose floue conceptuellement pour moi. Je pense avoir enfin bien saisi le concept. Et oui même en Centrale Paris je crois que mon prof de math/stat était pas tout à fait au point dessus (ou c'est juste moi, surement d'ailleurs, et c'était y'a 15 ans).
A noter qu'à la première lecture de la vidéo, au premier tiers, j'ai juste penser (à tord) que c'était juste la loi des grand nombre/loi normale, les distributions gaussiennes...etc...etc....on connais tous.
Puis je me suis dis que c'était pas possible que ce soit un truc aussi simple pour qu'un doctorant en math admette avoir eu du mal à saisir le concept. J'ai dû regarder 5 fois la vidéo et je pense avoir saisi le tuc.....en tout cas j'ai touché le concept et va falloir que je le laisse mûrir en moi (comme la relativité générale et la physique quantique.....au delà des équations c'est le concept qu'il est difficile à approcher).
Je travaille dans les statistiques en assurance. Je confirme que + de 80% de mes collègues qui font des stats comprennent mal et utilisent mal la p-value. Il prennent les résultats des tests pour argent comptant sans réflexion ni analyse. Comme si le fait d'avoir une p-value les dispensaient de réfléchir à la signification du test effectué.
Ce n'est pas parce que le critère de réfutabilité est vu comme nécessaire qu'il est suffisant, et notamment que l'activité scientifique se restreindrait à réfuter des théories.
Le critère de Popper n'est que l'exigence que les théories soient compatibles avec les données.
Il est souvent aussi requis que les théories soient originales (ce qui évite les hypothèses ad hoc), c'est à dire qu'elles ne se contentent pas d'organiser les données existantes mais prédisent aussi des observations inédites.
Cela correspond à l'exigence bayésienne de prédiction des données à partir des théories, avec évidemment l'avantage que l'approche bayésienne est quantitative.
En somme, je ne comprends pas pourquoi tu associes le popperisme avec le fréquentisme, alors que le bayésianisme est la version quantifiée du poppérisme...
Après l'expression "mathématiquement prouvé", vous pouvez oublier également l'expression "statistiquement significatif" !
Donc la p value c'est le seuil statistique à partir duquel l'expérimentation permet de rejeter h0 et d'adopter h1, c'est bien ça ?
avec mes cours de statistiques que j'ai en école d'ingé c'est deja pas tout a fait évident a comprendre, alors je veux bien comprendre que certains moldus veuillent que ce soit vulgarisé :'(
très interessant!
Comment j'ai la cervelle qui pique. Je vais me la repasser 1 ou 2 fois celle là 🤯. Très rigolot à écouter comme toujours, merci!
Résumé rapide:
On a une théorie T, et des données récoltées D. On peut calculer une valeur appelée *p-value* qui correspond à la vraisemblance des données D *dans le cadre de la théorie T SUPPOSÉE vraie.* Donc si cette *p-value* est suffisamment faible (seuil fixé) on peut rejeter la théorie T.
MAIS : la vraisemblance des données n'est pas la crédence de la théorie (ex: théorie de gravitation universelle d'Isaac Newton vs relativité générale d'Albert Einstein; les données récoltées sur la surface terrestre valide LES DEUX théories à très peu de choses près pourtant on sait bien que l'une décrit bien plus de phénomènes correctement que l'autre…)
n'hésitez pas à me corriger si vous voyez des erreurs
Même pas mal, même Popper !
Très bonne vidéo, ai-je trouvé, cher Lê ! 8-) J'ai notamment apprécié que tu aies pris soin de souligner que, si la p-valeur est effectivement l'objet de bien des abus et confusions, ça n'en reste pas moins un outil très intéressant et dont l'invention a marqué un grand progrès scientifique…
Concernant le critère de réfutabilité de Popper que tu évoques, j'avais trouvé particulièrement intéressante la vidéo de Monsieur Phi sur le sujet (Grain de Philo #22) où il soulignait comme ce très pertinent critère avait, tout comme la notion de p-valeur, tendance à être interprété de façon caricaturale et in fine erronée… Peut-être pourrais-tu ajouter un lien vers cette vidéo ? (encore que, cela s'éloignerait peut-être un peu trop du sujet traité… :-S).
En tout cas, bravo pour cette vidéo très réussie sur un sujet particulièrement subtil à traiter dans un tel format de vulgarisation en 10 minutes ! :-D
Oui, je reparlerai plus longuement de ce dont a parlé Mr Phi, car en effet, c'est très important pour bien comprendre le degré de validité des sciences 😉
Enfiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiin!!!
Au niveau 7'09'' vous dites que "D est hautement invraisemblable (ou improbable) si la probabilité des données extrêmes (sachant T) est très faible. N'est-ce pas le contraire ?
Il me semble que des exemples seraient plus que bienvenus
Bravo pour cette belle vidéo. Petite remarque si p à 0,05 vaut bien 5 %, p à 0,001 n’est pas 0,001 pourcent mais 1 pour mille 😉
La crédence est un meuble ( ou partie d'un meuble ) de cuisine ?
C'est un anglicisme. Lé en fait beaucoup. Il faut comprendre "crédibilité". Il utilise aussi incentives à la place de "motivations". Ça m'agace au plus haut point mais ça n'enlève rien à la qualité du propos...
Merci pour cette éclaircissement des plus utiles.
@@michelq6548 Merci Michel
@@michelq6548 Pour moi , je n'ai plus qu 'a aller voir ailleurs . Car cette erreur est martelée par les mots et par l’écrit , des dizaines de fois et c'est me semble t il un des points forts de l'analyse , qui m’échappe .
Que penser d'un penseur qui laisse passer des erreurs aussi grossières et aussi lourdes de conséquences ?
Pour moi , je ne perdrai plus de temps sur ce site pourtant sympathique .
@@lotrelotre4689 C'est y aller un peu fort. Pour sa défense Lê fait aussi des conférences en anglais ! Alors oui l'erreur se répète, il faut faire la subtitution à chaque fois...
L'intérêt de cette vidéo est statistiquement significatif ;-)
Moi, il m'a plus embrouillé qu'autre chose. J'avais déjà du mal avec la p-value, mais là c'est la catastrophe. Ce qu'il appel p-value, ça ressemble à 100% à l'erreur de première espèce. Pourtant je suis persuadé qu'en pratique, les deux objets sont différents. Du coup j'vois pas du tout la différence. Aussi, un petit détail, il parle à 1000 reprise de la "CREDENCE D'UNE THEORIE". J'ai pas énormément de vocabulaire, mais je suis persuadé qu'une crédence c'est un meuble italien. J'ai l'impression qu'il confond avec "CREDIBILITEE D'UNE THEORIE". Mais j'suis pas sur. Enfin bref, je chipote. Mais en tous cas ce qu'il appel p-value j'arrive pas à voir la différence avec l'erreur de première espèce.
Je dirais plutôt on peut rejeter avec une p-value inferieure à 1% l'hypothèse
H0: "Cette vidéo n'est pas intéressante!"
En plus de ce que tu viens de dire il faut en plus ajouter les hypothèses faites pour pouvoir calculer les probabilités. Notamment la distribution de la statistique étudiée que l on suppose par exemple normale. On a au moins le théorème limite centrale pour aider dans certains cas mais souvent ces verifications et précautions quant aux conclusions sont oubliées.
D'où une cause majeure de surinterprétation (validation d'un modèle pourtant faux). Prenez un modèle hypersophistiqué (du genre : formule avec 12 paramètres ajustables), et trois ou quatre données. Ajustez les 12 paramètres à vos données. Bingo : régression géniale, p-value hyper-faible. Cela veut juste dire que si votre modèle est vrai, alors la probabilité que les données collent au modèle est grande. Pourtant, la probabilité que le modèle soit vrai est en fait proche de zéro dans ce cas précis... Mais Lê : admettez que ce genre d'exemple reste rare : on fait gaffe à tout un tas de précautions : quand j'étais jury de thèse, je retoquais systématiquement des modèles qui avaient davantage de paramètres ajustables que de jeux de données indépendants (erreur de degrés de liberté...) ET je demandais à ce que les étudiants arrêtent de coller systématiquement une interprétation phénoménologique à un calage purement statistique sans indice phénoménologique (bref : sans découverte phénoménologique, un paramètre ajusté n'est qu'un paramètre). Certes, pas mal de mauvaises publis passent au travers des mailles du filet, mais quand même : admettez que les fréquentistes ne sont pas si débiles. Ils sont aussi bayésiens, en réalité.
Au niveau thèse, il y a vraiment des étudiants qui présentent des modèles avec plus de paramètres qu'il n'y a de données ? C'est extrêmement inquiétant, c'est l'une des premières choses que l'on apprend dans des cursus de qualité en statistiques. Théoriquement c'est une aberration et même empiriquement, il me semble que nombreux sont les logiciels qui envoient des messages d'erreur au moment d'estimer les paramètres desdits modèles...
@@SydnoBushido En effet, même si en général c''est presque tout le temps corrigé à la relecture (ça ne passe pas le manuscrit définitif). Par contre, j'ai déjà vu des modèles ajustés sur un jeu de données certes un peu plus grand que leur nombre de paramètres ajustables, mais sur un seul jeu de données. Sans tester avec un seul autre.
Y-ai-il eu des études empiriques sur le sujet ? Par exemple, en inversant l'approche, en partant d'une T connue et acceptée. Si "crédence T", nous pourrions constater la p-value pour cette T : par exemple pour le Boson de Higges 99,9999%. Nous pourrions réaliser cette constatation pour plusieurs théories T, et toutes leurs "crédence", et rechercher leurs p-values si on les connaît. Normalement, on les connaît. Nous pourrions alors voir si les valeurs de ces p-values sont proches ou pas; réfléchir à l'idée d'en faire une moyenne; voir si en appliquant cette moyenne de p-value trouvée, on valide la crédence T. De telle façon à obtenir une sorte d'indice qui nous dirait qu'à chaque fois qu'on obtient une p-value égale ou très très proche de cette moyenne des p-values obtenue concernant les crédences de multiples T, nous pourrions donc en conclure la crédence de cette nouvelle théorie T. Peut-être pas pour éliminer nécessairement la recherche de la p-value en cours, mais pour donner un indicateur de p-value d'autant plus fort si le nombre de p-values concerne un grand nombre de crédence en des théories nT pour construire cette "p-value moyenne".