Le seul passage à une p-value < seuil n'est ABSOLUMENT PAS LE SEUL CRITERE DE "PUBLIABILITE". Les relecteurs des revues scientifiques s'appuient d'abord sur la taille d'effet, ainsi que les matériels et méthodes, en tout premier lieu. Il est faux de faire croire que les publications sont "triées" selon leur seule p-value. C'est très très loin d'être le cas.
En revanche il est vrai qu'on devrait publier toute étude à "méthodologie correcte", quel que soit son résultat (même quand "on n'a rien trouvé de nouveau"). Car l'absence de nouveauté (hypothèse nulle confirmée) est une information en soi.
un peu dans le même registre : un point qui me chagrine, c'est que ces vidéos se focalisent implicitement sur les publis qui reposent par nature sur des vérifications expérimentales. Cela peut donner l'impression que toutes les publis souffrent de ces maux (alors que, bien-entendu, ces objections ne font pas sens pour les travaux théorique et/ou portant sur des aspects méthodologiques). Et là, j'ai LE gros doute. Il me semble qu'en vrai, le but de ces vidéos est de faire comprendre qu'une étude expérimentale n'a de signification qu'en regard de la théorie dans laquelle elle s'inscrit / à laquelle elle se confronte. Or, mon ressenti (peut-être faux), c'est que pour interpréter ces vidéo comme ça, il faut préalablement avoir compris ça. i.e. : si je n'ai pas compris ça au préalable, je vais regarder la vidéo et en tirer la conclusion que "la science est fausse" ... pas évident...
" Les relecteurs des revues scientifiques s'appuient d'abord sur la taille d'effet" Avec la taille de l’échantillon (~le materiel), c'est justement se qui permet de calculé la P-value. Donc ça revient à utiliser la p-value. Et oui, il y a d'autre critère, mais ils sont un peut hors-sujet pour cette vidéo.
La crédence (de l'italien credenza, « croyance ») est un meuble, ou partie de buffet, où l'on range et expose la vaisselle, les plats précieux et les objets servant pendant le repas.
Très Cher Lê, tes vidéos sont de mon point de vue Tellement BIEN Faites et d'Intérêt PUBLIQUE 👍👏👏 Encore MERCI de Faire Ce Que Tu Fais, COMME Tu Le Fait et AVEC La Bonne Volonté Pour L'Intérêt Général que Tu sembles Manifestement Avoir 😍🤗🤗
Bravo et merci de faire connaître ces arguments aux citoyens. Je sens que vous êtes beaucoup plus à l'aise en mathématiques qu'en apprentissage machine / intelligence artificielle. Du coup, cette vidéo est d'autant plus pertinente et utile au groupe. Encore bravo et merci. Cordialement
Désolé si ma question est bête mais.. Comment fait on pour savoir si quelques chose est un consensus scientifique ou non ? Y a un endroit où les consensus sont réunis ???
merci, tu réponds à la question que je m'étais posée: comme H1 décrit souvent un ensemble continu, comment calculer en supposant H1 vraie? Tu dis que pour simplifier on prend le maximum de vraisemblance, mais comme tu le dis on est très généreux en faveur de H1
1:00 je vais donc suivre le conseil de Lé, et résister fortement à mon envie de partager cette vidéo et de la liker. Ah, mais ce n'est pas une publication scientique, ok, je like et je partage.
Le problème, c'est aussi de classer toutes les hypothèses en vraies ou fausses. Mais beaucoup sont partiellement vraies ou partiellement fausses. Il y a aussi des cas de figure où on a raison d'avoir tort. La physique théorique par exemple. Si personne ne se risque à défendre des hypothèses risquées, l'on n'avancera pas d'un yota.
J'apprécie que vous reconnaissiez que, d'un domaine des sciences à l'autre, la méthode d'acceptation ou de rejet d'une publi varie beaucoup (et donc celle de se lancer ou pas dans une étude "pas sexy" aussi). En effet, j'ai travaillé dans plusieurs domaines de l'environnement où il n'était pas trop difficile de publier une nouvelle étude qui ne faisait que confirmer des choses déjà bien connues (pas trop de prime au "putaclic"). C'est vrai même en médecine, dans les maladies dont tout le monde se fout complètement.
Dans la démonstration de départ, on passe un peu vite sur les 'incentives' qui sont suggérées comme allant uniquement dans le sens du sensationnel. On passe un peu facilement sur le fait que la réputation est aussi un critère important sur la durée. Donc il y a bien un intérêt immédiat à publier plutôt des résultats étonnants, mais il est contrebalancé par l'intérêt à conserver sa réputation en ne publiant pas trop de choses qui risquent d'être démenties ensuite.
L'effet covid peut-être, mais j'ai l'impression qu'il y a également une part de business à prendre sur le côté sensationnel, des incentives générés plus par la création d'une communauté. Un scientifique aura certainement une bonne mémoire des articles, dans son domaine restreint, qui auront par la suite été révélés fausses/incomplètes. Mais j'ai l'impression que le grand public, les médias, possiblement même les directeurs de centres de recherches retiendront un nom et l'article qui est sorti du lot bien plus que l'article de rectification sorti quelques semaines/mois plus tard et qui fait moins de buzz. Ce serait intéressant de savoir comment mesurer ça et si écrire un certain pourcentage d'articles faux (quittes à les corriger dans la foulée) n'est pas une façon viable de booster sa carrière (en omettant le côté moral).
Je comprends pas vraiment cet acharnement sur la méthode par P-valeur... Personne ne dit que c'est une représentation absolument fiable de la réalité, c'est seulement un outil avec ses défauts et ses qualités. Peut-être que j'ai loupé un truc mais, pour moi, il y a H0 et H1. H0 = Les données ne permettent pas de montrer un effet du traitement au seuil de 5%. H1 = Les données semblent montrer un effet du traitement au seuil de 5%. Et là encore, "l'effet du traitement" peut venir de biais expérimentaux. Par ailleurs, on peut mettre la barre où l'on veut: 0,5% c'est un bon début, surtout pour un screening, mais on après on peut mettre la barre à 1%, 0,5%, 0,1% etc... Et je ne parle même pas de toutes les modèles statistiques disponibles qui permettent d’écarter certain biais issus d'une répartition asymétrique, anormale des données et de la puissance du test qui doit impérativement être prise en compte! En d'autres termes, les gardes fous sont là. Il ne faut juste pas les ignorer. Je ne dis pas que la méthode Bayésienne est mauvaise, loin de là. Je dis que la méthode par P-valeur n'est pas à jeter. Très bon contenu! Bonne continuation! P.S: Cela pourrait être intéressants d'avoir un cas concret de données traitées avec les deux méthodes, avec le détail des calcules et des schémas et des graphiques pour que cela soit bien clair. Et si tu as des bouquins à conseiller, c'est bien volontiers!
Super :) une proposition d'hypothese H1 que je trouve très bien, c'est vraiment quelque chose qui me manquait pour pouvoir me faire une idée d une interpretation bayesienne d'un test statistique sur un facteur d'une regression linéaire :D Faut que je lise le fameux article putaclic ca a l'air super interessant. Merci pour la vidéo et bonne continuation !
j'aime de plus en plus tes vidéos et explications, serait-ce que j'apprécie particulièrement les personnes qui ont un regard critique envers leur diciplines et actions ? suis-je en plein biais cognitif ?
Petite remarque : les youtubers cités au début ne disent PAS qu'une publi scientifique est plus souvent une mésinformation qu'une information fiable. En tous cas pas Science Etonnante.
Faux ne veut pas dire mesinformation. Un physicien qui croit à tel modèle théorique (par exemple la gravitation quantique à boucles) va trouver plein de données qui vont alimenter sa théorie. Pour autant il y a une certaine probabilité pour que sa théorie soit fausse. Pour autant, la revue a raison de le publier, car si on ne publiait que ce qui est 100% avéré, la physique théorique ne progresserait pas. Il y a des chances que ce soit faux, mais il fallait le publier quand même.
@@ultimusmaximus5950 C'est une telle évidence ! Il n'y a rien de certain à 100%. La p-value elle-même, dans sa définition, est une probabilité de se gourrer ! Et même si on prend d'autres méthodes (prenons par exemple le curseur de Turing bien expliqué par Lê) : rien ne peut atteindre 100% de certitude. Or on publie, et heureusement, ce qui semble davantage probable qu'à l'accoutumée, en y exposant justement cette quantification de probabilité. Ne jouez-vous pas sur les mots en parlant de "faux" ou "avéré" ? Il me semble que ma remarque reste valable à propos de ce que Lê a voulu faire dire à d'autres youtubers alors qu'ils ne l'ont pas dit.
@@ultimusmaximus5950 Bonne remarque sur différence entre théorie et hypothèse, surtout quand on fait du fréquentisme. Quant au sens du vrai et du faux c'est un gigantesque domaine de la philosophie des sciences et de l'épistémologie. A mon goût, les meilleures vidéos à ce sujet sont certaines vidéos de Monsieur Phi.
@@guillaumelimousin7988 après, je ne crache pas dans la soupe ! J'apprends énormément grâce à Science4all, et la manière dont les questions y sont abordées, non seulement osent attaquer frontalement la vulgarisation en mathématiques, mais montre bien aussi la profondeur des problèmes posés. Nous pousser à nous casser la tête sur des questions fondamentales, dont on découvre en même temps la profondeur, ça a bien fonctionné sur moi en tout cas concernant la méthode bayesienne et la "terre qui accélère vers le haut" dans la relativité générale. Je n'ai pas regardé toutes ses séries, mais je lui reconnais ça.
@@ultimusmaximus5950 Moi aussi, j'ai adoré et j'aime encore. Mais je ne suis pas le seul à trouver que : 1) depuis les séries sur l'IA puis sur le bayésianisme, ça pert en simplicité et en clarté, et 2) depuis cette série sur le bayésianisme, il y a un parti pris qui est parfois défendu (et un "camp adverse", celui des fréquentistes, qui est combattu) avec des formulations ou même des arguments trompeurs, voire erronés. Ce qui est plus grave. C'est vraiment dommage.
Pensons à une théorie qui est vraie dans 90 % des cas. Au fur et à mesure des expériences, le curseur de Turing devrait converger vers environ 3 bits en sa faveur. Une étude des données proche de l'exhaustivité positionnera probablement le curseur de cette manière. Une petite étude, sur un petit échantillon, peut aussi conclure à ce positionnement du curseur, mais aussi à un positionnement complètement différent. Du coup, je suis un peu embêté parce que, dans le cas des théories qui ne sont pas toujours vraies (ou pas toujours fausses), le curseur de Turing ne semble pas permettre de faire la différence entre les preuves solides et les preuves faibles. Je me trompe ?
Ce qu'il faudrait, c'est qu'une expérience soit publiée a priori puis l'échantillon est fait par une autre équipe qui va dire, en suivant à la lettre le protocole, si oui ou non c'est significatif. Par exemple : Equipe 1 : "H0 : A ne provoque pas B ; H1 : A provoque B" "Expérience : réaliser telle expérience." Equipe 2 : réalise l'expérience Equipe 1 : conclusion Ainsi, on ne passe plus à côté des expériences qui n'ont pas été publiées ni des chercheurs qui veulent faire mettre leurs données carrées dans les trous ronds.
Ça ne marche pas comme ça. On peut tester l'hypothèse H0 : « il n'y a pas de lien entre A et B » contre l'hypothèse H1 : « il y a un lien entre A et B ». Mais dire « A provoque B » n'est pas testable statistiquement. On peut au mieux montrer qu'il y a vraisemblablement un lien entre A et B. Pour dire « A provoque B » il faut une théorie qui montre que A provoque souvent B. Si le résultat du test est « il y a un lien statistique entre A et B » on peut dire que la théorie est confirmée par le test. Si le résultat du test est « il n''y a pas de lien statistique entre A et B » on ne peut pas dire que la théorie est infirmée par le test. Juste que sa vraisemblance diminue. Mais si tu as une théorie disant « A provoque presque toujours B » et que l’étude statistique ne montre pas de lien entre A et B alors elle réfute la théorie.
@@Anolyia Faire des statistiques sur une observation n'a guère de sens. Si on fait une « une expérience sous contrôle dans laquelle seule A est modifiée pour mesurer B » on peut avoir : -- un lien de confusion entre A et B, c'est à dire que A et B ont une cause commune mais aucun lien de causalité, -- un lien de causalité entre A et B, mais qui n'est pas forcément « A provoque B ». Dans le second cas A peut-être une condition nécessaire pour B ou une condition suffisante. Pour donner un exemple caricatural : A est le sexe et B le fait d'avoir un cancer de la prostate. On peut remarquer qu'il y a un lien statistique très fort entre A et B. Ce qui ne veut pas dire qu'être mâle provoque le cancer de la prostate, c'est une condition nécessaire, mais pas suffisante.
@@pverdurin2434 Et bien si, faire des statistiques sur une observation permet JUSTEMENT de voir s'il y a une corrélation potentielle entre 2 éléments. Ca permet d'éviter des études coûteuses qui ne vont rien donner. Par exemple : "c'est bizarre, les gens qui ont un cancer du poumon sont à 95% des fumeurs, ce qui est différent de la proportion de fumeurs. Est-ce qu'il y aurait un lien de causalité ?" -> expériences sur des animaux (rongeurs, cochons,... suivant ce qui est testé)
@@Anolyia Ce n'est pas une observation mais des dizaines de milliers d'observations. Je crois que « observation » ne désigne pas la même chose pour toi et moi. Et je n'ai pas envie de me battre sur le sens des mots. Mais, en ce qui concerne le lien entre « avoir le cancer du poumon » et « fumer » je me souviens que, au début années 90, quelqu'un avait prétendu prouver le lien de façon purement statistique. Je dois avouer que je n'ai pas lu sa publication, mais il en était vraiment fier. Il faut quand même dire qu'il y a quarante ans, et même avant, le lien et la causalité étaient certaines. Mais qu'il n'y avait aucune étude ne reposant que sur les statistiques pour le prouver. Les stats c'est bien mais ça ne prouve pas grand chose sans modèle à tester.
Monsieur logicien entre triomphalement à son bureau : "Ma femme a accouché ! J'ai un troisième enfant". Un de ses collègues lui demande : "- C'est un garçon ou une fille? - oui."
Super vidéo, merci ! Est-ce que les valeurs de "préjugé", " stats", et "putaclic" que tu calcules dans la vidéo sont celle de l'article que tu évoques? (Flemme d'aller voir :-)) Quelle incertitude associerais-tu à ces valeurs? Parce que même si elles semblent conservatives, elles me semblent aussi être obtenues un peu "au doigt mouillé".
Franchement, même si j'ai tendance à penser que beaucoup de publications sont erronées, la méthode utilisée ici, bayesienne ou pas, paraît très pifometrique.
Je ne pense pas que la probabilité que l'autre enfant soit 1/3, car cela supposerait qu'avoir eu un enfant ai retiré cette possibilité d'un "pool" fini : dans un bac je met une balle rouge et une balle noire, je pioche au hasard, j'ai 50% de chance d'avoir une couleur, puis 100% de chance de piocher l'autre couleur la prochaine fois que je pioche. Hors, pour le sexe d'un enfant, le "pool" est infini, avoir un garçon ne retire pas une chance d'avoir un garçon la prochaine fois, et ce devrait donc rester 50%. Mais j'ai déjà suivis les précédentes vidéos, que ce soit avec l'exemple garçon/fille garçon/garçon fille/fille fille/garçon où il fallait trouver la probabilité de ceci ou cela. Mais je crois qu'ici aussi je n'étais pas d'accord. Pour moi, avoir une donnée initiale dans ce type de cas ne change jamais le résultat final. (Oui, malgré les vidéos que j'ai vu, je ne l'admet toujours pas :p )
Tout dépend de la formulation de la question mais, dans le raisonnement qui conclut à 1/3, il n'y a pas deux tirages successifs. Il y a seulement une information générale sur le contenu de l'urne ("il y a au moins une boule rouge"), puis un tirage. S'il y a deux tirages, ton raisonnement est valide, et la conclusion est bien 1/2.
C'est une erreur. La médecine est basée sur des p value et a de gros biais de publications du fait des enjeux importants. La sociologie ne fait pas de p value ou rarement. Elle fait largement des études observationnelles. Du coup la dimension qu'on appellerait en science naturelle "mécanistique" est bien plus forte, et les publications ne sont pas dépendantes du fait d'atteindre ou non un résultat positif, tout est publié (+/-). Il suffit de lire un peu de publications en sociologie pour réaliser à quels points ces biais n'y sont pour partie pas possible parce qu'ils ne relèvent pas du régime de démonstration de la preuve dans cette discipline. Le processus classique est: il y a une théorie (ce que Lê appelle des préjugés justifiés), on va faire des observations et on les rapporte. Ensuite on dit dans quelle mesure ces observations ont renforcé la théorie sur telle point, ou l'ont affaibli, ou invitent à des évolutions de la dite théorie. Par contre, on a pas les moyens d'affirmer comment on peut généraliser ces observations, d'un point de vue mathématique. Mais on ne sais pas si une telle question a un sens dans des disciplines où le contexte est l'objet central de l'analyse (voir par exemple l'ouvrage de Paul Veyne "Comment on écrit l'histoire" qui critique la prétention scientiste des sociologues de l'époque). Pour faire court: à chaque fois que je lis un ouvrage de sociologie ou d'anthropologie ou de sociologie, ou que je discute avec un spécialiste, je sens bien que j'apprend des choses sur le sujet et que la connaissance du domaine est plus importante que celle que peut avoir un individu ordinaire. Mais il n'y a pas de p value dedans. Il reste qu'il peut y avoir d'autres biais et qu'il y aussi de mauvais chercheurs dans ces disciplines: des idéologues, ou des personnes qui considèrent qu'une observation suffit à produire un discours général. Les bons chercheurs, pour faire court, sont avant tout ceux qui sont conscients des limites de leurs travaux. Et parfois, au contraire, le culte de la p value amène des gens à balayer ces limites dans les sciences biomédicales notamment.
Que répondre à quelqu'un qui tenteras d'expliquer ses croyances en des choses non prouvé à l'aide de cette vidéo ? Je sait bien que ce n 'est pas ce qui est dit, mais que dire à quelqu'un qui voit dans ces arguments la preuve de l'homéopathie par exemple ?
c'est mon ressenti aussi. On a bien compris que cette vidéo vise le but exactement inverse que de soutenir les annonces sensationnalistes (dans votre exemple : croire en l'homéopathie sur la base d'un étude isolée, alors que tout l'édifice théorique et expérimental indique que l'homéopathie est une absurdité). Mais, j'en ai peur, pour interpréter la vidéo comme ça, il faut justement avoir préalablement compris ça, ne serait-ce qu'intuitivement... Quelqu'un qui "débarque" e qui voit juste cette vidéo risque d'en faire un contre-sens, et de croire qu "la science, c'est faux...."/ Bref, cette vidéo risque de brosser le biais de confirmation dans le sens du poil, quel que soit le préjugé initial vis-à-vis des sciences.... et en même temps, comment faire?.... Quelle formulation éviterait cette mauvaise interprétation? Dire explicitement que CE N'EST PAS CE QU'IL FAUT EN CONCLURE ? Mais, c'est déjà dit dans la vidéo, en fait....
@@alexrvolt662 Tout a fait d'accord avec toi. En posant ma question j'avais conscience qu'elle était rhétorique et qu'elle n’appelait soit pas de réponse, soit une réponse évidente . C'est plus un commentaire en faite. Et oui malheureusement les gens quand ils voit la science perdre en crédit on tendance à revaloriser leurs croyances irrationnel et non scientifique. Alors que justement si la science a torts (du moins plus que ce que l'on pense) ça ne fait que diminuer encore plus la crédibilité des croyances autre que scientifiques. Ce qui est bien sur précisé par S4All
Je ne comprends pas le problème de la P-value, d'après le modèle de cette vidéo, il suffit d'exiger des P-values très faibles pour augmenter beaucoup la credence à posteriori des théories non? Dans ce cas, pourquoi remettre en cause cette méthode?
C'est frustrant de se dire que plus on avance sur le chemin de la science, plus on réalise que la route est longue et sinueuse. C'est comme essayer d'attraper de la fumée, avec les mains... T'es-t-il déjà arrivé d'être vraiment triste en prenant la mesure ton ignorance alors que tu progressais sur un sujet particulier? Moi parfois, j'ai envie de baisser les bras, et de passer a un autre sujet.
je crois pas, tu risques juste de tomber sur un journal qui fait des peer review de complaisance. mais tfaçon moi dans mon domaine des articles qui utilisent des statistiques, des p-values ou les méta-analyses, j'en vois passer aucun. ya plusieurs types d'études
Salut, plusieurs organisations internationales ont été créées (rattachées à l'ONU) et ont pour mandat de faire une revue de littérature (donc établir une synthèse/état de l'art que l'on peut assimiler à un consensus) sur les sujets qui les concernent : le GIEC pour le climat est l'une des plus fameuses, il y aussi l'UNSCEAR pour le nucléaire, etc.
Il y a un aspect qui n'est pas pris en compte dans le modèle de publication que tu présentes : la dépendance entre les publications. Je vais prendre une exemple exagéré : supposons qu'un chercheur A publie un papier disant que la cause des cancers du cerveau réside dans le fait de porter des chaussures trop serrées. La crédence a priori de cette hypothèse est nulle, le buzz est énorme, la publication A fait la une des journaux grand public. Un chercheur B, qui cherche un traitement au cancer du cerveau, tombe sur cette publication. Intéressé, il se demande pourquoi une tell relation de cause à effet pourrait exister. Avant de chercher le lien physiologique, il va devoir reproduire l'étude pour s'assurer qu'il part bien dans la bonne direction. De deux choses l'une: (1) soit le chercheur A a effectivement raison, et le chercheur B ne va pas s'embêter à publier sa réplication (pas très intéressant comme ce n'est pas nouveau), par contre il va certainement publier un papier qui se base sur A (et le cite) et rajouter une contribution propre (par exemple, les chaussures trop serrées causent des tumeurs à cerveau à cause parce qu'elles causent en fait une compression de vaisseaux sanguins, qui du coup... etc.); peu après un chercheur C publiera lui-même une nouvelle étude généralisant le résultat du chercheur B aux cancers des testicules quand on porte des gants trop petits, etc.. Au final A sera citer souvent et les papiers citant A seront eux-même cités, et ainsi de suite. Ou bien (2) le chercheur A avait tort, et là soit le chercheur B prend le temps de publier un papier allant à l'encontre de A, soit il va simplement chercher dans une autre direction et ne pas citer A, auquel cas les chaînes de publications citant A vont être peu nombreuses et courtes. Je pense qu'on devrait pouvoir déduire a posteriori les résultats faux de la même manière que les chercheurs de Facebook essaient de détecter les fake news (voir videos de Smarter Everyday): en regardant l'arbre de citations qu'ils engendrent. De la même manière que les fake news engendrent des arbres de propagations différents des vraies news, les faux résultats devraient avoir un arbre de citation distinct; probablement large mais peu profond.
Je trouve ça très dommage de tant mépriser l'intuition. Il ne faut rien mépriser ou sous estimer en science, il me semble… Einstein a dit que l'imagination était plus importante que la connaissance. Pourquoi vous pensez ? Tous les objets qui nous entourent et que nous avons façonnés viennent de notre imagination, de notre ingéniosité, de notre intuition, de notre soif de nous dépasser, de comprendre, de trouver des réponses... La science devrait nous aider à mieux comprendre le monde qui nous entoure et nous-mêmes car nous sommes un mystère parmi tant d'autres, et loin d'être insignifiants... Il est nécessaire de continuer de chercher et d'essayer de mieux comprendre. La science est utile lorsqu'elle est honnête, même ses erreurs sont utiles... Il y a la science, la vraie et sa contrefaçon comme dans tout...
Ne pense tu pas tombé toi meme dans le piege des aprioris en partant du principe qu'une revue plus selective a plus de chance de publier des travaux serieu ? Prenons une revue avec un taux d'acceptation de 10%, ça n'a rien d’exceptionnel, il y a bien pire, mais ça suffira pour illustre le problème). Si on part d'un apriori qui est que la plusparts des chercheurs ne sont pas des mikey, on peu dire qu'a prioris sur 100 qui soumetent un article il y en a plus que 10 qui sont scientifiquement valide. Pour conaitre un peu le milieu je dirais plus de la moitie, metons 50%. Dans un premier temp l'hypotese falacieuse que les reviewer savent distinguer les 50 qui tiennent la route des autre avec un taux d'erreure Ereview=0% Maintenant reflechisson a comment cette revue choisit les 10 qu'elle vas publier parmi ces 50. Il faudrai une métrique fiable de a quel point ça tien la route pour pouvoir classer et prendre les 10 premier. Sauf qu'une tel métrique n'existe pas. Donc la question reste entiere, comment choisir ? Si il n'y a pas de façon scientifique de fair ce choix, il sera fait selon les bonnes vieilles methodes humaine : en suivant ses biais. Soit en choisissant les publication qui sont en accord avec nos propres travaux (on rapelle que les reviewer sont sensé etre des "pair" c'est a dire d'autre chercheur dans le meme domaine), c'est le bias de confirmation. Soit en choisissant les résultat les plus surprenant, c'est le biais d'exotisme. Soit en choisissant de publier en priorité les travaux des gents dont le travaille a déja eté reconu dans le passé, argument d'authorité. Bref la ribanbelle habituelle des argument fallacieux. Prenons maintenant une seconde revue avec un taux d'acceptation encore plus sellectif : 3%, whaou la c'est du serieu dit donc. Vraiment ? Ben plus que l'autre en tout cas ! C'est sure ça ? Pourtant on a toujours 50% des articles qui tiennent la route et un choix a fair parmis ceux la et toujour auccune methode scientifiquement valide pour faire ce second tri. Si on y regarde de plus pret on a 1bit de selection parfaitement justifier pour éliminer les articles qui ne tiennent pas la route, et puis en suite 1 bit pour en eliminer 25 de plus sans bonne raisons, encore 1bit pour eliminer 12.5 de plus, 1bit 6.25 et un de plus pour ariver a n'en garder que 3.125 (on vas arondir la) On a donc une décision qui est prise avec 1bit justifié et 4bit de pure biais. Alors que la premiere conderance n'avais que 2bit de biais pour 1bit justifié. La 2nd conférance vous parait toujour aussi serieuse ? Mais on vas pas s'areter en si bon chemin et on vas revenire sur une de nos hypothese de départ. On avait dit que Ereview=0%, c'est a dire que les reviewer savent distinguer parfaitement un article qui tiens la route d'un qui ne tiens pas la route. Les reviewer etant humain c'est une hypothese trés improbable. Metons qu'ils se trompent avec un taux d'erreur de 4% (c'est le taux d'erreur constaté en moyenne chez l'humain pour reconaitre un visage, une des tache pour laquel notre espece est la plus douée) avec une ereure parfaitement répartie entre faux positif et faux négatif ça fait 2 article qui tiennent la route qui seront rejeter d'office et deux article bidon qui auront une chance de passer. On rapelle d'en réalité la selection ne s'effectuent pas en deux étapes mais en une seule. Les biais ayant une plus grande part dans la déscision de la seconde conférence, si on prend en compte le taux d'erreure non null sur le seul bit significatif on voie qu'il y a en fait plus de chance de retrouver un des deux article fallacieux dans la conférence la plus sélective !!!! Et c'est pas finit ! Il y a ce F#! de P$%* d'effet de halo qui vas entré en jeux. Les bias jouent un plus grand role dans la seconde conférence que dans la premiere, et donc par effet de halo ils pollueront plus le premier bit. Moralité quand tu affirme qu'on doit accorder une crédence plus grande a un papier publier dans une revue plus selective, c'est un préjugé biaisé. Ca n'est vrai que si le taux de selection est supérieur au taux de papier qui tiennent la route, postulat largement dépassé dans le monde de la recherche moderne. Si le taux de selection est inférieur, alors au contraire plus le taux de selection es drastique plus la crédence devrait etre faible ! Just my 2cts...
salut.. je kiff ta chaine.. je te rejoins a 100%... tu devrais stp en parler a la chaine de "la tronche en biais"... je pense qu il y aura pas mal d elecrons libre enrre vous..
Le biais de publication on peut pas dire que si c est journaux sont connu et prestigieux ils ont pas intérêt a publié des chose effectivement novatrice mais serieux, si la plupart etait faux c est journaux serrai descridité et donc il prenne pas des truc trop improbable. (C est une question je suis pas du tout calé dessus ).
C'est dommage de parler aussi vite, y'aurait le feu ?! La seule certitude que tous les scientifiques aient ; qu'ils soient sincères ou malhonnêtes, dans le vrai ou dans le faux, qu'ils se servent de la science pour trouver la vérité ou pour la déformer. Je parle bien évidemment de la recherche sincère de la réalité objective de ce qui EST par delà toutes les perspectives subjectives et aussi des tendances inhérentes à chacun et/ou des préférences ou intérêts... Bref ! La seule certitude que tous les vrais ou faux scientifiques puissent avoir est la mort. Pour le reste ; chacun devrait savoir que plus on en sait et plus on sait qu'on ne sait rien encore... Réjouissons-nous donc d'avoir tant à apprendre, à observer, à comprendre et à découvrir. De plus, j'aimerais ajouter que le choix des mots laisse souvent à désirer pour expliquer les choses... Que la vanité et l'orgueil en aveugle plus qu'un, que seul les hommes de bonne volontés peuvent être vraiment crédibles à mes yeux... Pour conclure finalement ce commentaire, j'ajoute que si je mettais un simple moucherons au centre d'une table devant tous les scientifiques de cette planète, trop imbus de leur prétendu savoir en leur disant tout simplement d'en faire un pareil à partir de rien du tout. Que verrais-je si ce n'est de les voir tous partir penauds... Ou enragés... C'est la guerre dans ce domaine comme dans tous les domaines finalement, mais, que ce n'est franchement pas surprenant vu la nature humaine... Des bons et des mauvais il y en a partout sur la Terre et dans tous les domaines... Tout n'est pas noir ou blanc bien sûr, or, le gris est devenu aveuglant...
J'écoutais en livre audio le meilleur des mondes...1930... Nous vivons une colonisation banquaire,aucune info est gratuite,surtout les vraies info,...danger, bénéfice...silence,....sciences indépendantes?tu supporte le ?besoin de précision,...??
Une credence est un meuble, en français on dit crédibilité ou foi. On ne dit pas non plus incentive, mais incitation. C'est pas parce que c'est incompréhensible que c'est mieux, petit manque de maturité.
Ce n'est pas un manque de maturité, c'est un choix réfléchi de sa part. Les termes proposés ne correspondent pas exactement, selon lui, au sens qu'il veut transmettre.
@@VeganCookies Il correspondent exactement puisqu'ils ont un équivalent français. Par exemple expectation value se dit espérance mathématique, traduction exacte bien que expectation ne soit pas exactement espérance. Ce ne sont pas des notions nouvelles, donc on utilise le français, c'est la règle pour la communication scientifique. Croire qu'il va changer ça, c'est vraiment un manque de maturité.
@@massecl Ils ne sont pas vraiment équivalents s'ils sont ressentis différemment, même si un dictionnaire ou un groupe d'experts décideraient qu'ils sont équivalents. S'il utilise l'expression expectation value (je ne sais plus s'il le fait ou pas), c'est vraie qu'il aurait pu dire espérance mathématiques. Par contre, je trouve un peu agressif de parler de manque de maturité pour un désaccord linguistique.
@@VeganCookies C'est pas une question de ressentir, c'est une définition mathématique rigoureuse. Avec crédence je persiste à ressentir un meuble, surtout que le mot existe aussi en allemand avec le même sens. Et avec incentive en français je perçois plutôt incendie, ce suffixe n'existe pas. Désolé d'avoir mes petites habitudes linguistiques, mais il faudra faire avec. Moins on en a…
"C'est compliqué" Ouais, ça je l'ai bien cerné ouais.
Mdrrr c'est déjà un premier pas 😂
C'est nous qui compliquons tout, la simplicité nous échappe trop souvent...
"Selon les derniers chiffres, 48% des statistiques sont fausses."
73.53478% des etudes statistiques surestiment la precision de leurs conclusions.
@@josephmathmusic lol
Le seul passage à une p-value < seuil n'est ABSOLUMENT PAS LE SEUL CRITERE DE "PUBLIABILITE". Les relecteurs des revues scientifiques s'appuient d'abord sur la taille d'effet, ainsi que les matériels et méthodes, en tout premier lieu. Il est faux de faire croire que les publications sont "triées" selon leur seule p-value. C'est très très loin d'être le cas.
En revanche il est vrai qu'on devrait publier toute étude à "méthodologie correcte", quel que soit son résultat (même quand "on n'a rien trouvé de nouveau"). Car l'absence de nouveauté (hypothèse nulle confirmée) est une information en soi.
un peu dans le même registre : un point qui me chagrine, c'est que ces vidéos se focalisent implicitement sur les publis qui reposent par nature sur des vérifications expérimentales. Cela peut donner l'impression que toutes les publis souffrent de ces maux (alors que, bien-entendu, ces objections ne font pas sens pour les travaux théorique et/ou portant sur des aspects méthodologiques).
Et là, j'ai LE gros doute. Il me semble qu'en vrai, le but de ces vidéos est de faire comprendre qu'une étude expérimentale n'a de signification qu'en regard de la théorie dans laquelle elle s'inscrit / à laquelle elle se confronte.
Or, mon ressenti (peut-être faux), c'est que pour interpréter ces vidéo comme ça, il faut préalablement avoir compris ça.
i.e. : si je n'ai pas compris ça au préalable, je vais regarder la vidéo et en tirer la conclusion que "la science est fausse" ...
pas évident...
FAUX DE CHEZ FAUX
" Les relecteurs des revues scientifiques s'appuient d'abord sur la taille d'effet"
Avec la taille de l’échantillon (~le materiel), c'est justement se qui permet de calculé la P-value.
Donc ça revient à utiliser la p-value.
Et oui, il y a d'autre critère, mais ils sont un peut hors-sujet pour cette vidéo.
@@paulamblard3836 tg
La crédence (de l'italien credenza, « croyance ») est un meuble, ou partie de buffet, où l'on range et expose la vaisselle, les plats précieux et les objets servant pendant le repas.
tout a fait.. il emploi un mot qui n'existe pas en français
Très Cher Lê, tes vidéos sont de mon point de vue Tellement BIEN Faites et d'Intérêt PUBLIQUE 👍👏👏
Encore MERCI de Faire Ce Que Tu Fais, COMME Tu Le Fait et AVEC La Bonne Volonté Pour L'Intérêt Général que Tu sembles Manifestement Avoir 😍🤗🤗
Voilà une démonstration mathématique du proverbe sceptique "Une affirmation extraordinaire exige une preuve plus qu’ordinaire" !
Ok
On dit plutot "Une affirmation extraordinaire exige une preuve plus qu’extraordinaire"
@@billa38000 tg
Comme dit Hygiène mentale (super chaine scientifique)
Bravo et merci de faire connaître ces arguments aux citoyens. Je sens que vous êtes beaucoup plus à l'aise en mathématiques qu'en apprentissage machine / intelligence artificielle. Du coup, cette vidéo est d'autant plus pertinente et utile au groupe. Encore bravo et merci. Cordialement
Désolé si ma question est bête mais.. Comment fait on pour savoir si quelques chose est un consensus scientifique ou non ? Y a un endroit où les consensus sont réunis ???
merci, tu réponds à la question que je m'étais posée: comme H1 décrit souvent un ensemble continu, comment calculer en supposant H1 vraie? Tu dis que pour simplifier on prend le maximum de vraisemblance, mais comme tu le dis on est très généreux en faveur de H1
1:00 je vais donc suivre le conseil de Lé, et résister fortement à mon envie de partager cette vidéo et de la liker. Ah, mais ce n'est pas une publication scientique, ok, je like et je partage.
Le problème, c'est aussi de classer toutes les hypothèses en vraies ou fausses. Mais beaucoup sont partiellement vraies ou partiellement fausses.
Il y a aussi des cas de figure où on a raison d'avoir tort. La physique théorique par exemple. Si personne ne se risque à défendre des hypothèses risquées, l'on n'avancera pas d'un yota.
J'apprécie que vous reconnaissiez que, d'un domaine des sciences à l'autre, la méthode d'acceptation ou de rejet d'une publi varie beaucoup (et donc celle de se lancer ou pas dans une étude "pas sexy" aussi). En effet, j'ai travaillé dans plusieurs domaines de l'environnement où il n'était pas trop difficile de publier une nouvelle étude qui ne faisait que confirmer des choses déjà bien connues (pas trop de prime au "putaclic"). C'est vrai même en médecine, dans les maladies dont tout le monde se fout complètement.
Non
Dans la démonstration de départ, on passe un peu vite sur les 'incentives' qui sont suggérées comme allant uniquement dans le sens du sensationnel. On passe un peu facilement sur le fait que la réputation est aussi un critère important sur la durée. Donc il y a bien un intérêt immédiat à publier plutôt des résultats étonnants, mais il est contrebalancé par l'intérêt à conserver sa réputation en ne publiant pas trop de choses qui risquent d'être démenties ensuite.
L'effet covid peut-être, mais j'ai l'impression qu'il y a également une part de business à prendre sur le côté sensationnel, des incentives générés plus par la création d'une communauté.
Un scientifique aura certainement une bonne mémoire des articles, dans son domaine restreint, qui auront par la suite été révélés fausses/incomplètes. Mais j'ai l'impression que le grand public, les médias, possiblement même les directeurs de centres de recherches retiendront un nom et l'article qui est sorti du lot bien plus que l'article de rectification sorti quelques semaines/mois plus tard et qui fait moins de buzz. Ce serait intéressant de savoir comment mesurer ça et si écrire un certain pourcentage d'articles faux (quittes à les corriger dans la foulée) n'est pas une façon viable de booster sa carrière (en omettant le côté moral).
Seule la crédence en la méfiance doit être importante, d'autant plus quand la méfiance en la croyance tend vers zéro. glop glop. :-)
OK
Je comprends pas vraiment cet acharnement sur la méthode par P-valeur... Personne ne dit que c'est une représentation absolument fiable de la réalité, c'est seulement un outil avec ses défauts et ses qualités. Peut-être que j'ai loupé un truc mais, pour moi, il y a H0 et H1.
H0 = Les données ne permettent pas de montrer un effet du traitement au seuil de 5%.
H1 = Les données semblent montrer un effet du traitement au seuil de 5%.
Et là encore, "l'effet du traitement" peut venir de biais expérimentaux.
Par ailleurs, on peut mettre la barre où l'on veut: 0,5% c'est un bon début, surtout pour un screening, mais on après on peut mettre la barre à 1%, 0,5%, 0,1% etc...
Et je ne parle même pas de toutes les modèles statistiques disponibles qui permettent d’écarter certain biais issus d'une répartition asymétrique, anormale des données et de la puissance du test qui doit impérativement être prise en compte!
En d'autres termes, les gardes fous sont là. Il ne faut juste pas les ignorer.
Je ne dis pas que la méthode Bayésienne est mauvaise, loin de là.
Je dis que la méthode par P-valeur n'est pas à jeter.
Très bon contenu! Bonne continuation!
P.S: Cela pourrait être intéressants d'avoir un cas concret de données traitées avec les deux méthodes, avec le détail des calcules et des schémas et des graphiques pour que cela soit bien clair.
Et si tu as des bouquins à conseiller, c'est bien volontiers!
Tg. On a pas lu c trop long
@@aroufgangsta49 Comme ma courbe normale dans ton écart-type. Tu la sens la robustesse de ma procédure "t" ?
@@henkfermeul3720 Henk ferm(tag)eul. Tout est dans le TAG
@@aroufgangsta49 😁 ça va? C'était pas trop dur à comprendre la vidéo? Tu dis si t'as des questions, je t'explique volontiers. Bisous.
@@henkfermeul3720 oklm j'ai géré la P value
Super :) une proposition d'hypothese H1 que je trouve très bien, c'est vraiment quelque chose qui me manquait pour pouvoir me faire une idée d une interpretation bayesienne d'un test statistique sur un facteur d'une regression linéaire :D
Faut que je lise le fameux article putaclic ca a l'air super interessant. Merci pour la vidéo et bonne continuation !
Bah je trouve ça rassurant moi, au final ya peut être pas tant de choses que ça qui sont mauvaises pour la santé !
lol
Bigre, je comprends mieux la radicalité de tes positions :)
Chouette vidéo, merci.
j'aime de plus en plus tes vidéos et explications, serait-ce que j'apprécie particulièrement les personnes qui ont un regard critique envers leur diciplines et actions ? suis-je en plein biais cognitif ?
Petite remarque : les youtubers cités au début ne disent PAS qu'une publi scientifique est plus souvent une mésinformation qu'une information fiable. En tous cas pas Science Etonnante.
Faux ne veut pas dire mesinformation.
Un physicien qui croit à tel modèle théorique (par exemple la gravitation quantique à boucles) va trouver plein de données qui vont alimenter sa théorie. Pour autant il y a une certaine probabilité pour que sa théorie soit fausse.
Pour autant, la revue a raison de le publier, car si on ne publiait que ce qui est 100% avéré, la physique théorique ne progresserait pas. Il y a des chances que ce soit faux, mais il fallait le publier quand même.
@@ultimusmaximus5950 C'est une telle évidence ! Il n'y a rien de certain à 100%. La p-value elle-même, dans sa définition, est une probabilité de se gourrer ! Et même si on prend d'autres méthodes (prenons par exemple le curseur de Turing bien expliqué par Lê) : rien ne peut atteindre 100% de certitude. Or on publie, et heureusement, ce qui semble davantage probable qu'à l'accoutumée, en y exposant justement cette quantification de probabilité. Ne jouez-vous pas sur les mots en parlant de "faux" ou "avéré" ? Il me semble que ma remarque reste valable à propos de ce que Lê a voulu faire dire à d'autres youtubers alors qu'ils ne l'ont pas dit.
@@ultimusmaximus5950 Bonne remarque sur différence entre théorie et hypothèse, surtout quand on fait du fréquentisme. Quant au sens du vrai et du faux c'est un gigantesque domaine de la philosophie des sciences et de l'épistémologie. A mon goût, les meilleures vidéos à ce sujet sont certaines vidéos de Monsieur Phi.
@@guillaumelimousin7988 après, je ne crache pas dans la soupe !
J'apprends énormément grâce à Science4all, et la manière dont les questions y sont abordées, non seulement osent attaquer frontalement la vulgarisation en mathématiques, mais montre bien aussi la profondeur des problèmes posés.
Nous pousser à nous casser la tête sur des questions fondamentales, dont on découvre en même temps la profondeur, ça a bien fonctionné sur moi en tout cas concernant la méthode bayesienne et la "terre qui accélère vers le haut" dans la relativité générale. Je n'ai pas regardé toutes ses séries, mais je lui reconnais ça.
@@ultimusmaximus5950 Moi aussi, j'ai adoré et j'aime encore. Mais je ne suis pas le seul à trouver que : 1) depuis les séries sur l'IA puis sur le bayésianisme, ça pert en simplicité et en clarté, et 2) depuis cette série sur le bayésianisme, il y a un parti pris qui est parfois défendu (et un "camp adverse", celui des fréquentistes, qui est combattu) avec des formulations ou même des arguments trompeurs, voire erronés. Ce qui est plus grave. C'est vraiment dommage.
Pensons à une théorie qui est vraie dans 90 % des cas. Au fur et à mesure des expériences, le curseur de Turing devrait converger vers environ 3 bits en sa faveur.
Une étude des données proche de l'exhaustivité positionnera probablement le curseur de cette manière.
Une petite étude, sur un petit échantillon, peut aussi conclure à ce positionnement du curseur, mais aussi à un positionnement complètement différent.
Du coup, je suis un peu embêté parce que, dans le cas des théories qui ne sont pas toujours vraies (ou pas toujours fausses), le curseur de Turing ne semble pas permettre de faire la différence entre les preuves solides et les preuves faibles. Je me trompe ?
Oui
Ce qu'il faudrait, c'est qu'une expérience soit publiée a priori puis l'échantillon est fait par une autre équipe qui va dire, en suivant à la lettre le protocole, si oui ou non c'est significatif.
Par exemple :
Equipe 1 : "H0 : A ne provoque pas B ; H1 : A provoque B" "Expérience : réaliser telle expérience."
Equipe 2 : réalise l'expérience
Equipe 1 : conclusion
Ainsi, on ne passe plus à côté des expériences qui n'ont pas été publiées ni des chercheurs qui veulent faire mettre leurs données carrées dans les trous ronds.
Ça ne marche pas comme ça.
On peut tester l'hypothèse H0 : « il n'y a pas de lien entre A et B » contre l'hypothèse H1 : « il y a un lien entre A et B ».
Mais dire « A provoque B » n'est pas testable statistiquement. On peut au mieux montrer qu'il y a vraisemblablement un lien entre A et B.
Pour dire « A provoque B » il faut une théorie qui montre que A provoque souvent B.
Si le résultat du test est « il y a un lien statistique entre A et B » on peut dire que la théorie est confirmée par le test.
Si le résultat du test est « il n''y a pas de lien statistique entre A et B » on ne peut pas dire que la théorie est infirmée par le test. Juste que sa vraisemblance diminue.
Mais si tu as une théorie disant « A provoque presque toujours B » et que l’étude statistique ne montre pas de lien entre A et B alors elle réfute la théorie.
@@pverdurin2434 C'est vrai pour une observation. C'est faux pour une expérience sous contrôle dans laquelle seule A est modifiée pour mesurer B.
@@Anolyia Faire des statistiques sur une observation n'a guère de sens.
Si on fait une « une expérience sous contrôle dans laquelle seule A est modifiée pour mesurer B » on peut avoir :
-- un lien de confusion entre A et B, c'est à dire que A et B ont une cause commune mais aucun lien de causalité,
-- un lien de causalité entre A et B, mais qui n'est pas forcément « A provoque B ».
Dans le second cas A peut-être une condition nécessaire pour B ou une condition suffisante.
Pour donner un exemple caricatural : A est le sexe et B le fait d'avoir un cancer de la prostate.
On peut remarquer qu'il y a un lien statistique très fort entre A et B.
Ce qui ne veut pas dire qu'être mâle provoque le cancer de la prostate, c'est une condition nécessaire, mais pas suffisante.
@@pverdurin2434 Et bien si, faire des statistiques sur une observation permet JUSTEMENT de voir s'il y a une corrélation potentielle entre 2 éléments. Ca permet d'éviter des études coûteuses qui ne vont rien donner. Par exemple : "c'est bizarre, les gens qui ont un cancer du poumon sont à 95% des fumeurs, ce qui est différent de la proportion de fumeurs. Est-ce qu'il y aurait un lien de causalité ?" -> expériences sur des animaux (rongeurs, cochons,... suivant ce qui est testé)
@@Anolyia Ce n'est pas une observation mais des dizaines de milliers d'observations.
Je crois que « observation » ne désigne pas la même chose pour toi et moi.
Et je n'ai pas envie de me battre sur le sens des mots.
Mais, en ce qui concerne le lien entre « avoir le cancer du poumon » et « fumer » je me souviens que, au début années 90, quelqu'un avait prétendu prouver le lien de façon purement statistique. Je dois avouer que je n'ai pas lu sa publication, mais il en était vraiment fier.
Il faut quand même dire qu'il y a quarante ans, et même avant, le lien et la causalité étaient certaines.
Mais qu'il n'y avait aucune étude ne reposant que sur les statistiques pour le prouver.
Les stats c'est bien mais ça ne prouve pas grand chose sans modèle à tester.
Monsieur logicien entre triomphalement à son bureau : "Ma femme a accouché ! J'ai un troisième enfant". Un de ses collègues lui demande :
"- C'est un garçon ou une fille?
- oui."
Super vidéo comme toujours !
Super vidéo, merci ! Est-ce que les valeurs de "préjugé", " stats", et "putaclic" que tu calcules dans la vidéo sont celle de l'article que tu évoques? (Flemme d'aller voir :-)) Quelle incertitude associerais-tu à ces valeurs? Parce que même si elles semblent conservatives, elles me semblent aussi être obtenues un peu "au doigt mouillé".
Franchement, même si j'ai tendance à penser que beaucoup de publications sont erronées, la méthode utilisée ici, bayesienne ou pas, paraît très pifometrique.
Je ne pense pas que la probabilité que l'autre enfant soit 1/3, car cela supposerait qu'avoir eu un enfant ai retiré cette possibilité d'un "pool" fini : dans un bac je met une balle rouge et une balle noire, je pioche au hasard, j'ai 50% de chance d'avoir une couleur, puis 100% de chance de piocher l'autre couleur la prochaine fois que je pioche. Hors, pour le sexe d'un enfant, le "pool" est infini, avoir un garçon ne retire pas une chance d'avoir un garçon la prochaine fois, et ce devrait donc rester 50%.
Mais j'ai déjà suivis les précédentes vidéos, que ce soit avec l'exemple garçon/fille garçon/garçon fille/fille fille/garçon où il fallait trouver la probabilité de ceci ou cela. Mais je crois qu'ici aussi je n'étais pas d'accord.
Pour moi, avoir une donnée initiale dans ce type de cas ne change jamais le résultat final. (Oui, malgré les vidéos que j'ai vu, je ne l'admet toujours pas :p )
Tout dépend de la formulation de la question mais, dans le raisonnement qui conclut à 1/3, il n'y a pas deux tirages successifs. Il y a seulement une information générale sur le contenu de l'urne ("il y a au moins une boule rouge"), puis un tirage.
S'il y a deux tirages, ton raisonnement est valide, et la conclusion est bien 1/2.
on en veut pluss des vidéos comme ça !
je suis encore plus inquiet pour la sociologie que pour la médecine.
TG
C'est une erreur. La médecine est basée sur des p value et a de gros biais de publications du fait des enjeux importants. La sociologie ne fait pas de p value ou rarement. Elle fait largement des études observationnelles. Du coup la dimension qu'on appellerait en science naturelle "mécanistique" est bien plus forte, et les publications ne sont pas dépendantes du fait d'atteindre ou non un résultat positif, tout est publié (+/-). Il suffit de lire un peu de publications en sociologie pour réaliser à quels points ces biais n'y sont pour partie pas possible parce qu'ils ne relèvent pas du régime de démonstration de la preuve dans cette discipline. Le processus classique est: il y a une théorie (ce que Lê appelle des préjugés justifiés), on va faire des observations et on les rapporte. Ensuite on dit dans quelle mesure ces observations ont renforcé la théorie sur telle point, ou l'ont affaibli, ou invitent à des évolutions de la dite théorie. Par contre, on a pas les moyens d'affirmer comment on peut généraliser ces observations, d'un point de vue mathématique. Mais on ne sais pas si une telle question a un sens dans des disciplines où le contexte est l'objet central de l'analyse (voir par exemple l'ouvrage de Paul Veyne "Comment on écrit l'histoire" qui critique la prétention scientiste des sociologues de l'époque). Pour faire court: à chaque fois que je lis un ouvrage de sociologie ou d'anthropologie ou de sociologie, ou que je discute avec un spécialiste, je sens bien que j'apprend des choses sur le sujet et que la connaissance du domaine est plus importante que celle que peut avoir un individu ordinaire. Mais il n'y a pas de p value dedans. Il reste qu'il peut y avoir d'autres biais et qu'il y aussi de mauvais chercheurs dans ces disciplines: des idéologues, ou des personnes qui considèrent qu'une observation suffit à produire un discours général. Les bons chercheurs, pour faire court, sont avant tout ceux qui sont conscients des limites de leurs travaux. Et parfois, au contraire, le culte de la p value amène des gens à balayer ces limites dans les sciences biomédicales notamment.
Très bonnes vidéos franchement continue
Dac
Comment être crédible dans le domaine scientifique en disant "tous les modèles sont faux"? C'est pas très sérieux tout ça :)
Et voilà pourquoi on fait des méta analyses. Questions, à quel point sont-elles en fait fiables ces méta analyses ?
Il faut immédiatement mener des méta-méta-analyses !
@@ObsidianParis tg
Que répondre à quelqu'un qui tenteras d'expliquer ses croyances en des choses non prouvé à l'aide de cette vidéo ?
Je sait bien que ce n 'est pas ce qui est dit, mais que dire à quelqu'un qui voit dans ces arguments la preuve de l'homéopathie par exemple ?
c'est mon ressenti aussi. On a bien compris que cette vidéo vise le but exactement inverse que de soutenir les annonces sensationnalistes (dans votre exemple : croire en l'homéopathie sur la base d'un étude isolée, alors que tout l'édifice théorique et expérimental indique que l'homéopathie est une absurdité). Mais, j'en ai peur, pour interpréter la vidéo comme ça, il faut justement avoir préalablement compris ça, ne serait-ce qu'intuitivement... Quelqu'un qui "débarque" e qui voit juste cette vidéo risque d'en faire un contre-sens, et de croire qu "la science, c'est faux...."/ Bref, cette vidéo risque de brosser le biais de confirmation dans le sens du poil, quel que soit le préjugé initial vis-à-vis des sciences....
et en même temps, comment faire?....
Quelle formulation éviterait cette mauvaise interprétation?
Dire explicitement que CE N'EST PAS CE QU'IL FAUT EN CONCLURE ?
Mais, c'est déjà dit dans la vidéo, en fait....
@@alexrvolt662 Tout a fait d'accord avec toi. En posant ma question j'avais conscience qu'elle était rhétorique et qu'elle n’appelait soit pas de réponse, soit une réponse évidente .
C'est plus un commentaire en faite.
Et oui malheureusement les gens quand ils voit la science perdre en crédit on tendance à revaloriser leurs croyances irrationnel et non scientifique. Alors que justement si la science a torts (du moins plus que ce que l'on pense) ça ne fait que diminuer encore plus la crédibilité des croyances autre que scientifiques.
Ce qui est bien sur précisé par S4All
Tg?
Je ne comprends pas le problème de la P-value, d'après le modèle de cette vidéo, il suffit d'exiger des P-values très faibles pour augmenter beaucoup la credence à posteriori des théories non? Dans ce cas, pourquoi remettre en cause cette méthode?
Vidéo intéressante. Du coup on a pas découvert le boson de Higgs ?
Non
C'est frustrant de se dire que plus on avance sur le chemin de la science, plus on réalise que la route est longue et sinueuse. C'est comme essayer d'attraper de la fumée, avec les mains... T'es-t-il déjà arrivé d'être vraiment triste en prenant la mesure ton ignorance alors que tu progressais sur un sujet particulier? Moi parfois, j'ai envie de baisser les bras, et de passer a un autre sujet.
Trop PA lu
Première question méta après 5 Sec... Sa propre publication est donc elle aussi fausse ?
Vaut-il mieux faire confiance aux etudes publiees dans des moins bonnes revues car il y a moins de biais de publication?
je crois pas, tu risques juste de tomber sur un journal qui fait des peer review de complaisance. mais tfaçon moi dans mon domaine des articles qui utilisent des statistiques, des p-values ou les méta-analyses, j'en vois passer aucun. ya plusieurs types d'études
il n'y aurait pas un site qui regroupe tout les consensus sur la plupart des sujets ?
Salut, plusieurs organisations internationales ont été créées (rattachées à l'ONU) et ont pour mandat de faire une revue de littérature (donc établir une synthèse/état de l'art que l'on peut assimiler à un consensus) sur les sujets qui les concernent : le GIEC pour le climat est l'une des plus fameuses, il y aussi l'UNSCEAR pour le nucléaire, etc.
Si
Il y a un aspect qui n'est pas pris en compte dans le modèle de publication que tu présentes : la dépendance entre les publications. Je vais prendre une exemple exagéré : supposons qu'un chercheur A publie un papier disant que la cause des cancers du cerveau réside dans le fait de porter des chaussures trop serrées. La crédence a priori de cette hypothèse est nulle, le buzz est énorme, la publication A fait la une des journaux grand public. Un chercheur B, qui cherche un traitement au cancer du cerveau, tombe sur cette publication. Intéressé, il se demande pourquoi une tell relation de cause à effet pourrait exister. Avant de chercher le lien physiologique, il va devoir reproduire l'étude pour s'assurer qu'il part bien dans la bonne direction. De deux choses l'une: (1) soit le chercheur A a effectivement raison, et le chercheur B ne va pas s'embêter à publier sa réplication (pas très intéressant comme ce n'est pas nouveau), par contre il va certainement publier un papier qui se base sur A (et le cite) et rajouter une contribution propre (par exemple, les chaussures trop serrées causent des tumeurs à cerveau à cause parce qu'elles causent en fait une compression de vaisseaux sanguins, qui du coup... etc.); peu après un chercheur C publiera lui-même une nouvelle étude généralisant le résultat du chercheur B aux cancers des testicules quand on porte des gants trop petits, etc.. Au final A sera citer souvent et les papiers citant A seront eux-même cités, et ainsi de suite. Ou bien (2) le chercheur A avait tort, et là soit le chercheur B prend le temps de publier un papier allant à l'encontre de A, soit il va simplement chercher dans une autre direction et ne pas citer A, auquel cas les chaînes de publications citant A vont être peu nombreuses et courtes.
Je pense qu'on devrait pouvoir déduire a posteriori les résultats faux de la même manière que les chercheurs de Facebook essaient de détecter les fake news (voir videos de Smarter Everyday): en regardant l'arbre de citations qu'ils engendrent. De la même manière que les fake news engendrent des arbres de propagations différents des vraies news, les faux résultats devraient avoir un arbre de citation distinct; probablement large mais peu profond.
Oui bien sûr, les fake news passent par la Russie, LOL
Même dans la crédence, il y a une confusion manifeste :)) fr.wikipedia.org/wiki/Crédence
Tg
anglicisme de ''credence''
Je trouve ça très dommage de tant mépriser l'intuition. Il ne faut rien mépriser ou sous estimer en science, il me semble… Einstein a dit que l'imagination était plus importante que la connaissance. Pourquoi vous pensez ? Tous les objets qui nous entourent et que nous avons façonnés viennent de notre imagination, de notre ingéniosité, de notre intuition, de notre soif de nous dépasser, de comprendre, de trouver des réponses... La science devrait nous aider à mieux comprendre le monde qui nous entoure et nous-mêmes car nous sommes un mystère parmi tant d'autres, et loin d'être insignifiants... Il est nécessaire de continuer de chercher et d'essayer de mieux comprendre. La science est utile lorsqu'elle est honnête, même ses erreurs sont utiles... Il y a la science, la vraie et sa contrefaçon comme dans tout...
Pourquoi ne pas employer le terme de croyance au lieu du terme impropre de crédence ?
crédibilité, et incitation au lieu de incentive.
Avec son choix de titre d'article, Ioannidis n'est pas très loin du paradoxe du menteur.
Faux
félicitations ; )
Ne pense tu pas tombé toi meme dans le piege des aprioris en partant du principe qu'une revue plus selective a plus de chance de publier des travaux serieu ?
Prenons une revue avec un taux d'acceptation de 10%, ça n'a rien d’exceptionnel, il y a bien pire, mais ça suffira pour illustre le problème).
Si on part d'un apriori qui est que la plusparts des chercheurs ne sont pas des mikey, on peu dire qu'a prioris sur 100 qui soumetent un article il y en a plus que 10 qui sont scientifiquement valide. Pour conaitre un peu le milieu je dirais plus de la moitie, metons 50%.
Dans un premier temp l'hypotese falacieuse que les reviewer savent distinguer les 50 qui tiennent la route des autre avec un taux d'erreure Ereview=0%
Maintenant reflechisson a comment cette revue choisit les 10 qu'elle vas publier parmi ces 50. Il faudrai une métrique fiable de a quel point ça tien la route pour pouvoir classer et prendre les 10 premier. Sauf qu'une tel métrique n'existe pas. Donc la question reste entiere, comment choisir ? Si il n'y a pas de façon scientifique de fair ce choix, il sera fait selon les bonnes vieilles methodes humaine : en suivant ses biais. Soit en choisissant les publication qui sont en accord avec nos propres travaux (on rapelle que les reviewer sont sensé etre des "pair" c'est a dire d'autre chercheur dans le meme domaine), c'est le bias de confirmation. Soit en choisissant les résultat les plus surprenant, c'est le biais d'exotisme. Soit en choisissant de publier en priorité les travaux des gents dont le travaille a déja eté reconu dans le passé, argument d'authorité. Bref la ribanbelle habituelle des argument fallacieux.
Prenons maintenant une seconde revue avec un taux d'acceptation encore plus sellectif : 3%, whaou la c'est du serieu dit donc. Vraiment ? Ben plus que l'autre en tout cas ! C'est sure ça ?
Pourtant on a toujours 50% des articles qui tiennent la route et un choix a fair parmis ceux la et toujour auccune methode scientifiquement valide pour faire ce second tri. Si on y regarde de plus pret on a 1bit de selection parfaitement justifier pour éliminer les articles qui ne tiennent pas la route, et puis en suite 1 bit pour en eliminer 25 de plus sans bonne raisons, encore 1bit pour eliminer 12.5 de plus, 1bit 6.25 et un de plus pour ariver a n'en garder que 3.125 (on vas arondir la) On a donc une décision qui est prise avec 1bit justifié et 4bit de pure biais.
Alors que la premiere conderance n'avais que 2bit de biais pour 1bit justifié. La 2nd conférance vous parait toujour aussi serieuse ?
Mais on vas pas s'areter en si bon chemin et on vas revenire sur une de nos hypothese de départ. On avait dit que Ereview=0%, c'est a dire que les reviewer savent distinguer parfaitement un article qui tiens la route d'un qui ne tiens pas la route. Les reviewer etant humain c'est une hypothese trés improbable. Metons qu'ils se trompent avec un taux d'erreur de 4% (c'est le taux d'erreur constaté en moyenne chez l'humain pour reconaitre un visage, une des tache pour laquel notre espece est la plus douée) avec une ereure parfaitement répartie entre faux positif et faux négatif ça fait 2 article qui tiennent la route qui seront rejeter d'office et deux article bidon qui auront une chance de passer. On rapelle d'en réalité la selection ne s'effectuent pas en deux étapes mais en une seule. Les biais ayant une plus grande part dans la déscision de la seconde conférence, si on prend en compte le taux d'erreure non null sur le seul bit significatif on voie qu'il y a en fait plus de chance de retrouver un des deux article fallacieux dans la conférence la plus sélective !!!!
Et c'est pas finit ! Il y a ce F#! de P$%* d'effet de halo qui vas entré en jeux. Les bias jouent un plus grand role dans la seconde conférence que dans la premiere, et donc par effet de halo ils pollueront plus le premier bit.
Moralité quand tu affirme qu'on doit accorder une crédence plus grande a un papier publier dans une revue plus selective, c'est un préjugé biaisé. Ca n'est vrai que si le taux de selection est supérieur au taux de papier qui tiennent la route, postulat largement dépassé dans le monde de la recherche moderne. Si le taux de selection est inférieur, alors au contraire plus le taux de selection es drastique plus la crédence devrait etre faible !
Just my 2cts...
salut.. je kiff ta chaine.. je te rejoins a 100%...
tu devrais stp en parler a la chaine de "la tronche en biais"...
je pense qu il y aura pas mal d elecrons libre enrre vous..
Mdr trop mignon ta ptite bourde. Tu voulais sûrement dire "atomes crochus" ? :D
Y avait de l'idée avec une particule et tout mais c'est loupé ^^
@@tristanalbert3856 tg
paramètres / vitesse de lecture / 0.75
paramètres / vitesse de lecture / x2
Je ne suis pas une primate! Ni vous d'ailleurs, ouf !
Le biais de publication on peut pas dire que si c est journaux sont connu et prestigieux ils ont pas intérêt a publié des chose effectivement novatrice mais serieux, si la plupart etait faux c est journaux serrai descridité et donc il prenne pas des truc trop improbable. (C est une question je suis pas du tout calé dessus ).
Est ce que cette vidéo est une publication scientifique ?
Tg?
@@aroufgangsta49 tu peux développer ou tu n'es pas alphabetisé ?
Bah non
@@lunavicton je pense que si
C'est dommage de parler aussi vite, y'aurait le feu ?!
La seule certitude que tous les scientifiques aient ; qu'ils soient sincères ou malhonnêtes, dans le vrai ou dans le faux, qu'ils se servent de la science pour trouver la vérité ou pour la déformer. Je parle bien évidemment de la recherche sincère de la réalité objective de ce qui EST par delà toutes les perspectives subjectives et aussi des tendances inhérentes à chacun et/ou des préférences ou intérêts... Bref !
La seule certitude que tous les vrais ou faux scientifiques puissent avoir est la mort.
Pour le reste ; chacun devrait savoir que plus on en sait et plus on sait qu'on ne sait rien encore... Réjouissons-nous donc d'avoir tant à apprendre, à observer, à comprendre et à découvrir.
De plus, j'aimerais ajouter que le choix des mots laisse souvent à désirer pour expliquer les choses... Que la vanité et l'orgueil en aveugle plus qu'un, que seul les hommes de bonne volontés peuvent être vraiment crédibles à mes yeux...
Pour conclure finalement ce commentaire, j'ajoute que si je mettais un simple moucherons au centre d'une table devant tous les scientifiques de cette planète, trop imbus de leur prétendu savoir en leur disant tout simplement d'en faire un pareil à partir de rien du tout. Que verrais-je si ce n'est de les voir tous partir penauds... Ou enragés...
C'est la guerre dans ce domaine comme dans tous les domaines finalement, mais, que ce n'est franchement pas surprenant vu la nature humaine...
Des bons et des mauvais il y en a partout sur la Terre et dans tous les domaines... Tout n'est pas noir ou blanc bien sûr, or, le gris est devenu aveuglant...
Lol j'ai cru que Mr. Lê faisait son mea culpa pour avoir gober que le CO2 anthropique était responsable du réchauffement climatique.
bravo
_Une étude très sérieuse montre que la majorité des études très sérieuses sont fausses._
🤷♂️
J'écoutais en livre audio le meilleur des mondes...1930... Nous vivons une colonisation banquaire,aucune info est gratuite,surtout les vraies info,...danger, bénéfice...silence,....sciences indépendantes?tu supporte le ?besoin de précision,...??
Reste a savoir si le résultat de cette recherche scientifique sur le résultat des recherches scientifiques est vrai ou faux..
Faux
Une credence est un meuble, en français on dit crédibilité ou foi. On ne dit pas non plus incentive, mais incitation. C'est pas parce que c'est incompréhensible que c'est mieux, petit manque de maturité.
Ce n'est pas un manque de maturité, c'est un choix réfléchi de sa part. Les termes proposés ne correspondent pas exactement, selon lui, au sens qu'il veut transmettre.
@@VeganCookies Il correspondent exactement puisqu'ils ont un équivalent français. Par exemple expectation value se dit espérance mathématique, traduction exacte bien que expectation ne soit pas exactement espérance. Ce ne sont pas des notions nouvelles, donc on utilise le français, c'est la règle pour la communication scientifique. Croire qu'il va changer ça, c'est vraiment un manque de maturité.
@@massecl Ils ne sont pas vraiment équivalents s'ils sont ressentis différemment, même si un dictionnaire ou un groupe d'experts décideraient qu'ils sont équivalents. S'il utilise l'expression expectation value (je ne sais plus s'il le fait ou pas), c'est vraie qu'il aurait pu dire espérance mathématiques. Par contre, je trouve un peu agressif de parler de manque de maturité pour un désaccord linguistique.
@@VeganCookies C'est pas une question de ressentir, c'est une définition mathématique rigoureuse. Avec crédence je persiste à ressentir un meuble, surtout que le mot existe aussi en allemand avec le même sens. Et avec incentive en français je perçois plutôt incendie, ce suffixe n'existe pas. Désolé d'avoir mes petites habitudes linguistiques, mais il faudra faire avec. Moins on en a…
quelqu'un pourrait m'expliquer ce qu'est une "crédence" ? (et pas la peine de parler du truc qu'on trouve dans les cuisines hein !) 😘
Le premier
Vive "The Lancet"
Salut c moi avec ungrand merci pour lee vous étiez très gentille c vous qui vas étudier avec un court chemin oui merci
FORCE À LA CHINE
Bonjour, donc la plupart des présentations vidéo sont également erronées. Hahaha
Ahah
Trop fort