La rétropropagation (backprop) | Intelligence artificielle 43

แชร์
ฝัง
  • เผยแพร่เมื่อ 7 พ.ย. 2024

ความคิดเห็น • 71

  • @signalgouv746
    @signalgouv746 6 ปีที่แล้ว +39

    Je sais pas pourquoi je m'acharne a regarder toutes tes vidéos alors que je comprend pas la moitié de ce qui est dit
    J'imagine que c'est parce que Lê est super passionnant quand il parle

    • @liolu91
      @liolu91 6 ปีที่แล้ว +1

      moi aussi j'ai rien compris mais au moins j'ai essayer

    • @arjunathorpe6434
      @arjunathorpe6434 6 ปีที่แล้ว

      ouais, pareil

    • @musumia2232
      @musumia2232 6 ปีที่แล้ว +2

      Vous dites que vous comprenez rien, mais en vrai vous comprenez le principe général des réseaux de neurones. Au moins, ce ne sera pas une machine de l'enfer pour vous, mais quelque chose de rationnelle (en gros, continuez, c'est utile ^^)

    • @signalgouv746
      @signalgouv746 6 ปีที่แล้ว +2

      Musumia je comprend a peu près, assez pour comprendre l idée générale et me rendre curieux du domaine (après quand il commence à parler de gradients...)

    • @liolu91
      @liolu91 6 ปีที่แล้ว

      les réseaux de neurones ça ok, mais le fonctionnement de celle si moyen, les calcule 0

  • @Fangh44
    @Fangh44 6 ปีที่แล้ว +1

    Merci beaucoup pour cette épisode ! On reviens enfin à des épisodes où on doit se casser la tête et être vraiment concentré. C'est ce que je préfère dans tes épisodes. Où on apprends de nouvelles choses !

  • @alexidesvignesnouvel1425
    @alexidesvignesnouvel1425 5 ปีที่แล้ว +1

    J'adore vraiment tes vidéos mais des fois j'ai du mal a tout comprendre et quand tu donne un exemple concret comme ici ou bien que tu fait un parallèle concret je trouve que l'on comprend beaucoup mieux. En tout cas merci d'être là pour nous apprendre tout ça!

  • @baptistepiguet
    @baptistepiguet 4 ปีที่แล้ว +1

    Je t'aime mec, ça fait plus d'une semaine que je cherche à savoir comment les réseaux de neurones ajustent leurs modèles prédictifs

  • @Fumeal
    @Fumeal 6 ปีที่แล้ว +9

    Wouhou, mon commentaire à encore été pris !! Je laisse la place aux autres ce coup-ci, mais je commente quand même pour l'algo Yt ;)

  • @augustinfrancotte3163
    @augustinfrancotte3163 6 ปีที่แล้ว +2

    C'est une vidéo excellente ! Bravo Lê ! C'est vraiment très clair.

  • @guillaumegarnier9536
    @guillaumegarnier9536 6 ปีที่แล้ว +2

    tu as une double page sur toi et la formule de bayers dans science et vie, bravo ^^

  • @colinpitrat8639
    @colinpitrat8639 6 ปีที่แล้ว +9

    J'ai enfin lu ton papier. Il est super intéressant et maintenant j'ai plein de références à creuser :)
    Si i'ai bien compris, la partie 3 propose d'estimer la moralité des actions de l'IA en se basant sur la façon dont le monde extérieur évolue en fonction des décisions de l'IA (donc une approche conséquentialiste, ce qui me va tout à fait). Là où ça cloche à mon avis, c'est que la corrélation entre les actions de l'IA et l'évolution du monde seront faibles et qu'en plus il y'aura en général un délai important (tu parles de l'étape n et n+1 comme si il n'y avait pas d'autre décision prise entre).
    Si l'IA tue un enfant mais qu'au même moment un armistice est signé, elle considèrera son action bonne ? Et inversement si elle décide de sauver un enfant mais qu'une guerre est déclarée elle considèrera son action mauvaise ? Et si elle décide de baisser les taux d'intérêt (ce qui n'aura pas d'effet immédiat) mais qu'au même moment une centrale nucléaire explose ?
    Du coup, à moins que j'ai raté quelque chose, il me semble nécessaire d'ajouter un problème à ta liste: identifier les liens de causalité entre les décisions de l'IA et les évènements qui se produisent dans le monde.

    • @colinpitrat8639
      @colinpitrat8639 6 ปีที่แล้ว +5

      Autre chose : je me demande si le sujet ne serait pas approprié pour de la recherche participative. Ça pourrait commencer avec un simple Google Doc (pointant sans doute vers plusieurs autres pour les différents sus sujets). J'imagine qu'il y'aurait aussi pas mal de potentiel pour contribuer, à commencer par la création de datasets relatifs aux questions morales. Qu'en penses-tu ?

  • @nicolasborderies529
    @nicolasborderies529 6 ปีที่แล้ว +1

    Bravo pour ton travail de vulgarisation acharné et régulier. Je me permet de rajouter un petit commentaire technique sur la fin de la vidéo. Cela fait une différence non-négligeable de minimiser l'erreur quadratique ou l'erreur absolue lors d'un apprentissage statistique, notamment en terme de stabilité/robustesse de la solution obtenue au regard de l'ensemble d'entraînement (cf www.chioka.in/differences-between-l1-and-l2-as-loss-function-and-regularization/)

  • @Paulolenantais
    @Paulolenantais 5 ปีที่แล้ว

    merci pour toutes ces videos, tu m'aides vraiment !!

  • @我妻由乃-v5q
    @我妻由乃-v5q 6 ปีที่แล้ว +2

    Trop bien la vidéo! Ca faisait longtemps une vidéo Science4All un peu plus épicer.

  • @etienneverpin1418
    @etienneverpin1418 6 ปีที่แล้ว +2

    Il y a un élément supplémentaire quni d'un point de vue bayésien, fait douter de la réalité de la démonstration proposée sur la conjecture de Riemann, c'est l'âge du capitaine. Je me souviens avoir lu une citation de Laurent Schwartz, dans laquelle, pour expliquer les baisses de capacités liées à l'âge, il nous disait qu'à vingt ans il espérait résoudree problème de Riemann,; dans la quarantaine, il espérait lire une telle démonstration, et qu'au moment où il parlait, vers la fin de sa vie, il espérait juste apprendre qu'il existait une preuve.
    Cela me parait peu crédible qu'un homme de 89 ans puisse faire une telle avancée en science, et en mathématique particulièrement.

    • @gaelyte2550
      @gaelyte2550 6 ปีที่แล้ว

      Et puis c'est pas la première fois que quelqu'un en marge propose une démonstration de cette hypothèse - fausse.

  • @nonoroberto8219
    @nonoroberto8219 6 ปีที่แล้ว

    Un épisode hardcore sur la retropropagation des neurones serait possible ? Pitié !

    • @colinpitrat8639
      @colinpitrat8639 6 ปีที่แล้ว +1

      nono roberto si tu es anglophone, 3b1b a un super épisode dessus dans sa série sur les réseaux de neurones

  • @romainbajoit2865
    @romainbajoit2865 5 ปีที่แล้ว

    C'est quand même ambitieux de tenter d'expliquer la backpropagation en 9min57. C'est l'algorithme qui a permis aux réseaux neuronaux d'être utiliser et est considéré comme un des plus importants de l'AI alors pourquoi ne pas passer un peu plus de temps dessus ? Il n'est pas compliqué à comprendre mais peut être compliquer à expliquer .. surtout en si peu de temps :(
    La vidéo est très bien mais manque de clareté à mon goùt, tu as l'air si pressé d'en finir avec :D
    (J'ai quand même mis un pouce dans les airs et tiens à te faire remarqué que ton contenu est quand même d'un niveau incroyable dans le domaine de TH-cam !

  • @yjan39
    @yjan39 6 ปีที่แล้ว +1

    Est-ce que tu serais chaud pour nous faire un follow-up de la preuve de l'hypothèse de Riemann dans les futures vidéos ? J'ai cherché quelques infos mais ça n'est pas toujours clair ...

  • @kaoutarelhaloui8026
    @kaoutarelhaloui8026 3 ปีที่แล้ว

    Bonjour, Merci pour vos vidéos. Pour un problème de régression avec des réseaux de neurones, peut ont appliquer une pénalité/donner plus d'importance pour des données particuliers (par exemple à proximité de 0) lors de l'entrainement ?, autrement tolérer moins de fautes sur les prédictions de ces données là ?

  • @ChesterKea
    @ChesterKea 6 ปีที่แล้ว +1

    Ahah puissant ! ^^

  • @theoi3921
    @theoi3921 6 ปีที่แล้ว +1

    C'est génial comme truc les réseaux de neurones! Mais comment ça marche entre le hardware et le software?
    parce que si ces neurones fonctionnent selon une formule prédéfinis, est-ce qu'il ne suffit pas simplement de modifier cette formule pour pirater (ou du moins crasher) le reseau?

  • @KA-kl2ws
    @KA-kl2ws 6 ปีที่แล้ว

    Est il possible de trouver des minimaux locaux avec un algorithme de colonies d'abeille dans le cadre de réseaux neuronaux en backpropagation ? Je pense que ces algorithmes demandent beaucoup de temps de calcul surtout pour beaucoup de dimensions mais je voulais tout de même savoir si ca se faisait en pratique.

  • @nicolasdavid9103
    @nicolasdavid9103 6 ปีที่แล้ว

    Salut ! Est-ce que tu pourrais nous parler un peu plus de cette fonction d'activation non-linéaire des neurones ? Comment la choisit-on ? Pourquoi n'est-elle pas considérée comme un paramètre modifiable du réseau ?

  • @Lululala199
    @Lululala199 6 ปีที่แล้ว

    Comment vous faites ? J'ai RIEN compris mais j'ai adoré quand même :p

  • @alexidesvignesnouvel1425
    @alexidesvignesnouvel1425 5 ปีที่แล้ว

    J'ai une petite question tu as expliqué comment modifier concretement le biais du neurone qui est alors égal a l'erreur c'est a dire l'urgence a corriger le neurone mais pour les synapse je n'ai pas vu concretement comment on calculait l'urgence et comment on modifiait le poids en conséquence ?

  • @ominium8386
    @ominium8386 6 ปีที่แล้ว

    Appliquer ce genre de réseau neuronal vertical à un groupe d'individus( un peuple et un chef au bout) nous apprend ce qu'est le totalitarisme avec son obsession du respect absolu de l'ordre et de l'information( comme chez les militaires ou en corée du nord ou en chine) qui permet une basse fréquence. Mais la démocratie provient de liaisons neuronales horizontales, c'est à dire que l'info est partielle, ( y'a de la fake news), et il faut constamment chercher à estimer son niveau de "crédibilité"( le blockchain est ainsi basé sur une constance de cette recherche), le système est plus redondant mais demande une fréquence plus élevée( pour confirmer les infos). Ce qu'on apprends avec les tests, c'est que le réseau a le même travers qu'un pays totalitaire, c'est à dire la sur-spécialisation, il est super bon à un truc, puis ensuite ne sait plus rien faire d'autre, et mets beaucoup de temps à se réajuster en perdant les capacités précédentes.
    Quand on discute alors démocratie, adaptation, future de l'humanité, recherche du bonheur, on pige bien qu'il y a un lien avec la recherche en IA. Et cela va encore plus loin en exportant la recherche sur la communication entre les astres dans l'espace. Une lumière communique une fréquence, un ordre qui donne une probabilité, cette dernière alors arrive ou non à se développer et transformer ( convaincre)son environnement. L'humanité serait elle-même la réponse à un truc.. 42 ? qui sait.

  • @loupdetection
    @loupdetection 5 ปีที่แล้ว

    La première couche doit attirée l'attention du sujet
    La deuxième couche correspond à l'interprétation et l'imagination. Le calcul de principe est toujours le même mais le résultat diffère suivant la personne. Après les décisions ultimes commandes les réactions,, mais il y'a des mais, l'émotion et la sensibilité de chacun, l'IA elle n'aura jamais aucune émotion et sensibilité.

  • @BigToinE976
    @BigToinE976 6 ปีที่แล้ว +1

    Et du coup pour l'HR s'en est où ? X)

  • @Pradowpradow
    @Pradowpradow 6 ปีที่แล้ว

    Petite question : les RN convergent-ils forcement?
    Et on peut s'attendre à plusieurs valeurs de convergence pour les boutons non? C'est un problème?

    • @marcpozzo8869
      @marcpozzo8869 4 ปีที่แล้ว

      A priori oui les rns convergent forcément si ça ne convergent pas ce serait à cause d'un mauvais paramétrage en particulier du learnig rate. Pour reprendre la métaphore de la cartes topographiques. Un learning trop petit devrait mettre plus de temps à converger et 'être bloqué plus facilement par un minimum local. Tandis qu'un lr trop grand va dépasser le minimum (global) et remonter trop haut la pente suivante Sans jamais atteindre le minimum. Dans ce cas le rn risque de ne pas converger.
      Dans un espace de très haute dimension il peut probable d'atteindre le minimum global malgré tout il faut surveiller la valeur du lr. Selon l'initalion des paramètres le même minimum local ne sera pas atteint. Ce qui implique effectivement que les boutons ne seront pas réglés de la même manière mais je ne pense pas que ça soit un problème.

  • @Hirondo
    @Hirondo 6 ปีที่แล้ว

    Avec cette retropropagation, n'y a t'il pas le risque que certains groupes de neurones se retrouvent pratiquement ignorés parce qu'inutiles ? Ne serait-il pas intéressant que ces groupes ignorés se désactivent pour optimiser le processus, ou qu'ils mutent de façon plus ou moins aléatoire pour donner une chance au système d'évoluer dans le bon sens ?

  • @naonedtroll9144
    @naonedtroll9144 6 ปีที่แล้ว

    bientôt les RNN? (... oui ok je suis peux-être un peu trop impatient)
    sinon est ce qu'il y a des pattern de neurone commme en UML?

    • @Yarflam
      @Yarflam 6 ปีที่แล้ว

      En faite il s'agit déjà d'un pattern : le perceptron multicouche ( fr.wikipedia.org/wiki/Perceptron_multicouche ). Il en existe d'autres comme les réseaux de neurones récurrents ou la machine de Boltzmann - les calculs sont différents. Quelques uns sont cités sur ce site : www.sylbarth.com/nn.php (section: Les grands types de réseaux)

    • @anonyme8945
      @anonyme8945 6 ปีที่แล้ว

      le pattern d'un réseau ça dépend de ce que tu veux faire avec.

  • @the_president
    @the_president 6 ปีที่แล้ว

    donc pour une IA par rapport a un programme fixe comme une calculatrice 1+1 sera peut être 2 non certainement 2 et ca c'est un grave System de doutes parce que sur l’efficacité il sera plein de failles a connaitre plus tard

  • @alcidedragon
    @alcidedragon 6 ปีที่แล้ว

    Bonjour, je me suis posé une question mais ça a peu de rapport avec la vidéo j'espère que quelqu'un peux m'aider, en fait je me demandais à quoi correspond le fais de faire une puissance par un irrationnel (comme puissance racine de 2), donc j'ai réfléchis et je me suis dis qu'on pouvait facilement définir une puissance 1/2, 1/3, 1/4... n'/n donc à partir de là je me suis retrouvé bloqué sur comment définir une puissance qui n'est pas possible d'écrire sous forme de fraction et j'en suis venu à me dire que le seul moyen ça serait de tracer la fonction par exemple 2**x et de se dire que tous les trous correspondant aux nombres irrationnels sont possible d'être remplis par un prolongement, mais donc si c'est le seul moyen alors une puissance irrationnel n'est pas trop définissable en elle même on peux juste se dire que la définition d'un nombre y**b avec b irrationnel est : "c'est la valeur en b du prolongement de la fonction y**x".
    Donc ainsi j'ai deux question, c'est possible de définir une puissance irrationnel plus facilement ? Et si non c'est possible de leur donner une définition plus précise ?

    • @antoinebak2714
      @antoinebak2714 6 ปีที่แล้ว +2

      Comme sur N, exp(nln(a))=a^n, on peut definir a^x sur R par exp(x ln(a)).
      Vu qu'on peut calculer exp de n'importe quel nombre reel (par un developpement limite par exemple), on peut definir une puissance irrationnelle de cette maniere.

    • @alcidedragon
      @alcidedragon 6 ปีที่แล้ว

      Ok merci beaucoup

    • @leGEEK84
      @leGEEK84 6 ปีที่แล้ว

      Les fonctions ln et exp sont définies sur R (ln comme la primitive de 1/x et exp soit comme la réciproque de ln soit comme la solution de l'equa diff y'=y ce qui revient en fait au même) et on peut remarquer que exp(yln(x)) = x^y, on peut d'ailleurs définir le exp sur les matrices (par contre on va avoir des problèmes pour le ln). C'est un petit peu le même esprit que la généralisation de n! aux réels avec la fonction gamma.

    • @etienneverpin1418
      @etienneverpin1418 6 ปีที่แล้ว

      En plus des réponses déjà apportées, il y a aussi une réponse par continuité. On peut approcher racine de deux par des séries de fraction convergents vers cette valeur, et donc définir de façon non ambiguë les résultats.

  • @christianreboul6872
    @christianreboul6872 3 ปีที่แล้ว

    J'ai une question à deux balles: après la phase d"apprentissage, est-ce qu'un reseau de neurone continue apprendre?
    Ou est-il figé dans son évolution?

  • @ThomasArnaud_76
    @ThomasArnaud_76 6 ปีที่แล้ว

    Est-ce que la rétropropagation est une caractéristique de nos vrais neurones ? Ou bien l'analogie des neurones s'arrête là ?

  • @antoinegiordano2125
    @antoinegiordano2125 5 ปีที่แล้ว +1

    Super vidéo encore !
    J'essaie de recréer un réseau de neurones en Java à partir de 0 et je rencontre un problème...
    Vu que notre réseau apprend par "set" de données, quelles valeurs d'inputs un neurone doit utiliser pour calculer sont gradient et modifier ses coefficients ? Le réseau doit-il utiliser un des exemples du set de données pour que chaque neurones se règle, ou également une moyenne comme pour l'erreur, ou encore autre chose ?..
    Merci si quelqu'un peut m'éclairer :)

  • @Pradowpradow
    @Pradowpradow 6 ปีที่แล้ว

    Le RN c'est pas un système complètement bayésien par hasard? Où on part d'un à priori sur les boutons, et dont les positions s'ajustent à chaque nouvelle valeur d'entrée lors de la phase d'apprentissage

  • @julientroquereau4353
    @julientroquereau4353 6 ปีที่แล้ว

    Une IA entraînée a détecter les signaux qu'une autre IA utilise pour détecter un chat, ne pourrait elle pas prendre n'importe qu'elle image et rajouter des signaux qui nous serait invisible à l’œil et tromper une IA en lui faisant croire que c'est un chat? Alors que ce serait totalement autre chose.

    • @lunarxs
      @lunarxs 6 ปีที่แล้ว

      Oui c'est possible et ça existe déjà. Lê en parle d'ailleurs dans son épisode 39 de sa série sur les IA

    • @ApiolJoe
      @ApiolJoe 6 ปีที่แล้ว

      Il me semble que c'est le principe de base des GAN (generative adversarial networks).
      Le principe est qu'on entraîne deux machines: l'une apprend à reconnaître s'il y a un chat ou non sur la photo. L'autre génère des photos de toutes pièces pour essayer de faire croire à la première Ia qu'il y a un chat sur sa photo. Ca sert à fabriquer des IA qui génèrent des choses réalistes à partir de rien (visages, musique...etc...)
      La finalité n'est pas la même que ce dont tu parles, mais l'idée de base est la même: on prend une IA qui apprend à fabriquer un signal qu'une autre IA va considérer comme un positif.

  • @anonyme8945
    @anonyme8945 6 ปีที่แล้ว

    minimas locaux / 20

  • @sulymanaabkari9903
    @sulymanaabkari9903 6 ปีที่แล้ว

    j'aime beaucoup tes vidéos mais pour le coup je ne comprend pas grand chose a celle ci

  • @inbonizey
    @inbonizey 5 ปีที่แล้ว

    Essaie de parler lentement et posément, stp !

  • @fleurdecerisier8625
    @fleurdecerisier8625 6 ปีที่แล้ว

    Un peu complexe cette vidéo, je n'ai clairement pas tout compris...

  • @maximed9957
    @maximed9957 6 ปีที่แล้ว

    Moi je comprends pas pourquoi on veut que p soit proche de 1.... on veut soit qu’il soit très proche de 1 soit très proche de 0. Soit il y a un chat soit il n’y en a pas, on veut pas qu’il y ait un chat dans tous les cas.... je suis un peu perdu !!

    • @le_science4all
      @le_science4all  6 ปีที่แล้ว +2

      L'exemple donné est pour une photo de chat. Dans ce cas précis, il faut que p soit proche de 1.
      Après il faudrait répéter la rétropropagation avec d'autres images, et ajuster la valeur souhaitée de p en fonction de l'image.

    • @maximed9957
      @maximed9957 6 ปีที่แล้ว

      Ok d’accord 👍
      Merci!

  • @lmz-dev
    @lmz-dev 6 ปีที่แล้ว

    Je suis au début, pourvu que ça ne parle pas de morale ?^^!

    • @我妻由乃-v5q
      @我妻由乃-v5q 6 ปีที่แล้ว +1

      Non!

    • @lmz-dev
      @lmz-dev 6 ปีที่แล้ว

      C'est vrai, NON, pour une fois ;p XD

    • @我妻由乃-v5q
      @我妻由乃-v5q 6 ปีที่แล้ว +1

      lmz dev
      Effectivement :) Les vidéos de morale était trop compliquer. On avait l'impression de tourner en rond en plus.

    • @lmz-dev
      @lmz-dev 6 ปีที่แล้ว

      Tourner en rond avec la morale : on ne peut pas faire autrement !
      La morale est relative, elle n'a rien de fondamental ... ou alors il va falloir me le prouver ;p

    • @我妻由乃-v5q
      @我妻由乃-v5q 6 ปีที่แล้ว

      lmz dev
      Tu peux essayer aussi de prouver que la morale est relative. C'est beaucoup plus simple car il suffit d'un contre-exemple pour montrer cela. En tout cas, tu montrera au moins que pas toute la morale est objective.
      Néanmoins, je pense surtout que l'intérêt de programmer une morale à une IA reste quand même pour des raisons pratique. Pour ne pas que toute l'humanité finisse par disparaître.
      Même si j'aime bien les questions philosophiques, ça reste des questions qui semble très difficile à résoudre et ça fait très longtemps qu'on ne sait pas résoudre de manière satisfaisante ce sujet, il y a peu de chance que ça devienne le cas aujourd'hui.
      Pour revenir au premier paragraphe, se contenter d'une morale relative semble plus réaliste, mais n'aide pas en pratique je pense.

  • @caragar855
    @caragar855 6 ปีที่แล้ว

    First. Désolé c'était trop tentant :/