Tensorflow et l'apprentissage profond, sans les équations différentielles (Martin Görner)

แชร์
ฝัง
  • เผยแพร่เมื่อ 16 ต.ค. 2024
  • Google a récemment publié son framework d’intelligence artificielle appelé Tensorflow. Avec ce nouvel outil, l’apprentissage automatique franchit le pas entre la science de laboratoire et le métier d’ingénieur. Dans cette session, nos vous monterons comment choisir la bonne architecture de réseau de neurones pour votre problème et comment bien gérer son apprentissage. Savoir résoudre des équations différentielles n’est plus nécessaire. Des problèmes difficiles comme la reconnaissance de l’écriture manuscrite peuvent maintenant être résolus avec quelques lignes de Python/Tensorflow et une collection de trucs & astuces d’ingénieur. Cette Université s'adresse à tous les développeurs qui souhaitent entrer dans le monde des réseaux de neurones en 3 heures intenses mais accessibles. Elle couvre les réseaux denses, convolutionels et récurrents.

ความคิดเห็น • 26

  • @williamdroz6890
    @williamdroz6890 7 ปีที่แล้ว +5

    J'ai envoyé cette vidéo à tous mes collègues. C'est vraiment agréable cette façon de présenter (et en plus en FR!).

  • @casierdavid
    @casierdavid 7 ปีที่แล้ว +5

    Excellent ! Merci Martin (et l'équipe, derrière, on sent qu'il y a du travail) !

  • @boubacartraore9888
    @boubacartraore9888 6 ปีที่แล้ว +1

    "Eh là, on est dessus de 99% de précision, YES !" (cf. 1:05:17), ça méritait une bonne bouffée d'air dans la salle :D xD !
    Bravo pour la présentation, je recommande vivement la vidéo aux matheux qui débutent avec les réseaux de neurones !
    Merci encore !

  • @basumbintwal
    @basumbintwal 5 ปีที่แล้ว

    Merci Martin Gornet, vidéo fait avec professionnalisme . Tu maîtrises le sujet, on le voit

  • @sgrouge
    @sgrouge 6 ปีที่แล้ว

    Super vidéo j'ai mieux compris les mécanisqmes de tensorflow et ce qu'il permet de faire, très bonne présentation sur les 3 réseaux principaux ANN, CNN et RNN. Je n'ai juste pas bien compris le passage sur LSTM mais aucune importante à ce niveau de découverte. Merci Martin Görner. Merci beaucoup.

  • @WahranRai
    @WahranRai 6 ปีที่แล้ว +1

    Tres bonne video.Jusqu'à 29:00 Il fallait peut être expliquer comment le multiperceptron apprend en metant à jour les poids via la backpropagation de l'erreur ( comme on vous aviez bien explique le feedforward).

  • @walydiallo5865
    @walydiallo5865 5 ปีที่แล้ว

    Merci Mr Gorner excellent travail, merci infiniment.

  • @sorymillimono5931
    @sorymillimono5931 3 ปีที่แล้ว

    Merci beaucoup , une excellente explication

  • @novagogie
    @novagogie 5 ปีที่แล้ว

    bonjour
    serait-il possible d'activer les sous-titres svp. nottament pour avoir les sous-titrage automatiques pour pouvoir vous lire et mieux comprendre certains mots et prendre le temps de comprendre ce qui est dit. Merci

  • @jeeve
    @jeeve 7 ปีที่แล้ว

    Super présentation. Une excellente introduction par la pratique. Merci !

  • @morniang3845
    @morniang3845 5 ปีที่แล้ว

    @Martin Görner est-ce qu'on peut avoir le document en PDF ou PowerPoint

  • @bwakamabe
    @bwakamabe 6 ปีที่แล้ว +1

    J'aurai payé pour avoir cette introduction par la pratique merci Martin

  • @hindlamharhar
    @hindlamharhar 4 ปีที่แล้ว

    Excellente présentation

  • @frederictost6659
    @frederictost6659 6 ปีที่แล้ว +1

    Super vidéo ! Pour information à 1:18:45 il me semble que la fonction sigmoïde est entre [0 et 1] et pas [-1 et 1]. D'où l'activation entre [0 et 1] avec une belle répartition en cloche (moyenne à 0.5).

    • @MartinGorner
      @MartinGorner 6 ปีที่แล้ว +1

      Oui en effet ! Je voulais dire entre 0 et 1 bien sur. Par contre la moyenne n'est pas forcément à 0.5. La batch norm n'est pas juste une normalisation. Elle place les logits dans la partie utile de la fonction d'activation mais ne supprime pas forcément totalement la moyenne ce qui serait dommage si cette moyenne contient de l'information utile. Le terme "beta" dans l'équation sert à ça.

  • @philippegaucher8823
    @philippegaucher8823 6 ปีที่แล้ว

    Présentation intéressante et bien faite, très claire. Mais il faut noter que le texte shakespearien généré par le réseau de neurones ne veut rien dire. Pareil pour le texte d'algèbre (qui en fait voudrait ressembler à de la géométrie algébrique) qui ne signifie rien. A ce propos, le diagramme n'est pas de la physique quantique mais est supposé être un diagramme en algèbre homologique qui ne signifie absolument rien. Les réseaux de neurones sont intéressants car ils permettent à partir d'un corpus de connaissance d'interpoler et de faire faire des progrès remarquables par exemple à la reconnaissance de caractères ou à la reconnaissance d'images. Et je vois qu'il est maintenant très facile d'en fabriquer. Mais, en tout cas, on est encore très très loin d'une intelligence artificielle. On n'a pas l'impression que le réseau de neurones comprend vraiment ce qu'il fait :-). Il interpole par contre de façon bluffante.

  • @yedjour63
    @yedjour63 7 ปีที่แล้ว

    Very interesting

  • @KokonotesChannel
    @KokonotesChannel 6 ปีที่แล้ว +3

    Merci pour cette video très bien expliquée, cependant ça ouvre les yeux sur les possibilités futures de l'apprentissage profond, les ordinateurs pourront un jour créer eux mêmes leur propre code, au moment où ils deviendront leur propre créateur, ce sera le début de la fin de l'humanité....

    • @KokonotesChannel
      @KokonotesChannel 6 ปีที่แล้ว

      je n'ai pas trouvé le bonton ON/OFF d'internet ;)

  • @mohamedghorbel8364
    @mohamedghorbel8364 5 ปีที่แล้ว

    Bonjour à tous, j'aimerai reproduire ces deux exemples de réseau de neurones (RN simple et récurent). Qui peut me conseiller sur le matériel informatique idéal qu'il faut avoir car je dois me ré-équiper . Egalement je cherche le lien vers les codes sources. Merci d'avance.

    • @MartinGorner
      @MartinGorner 5 ปีที่แล้ว

      Aujourd'hui, le mieux est d'utilise Colaboratory. Le materiel est fourni avec, meme des GPUs at TPUs et c'est gratuit.

  • @043mehdi
    @043mehdi 6 ปีที่แล้ว

    Request to French speakers, Can you guys add subtitles please

    • @emmanueljean9494
      @emmanueljean9494 6 ปีที่แล้ว +1

      The same lecture exists in Enflish version

  • @marolahyyounoussaaugustin7279
    @marolahyyounoussaaugustin7279 5 ปีที่แล้ว

    Pouvez m'envoyer le livre version numerique "L'apprentissage profond" par Yoshua Bengio, Aaron Courville, Ian Goodfellow s'il vous plaît. merci! (marolahyyy@gmail.com)

  • @olivierbodini1641
    @olivierbodini1641 5 ปีที่แล้ว

    Un gars qui se la joue et qui ne comprend pas grand chose à ce qu'il dit.