CNRS - Formation FIDLE
CNRS - Formation FIDLE
  • 96
  • 588 344
JDLS 2024 / Multimodal Pre Training for Scientific Data
L'IDRIS et la formation FIDLE ont organisé la deuxième Journée Deep Learning pour la Science (JDLS).
Cette journée a eu lieu le vendredi 24 mai 2024 au siège du CNRS, à Paris.
L'objectif de cette journée était de favoriser le partage des expériences dans l'utilisation des outils d'intelligence artificielle dans le domaine scientifique, toutes communautés confondues.
Des intervenant·e·s issu·e·s de domaines scientifiques variés se sont succédés tout au long de la journée pour présenter leurs usages des méthodes d'intelligence artificielle.
Cette journée à été portée et soutenue par :
CNRS* : www.cnrs.fr/fr
GENCI : genci.fr
MIAI : miai.univ-grenoble-alpes.fr
Université Grenoble-Alpes : www.univ-grenoble-alpes.fr
IDRIS : www.idris.fr
FIDLE : fidle.cnrs.fr
(*) Via la MITI CNRS / DevLOG et CNRS Sciences informatiques
มุมมอง: 559

วีดีโอ

JDLS 2024 / IA et industries culturelles - Illustration de pistes pour le chercheur
มุมมอง 2884 หลายเดือนก่อน
L'IDRIS et la formation FIDLE ont organisé la deuxième Journée Deep Learning pour la Science (JDLS). Cette journée a eu lieu le vendredi 24 mai 2024 au siège du CNRS, à Paris. L'objectif de cette journée était de favoriser le partage des expériences dans l'utilisation des outils d'intelligence artificielle dans le domaine scientifique, toutes communautés confondues. Des intervenant·e·s issu·e·s...
JDLS 2024 / OpenLLM
มุมมอง 2714 หลายเดือนก่อน
L'IDRIS et la formation FIDLE ont organisé la deuxième Journée Deep Learning pour la Science (JDLS). Cette journée a eu lieu le vendredi 24 mai 2024 au siège du CNRS, à Paris. L'objectif de cette journée était de favoriser le partage des expériences dans l'utilisation des outils d'intelligence artificielle dans le domaine scientifique, toutes communautés confondues. Des intervenant·e·s issu·e·s...
JDLS 2024 / CroissantLLM
มุมมอง 3224 หลายเดือนก่อน
L'IDRIS et la formation FIDLE ont organisé la deuxième Journée Deep Learning pour la Science (JDLS). Cette journée a eu lieu le vendredi 24 mai 2024 au siège du CNRS, à Paris. L'objectif de cette journée était de favoriser le partage des expériences dans l'utilisation des outils d'intelligence artificielle dans le domaine scientifique, toutes communautés confondues. Des intervenant·e·s issu·e·s...
JDLS 2024 / Mon projet en 3 minutes
มุมมอง 3334 หลายเดือนก่อน
L'IDRIS et la formation FIDLE ont organisé la deuxième Journée Deep Learning pour la Science (JDLS). Cette journée a eu lieu le vendredi 24 mai 2024 au siège du CNRS, à Paris. L'objectif de cette journée était de favoriser le partage des expériences dans l'utilisation des outils d'intelligence artificielle dans le domaine scientifique, toutes communautés confondues. Des intervenant·e·s issu·e·s...
JDLS 2024 / Common Corpus
มุมมอง 2434 หลายเดือนก่อน
L'IDRIS et la formation FIDLE ont organisé la deuxième Journée Deep Learning pour la Science (JDLS). Cette journée a eu lieu le vendredi 24 mai 2024 au siège du CNRS, à Paris. L'objectif de cette journée était de favoriser le partage des expériences dans l'utilisation des outils d'intelligence artificielle dans le domaine scientifique, toutes communautés confondues. Des intervenant·e·s issu·e·s...
JDLS 2024 / Jurimétrique & LLMs - Quantification des décisions judiciaires à l'aide de LLMs
มุมมอง 3974 หลายเดือนก่อน
L'IDRIS et la formation FIDLE ont organisé la deuxième Journée Deep Learning pour la Science (JDLS). Cette journée a eu lieu le vendredi 24 mai 2024 au siège du CNRS, à Paris. L'objectif de cette journée était de favoriser le partage des expériences dans l'utilisation des outils d'intelligence artificielle dans le domaine scientifique, toutes communautés confondues. Des intervenant·e·s issu·e·s...
JDLS 2024 / Écosystème national de support en IA
มุมมอง 6584 หลายเดือนก่อน
L'IDRIS et la formation FIDLE ont organisé la deuxième Journée Deep Learning pour la Science (JDLS). Cette journée a eu lieu le vendredi 24 mai 2024 au siège du CNRS, à Paris. L'objectif de cette journée était de favoriser le partage des expériences dans l'utilisation des outils d'intelligence artificielle dans le domaine scientifique, toutes communautés confondues. Des intervenant·e·s issu·e·s...
Perspectives pour la Science (vue de mai 2023) - Bertrand Cabot (IDRIS/CNRS)
มุมมอง 92010 หลายเดือนก่อน
Perspectives pour la Science (vue de mai 2023) - Bertrand Cabot (IDRIS/CNRS)
Alphafold2 et la prédiction de structures de protéines - Thibaut Véry (IDRIS/CNRS)
มุมมอง 1.3K10 หลายเดือนก่อน
Alphafold2 et la prédiction de structures de protéines - Thibaut Véry (IDRIS/CNRS)
L'Histoire de BLOOM - Lucille Saulnier & François Yvon
มุมมอง 1.4K10 หลายเดือนก่อน
L'Histoire de BLOOM - Lucille Saulnier & François Yvon
Bilan 1ère partie de FIDLE 2023/24 !
มุมมอง 1.8K10 หลายเดือนก่อน
Bilan 1ère partie de FIDLE 2023/24 !
Illustration - Classification d'image (MNIST) avec un DNN
มุมมอง 2.1K11 หลายเดือนก่อน
Illustration - Classification d'image (MNIST) avec un DNN
Illustration - DNN Régression œnologique
มุมมอง 2.2K11 หลายเดือนก่อน
Illustration - DNN Régression œnologique
3. 80 ans d'histoire... et la victoire des neurones !
มุมมอง 3.4Kปีที่แล้ว
3. 80 ans d'histoire... et la victoire des neurones !
1. Intelligence Artificielle, Machine Learning, Deep-Learning... De quoi parle t-on au juste ?
มุมมอง 8Kปีที่แล้ว
1. Intelligence Artificielle, Machine Learning, Deep-Learning... De quoi parle t-on au juste ?
2. De la régression logistique au neurone artificiel...
มุมมอง 3.7Kปีที่แล้ว
2. De la régression logistique au neurone artificiel...
Nouvelle saison FIDLE !! Jeudi 16 Novembre, 14h00
มุมมอง 2.1Kปีที่แล้ว
Nouvelle saison FIDLE !! Jeudi 16 Novembre, 14h00
Seq. 07 / PyTorch
มุมมอง 4.5Kปีที่แล้ว
Seq. 07 / PyTorch
Seq. 06 / Réseaux récurrents
มุมมอง 4.4Kปีที่แล้ว
Seq. 06 / Réseaux récurrents
Seq. 05 / Evaluation et Données creuses
มุมมอง 4Kปีที่แล้ว
Seq. 05 / Evaluation et Données creuses
Seq. 04 / Démystifier les maths (Live)
มุมมอง 5Kปีที่แล้ว
Seq. 04 / Démystifier les maths (Live)
Seq. 03 / Cas pratique (Live)
มุมมอง 4.5Kปีที่แล้ว
Seq. 03 / Cas pratique (Live)
Seq. 02 / Les CNN (Live)
มุมมอง 8Kปีที่แล้ว
Seq. 02 / Les CNN (Live)
Seq. 1 / Concepts et bases (Live)
มุมมอง 20Kปีที่แล้ว
Seq. 1 / Concepts et bases (Live)
Nouvelle saison Fidle !
มุมมอง 2.5K2 ปีที่แล้ว
Nouvelle saison Fidle !
Fidle - Séquence 04 (Live)
มุมมอง 2.5K2 ปีที่แล้ว
Fidle - Séquence 04 (Live)
Meilleurs vœux !!
มุมมอง 1.6K2 ปีที่แล้ว
Meilleurs vœux !!
Installez votre environnement Fidle pour les TPs !
มุมมอง 5K2 ปีที่แล้ว
Installez votre environnement Fidle pour les TPs !
Introduction au Deep Learning, nouvelle session !
มุมมอง 10K3 ปีที่แล้ว
Introduction au Deep Learning, nouvelle session !

ความคิดเห็น

  • @maximevie7589
    @maximevie7589 4 หลายเดือนก่อน

    Avoir une formation de cette qualité et gratuite, c'est quand même dingue. Un grand merci pour votre travail.

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Merci beaucoup !!

  • @sofrsega
    @sofrsega 4 หลายเดือนก่อน

    Merci beaucoup

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Merci également à vous !

  • @jarsal_firahel
    @jarsal_firahel 4 หลายเดือนก่อน

    Pour cette partie maths, je recommanderai de commencer un peu plus simple notamment pour le gradient. Un truc qui permet de bien comprendre je trouve c'est un "computational graph" très simple, pour montrer comment le delta d'une variable d'entrée se "propage" dans les couches intermédiaires et finales, puis comment on peut "remonter" avec les dérivées. Andrew Ng a une très bonne explication dans sa spécialization "Deep Learning" sur Coursera (si besoin d'inspi) En dehors de ça FIDLE c'est toujours aussi génial ;)

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Merci beaucoup pour ce retour et cette idée ! :-)

  • @gno7553
    @gno7553 5 หลายเดือนก่อน

    Très bien expliqué. Je suis allé lire cette Article, c'est très intéressant.

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Merci beaucoup :-)

  • @mohamedboukrani4494
    @mohamedboukrani4494 5 หลายเดือนก่อน

    Bonjour, merci pour la clarté de vos explications. Une question SVP, au niveau des RNNs, est-ce que la sortie Y(t) va avoir tjrs pour taille, le nombre des neurones du recurrent layer. Merci d'avance.

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Oui, chaque unité de la cellule générera une dimension dans la sortie. Si la cellule possède n unités, sa sortie sera de dimension n.

  • @villentretenmeth3692
    @villentretenmeth3692 5 หลายเดือนก่อน

    53:16 : Multimodal LLM

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      ?? que voulez-vous dire ?

  • @imadsaddik
    @imadsaddik 5 หลายเดือนก่อน

    This channel is a gem, thank you.

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Thank you very much, your thanks are our best reward!

  • @bertrandyann3410
    @bertrandyann3410 5 หลายเดือนก่อน

    C'était digérable, cher ATIM 😁

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Nous sommes les diététiciens de l'IA !: ;-)

  • @laurentrisser5250
    @laurentrisser5250 5 หลายเดือนก่อน

    Merci beaucoup pour cette séquence... tout est très clair !👍

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Merci beaucoup, votre retour nous fait plaisir !! Le sujet de cette séquence n'est pas le plus simple.... ;-)

  • @imadsaddik
    @imadsaddik 5 หลายเดือนก่อน

    Merci beaucoup

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Merci à vous pour votre intérêt !!

  • @許樂山-q5d
    @許樂山-q5d 5 หลายเดือนก่อน

    Super ! Merci !

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Merci à vous !

  • @stefool
    @stefool 5 หลายเดือนก่อน

    Ah génial.. 😁. c'est non seulement très clair, mais en plus j'ai compris ce qui clochait avec tous mes modèles CNNs. C'est dans la dernière couche "fully connected". Je travaille avec des spectrograms, des ondelettes (scalograms), ampllitude et phase... plusieurs couches. Et puis je me demandais comment on pouvait visualiser les erreurs ... c'est vraiment très clair. Merci beaucoup. Je vais regarder vos autres vidéos. Xoxo du Canada.

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Merci pour votre retour !!! Nous sommes très heureux d'avoir pu vous aider :-)

  • @jalilboyketou6165
    @jalilboyketou6165 5 หลายเดือนก่อน

    Merci énormément pour cette, enfin je comprends les CNN

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Super ! merci pour votre retour !!

  • @sofrsega
    @sofrsega 5 หลายเดือนก่อน

    Merciiiiii beaucoup

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Merci également pour votre retour !!!

  • @a-55mita46
    @a-55mita46 5 หลายเดือนก่อน

    Une video avec SVM stp

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      SVM peut être une excellente solution, mais est un peu hors sujet ici, car cette formation est centrée sur le Deep Learning (ce qui fait dejà beaucoup beaucoup de contenu !!)

  • @sofrsega
    @sofrsega 5 หลายเดือนก่อน

    C'est vraiment top!

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Merci beaucoup pour votre retour !

  • @bertrandyann3410
    @bertrandyann3410 5 หลายเดือนก่อน

    Cool! 👍

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Thanks for the visit

  • @adrienforbu5165
    @adrienforbu5165 5 หลายเดือนก่อน

    super vidéo ! explications très claires :)

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Merci beaucoup !

  • @lolo6795
    @lolo6795 5 หลายเดือนก่อน

    Merci pour cette présentation.

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Merci à vous !

  • @ivanbtz9
    @ivanbtz9 5 หลายเดือนก่อน

    Un grand merci pour votre vidéo, j'ai compris beaucoup de choses grâce à vous. Bravo à toute l'équipe de Fidle ! J'ai écrit mon mémoire de Master qui traite en partie des modèles Transformers, je me suis beaucoup inspiré de vos schémas et de vos explications pour sa rédaction. Au plaisir de vous suivre, je vais partager votre chaine avec mon entourage.

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Merci beaucoup pour votre retour ! Nous sommes très heureux d'avoir pu vous aider... et à très bientôt pour de nouveaux épisodes !

  • @anthony0027HD
    @anthony0027HD 5 หลายเดือนก่อน

    Cette vidéo est super bien expliquée. J’ai personnellement tout compris, aucune interrogation. Un immense merci pour ce travail et cette pédagogie. Vous êtes trop fort.

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Merci !!! Nous sommes très heureux d'avoir pu vous aider !

  • @bertrandyann3410
    @bertrandyann3410 5 หลายเดือนก่อน

    Super, les gars! 👍 Même comme au finish, personne ne s'est présenté 🤣

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Merci pour votre assiduité tout au long de ces lives !! Fidle est une grande famille ... ;-)

  • @carloscharon8060
    @carloscharon8060 5 หลายเดือนก่อน

    J'ai l'impression qu'il y'a un problème avec le nombre de neurones pour les couches denses sur votre schéma à 50:33 ? Ce n'est pas cohérent avec la taille des matrices Q et K que vous affichez après. Il me semble que les couches denses devraient avoir seulement deux neurones Sinon très bonne vidéo merci beaucoup !!!

  • @SebastienBERTRAND84
    @SebastienBERTRAND84 5 หลายเดือนก่อน

    Bonjour, j'aimerai partager une petite doc d'installation Docker pour les utilisateurs Mac Mx mais je ne trouve pas de point de contact sur le site fidle. Est ce que vous seriez intéressé par la création d'une image Docker pour archi arm64 ou bien que je vous partage le Dockerfile modifié que j'ai utilisé pour build l'image ? Je pense que ca pourrait en aider plus d'un. C'est pas top de devoir installer tout ca sur sa machine, une image docker est quand même bien plus simple. Merci

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Oups... désolé pour cette réponse tardive.. la fin de saison à été un peu dense ;-) Merci beaucoup pour votre proposition !!! Vous pouvez nous écrire à l'adresse : contact <at> fidle.cnrs.fr

  • @automatigo
    @automatigo 5 หลายเดือนก่อน

    Superbe présentation simple et claire de notions complexes.

  • @lentité8798
    @lentité8798 6 หลายเดือนก่อน

    Merci

  • @FreeeStorm
    @FreeeStorm 6 หลายเดือนก่อน

    Merci !

  • @Arkonis1
    @Arkonis1 6 หลายเดือนก่อน

    Pour l'image les resnext ne sont plus aussi bon que les transformers? Il y a deux ou trois ans, un papier disait que les resnext faisaient aussi bien

    • @CNRS-FIDLE
      @CNRS-FIDLE 5 หลายเดือนก่อน

      Vous faites peut-être référence au papier "ResNet strikes back" de 2021 ? Pour la tâche limitée de classification / Imagenet c'était effectivement le cas, mais depuis des architectures type MetaFormer, ou mixé Conv / Attention font sensiblement mieux. Sinon pour la tâche plus généraliste d'extraction de features visuelles, ce sont les Transformers qui sont largement utilisés, entrainés avec des datasets beaucoup plus conséquents qu'Imagenet.

    • @Arkonis1
      @Arkonis1 5 หลายเดือนก่อน

      @@CNRS-FIDLE Merci de votre retour. Pardon, je parlais en fait du convnext pas du resnext. Je viens de retrouver le papier dont je parlais: "A ConvNet for the 2020s" de Z. Liu et al. Apparemment ils en ont fait une suite: "ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders" début 2023, que je n'ai pas encore lu.

    • @CNRS-FIDLE
      @CNRS-FIDLE 5 หลายเดือนก่อน

      Ah d'accord oui ConvNext fait effectivement un meilleur score sur Imagenet Top-1 par rapport aux résultats originaux de ViT avec des modèles équivalents en taille. Cependant vous pouvez voir sur paperwithcode que le haut du tableau est occupé par des modèles avec une base VisionTransformer.

  • @stefmat94
    @stefmat94 6 หลายเดือนก่อน

    Bonjour, comment est paramétré le 50% de data d'entrainement et 50% de data de test ? Pourquoi pas 70%/30% ou même 80%/20% ? Merci pour ces séquences précieuses.

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Très bonne question, on peut tout à fait modifier ce ratio :-) 70-30 ou 80-20...

  • @TotoGoodWeather
    @TotoGoodWeather 6 หลายเดือนก่อน

    C'est très bien expliqué. Félicitations sur la partie entraînement.

  • @TotoGoodWeather
    @TotoGoodWeather 6 หลายเดือนก่อน

    Vidéo vraiment très bien expliquée. Félicitations à vous !

  • @nicolasduchemann4706
    @nicolasduchemann4706 6 หลายเดือนก่อน

    Merci pour la formation !

  • @lolo6795
    @lolo6795 6 หลายเดือนก่อน

    Merci pour cette présentation.

  • @mouhamadoulaminegning5418
    @mouhamadoulaminegning5418 6 หลายเดือนก่อน

    Merci pour cette vulgarisation. C'est clair et propre.

  • @jarsal_firahel
    @jarsal_firahel 6 หลายเดือนก่อน

    Cette série est toujours aussi géniale, bravo ! En ce moment on entend beaucoup parler d'une alternative aux réseaux transformers, une alternative qu'on appelle MAMBA, est-ce que vous envisageriez de faire un épisode bonus sur cette architecture ?

    • @CNRS-FIDLE
      @CNRS-FIDLE 5 หลายเดือนก่อน

      Bonjour, Pour le moment il n'est pas prévu de faire une présentation sur Mamba. On pourra faire ça l'année prochaine. Merci pour la proposition

  • @programmation699
    @programmation699 6 หลายเดือนก่อน

    Merci beaucoup ❤

  • @omaraissani6255
    @omaraissani6255 6 หลายเดือนก่อน

    Très bonne explication. Par contre tu dis trop "du coup"

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Nous ne sommes que des humains ;-)

  • @ngomserignefallou3785
    @ngomserignefallou3785 6 หลายเดือนก่อน

    Svp est-ce que je peux avoir un exemple de programmation en python sur les MIMO massif et nous remercions des cours en ligne aux quels vous nous dispensez un grand merci à vous franchement

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Merci beaucoup pour ce retour et cette suggestion ! Nous allons voir s'il est possible de proposer de tels exemples

  • @fredericlacoste-if2hi
    @fredericlacoste-if2hi 6 หลายเดือนก่อน

    Tout d'abord merci. Q1 : Qui a eu l'idée de bruiter une image puis de de la débruiter et ainsi pouvoir générer une image Q2 : Si j'ai bien compris mais je peux me tromper l'itération au coeur des reseaux de neurones par la descente de gradient permet de passer outre la fonction réciproque : f(-1) en exposant Q3: Quelles sont les autres applications du bruitage debruitage Merci

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Le bruitage à pour objectif de générer des couples images bruitées / images non bruitées. L'idéal serait de pouvoir disposer de couples de données naturellement bruitées / non bruitées. L'objectif est de pouvoir débruiter des données et donc d'améliorer la qualité de ces données. (qui peuvent être des images, mais pas seulement...)

  • @ebest0579
    @ebest0579 6 หลายเดือนก่อน

    merci infiniment

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Merci à vous également !

  • @jarsal_firahel
    @jarsal_firahel 6 หลายเดือนก่อน

    Est-ce que vous prévoyez une video bonus sur l'architecture MAMBA ?

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Très bonne question... peut-être dans la prochaine saison... il y a beaucoup, beaucoup de choses intéressante que nous pourrions ajouter ! ...choisir n'est pas facile...;-)

  • @TOUOM
    @TOUOM 6 หลายเดือนก่อน

    Bonjour merci pour vos efforts , Il manque la seq 12 svp

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      La séquence 12 n'existe pas, elle avait été supprimée et remplacée par la JDLS !

  • @mraylex2520
    @mraylex2520 7 หลายเดือนก่อน

    ça ressemble beaucoup en RL au réseau de neurones qui apprend d'un système expert

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Ici, l'idée est plutôt de guider l'apprentissage du réseau par de la physique, en complément des données...

  • @abdogassar9246
    @abdogassar9246 7 หลายเดือนก่อน

    Excellent, merci.

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Merci beaucoup à vous également !

  • @abdogassar9246
    @abdogassar9246 7 หลายเดือนก่อน

    C'est genial, merci beaucoup.

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Merci à vous !

  • @EricMeurville
    @EricMeurville 7 หลายเดือนก่อน

    Bonjour. Merci pour votre présentation. Ma question est relative à votre slide 91. J'imagine que comme dans le cas de la régression, la "loss function" est calculée à partir de l'ensemble des observations que contient le dataset (i.e. le nuage de points). Et l'algorithme de descente de gradient (la recherche d'un minimum local) est ensuite appliqué à la loss function résultante. En d'autres termes, sur la slide 91, X est un vecteur de vecteurs de dimension m (le nombre de features) x n (le nombre d'éléments par feature) et la loss function résulte du passage de l'ensemble des données dans le réseau. Dans votre représentation, on a l'impression que la descente de gradient est appliquée pour chaque i E [1, m]. J'imagine que c'est pour cette raison que l'apprentissage est très lourd d'un point de vue computationnel car à chaque itération, on effectue des calculs sur l'ensemble des données. Est-ce que cette interprétation est correcte ? Merci d'avance de votre retour.

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Bonjour Eric, désolé de cette réponse tardive... L'apprentissage est bien effectué sur l'ensemble du dataset d'apprentissage (une partie des données étant conservée pour la validation). Par contre, on va traiter les données par lots (batch), chaque batch sera passé dans le modèle, conduira à une descente de gradient et à une rétropropagation (mise à jour des poids). Le passage de l'ensemble des batchs est appelé une époque et l'on effectuera plusieurs époques.

  • @djiraikinantitembayedonald3009
    @djiraikinantitembayedonald3009 7 หลายเดือนก่อน

    Bonjour!! Y'a un truc qui me dérange un peu. En fait les réseaux convolutionnels ont pour objectif premier d'extraire les caractéristiques des images. Cela dit, les couches denses ne sont normalement pas obligatoires (puisqu'elles font la classification). J'aimerais savoir comment voir les caractéristiques extraites à partir d'un CNN là et si possible appliquer un autre modèle (par exemple régression logistique) pour faire la classification

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Désolé pour cette réponse tardive... ...et oui, un CNN va apprendre à extraire des caractéristiques des images, qui seront ensuite utilisées par une seconde partie de réseau, telle que des couches denses, qui pourront effectuer une prédiction (regression) ou une classification. Il est bien sûr possible de récupérer la valeur des plans convolutifs, mais leur interprétabilité n'est généralement pas évidente...

  • @JudgeFredd
    @JudgeFredd 7 หลายเดือนก่อน

    Très belle série de vidéos

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Merci beaucoup pour votre intérêt et pour votre retour !

  • @JudgeFredd
    @JudgeFredd 7 หลายเดือนก่อน

    Grande qualité

    • @CNRS-FIDLE
      @CNRS-FIDLE 4 หลายเดือนก่อน

      Merci beaucoup !