Seq. 03 / Cas pratique (Live)

แชร์
ฝัง
  • เผยแพร่เมื่อ 6 พ.ย. 2024

ความคิดเห็น • 10

  • @karimadadda6189
    @karimadadda6189 ปีที่แล้ว +3

    Merci pour le partage on a vraiment besoin de ce genre de formation

    • @CNRS-FIDLE
      @CNRS-FIDLE  ปีที่แล้ว

      Merci beaucoup pour votre retour ! :-)

  • @louis-fiacrefranchetdesper1132
    @louis-fiacrefranchetdesper1132 ปีที่แล้ว

    Merci pour ce cycle de vidéo.

  • @YGPT
    @YGPT ปีที่แล้ว

    Encore merci top 👍🏻

  • @imedmagroune6411
    @imedmagroune6411 ปีที่แล้ว

    Bonjour,,
    Merci pour cycle et ces vidéos
    Juste une petite remarque concernant le dropout sur des CNN, les recommandations sont contradictoires dans la littérature, autant la normalisation est essentielle, autant le dropout peut aider comme au contraire être contre productif, je l'ai expérimenté sur des full CNN (Object Detection) durant des mois, et je l'ai abandonné (comme les couches denses ou flat) à la fin, mais si quelqu'un a plus de certitudes :)
    Encore bravo
    Amicalement.

    • @CNRS-FIDLE
      @CNRS-FIDLE  ปีที่แล้ว

      Merci beaucoup pour votre retour !
      Le dropout n'est pas indispensable, mais il permet généralement de rendre l'apprentissage plus efficace, notamment sur les DNN.. merci pour votre témoignage :-)

  • @salimabdelkader8236
    @salimabdelkader8236 ปีที่แล้ว

    Bonjour, Merci pour ce travail.
    Mais c'est dommage que les réponses à certaines questions ne sont pas toujours pertinentes. Il y a souvent le "on verra ça plus tard" qui ressort !
    Par exemple le type d'encodage des images (float16, 32 ou 64 )...

    • @CNRS-FIDLE
      @CNRS-FIDLE  ปีที่แล้ว +2

      Il est très difficile de rentrer dans tous les détails sans risquer de beaucoup digresser... ;-P
      Concernant l'encodage, sujt potentiellement vaste, ce point sera abordé lors des séquences 16 sur l'optimisation de l'apprentissage et 17 sur l'accélération matérielle.