Pytorch LeNet implementation from scratch

แชร์
ฝัง
  • เผยแพร่เมื่อ 1 ธ.ค. 2024

ความคิดเห็น • 14

  • @vijaypatneedi
    @vijaypatneedi 4 ปีที่แล้ว +12

    So happy to see you explaining as simple as possible....
    please keep making videos on implementing various deep learning architectures using Pytorch.

    • @AladdinPersson
      @AladdinPersson  4 ปีที่แล้ว +1

      I really appreciate your kind comment :) More architectures coming up!

  • @sahil-7473
    @sahil-7473 4 ปีที่แล้ว +2

    Before watching this, I tried to implement LeNet Architecture myself first and then it works and exactly similar to your class LeNet implementation. Thanks to you, I am able to connecting all the videos of this PyTorch Playlist.
    Cheers :D

    • @cc-to2jn
      @cc-to2jn 3 ปีที่แล้ว

      same man! :)

  • @anirudhthatipelli8765
    @anirudhthatipelli8765 ปีที่แล้ว

    Thanks for implementing the architectures from scratch! It is extremely helpful!

  • @rushirajparmar9602
    @rushirajparmar9602 4 ปีที่แล้ว +1

    This is quite great!! Implementing various architectures in PyTorch. Please just dont stop with the basic architectures, try to put out videos on advanced content as well, maybe advanced GAN architectures in Computer Vision :)

  • @anonyme103
    @anonyme103 4 ปีที่แล้ว

    8:28 I know that feeling bro! Great video, as always :)

  • @yannickpezeu3419
    @yannickpezeu3419 3 ปีที่แล้ว

    Quick and easy, thanks

  • @VivekSingh-in6rq
    @VivekSingh-in6rq 3 ปีที่แล้ว

    very good video, keep it up buddy

  • @aquibalikhan6930
    @aquibalikhan6930 3 ปีที่แล้ว +1

    just a question what is difference between nn.linear and nn.sequential. why you're using nn.linear over here why not nn.sequential?

  • @pradumnar870
    @pradumnar870 9 หลายเดือนก่อน

    Why the softmax activation is not applied at the last layer?

    • @Тима-щ2ю
      @Тима-щ2ю 7 หลายเดือนก่อน

      because softmax is already in crossentropyloss class

  • @sahhaf1234
    @sahhaf1234 2 ปีที่แล้ว

    dont we specify an error function and an optimizer like adam? also, dont we specify an initialization scheme like xavier initialization?

  • @QunFengDai
    @QunFengDai 3 หลายเดือนก่อน

    谢谢你的视频