Dropout Layer in Deep Learning | Dropouts in ANN | End to End Deep Learning

แชร์
ฝัง
  • เผยแพร่เมื่อ 1 ม.ค. 2025

ความคิดเห็น • 51

  • @ghousepasha4172
    @ghousepasha4172 ปีที่แล้ว +25

    This guy will become a brand in aiml

  • @Ankit-hs9nb
    @Ankit-hs9nb ปีที่แล้ว +22

    Thanks, sir jee for such videos! please start BERT/transformer series!

  • @SethuIyer95
    @SethuIyer95 10 หลายเดือนก่อน +2

    I think you nailed it with the random forest analogy. That's just brilliant.

  • @MonikaSingh-nu5sg
    @MonikaSingh-nu5sg 2 ปีที่แล้ว +5

    Amazing video again ...

  • @narendraparmar1631
    @narendraparmar1631 10 หลายเดือนก่อน +1

    Thanks for this simple explanation.

  • @rayanali9737
    @rayanali9737 ปีที่แล้ว +3

    very simple and precise explanation. Thanks

  • @SurajitDas-gk1uv
    @SurajitDas-gk1uv ปีที่แล้ว +3

    Very good tutorial. Thank you very much for such a good tutorial.

  • @alirazatareen5651
    @alirazatareen5651 5 หลายเดือนก่อน +1

    Amazing you are the king of deep learning

  • @UmerFarooq-zv1ky
    @UmerFarooq-zv1ky 23 วันที่ผ่านมา

    Amazing Explanation sir g

  • @JiwanRai-mj7ke
    @JiwanRai-mj7ke 6 หลายเดือนก่อน +1

    @Nitish Shing. I really loved your all videos and the way you explain the concept. Looking fore more videos of such nature in future. I am learning AI through your videos. Thanks for amazing work you are doing. Lots of support from Bhutan

  • @rockykumarverma980
    @rockykumarverma980 20 วันที่ผ่านมา

    Thank you so much sir 🙏🙏🙏

  • @sujithsaikalakonda4863
    @sujithsaikalakonda4863 ปีที่แล้ว +2

    Very well explained.

  • @sakshamjain4640
    @sakshamjain4640 3 หลายเดือนก่อน

    Its amazing, I was thinking Dropout layer is like Random forest with regression logic, Maybe the intuition of everything is kinda similar with slight difference.
    But Amazing Video. Really impressed !!

  • @aakashbarwad2420
    @aakashbarwad2420 10 หลายเดือนก่อน +1

    Wonderful videos all

  • @hamzakhanswati9087
    @hamzakhanswati9087 ปีที่แล้ว +2

    Amazing❤❤

  • @paragbharadia2895
    @paragbharadia2895 4 หลายเดือนก่อน

    amazing video thank you, learned so much!

  • @ekanshuagrawal5931
    @ekanshuagrawal5931 ปีที่แล้ว

    Thanks for providing the paper

  • @nomannosher8928
    @nomannosher8928 2 หลายเดือนก่อน

    I wish, I would watch this video before my interview.😥. Interviewer watched this before me.

  • @mustafizurrahman5699
    @mustafizurrahman5699 ปีที่แล้ว +1

    sir you are a genius

  • @chetanchavan647
    @chetanchavan647 10 หลายเดือนก่อน

    Great Video

  • @amLife07
    @amLife07 5 หลายเดือนก่อน

    Thank you soo much Sir ....

  • @ParthivShah
    @ParthivShah 8 หลายเดือนก่อน +1

    Thank You Sir.

  • @sandipansarkar9211
    @sandipansarkar9211 2 ปีที่แล้ว +2

    finished watching

  • @ParthivShah
    @ParthivShah 8 หลายเดือนก่อน +1

    best video.

  • @ShahnazMalik.
    @ShahnazMalik. ปีที่แล้ว +2

    Brilliantly explained. May I please know what pen and drawing pad you use to write the mathematics and explanation? Thanks and keep uploading videos and I am sure you will soon have millions of subscribers

  • @Singasongwithme2004
    @Singasongwithme2004 5 หลายเดือนก่อน

    in last topic how prediction works there you told p = 0.25 means only one node will be ignored during training in every epoch(according to you) but i think if you want to drop or ignore only one node from one layer(one layer is made up by 4 layer) the p value should be 0.75
    and this is the formula -
    p = Neurons to keep / Total neurons
    If i am wrong please correct me and if we both are right then let me know please 🙂

  • @AayushShrivastavaIITH
    @AayushShrivastavaIITH 5 หลายเดือนก่อน +1

    If the weight is calculated based on the ratio of availability of the nodes, i.e., 0.75, then during testing we will use the same weight value to predict the output. Why to multiply with the availability ratio of 0.75 during testing?

  • @vinaynaik953
    @vinaynaik953 2 ปีที่แล้ว +2

    Great

  • @rb4754
    @rb4754 7 หลายเดือนก่อน

    Awesome teaching...

  • @savyasachi6988
    @savyasachi6988 7 หลายเดือนก่อน

    hidden gem

  • @arin_p
    @arin_p 3 หลายเดือนก่อน

    good

  • @vanshshah6418
    @vanshshah6418 2 ปีที่แล้ว +1

    Thanks awesome

  • @barryallen3051
    @barryallen3051 2 ปีที่แล้ว +2

    I have a request. Can you please make a video about Monte Carlo (MC) Dropout too?

  • @sharangkulkarni1759
    @sharangkulkarni1759 ปีที่แล้ว

    Good

  • @hussainshah7065
    @hussainshah7065 2 ปีที่แล้ว +1

    sir please share the one note link for notes

  • @prakharagarwal9448
    @prakharagarwal9448 2 ปีที่แล้ว +2

    Sir pls send the notes link

  • @AtharvaAnkushSadanshive
    @AtharvaAnkushSadanshive ปีที่แล้ว

    Hello Sir, just what you mentioned in the video that the probability of each weight being present while testing will be 0.75 given that p is 0.25. But as the nature being random for selecting the node to be dropout isnt it possible in the worst case scenario that one node being present all the time for eg the node was present for all the 100 epochs?

  • @siddharthagrawal6157
    @siddharthagrawal6157 2 ปีที่แล้ว +1

    Sir how do you make these amazing tutorials? What do you use to write on the screen? Just curious

  • @elonmusk4267
    @elonmusk4267 4 หลายเดือนก่อน +1

    addicted

  • @ndbweurt34485
    @ndbweurt34485 2 หลายเดือนก่อน

    agar koi weight multiple times dikh gaya toh?

  • @znyd.
    @znyd. 7 หลายเดือนก่อน

    💚

  • @upa240
    @upa240 2 ปีที่แล้ว +6

    Is it more accurate to say for every combination of forward and backward pass instead of saying for each epoch? One epoch may consists of several mini batches. Also is it common to apply drop outs on input layer? Thanks...

    • @arush6070
      @arush6070 2 ปีที่แล้ว

      ig we usually don't apply dropout to input layer

    • @ickywitchy4667
      @ickywitchy4667 9 หลายเดือนก่อน

      yea you are right

  • @sajalhsn13
    @sajalhsn13 2 ปีที่แล้ว

    off-topic. do you have any connection with the Bengali language? I am a Bengali and for some reason, I think, you do. just curious. :)

  • @ahmadtalhaansari4456
    @ahmadtalhaansari4456 ปีที่แล้ว

    Revising concepts.
    August 15, 2023😅

  • @rafibasha4145
    @rafibasha4145 2 ปีที่แล้ว +2

    1st

  • @sandipansarkar9211
    @sandipansarkar9211 2 ปีที่แล้ว

    finished watching

    • @umersiddiqui9580
      @umersiddiqui9580 ปีที่แล้ว

      now sleep sweet dreams.

    • @AsadNawaz-e3z
      @AsadNawaz-e3z 4 หลายเดือนก่อน

      @@umersiddiqui9580 with excitement