Dropout Layer in Deep Learning | Dropouts in ANN | End to End Deep Learning

แชร์
ฝัง
  • เผยแพร่เมื่อ 12 ก.ย. 2024

ความคิดเห็น • 45

  • @ghousepasha4172
    @ghousepasha4172 11 หลายเดือนก่อน +15

    This guy will become a brand in aiml

  • @Ankit-hs9nb
    @Ankit-hs9nb ปีที่แล้ว +17

    Thanks, sir jee for such videos! please start BERT/transformer series!

  • @SethuIyer95
    @SethuIyer95 6 หลายเดือนก่อน +2

    I think you nailed it with the random forest analogy. That's just brilliant.

  • @JiwanRai-mj7ke
    @JiwanRai-mj7ke 2 หลายเดือนก่อน +1

    @Nitish Shing. I really loved your all videos and the way you explain the concept. Looking fore more videos of such nature in future. I am learning AI through your videos. Thanks for amazing work you are doing. Lots of support from Bhutan

  • @alirazatareen5651
    @alirazatareen5651 หลายเดือนก่อน +1

    Amazing you are the king of deep learning

  • @ShahnazMalik.
    @ShahnazMalik. 10 หลายเดือนก่อน +2

    Brilliantly explained. May I please know what pen and drawing pad you use to write the mathematics and explanation? Thanks and keep uploading videos and I am sure you will soon have millions of subscribers

  • @MonikaSingh-nu5sg
    @MonikaSingh-nu5sg 2 ปีที่แล้ว +5

    Amazing video again ...

  • @SurajitDas-gk1uv
    @SurajitDas-gk1uv ปีที่แล้ว +3

    Very good tutorial. Thank you very much for such a good tutorial.

  • @rayanali9737
    @rayanali9737 ปีที่แล้ว +3

    very simple and precise explanation. Thanks

  • @narendraparmar1631
    @narendraparmar1631 6 หลายเดือนก่อน +1

    Thanks for this simple explanation.

  • @sujithsaikalakonda4863
    @sujithsaikalakonda4863 11 หลายเดือนก่อน +2

    Very well explained.

  • @paragbharadia2895
    @paragbharadia2895 22 วันที่ผ่านมา

    amazing video thank you, learned so much!

  • @aakashbarwad2420
    @aakashbarwad2420 6 หลายเดือนก่อน +1

    Wonderful videos all

  • @sandipansarkar9211
    @sandipansarkar9211 2 ปีที่แล้ว +2

    finished watching

  • @hamzakhanswati9087
    @hamzakhanswati9087 11 หลายเดือนก่อน +2

    Amazing❤❤

  • @Singasongwithme2004
    @Singasongwithme2004 หลายเดือนก่อน

    in last topic how prediction works there you told p = 0.25 means only one node will be ignored during training in every epoch(according to you) but i think if you want to drop or ignore only one node from one layer(one layer is made up by 4 layer) the p value should be 0.75
    and this is the formula -
    p = Neurons to keep / Total neurons
    If i am wrong please correct me and if we both are right then let me know please 🙂

  • @savyasachi6988
    @savyasachi6988 3 หลายเดือนก่อน

    hidden gem

  • @mustafizurrahman5699
    @mustafizurrahman5699 10 หลายเดือนก่อน +1

    sir you are a genius

  • @rb4754
    @rb4754 3 หลายเดือนก่อน

    Awesome teaching...

  • @ParthivShah
    @ParthivShah 4 หลายเดือนก่อน +1

    Thank You Sir.

  • @barryallen3051
    @barryallen3051 2 ปีที่แล้ว +2

    I have a request. Can you please make a video about Monte Carlo (MC) Dropout too?

  • @ParthivShah
    @ParthivShah 4 หลายเดือนก่อน +1

    best video.

  • @vinaynaik953
    @vinaynaik953 2 ปีที่แล้ว +2

    Great

  • @AayushShrivastavaIITH
    @AayushShrivastavaIITH หลายเดือนก่อน

    If the weight is calculated based on the ratio of availability of the nodes, i.e., 0.75, then during testing we will use the same weight value to predict the output. Why to multiply with the availability ratio of 0.75 during testing?

  • @amLife07
    @amLife07 2 หลายเดือนก่อน

    Thank you soo much Sir ....

  • @ekanshuagrawal5931
    @ekanshuagrawal5931 8 หลายเดือนก่อน

    Thanks for providing the paper

  • @chetanchavan647
    @chetanchavan647 6 หลายเดือนก่อน

    Great Video

  • @upa240
    @upa240 2 ปีที่แล้ว +6

    Is it more accurate to say for every combination of forward and backward pass instead of saying for each epoch? One epoch may consists of several mini batches. Also is it common to apply drop outs on input layer? Thanks...

    • @arush6070
      @arush6070 2 ปีที่แล้ว

      ig we usually don't apply dropout to input layer

    • @ickywitchy4667
      @ickywitchy4667 6 หลายเดือนก่อน

      yea you are right

  • @elonmusk4267
    @elonmusk4267 23 วันที่ผ่านมา +1

    addicted

  • @user-wp7zk9ee5z
    @user-wp7zk9ee5z 8 หลายเดือนก่อน

    Hello Sir, just what you mentioned in the video that the probability of each weight being present while testing will be 0.75 given that p is 0.25. But as the nature being random for selecting the node to be dropout isnt it possible in the worst case scenario that one node being present all the time for eg the node was present for all the 100 epochs?

  • @vanshshah6418
    @vanshshah6418 2 ปีที่แล้ว +1

    Thanks awesome

  • @prakharagarwal9448
    @prakharagarwal9448 2 ปีที่แล้ว +2

    Sir pls send the notes link

  • @hussainshah7065
    @hussainshah7065 ปีที่แล้ว +1

    sir please share the one note link for notes

  • @siddharthagrawal6157
    @siddharthagrawal6157 2 ปีที่แล้ว +1

    Sir how do you make these amazing tutorials? What do you use to write on the screen? Just curious

  • @sajalhsn13
    @sajalhsn13 2 ปีที่แล้ว

    off-topic. do you have any connection with the Bengali language? I am a Bengali and for some reason, I think, you do. just curious. :)

  • @znyd.
    @znyd. 3 หลายเดือนก่อน

    💚

  • @rafibasha4145
    @rafibasha4145 2 ปีที่แล้ว +2

    1st

  • @sharangkulkarni1759
    @sharangkulkarni1759 ปีที่แล้ว

    Good

  • @ahmadtalhaansari4456
    @ahmadtalhaansari4456 ปีที่แล้ว

    Revising concepts.
    August 15, 2023😅

  • @sandipansarkar9211
    @sandipansarkar9211 2 ปีที่แล้ว

    finished watching

    • @umersiddiqui9580
      @umersiddiqui9580 11 หลายเดือนก่อน

      now sleep sweet dreams.

    • @AsadNawaz-e3z
      @AsadNawaz-e3z 14 วันที่ผ่านมา

      @@umersiddiqui9580 with excitement