Relu Variants Explained | Leaky Relu | Parametric Relu | Elu | Selu | Activation Functions Part 2

แชร์
ฝัง
  • เผยแพร่เมื่อ 12 ก.ย. 2024

ความคิดเห็น • 51

  • @lingasodanapalli615
    @lingasodanapalli615 6 หลายเดือนก่อน +15

    Minor correction. You have said ReLU is discontinuous at X=0, ReLU is also continuous at X=0, But it is not differentiable.

  • @sandipbnvnhjv
    @sandipbnvnhjv ปีที่แล้ว +15

    26:50 slight correction, Relu is continuous at input zero, but not differentiable

  • @farhatfatima1430
    @farhatfatima1430 ปีที่แล้ว +3

    Honestly.....ur explaination is best among all.... literally I silute u sir and ur mother who got such a talented, genius minded son....❤❤❤❤❤❤
    Slaam from Pakistan

  • @narendraparmar1631
    @narendraparmar1631 6 หลายเดือนก่อน +2

    One of the best channels for data science
    Thanks

  • @rb4754
    @rb4754 3 หลายเดือนก่อน +1

    you just nailed this topic too... Awesome.......

  • @SahdevSaini-sh8fe
    @SahdevSaini-sh8fe 8 วันที่ผ่านมา

    Thanks Sir Awesome Explanation

  • @nikhilk3267
    @nikhilk3267 6 หลายเดือนก่อน +1

    Superb, best video series i came across so far.. is it possible to upload the one note files also, sir? Thank you so much again!!

  • @rafibasha4145
    @rafibasha4145 2 ปีที่แล้ว +10

    Hi Nitish bro ,please start MLops series ,stats playlist

  • @paragbharadia2895
    @paragbharadia2895 22 วันที่ผ่านมา

    learning a lot!

  • @pavantripathi1890
    @pavantripathi1890 3 หลายเดือนก่อน

    Thanks for the wonderful explanation!

  • @anilkathayat1247
    @anilkathayat1247 หลายเดือนก่อน

    Awesome explanation sir!!!

  • @vaibhav1468
    @vaibhav1468 2 ปีที่แล้ว +4

    Nitish sir, we request you to make interview series as soon as possible.
    Placement for upcoming batch would start in 1st week of July.

  • @priyansukushwaha5195
    @priyansukushwaha5195 6 หลายเดือนก่อน +1

    ❤ sir you are amazing 😍

  • @englishtalkers1939
    @englishtalkers1939 5 หลายเดือนก่อน +2

    sir , is there any way i can get the pdf of all these lectures

  • @ParthivShah
    @ParthivShah 4 หลายเดือนก่อน +1

    Thank You Sir.

  • @MonikaSingh-nu5sg
    @MonikaSingh-nu5sg 2 ปีที่แล้ว +2

    fantastic explanation...

  • @amLife07
    @amLife07 2 หลายเดือนก่อน +1

    Thank u sir

  • @ghousepasha4172
    @ghousepasha4172 10 หลายเดือนก่อน +1

    Best of best ❤❤❤❤❤

  • @sanjeevbhatt741
    @sanjeevbhatt741 ปีที่แล้ว +1

    Top class content

  • @mr.deep.
    @mr.deep. 2 ปีที่แล้ว +3

    Thanks sir

  • @nitin-kalra2588
    @nitin-kalra2588 2 ปีที่แล้ว +2

    sir please start new playlist Time series analysis

  • @siddhanthardikar2468
    @siddhanthardikar2468 3 หลายเดือนก่อน

    Sir, just one doubt. Wouldn't ELU also lead to a Vanishing gradient problem if I have more number of negative z's in my network?

  • @pranavreddy9218
    @pranavreddy9218 หลายเดือนก่อน

    b1 to b2, do we really need connection, both can be same? looks some confusion here?

  • @sandipansarkar9211
    @sandipansarkar9211 2 ปีที่แล้ว +1

    finished watching

  • @dineshkhapariye445
    @dineshkhapariye445 6 หลายเดือนก่อน +1

    SIR YOU HAVE MENTIONED REMAINING ACTIVATION FUNCTION????? PLEASE SHARE THEIR DETAILS

  • @vivekpawar1854
    @vivekpawar1854 2 ปีที่แล้ว +1

    In Relu fulform there is term linear then why we say its non linear function???

  • @partharora6023
    @partharora6023 2 ปีที่แล้ว +1

    you look good in this haircut

  • @aashishmalhotra
    @aashishmalhotra 2 ปีที่แล้ว +1

    Awesome

  • @carti8778
    @carti8778 2 ปีที่แล้ว +1

    Will you upload again??

  • @rafibasha4145
    @rafibasha4145 ปีที่แล้ว +1

    @14:45,Nitish bhai because of negative input or intial negative weight values also might cause nagative output right

    • @manujkumarjoshi9342
      @manujkumarjoshi9342 ปีที่แล้ว

      negative weight initialization and obviously negative input

  • @sangram7153
    @sangram7153 ปีที่แล้ว

    You missed, Softmax Function ?

  • @krithwal1997
    @krithwal1997 2 ปีที่แล้ว

    Thankss sirjii

  • @jammascot
    @jammascot 2 ปีที่แล้ว

    thanx

  • @yashjain6372
    @yashjain6372 ปีที่แล้ว

    best

  • @maddybhatt5552
    @maddybhatt5552 ปีที่แล้ว

    can anyone correct me for leaky relu if z>=0 then output come z ,for example if the z become 0 then value of z become 0 again leaky relu will came under die relu problem

    • @DevasheeshMishra
      @DevasheeshMishra 8 หลายเดือนก่อน

      its extreamly rare for z being exactly 0, either it will be +ve or slightly -ve but in 99.99% cases it will not be exactly equal to 0

  • @Ajeet-Yadav-IIITD
    @Ajeet-Yadav-IIITD 2 ปีที่แล้ว

    Nitish, could you please tell which graphic-pad you use for note making?

    • @campusx-official
      @campusx-official  2 ปีที่แล้ว +1

      Galaxy tab s7+

    • @DevasheeshMishra
      @DevasheeshMishra 8 หลายเดือนก่อน

      @@campusx-official ipad air is a better option for 50k :)

  • @sid_x_18
    @sid_x_18 8 หลายเดือนก่อน

    One Correction -- 27:07 derivative of ELU is alpha*e^x and not ELU(x) + alpha

    • @zarifhossain5650
      @zarifhossain5650 8 หลายเดือนก่อน

      It's the same thing.

    • @sid_x_18
      @sid_x_18 8 หลายเดือนก่อน

      @@zarifhossain5650 not the same thing man what you even talking about

    • @harshittagra7797
      @harshittagra7797 6 หลายเดือนก่อน

      they are same bro just put the value of ELU(x) when x

  • @mohitkirar707
    @mohitkirar707 11 หลายเดือนก่อน

    20:00

  • @khanakshir9053
    @khanakshir9053 ปีที่แล้ว

    9:35

  • @yavarjn2055
    @yavarjn2055 ปีที่แล้ว +1

    Please put the language you talk in the title so we don't waste time

    • @codecoding8085
      @codecoding8085 12 วันที่ผ่านมา

      Hindi

    • @yavarjn2055
      @yavarjn2055 11 วันที่ผ่านมา

      Your title is in English. When Somebody search for video in English your video comes up. If you activate translation, speak in English or put at the begining that it is in Hindi we wouldnt be wasting time. Otherwise we will think that you dont care about others.

  • @pratikmahadik3675
    @pratikmahadik3675 2 ปีที่แล้ว +1

    Thanks sir