Activation Functions in Deep Learning | Sigmoid, Tanh and Relu Activation Function

แชร์
ฝัง
  • เผยแพร่เมื่อ 23 ส.ค. 2024

ความคิดเห็น • 64

  • @PiyushASupe
    @PiyushASupe 2 ปีที่แล้ว +53

    Despite being a AIML professional for a few years now, I love to spend time on your channel. Every word you speak make me think “aise koi mujhe 3-4 saal pehele sikhata” when I was new finding my way in. I am waiting for a special topic “Batch Normalisation”, Great Job Nitish Sir.

    • @campusx-official
      @campusx-official  2 ปีที่แล้ว +12

      Thanks Piyush :)

    • @debojitmandal8670
      @debojitmandal8670 ปีที่แล้ว +1

      @@campusx-official Hellos sir please can you complete or atleast give a dat or atleast give an guestimated date that when you will complete your dl playlist

    • @NarndarkumarNarndarkumar-vu4ow
      @NarndarkumarNarndarkumar-vu4ow 4 หลายเดือนก่อน

      Nike. m n FM. I.. .justn..

    • @aayushmittal6930
      @aayushmittal6930 3 วันที่ผ่านมา

      Piyush bhaiya referal dedo pls

  • @anujshrivastav7365
    @anujshrivastav7365 2 ปีที่แล้ว +10

    I have binge-watched all your deep learning videos in the last two days ....you have explained everything so easily and with examples as well... thank you sir

  • @bidyutbikash5243
    @bidyutbikash5243 ปีที่แล้ว +7

    @CampusX, great content after spending so much time and money on these online courses now I am getting deeper into, I must say you will be remembered by AI/ML generation.
    💯

  • @KeyurPanchal0475
    @KeyurPanchal0475 19 วันที่ผ่านมา

    Your teaching is motivating me more to learn more about Machine Learning and Deep learning. Thanks a lot for such easy explanation.

  • @SS-yb1qd
    @SS-yb1qd 2 ปีที่แล้ว +7

    This guy is GOD !!

  • @vipulsharma1319
    @vipulsharma1319 2 ปีที่แล้ว +4

    Indeed Sir, ur way of explaining things is awesome..... Great work.... Thanks for sharing...Stay blessed

  • @darshan5945
    @darshan5945 6 หลายเดือนก่อน +2

    Thank you man. I have never seen such good explanation. You explained theory as well as the math part so effortlessly..

  • @roshankumargupta46
    @roshankumargupta46 2 ปีที่แล้ว +19

    Thank you Sir! One of the great tutors I have cm across :) Any planning to expand NLP series?

  • @ersaswatdash
    @ersaswatdash ปีที่แล้ว +2

    Best video on activation function.

  • @priti5203
    @priti5203 2 ปีที่แล้ว +3

    Thanks for video, waiting for Relu and Tanh 2-3 hr coding video.

  • @shashikiranPrakash
    @shashikiranPrakash หลายเดือนก่อน

    Superb demonstration

  • @narendraparmar1631
    @narendraparmar1631 6 หลายเดือนก่อน +1

    Good Explanation
    Thanks for your efforts in machine learning teaching field

  • @satyamgawade4244
    @satyamgawade4244 2 ปีที่แล้ว +4

    In general when observed from the Sigmoid and Tanh Graph, the derivative (ie Slope of line tangent to Curve at a Point) of Tanh is always greater than Sigmoid, and whenever x tends to infinity both derivatives can be same to each other, and dw is directly proportional to derivative of activation function, hence when Tanh used in internal hidden layers its derivative is high and weight update are faster and hence our network converges faster than compared to sigmoid, and the problem with relu is that if any weights go negative relu makes it zero

    • @satyamgawade4244
      @satyamgawade4244 2 ปีที่แล้ว

      also Softmax activation is used in output layer in Multiclass Classification Problem

  • @pratikmahadik3675
    @pratikmahadik3675 2 ปีที่แล้ว +3

    Great video sir!! Thank you

  • @fontstocopyandpaste
    @fontstocopyandpaste 2 ปีที่แล้ว +3

    Sir, pls make a complete tutorial on how to develop Content Generator, Text Summarizer using ML and NLP? Love and Respect from Kathmandu, Nepal

  • @aids_50_aryan_singh.41
    @aids_50_aryan_singh.41 2 ปีที่แล้ว +1

    Great content , Thanks Sir for providing such great content to us 🧡 . It helps us a lot

  • @rafibasha4145
    @rafibasha4145 2 ปีที่แล้ว +2

    Hi Nitish ,please make a video on which videos or books you follow to learn ML DL NLP etc!

  • @StartGenAI
    @StartGenAI 2 ปีที่แล้ว +3

    Great 🙏🙏

  • @rb4754
    @rb4754 2 หลายเดือนก่อน

    Great video...

  • @vinaynaik953
    @vinaynaik953 2 ปีที่แล้ว +2

    Thanks for everything

  • @mr.deep.
    @mr.deep. 2 ปีที่แล้ว +5

    Please increase frequency of DL playlist thanks🏆

  • @ManavMSanger
    @ManavMSanger 21 วันที่ผ่านมา

    amazing video

  • @rb4754
    @rb4754 2 หลายเดือนก่อน

    God level teacher

  • @amLife07
    @amLife07 หลายเดือนก่อน

    Thank you soo much sir ....

  • @rohitpotluri4378
    @rohitpotluri4378 4 หลายเดือนก่อน

    Amazing tutorial sir.

  • @dasaradhamurali3099
    @dasaradhamurali3099 2 ปีที่แล้ว +2

    Nice sir

  • @Ankit-hs9nb
    @Ankit-hs9nb ปีที่แล้ว +2

    thanks sir jee!

  • @thesunil1806
    @thesunil1806 2 ปีที่แล้ว +2

    thanks bro

  • @Ajeet-Yadav-IIITD
    @Ajeet-Yadav-IIITD 2 ปีที่แล้ว

    33:41 Couldn't be better example than this Nitish 👏🏻

  • @dushyantyadav3192
    @dushyantyadav3192 8 หลายเดือนก่อน

    Mujhe ek baat samajh nhi aati 27k views hai es vedio aur sir itna achha pdate hai phir bhi log like kyu nhi kerte ?

  • @CODEToGetHer-rq2nf
    @CODEToGetHer-rq2nf 9 หลายเดือนก่อน +1

    God level teacher ❤️🤌🏻

  • @amruthavarshini8094
    @amruthavarshini8094 3 หลายเดือนก่อน

    we differentiate loss function in gradient decent right ,so why should we differentiate activation function
    ?

  • @AlAmin-xy5ff
    @AlAmin-xy5ff ปีที่แล้ว

    You are really amazing Sir.

  • @herambvaidya3709
    @herambvaidya3709 ปีที่แล้ว

    Great work sir!!

  • @sachinsoni5044
    @sachinsoni5044 2 ปีที่แล้ว +2

    Sir Grammarly Ka ML system develop kijiye na, please 🙏 sir

  • @pushparajnimbalkar6007
    @pushparajnimbalkar6007 ปีที่แล้ว +1

    Thanks!

  • @PrakashPit
    @PrakashPit 6 หลายเดือนก่อน

    🥰🥰🥰 great bro

  • @barunkaushik7015
    @barunkaushik7015 ปีที่แล้ว

    Superb...

  • @rafibasha4145
    @rafibasha4145 ปีที่แล้ว +1

    @32:15 Hi Nitish,please explain how gradinets become negative when sigmoid ranges bw 0 to0.25

    • @anonymousxyz3856
      @anonymousxyz3856 ปีที่แล้ว

      I guess,
      The activations are positive (0-1), but when it gets multiplied by the other gradients during propagation then it can either become positive or negative.

  • @supriya_codes
    @supriya_codes 4 หลายเดือนก่อน

    sir at 28:54 sigmoid sirf 0-1 o/p krta h toh ap bole -ve and +ve positive value?

  • @bhrigukumardas1622
    @bhrigukumardas1622 4 หลายเดือนก่อน

    8:45 how it will be linear at last layer it is sigmoid... then how will u apply linear in the last layer...

  • @user-vq1zs6qv9c
    @user-vq1zs6qv9c 6 หลายเดือนก่อน

    Sir please provide the links for your Microsoft Onenote notes link

  • @tayyabsattar14
    @tayyabsattar14 7 หลายเดือนก่อน

    Love from Pakistan🥰🥰

  • @sanjaykumarnandi25
    @sanjaykumarnandi25 ปีที่แล้ว

    Sir in ur github I dont find any code and lectures of these 50 lectures

  • @sandipansarkar9211
    @sandipansarkar9211 2 ปีที่แล้ว

    finished watching

  • @vaishnavivlogs8017
    @vaishnavivlogs8017 ปีที่แล้ว

    tq🥰

  • @DevasheeshMishra
    @DevasheeshMishra 7 หลายเดือนก่อน

    softmax?

  • @sanjaykumarnandi25
    @sanjaykumarnandi25 ปีที่แล้ว

    Sir Can u upload code for practice whatever u learn

  • @sanskarkurude
    @sanskarkurude 5 หลายเดือนก่อน +1

    i think there the data should be Standardized in place of Normalized

    • @samrat_chauhan
      @samrat_chauhan 4 หลายเดือนก่อน

      Please explain the scenerio

    • @sanskarkurude
      @sanskarkurude 4 หลายเดือนก่อน

      Standardization and normalisation are two diff. Cases you will fill on Google but there he just interchanged those two terms

    • @samrat_chauhan
      @samrat_chauhan 4 หลายเดือนก่อน

      @@sanskarkurude I know that but in what scenarios we should use standardization

    • @Shobhitchoudhary321
      @Shobhitchoudhary321 3 หลายเดือนก่อน +2

      ​​@@samrat_chauhan sir mentioned in earlier videos that we do standardization when they is no definite upper or lower limit on the data while Normalization is applied when we know the upper limit and lower limit of the data eg age would mostly be in of 0-110 or so

  • @yashjain6372
    @yashjain6372 ปีที่แล้ว

    best

  • @DarkShadow00972
    @DarkShadow00972 7 หลายเดือนก่อน

    One note notes link?

  • @ajitkumarpatel2048
    @ajitkumarpatel2048 ปีที่แล้ว

    🙏

  • @MrCangcong
    @MrCangcong 2 ปีที่แล้ว +1

    Sir please upload video