Loss Functions in Deep Learning | Deep Learning | CampusX

แชร์
ฝัง
  • เผยแพร่เมื่อ 14 ต.ค. 2024

ความคิดเห็น • 126

  • @kumarabhishek1064
    @kumarabhishek1064 2 ปีที่แล้ว +25

    When will you cover RNN, encoder-decoder & transformers?
    Also, if you could make mini projects on these topics, it would be great.
    Keep doing this great work of knowledge sharing, hope your tribe grows more. 👍

  • @HARSHKUMAR-cm7ek
    @HARSHKUMAR-cm7ek 11 หลายเดือนก่อน +7

    Your Content deleviery is truely outstanding sir . Although the numbers don,t justify with your teaching talent but let me tell i came here after seeing many of the paid courses and became a fond of ur teaching method .So, please don,t stop making such fabulous videos . I am pretty sure that this channel will be among top channels for ML and data science soon !!

  • @AhmedAli-uj2js
    @AhmedAli-uj2js ปีที่แล้ว +7

    Your every word and every minute of sayings are worth a lot!

  • @anuradhabalasubramanian9845
    @anuradhabalasubramanian9845 ปีที่แล้ว +7

    Fantastic Explanation Sir ! Absolutely brilliant ! Way to go Sir ! Thank you so much for the crystal clear explanation

  • @Tusharchitrakar
    @Tusharchitrakar 6 หลายเดือนก่อน +3

    Great lecture as usual. Just one small clarification: binary cross entropy has a convex (but not close formed) solution hence it only has a single global minima and no local minima. This can be proved using simple calculus by noticing the second derivatives and check if it is always greater than 0. Hence, you mentioned that there are multiple local minima which is not right. But thanks for your comprehensive material which is helping us learn such complex topics with ease!

  • @anitaga469
    @anitaga469 ปีที่แล้ว +9

    Good Content, great explanation and an exceptionally gifted teacher. Learning is truly made enjoyable by your videos. Thank you for your hard work and clear teaching Nitish Sir.

  • @abchpatel4745
    @abchpatel4745 8 หลายเดือนก่อน +2

    Ony day this channel become most popular for Deep learning ❤️❤️

  • @pratikghute2343
    @pratikghute2343 ปีที่แล้ว +2

    the only channel I have ever seen on youtube is underrated! best content seen so far....... Thanks a lot

  • @amitmishra1303
    @amitmishra1303 8 หลายเดือนก่อน +1

    Nowadays my morning and night end with your lecture sir😅.. thanks for putting so much effort.

  • @parikshitshahane6799
    @parikshitshahane6799 7 หลายเดือนก่อน

    Very very excellent teaching skills you have Sir! Its like college senior explaining concept to me sitting in hostel room.

  • @FaizKhan-zu2kp
    @FaizKhan-zu2kp ปีที่แล้ว +3

    please continue the "100 days of deep learning" sir its humble request to you. This playlist and this channel is best on this entire youtube for machine learner ❤❤❤❤

  • @tanmayshinde7853
    @tanmayshinde7853 2 ปีที่แล้ว +4

    These loss functions are the same as taught in machine learning. Difference in Huber, Binary and Categorical loss function.

  • @HirokiKudoGT
    @HirokiKudoGT ปีที่แล้ว

    This is the best explaination about the whole basic of losses , all doubt are cleared thank you so much for this video.

  • @GAURAVKUMARSVNIT
    @GAURAVKUMARSVNIT 7 หลายเดือนก่อน +1

    At 21:06,[MEAN SQUARE ERROR] In order to calculate totel error by doing [y - y^] some value may be negative and can reduce the error {That we don't want} that is why we are doing square after doing substraction as you said. So here my doubt is that can we make that negative value to positive. then there is no need to do square. Please explain this. Thank you. :)

  • @abhaykumaramanofficial
    @abhaykumaramanofficial 2 ปีที่แล้ว +1

    Great content for me....now everything about loss function is clear .......thank you

  • @OguriRavindra
    @OguriRavindra 7 หลายเดือนก่อน

    Hi. i think the in huber loss example plot @ 36:59, it is for clasification example rather than regression example. regression line should pass through the data points instead of seperating them.

  • @Shisuiii69
    @Shisuiii69 7 หลายเดือนก่อน

    Thanks for the timestamps It's really helpful

  • @amLife07
    @amLife07 3 หลายเดือนก่อน +1

    Thank you so much sir for another amazing lecture ❤😊

  • @palmangal
    @palmangal ปีที่แล้ว

    It was a great Explanation . Thank you so much for such amazing videos.

  • @stoic_sapien1
    @stoic_sapien1 3 หลายเดือนก่อน

    44:52 Binary cross entropy loss is convex function,it will only have one local minima or only one global minima

  • @paragvachhani4643
    @paragvachhani4643 2 ปีที่แล้ว +21

    My Morning begins with campusX...

    • @santoshpal8612
      @santoshpal8612 8 หลายเดือนก่อน +1

      Gentlemen u r on right track

    • @CodeyourLife32
      @CodeyourLife32 3 หลายเดือนก่อน

      same bro

    • @dibyenducontroversy6532
      @dibyenducontroversy6532 2 หลายเดือนก่อน

      ​@@santoshpal8612 gentleman learn english first

    • @TGRPR
      @TGRPR 11 วันที่ผ่านมา

      ​@@CodeyourLife32hii bro are you learning now or getting job

  • @AkashBhandwalkar
    @AkashBhandwalkar 2 ปีที่แล้ว +5

    Superb Video Sirr! Can you tell me which is the stylus that your using? And what is the name of the drawing/writing pad that you use. I want to buy one too

  • @KeyurPanchal0475
    @KeyurPanchal0475 2 หลายเดือนก่อน

    Simple and easy to understand.

  • @AlAmin-xy5ff
    @AlAmin-xy5ff 2 ปีที่แล้ว

    Sir, you are really amazing. I have learned lot of things from your TH-cam channel.

  • @ANKUSHKUMAR-jr1pf
    @ANKUSHKUMAR-jr1pf ปีที่แล้ว

    at timestamp 44:40 --> sir, you told that binary corss entropy may have multiple minimal, but binary cross entropy is a convex function so it won't have multiple minima, i think.

  • @74kumarrohit
    @74kumarrohit 7 หลายเดือนก่อน

    Can you please create a videos for remainig Loss Function , for AutoEncoders, GANS, Transformers also. Thanks

  • @paruParu-rc1bu
    @paruParu-rc1bu ปีที่แล้ว

    With all respect....thank you very much ❤

  • @narendraparmar1631
    @narendraparmar1631 8 หลายเดือนก่อน

    Very well explained, Thanks

  • @techvideo4752
    @techvideo4752 หลายเดือนก่อน

    amazing content as usual. thanks

  • @ashrafpathan417
    @ashrafpathan417 24 วันที่ผ่านมา +1

    can't we first handle outliers then apply MCE? it is not such a big disadvantage na.

  • @wahabmamond4368
    @wahabmamond4368 10 หลายเดือนก่อน +3

    Learning DL and Hindi together, respect from Afghanistan Sir!

  • @rashidsiddiqui4502
    @rashidsiddiqui4502 6 หลายเดือนก่อน

    thank you so much sir, clear explaination

  • @ariondas7415
    @ariondas7415 3 หลายเดือนก่อน

    if the difference in (yi - y^i) is in decimals, then the loss value is diminished and not magnified, so maybe a novelty would be take this into account.

  • @aakiffpanjwani1089
    @aakiffpanjwani1089 6 หลายเดือนก่อน

    can we use step function as the activation function for the last layer/ prediction node while doing classification problem using binary cross entropy? for 0 and 1 outputs?

  • @GamerBoy-ii4jc
    @GamerBoy-ii4jc 2 ปีที่แล้ว

    hmesha ki trha kmaaaal Sir g

  • @ashwinjain5566
    @ashwinjain5566 ปีที่แล้ว

    at 36:27, shouldnt the line be nearly perpendicular to what you drew? seems like a case of simpson's paradox.

  • @lakshya8532
    @lakshya8532 ปีที่แล้ว

    One disadvantage of MSE that, i can figure out if there are multiple local minima then there might be a case where MSE loss function can lead to a local minima instead of global minima

  • @barunkaushik7015
    @barunkaushik7015 2 ปีที่แล้ว

    Such wonderful learning experience

  • @RanjitSingh-rq1qx
    @RanjitSingh-rq1qx ปีที่แล้ว

    Great work sir. Amazing 😍

  • @practicemail3227
    @practicemail3227 ปีที่แล้ว +1

    was able to understand each and every word, concept just because of you sir. Your teaching has brought me to this place where i can understand such concepts easily. Thank you very much sir. Really appreciate your hard work and passion. ❣🌼🌟

  • @techsavy5669
    @techsavy5669 2 ปีที่แล้ว +2

    Great concise video. Loved it.
    A small question 💡:
    Sometimes we do drop='first', to remove that redundant first column during onehotencoding. So does that make a difference while using either of these categorical losses!?

    • @pratikghute2343
      @pratikghute2343 ปีที่แล้ว

      I think this might be happening automatically or not needed bcoz that way we could not get the loss for that category

    • @AmitUtkarsh99
      @AmitUtkarsh99 ปีที่แล้ว

      yes it affects the model because u should keep no. of parameters as less as possible for optimised model. but we dont always . it depends on variables or input. like 2 inputs can be interpreted by just one variable. 2^1. 3 variables require at least 2 variables but 2^2 is 4 so we can drop one column.

  • @uddhavsangle2219
    @uddhavsangle2219 ปีที่แล้ว

    nice explanation sir
    thank you so much

  • @narendersingh6492
    @narendersingh6492 5 หลายเดือนก่อน

    This is so very important

  • @SumanPokhrel0
    @SumanPokhrel0 ปีที่แล้ว

    Beautiful explanation

  • @safiullah353
    @safiullah353 ปีที่แล้ว

    How beautiful this is 🥰

  • @rb4754
    @rb4754 4 หลายเดือนก่อน

    Mindboggling !!!!!!!!!!!!!!!!!!

  • @Avsjagannath
    @Avsjagannath 9 หลายเดือนก่อน

    excellent teaching skill.sir plz provide notes pdf

  • @faheemfbr9156
    @faheemfbr9156 ปีที่แล้ว

    Very well explained

  • @shantanuekhande4788
    @shantanuekhande4788 2 ปีที่แล้ว

    great explanation. can you tell me why we need bias in NN . how it is useful

  • @kindaeasy9797
    @kindaeasy9797 3 หลายเดือนก่อน

    amazing lectureeeeeeee

  • @ParthivShah
    @ParthivShah 5 หลายเดือนก่อน +1

    Thank You Sir.

  • @farhadkhan3893
    @farhadkhan3893 ปีที่แล้ว

    thank you for your hard work

  • @suriyab8143
    @suriyab8143 ปีที่แล้ว +1

    Sir, which tool are you using for explanation in this video

  • @hey.Sourin
    @hey.Sourin 6 หลายเดือนก่อน

    Thank you sir 😁😊

  • @rohansingh6329
    @rohansingh6329 8 หลายเดือนก่อน

    awesome man just amazing ... ! ! !

  • @manashkumarbhadra6208
    @manashkumarbhadra6208 4 หลายเดือนก่อน

    Great work

  • @talibdaryabi9434
    @talibdaryabi9434 ปีที่แล้ว

    I wanted this video and got it. Thank you.

  • @Keep_Laughfing
    @Keep_Laughfing ปีที่แล้ว

    Amazing sir 🙏🏻

  • @ShubhamSharma-gs9pt
    @ShubhamSharma-gs9pt 2 ปีที่แล้ว

    this playlist is a 💎💎💎💎💎

  • @tejassrivastava6971
    @tejassrivastava6971 ปีที่แล้ว +1

    Wouldn't Categorical and Sparse Entropy become same ?
    As after OHE, all log terms become zero except the current one which gives same result as from Sparse.

  • @mrityunjayupadhyay7332
    @mrityunjayupadhyay7332 ปีที่แล้ว

    Amazing

  • @lonehawk4096
    @lonehawk4096 2 ปีที่แล้ว

    ML MICE SKLEARN video is still pending sir pleases make that video, other Playlist are also very helpfull thanks for all content.

  • @nxlamik1245
    @nxlamik1245 8 หลายเดือนก่อน

    I am enjoying your video like a web series sir

  • @sambitmohanty1758
    @sambitmohanty1758 2 ปีที่แล้ว

    Great video sir as expected

  • @jayantsharma2267
    @jayantsharma2267 2 ปีที่แล้ว

    great content

  • @uzairrehman5765
    @uzairrehman5765 11 หลายเดือนก่อน

    Great content!

  • @sumitprasad035
    @sumitprasad035 ปีที่แล้ว

    🦸‍♂Thank you Bhaiya ...

  • @bhojpuridance3715
    @bhojpuridance3715 ปีที่แล้ว

    Thanxs sir

  • @KiyotakaAyanokoji1
    @KiyotakaAyanokoji1 ปีที่แล้ว +1

    what is the difference :
    1.) if we update the weights and bias on each row ,for all epoches ,
    2) for each batch (all rows togeather), for all epoches .
    can you tell senarios where one is better over other?

  • @saranshkathal636
    @saranshkathal636 หลายเดือนก่อน

    Sir, how should i study while making notes ? i feel like i am gettting jumbeled in my brain

  • @RajaKumar-yx1uj
    @RajaKumar-yx1uj 2 ปีที่แล้ว

    Welcome Back Sir 🤟

  • @ManasNandMohan
    @ManasNandMohan 4 หลายเดือนก่อน

    Awesome

  • @sanchitdeepsingh9663
    @sanchitdeepsingh9663 11 หลายเดือนก่อน

    thanks sir

  • @IRFANSAMS
    @IRFANSAMS 2 ปีที่แล้ว

    Awesome sir!

  • @KaranGupta-kv6wq
    @KaranGupta-kv6wq 6 หลายเดือนก่อน

    can someone explain me how 0.3 0.6 0.1 is coming @ 52:37 I want to know how can I get these values and which formula is used

  • @kindaeasy9797
    @kindaeasy9797 3 หลายเดือนก่อน

    22:25 unit^2

  • @pavangoyal6840
    @pavangoyal6840 2 ปีที่แล้ว

    Thank you

  • @vishalpatil228
    @vishalpatil228 10 หลายเดือนก่อน

    43.32
    cost function = 1/n∑ ( loss function )

  • @partharora6023
    @partharora6023 2 ปีที่แล้ว

    sir carryon this series

  • @raj4624
    @raj4624 2 ปีที่แล้ว

    As usual crystal clear explanation Sir ji❤❤🙌 @CampusX

  • @kindaeasy9797
    @kindaeasy9797 3 หลายเดือนก่อน

    easyy thankssss

  • @vinayakchhabra7208
    @vinayakchhabra7208 ปีที่แล้ว

    best

  • @anishkhatiwada2502
    @anishkhatiwada2502 9 หลายเดือนก่อน

    please put timestamp for each topic in this video.

  • @shashankshekharsingh9336
    @shashankshekharsingh9336 5 หลายเดือนก่อน

    thank your sir for this great content.
    13/05/24

  • @abhisheksinghyadav4970
    @abhisheksinghyadav4970 ปีที่แล้ว

    please share the white board @CampusX

  • @Sara-fp1zw
    @Sara-fp1zw 2 ปีที่แล้ว

    Thank you!!!

  • @alastormoody1282
    @alastormoody1282 6 หลายเดือนก่อน

    Respect

  • @vinayakchhabra7208
    @vinayakchhabra7208 ปีที่แล้ว

    maza aagya

  • @aliensamv3997
    @aliensamv3997 หลายเดือนก่อน

    9:38 matter ho gya khtrnak wala

  • @SaifAbbas-c9p
    @SaifAbbas-c9p 7 หลายเดือนก่อน

    grate

  • @8791692532
    @8791692532 2 ปีที่แล้ว +1

    Why you stopped posting videos in this Playlist?

    • @campusx-official
      @campusx-official  2 ปีที่แล้ว +3

      Creating the next one right now... Backpropogation

    • @8791692532
      @8791692532 2 ปีที่แล้ว +1

      @@campusx-official please upload atleast one videos in 3-4 days to maintain continuity. by the way this playlist is going to be game changer for most learners, because comprehensive video content for Deep Learning is not available on youtube!
      Your method of teaching is very simple and understandable. Thank You for providing credible content!

  • @ahmadtalhaansari4456
    @ahmadtalhaansari4456 ปีที่แล้ว

    Revising my concepts.
    August 04, 2023 😅

  • @alokmishra5367
    @alokmishra5367 10 หลายเดือนก่อน

  • @sandipansarkar9211
    @sandipansarkar9211 2 ปีที่แล้ว

    finished watching

  • @amitbaderia6385
    @amitbaderia6385 6 หลายเดือนก่อน +2

    Please take care of background noises

  • @spyzvarun5478
    @spyzvarun5478 ปีที่แล้ว

    Isn't logloss convex?

  • @sam-mv6vj
    @sam-mv6vj 2 ปีที่แล้ว

    Thank you sir for resuming

  • @waheedweins
    @waheedweins 3 หลายเดือนก่อน

  • @praveendeena1493
    @praveendeena1493 2 ปีที่แล้ว

    Hi sir
    I want complete end to end project video.please share me

  • @Pipython
    @Pipython 4 หลายเดือนก่อน

    aise explain karoge to like to karna padega na....