Part 1-Decision Tree Classifier Indepth Intuition In Hindi| Krish Naik

แชร์
ฝัง
  • เผยแพร่เมื่อ 26 ก.ย. 2024

ความคิดเห็น • 66

  • @krishnaikhindi
    @krishnaikhindi  2 ปีที่แล้ว +8

    We are happy to announce iNeuron is coming up with the 6 months Live Full Stack Data Analytics batch with job assistance and internship starting from 18th June 2022.The instructor of the course will be me and Sudhanshu. The course price is really affordable 4000rs Inr including GST.
    The course content will be available for lifetime along with prerecorded videos.
    You can check the course syllabus below
    Course link: courses.ineuron.ai/Full-Stack-Data-Analytics
    From my side you can avail addition 10% off by using Krish10 coupon code.
    Don't miss this opportunity and grab it before it's too late. Happy Learning!!

  • @netviz8673
    @netviz8673 หลายเดือนก่อน +4

    decision tree for both classification regression here classification. 2 techniqiues. ID3 and CART. In Cart the decision tress spilts into binary trees. a)Entropy and Gini Index(Purity spirit) b) Information Gain(feature decision tree split). To check for Pure split two techniques called Entropy and Gini impurity are used and second technique called INformation gain (how the features are selected) is used.
    When H(S) is zero then that is pure split. And when H(s) is 1 then that is impure split ie equal distribution (eg 3yes and 3nos). The range of entropy remains between 0 to 1.
    In impure split the Gini impurity comes out to be 0.5 and in pure split it is 0. So the gini impurity ranges between 0 to 0.5. So in impure split the max value of gini impurity is 0.5 and in pure split it is 0.
    gini impurity is preferrable over entropy because of involvement of log it may slow down
    Now if you have multiple features, you use information gain to know how to make the tree using the given features whether which feature will start and which one will follow later. The feature starting with which the information gain calculation comes out to be the most should be the one with which the decision tree should be started.

  • @harshdeepjaggi9715
    @harshdeepjaggi9715 10 หลายเดือนก่อน +2

    wonderful explanation sir.... I'm already enrolled in Data Science with one of the edtech of India... no doubt waha ke teachers bhi accha padhate par jo english mei content hai wo mind mei ek baar mei acche se nhi jaata... ye content hindi wala raise ghus gya mind mei ki bus ab hamesha yaad rhega... Thankyou for your efforts..

  • @prathameshekal7308
    @prathameshekal7308 ปีที่แล้ว +4

    मंडळ आभारी आहे

  • @DrZubairulIslam
    @DrZubairulIslam 2 วันที่ผ่านมา

    Thanks Krish, Best Ever Video, Wao.

  • @pritamrajbhar9504
    @pritamrajbhar9504 ปีที่แล้ว +1

    It is one of the best and simplest explanations till far

  • @utkarsh5165
    @utkarsh5165 5 หลายเดือนก่อน

    Thank you Krish for Crystal Clear Explanation.❤

  • @RiteshBhalerao-b2v
    @RiteshBhalerao-b2v ปีที่แล้ว +1

    Great explaination...hard to find anywhere else👌👌

  • @patelanjali2909
    @patelanjali2909 ปีที่แล้ว +1

    your teaching skill awesomwe.

  • @akashlinganwar4810
    @akashlinganwar4810 ปีที่แล้ว +1

    hello krish sir... your explanation is easy to understand and anyone can learn easily..thank you sir...😊

  • @sandeepbehera3605
    @sandeepbehera3605 ปีที่แล้ว +1

    wonderful explanations sir no one can explain like you...🙏🙏🙏
    thankyou..sir😇

  • @maukaladka4100
    @maukaladka4100 2 ปีที่แล้ว +1

    Worth watching😍😍😍

  • @GopalKrishna-p4m
    @GopalKrishna-p4m 10 หลายเดือนก่อน

    after one an era No one will beat you sir !! incredible explanation thankyou so much sir

  • @sauravsahay8803
    @sauravsahay8803 5 หลายเดือนก่อน

    You make everything look so easy

  • @adityatiwari7287
    @adityatiwari7287 6 หลายเดือนก่อน

    Awesome Explanation....Thanks A Lot....Keep It Up !!!

  • @Er_IT_prashantjha
    @Er_IT_prashantjha 3 หลายเดือนก่อน

    Bohot achha explain krte ho Sir aap 👌🏻💯

  • @IrfanSaleem541
    @IrfanSaleem541 2 หลายเดือนก่อน

    Thanks a lot. Love and Respect from Oman

  • @SumitJindal-e3k
    @SumitJindal-e3k 11 หลายเดือนก่อน +1

    That was awesome

  • @jasanimihir4994
    @jasanimihir4994 2 ปีที่แล้ว +6

    As always Very well explained.
    I have one query sir. You told that if the dataset is very big then use gini index otherwise entropy is fine. But finding the entropy is must for the information gain as no mention of Gini index in information gain formula. So is it possible to use gini index to find information gain?
    Kindly throw light on that. 😊

    • @shaiqmahmood
      @shaiqmahmood ปีที่แล้ว

      There is a way to calculate the Information Gain using Gini index as well.

  • @Keep_Laughfing
    @Keep_Laughfing 2 ปีที่แล้ว

    Sir aise hi video bnate rhiye apko shayd pta bhi nhi hogaa ki ye aapki kitni bdi help h DATA SCIENCE lovers ke liye.
    Dil se dhanyvaad 🙏🙏🙏

  • @ruhiraj9551
    @ruhiraj9551 ปีที่แล้ว

    Hello Krish sir ..thanku so much 🙏 for a very excellent explanation .

  • @aamiransarii
    @aamiransarii 9 หลายเดือนก่อน

    Many, Many Thanks .....so lovely of you

  • @mainakseal5027
    @mainakseal5027 ปีที่แล้ว

    what an amazing tutorial...hats off sirji!!!...

  • @abhiWorldIN
    @abhiWorldIN หลายเดือนก่อน

    Awesome video

  • @arunchougale5927
    @arunchougale5927 2 ปีที่แล้ว

    Very Good explained by you .it is lot help me Thank u very much

  • @ketanitaliya9493
    @ketanitaliya9493 ปีที่แล้ว

    Thanks it is really helpful and easy to understand

  • @dhavalsukhadiya8654
    @dhavalsukhadiya8654 5 หลายเดือนก่อน

    great explaination sir

  • @maths_impact
    @maths_impact ปีที่แล้ว

    Wonderful explanation given by you sir in hindi.

  • @vidvaanwithromi5213
    @vidvaanwithromi5213 ปีที่แล้ว

    wonderfully explained sir!

  • @bryan4592
    @bryan4592 หลายเดือนก่อน

    Amazing video sir

  • @osamaosama-vh6vu
    @osamaosama-vh6vu 2 ปีที่แล้ว

    Your legend deae sir thank u be happy 😍

  • @tuhinbarai7592
    @tuhinbarai7592 ปีที่แล้ว

    thank you sir..its to understand...

  • @girishgogate2733
    @girishgogate2733 ปีที่แล้ว

    Thankyou krish sir ........

  • @katw434
    @katw434 ปีที่แล้ว

    Thanks sir please continue this series

  • @SonuK7895
    @SonuK7895 2 ปีที่แล้ว

    Very well explained sirjiiii

  • @gurpreetkaur-pf1bf
    @gurpreetkaur-pf1bf 4 หลายเดือนก่อน

    Amazing ❤

  • @krishj8011
    @krishj8011 4 หลายเดือนก่อน

    nice tutorial

  • @BikashKonwar-w7q
    @BikashKonwar-w7q 11 หลายเดือนก่อน +1

    In Entropy formula summation of p(x) * log2(p(x))

  • @anusuyaghosal6961
    @anusuyaghosal6961 5 หลายเดือนก่อน

    sir you said H(s) is the entropy of root node but i think it is the entropy of target attribute

  • @nisho404
    @nisho404 9 หลายเดือนก่อน

    in one word bosssss

  • @mrityunjayupadhyay7332
    @mrityunjayupadhyay7332 2 ปีที่แล้ว

    Great explanation

  • @neelkalyani7849
    @neelkalyani7849 4 หลายเดือนก่อน

    In calculating information gain, can we use gini impurity instead of entropy?

  • @meenalpande
    @meenalpande ปีที่แล้ว

    Nice explanation

  • @razashaikh8698
    @razashaikh8698 ปีที่แล้ว +2

    Sir, can we find information gain using ginny impurity?

  • @Pankaj_Khanal_Joshi
    @Pankaj_Khanal_Joshi 9 หลายเดือนก่อน

    Sir sklearrn and seaborn ka video banaiye . thank u

  • @abhishekbhad4029
    @abhishekbhad4029 7 หลายเดือนก่อน

    Very nice explanation sir.i have one question how to get intership as no one is hiring for fresher

  • @pkumar0212
    @pkumar0212 หลายเดือนก่อน

    👌

  • @jasonbourn29
    @jasonbourn29 ปีที่แล้ว +5

    Thanx sir in Hindi explanations you tend to cover topics better(English vedios are also of far better quality than anyone else)

  • @maths_impact
    @maths_impact ปีที่แล้ว

    Wonderful

  • @sugandhaarora8174
    @sugandhaarora8174 หลายเดือนก่อน

    is this required for data analyst role?

  • @VikasSingh-nq5yx
    @VikasSingh-nq5yx 2 ปีที่แล้ว +1

    Sirrrr.... ❤ I have a question 🙋!
    If interviewer ask a question why we are using minus ( - ) sign in Entropy? Please reply........ ❤

    • @saranshsehrawat8544
      @saranshsehrawat8544 2 ปีที่แล้ว

      its formula

    • @neeraj.kumar.1
      @neeraj.kumar.1 2 ปีที่แล้ว

      Don't worry they don't ask these types of mathematical formulas.
      They can ask what is Gini impurity.

  • @prerakchoksi2379
    @prerakchoksi2379 2 ปีที่แล้ว

    wow

  • @rushikeshwaghmare3446
    @rushikeshwaghmare3446 9 หลายเดือนก่อน

    Sir acc to external sites gini impurity ranges from 0-1

  • @vatsalshingala3225
    @vatsalshingala3225 ปีที่แล้ว

    ❤❤❤❤❤❤❤❤❤❤

  • @SpectreWarfare
    @SpectreWarfare ปีที่แล้ว

    Video volume is very less. It is difficult to listen

  • @aaqibafraaz6215
    @aaqibafraaz6215 2 ปีที่แล้ว

    Hello sir

  • @ShivamSharma-if1oh
    @ShivamSharma-if1oh 2 ปีที่แล้ว

    My answer of Entropy is coming 0.6 not 1

  • @jaiprakashsingh756
    @jaiprakashsingh756 ปีที่แล้ว

    sir, I really find your videos very helpful. thanks a lot.

  • @priyanshupokhariya8866
    @priyanshupokhariya8866 ปีที่แล้ว

    0*log0 is undefined how is it coming 0??