Brilliant stuff .. keep going .. very helpful for my ML exam in 2days
@raghunathanp37344 жыл бұрын
One more doubt the high value of each of the entropy, Gini, information gain indicates what?
@NerdML4 жыл бұрын
All the best
@NerdML4 жыл бұрын
Information gain & entropy value is inversely proportional to each other so, at the same time both of these values can not be high. (Information gain should be high & Entropy should be low for ideal condition.)
@thangtran1452 жыл бұрын
Great video, subscribed! Clear, concise, friendly, and easy-going !
@NerdML2 жыл бұрын
Thanks for liking it Happy Learning!!
@arpitcruz4 жыл бұрын
Buddy want tell you that there are hell lot of channel for data science .. but no one is better than u the way u explain
@NerdML4 жыл бұрын
Thanks, keep sharing the content with your community
@ronitroy28874 жыл бұрын
Hey buddy, I was waiting for this video. This is really gud. Keep up the good work👍
@NerdML4 жыл бұрын
Thanks buddy!!
@debabratasahoo25882 жыл бұрын
Hlw sir , your content is osm. I much clarify throughout your good teaching way. thanks sir
@NerdML2 жыл бұрын
Thanks to you for liking it Happy Learning!!
@siddheshpowar42083 жыл бұрын
Nice explanation ✌️...all the things are nicely presents 👌.
@NerdML3 жыл бұрын
Thanks dude👍🏻 Keep supporting
@patrickmckenna65203 жыл бұрын
Where do nodes E, F and G come from? Is each node not based off an attribute?
@NerdML3 жыл бұрын
Sorry for late response Node E, F & G are branches of Impure Sub-tree B & C. As Node B is having 2 Yes & 4 No so further we will divide this node in D & E and assign 2 Yes, 0 No to D and 0 Yes, 4 No to E so that we can reach at pure leaf node. Definitely, each & every node is based off an attribute that's why we are finding entropy of each node & taking valid node for further processing. Hope this make sense to you!
@kaustubhdwivedi17293 жыл бұрын
Bas ek baat bolna chahta hoon ki MAJA AAYA !
@NerdML3 жыл бұрын
Shukriya🙏🏻
@naivelearner63572 жыл бұрын
amazingly explained...
@NerdML2 жыл бұрын
Oh thanks😊
@VarunSharma-ym2ns2 жыл бұрын
Grt session 👌
@NerdML2 жыл бұрын
Thanks Varun!!
@arindamn488023 күн бұрын
Can you show us, how to derive the formula of entropy?
@NerdML22 күн бұрын
Will create a separate video on that
@arindamn488022 күн бұрын
@NerdML thank you
@lavanyarao56504 жыл бұрын
Thank you so much
@NerdML4 жыл бұрын
My pleasure
@vaddadisairahul29564 жыл бұрын
May I know why is the value of entropy shown in bits? anything we should know about it?
@NerdML4 жыл бұрын
See it's a standard practice to keep it in bits (binary digits) as due to choice of the base-2 logarithm
@NerdML4 жыл бұрын
If we use normal logarithm instead of base-2 then unit will be nats
@ayushsingh-qn8sb3 жыл бұрын
awesome explaination
@NerdML3 жыл бұрын
Thanks dude, keep supporting 👍
@akshara_K.2 жыл бұрын
Awesome video with detailed explanations. Can you suggest other topics/concepts that need to be learnt for Data science? If they are already included in your channel, that would be great.
@NerdML2 жыл бұрын
Thanks Akshara, glad you liked the content Recently I have uploaded a video on “Complete Roadmap for a learning Data Science from scratch” You can watch that
@akshara_K.2 жыл бұрын
@@NerdML Thank you very much! Much appreciated!
@NerdML2 жыл бұрын
Pleasure is mine!!
@hannahnguyen48654 жыл бұрын
Thank u
@NerdML4 жыл бұрын
My pleasure
@BalaMurugan-cm6ev3 жыл бұрын
Wow . . Nice Explanation. Even if we calculate Gini Impurity, we will calculate Information Gain. . . Am I right?
@NerdML3 жыл бұрын
Yes you can there is minor change in both the entropy and gini index
@topperbizzare5644 жыл бұрын
*NerdML* 💕💐 execellent video 💕 i saw this is too good 💕 thanks for this 💕
@NerdML4 жыл бұрын
Thanks mate!!
@tymothylim65503 жыл бұрын
Thank you very much for the video! Really clear and helpful:)
@NerdML3 жыл бұрын
Thanks and keep supporting
@mohinikumari8193 жыл бұрын
👍
@vaishnavikalidass15443 жыл бұрын
Finally I understood these 😂😂😂
@NerdML3 жыл бұрын
Good to know...keep supporting 👍
@vaishnavikalidass15443 жыл бұрын
@@NerdML can u post more videos like step by step preparation to Data science