AdaBoost : Data Science Concepts

  Рет қаралды 18,823

ritvikmath

ritvikmath

Күн бұрын

How do we put together lots of weak models into a STRONG model?

Пікірлер: 51
@rmiliming
@rmiliming 2 жыл бұрын
I really like how you can clearly explain complicated concepts in as short as 10 mins and just over one whiteboard ! Much better than some other videos which tend to be long and take multiple slides. We are blessed to have you on KZbin!
@michaltrodler195
@michaltrodler195 Жыл бұрын
Finally! One man on the whole KZbin elucidated the subject with eloquence, demonstrating a remarkable command of the English language and skillful execution in his presentation. Deserved a subscribe 🎉
@Matt-tn2on
@Matt-tn2on 3 жыл бұрын
Man, I really love your videos. I live overseas and it’s always the first thing I watch when I wake up. Thank you for the clean explanations.
@hameddadgour
@hameddadgour 2 жыл бұрын
I finally understood the difference between bagging and boosting by watching your videos. Thank you!
@drsandeepvm5622
@drsandeepvm5622 Жыл бұрын
Highly involved in your explanation, the comment diverted me to realise the mic wire problem. We're here for the great and simple explanation for any concept of any complexity you provide. Thanks for everything.
@tapanbagchi3835
@tapanbagchi3835 Жыл бұрын
Ritvik, you are just superb! I am from IIT Kharagpur and I love your crystal clear teaching - Tapan Bagchi
@parhambateni
@parhambateni Жыл бұрын
Thanks for your great power in clarifying these concepts.
@oskeeg619
@oskeeg619 2 жыл бұрын
Thank you!! I now have a clear understanding of AdaBoost and can have conversation about it.
@evgenyivanko9680
@evgenyivanko9680 9 ай бұрын
you are doing a great job
@sihatafnan5450
@sihatafnan5450 Жыл бұрын
That was great explanation
@ritvikmath
@ritvikmath Жыл бұрын
Glad it was helpful!
@williamfriedeman7078
@williamfriedeman7078 2 жыл бұрын
Clear explanation, thank you!
@hahahaYL-h3x
@hahahaYL-h3x 5 ай бұрын
Thanks!
@riccardobellide6975
@riccardobellide6975 3 жыл бұрын
Thak you for these videos, so useful
@jijie133
@jijie133 Жыл бұрын
Great video!
@talaasoudalial-bimany6605
@talaasoudalial-bimany6605 3 жыл бұрын
Thank you for the Good and Clear Explanation; I request a stacking generalisation algorithm video if possible.
@jaivratsingh9966
@jaivratsingh9966 8 ай бұрын
excellent
@thomaspavelka7335
@thomaspavelka7335 Жыл бұрын
Thanks a lot!
@ritvikmath
@ritvikmath Жыл бұрын
You're welcome!
@lancelotdulak1640
@lancelotdulak1640 3 жыл бұрын
Very clear and useful !
@ritvikmath
@ritvikmath 3 жыл бұрын
Glad it was helpful!
@gemon39
@gemon39 3 жыл бұрын
Amazing video! Could you please explain XGBoost ?
@ritvikmath
@ritvikmath 3 жыл бұрын
good suggestion!
@ajithshenoy5566
@ajithshenoy5566 3 жыл бұрын
@@ritvikmath +1 for xgboost please
@hahahaYL-h3x
@hahahaYL-h3x 5 ай бұрын
Just a quick comment. Your teaching is brilliant! I learn a lot from you. But I found the organization of topics (the order in the data concept stream) is a little bit confusing.
@OneworldKW
@OneworldKW 6 ай бұрын
I need to practice 😮
@verayan2019
@verayan2019 3 жыл бұрын
omg, so well explained
@ayseyesil1532
@ayseyesil1532 25 күн бұрын
Why did you draw different lengths for 3 and 4? Isn't in the first step a correct prediction yield error of exp(-alpha1) and wrong prediction yield exp(alpha1)? So the correct ones should have the same size, incorrect ones should have larger but same size. And how do you choose alpha values?
@jarrelldunson
@jarrelldunson 3 жыл бұрын
Thanks again for a great video. How do you work with scaling alpha constants? a1, a2? How do you recognize which steps need adjusting (e.g., increasing/decreasing the alpha constants, a1, a2, etc.)? Or is this over-fitting?
@TheMarComplex
@TheMarComplex 2 жыл бұрын
Thank you!
@ritvikmath
@ritvikmath 2 жыл бұрын
No problem!
@kevinscaria
@kevinscaria 11 ай бұрын
Can someone explain, how is the value of alpha set? In the original implementation it was the log of errors, but since this looks like a generalized formula, is alpha a hyper parameter?
@thespicycabbage
@thespicycabbage 3 жыл бұрын
Thx bro!
@ritvikmath
@ritvikmath 3 жыл бұрын
No problem
@Lucifer-wd7gh
@Lucifer-wd7gh 3 жыл бұрын
Brother I request , please make a video on gradient decent 🙏
@Donaid
@Donaid 3 жыл бұрын
Thank you for the video
@bhargav8232
@bhargav8232 3 жыл бұрын
Thank you
@yannickpezeu3419
@yannickpezeu3419 3 жыл бұрын
Thanks
@n.m.c.5851
@n.m.c.5851 2 жыл бұрын
Should have started commenting for Support a long time Ago
@emuccino
@emuccino 3 жыл бұрын
Fastest subscribe
@ccuuttww
@ccuuttww 3 жыл бұрын
Did he just miss how alpha made?
@kdhlkjhdlk
@kdhlkjhdlk 3 жыл бұрын
Is adaboost even used for anything anymore, with random forest and gradient boosting being so much better?
@sansin-dev
@sansin-dev 3 жыл бұрын
Only to pass exams.
@phantinh2613
@phantinh2613 3 жыл бұрын
What if I have 3 results now? help
@__-de6he
@__-de6he 2 жыл бұрын
But second learner can correct the previous mistake but make your own. How is this ploblem resolved?
@minhaoling3056
@minhaoling3056 2 жыл бұрын
You can tune alphas
@__-de6he
@__-de6he 2 жыл бұрын
@@minhaoling3056 I don't know what is "alphas" 🙂
@cleansquirrel2084
@cleansquirrel2084 3 жыл бұрын
Thank you
@cleansquirrel2084
@cleansquirrel2084 3 жыл бұрын
Best thumbnail till now
@brave_v
@brave_v Жыл бұрын
Thank you for this awesome video! Is my understanding correct: Gradient boosting assigns all weights to different errors but adaboost assigns different weights to different errors? I'm also confused why Adaboost just uses the exponential loss function where the gradient boosting you can choose whatever loss function you want?
@elihaylevi6569
@elihaylevi6569 2 жыл бұрын
great contant thanks you!
TFIDF : Data Science Concepts
7:55
ritvikmath
Рет қаралды 28 М.
Gradient Boosting : Data Science's Silver Bullet
15:48
ritvikmath
Рет қаралды 62 М.
Ozoda - Lada (Official Music Video)
06:07
Ozoda
Рет қаралды 10 МЛН
Win This Dodgeball Game or DIE…
00:36
Alan Chikin Chow
Рет қаралды 34 МЛН
Cute
00:16
Oyuncak Avı
Рет қаралды 12 МЛН
AdaBoost, Clearly Explained
20:54
StatQuest with Josh Starmer
Рет қаралды 758 М.
Soft Margin SVM : Data Science Concepts
12:29
ritvikmath
Рет қаралды 50 М.
Random Forests : Data Science Concepts
15:56
ritvikmath
Рет қаралды 47 М.
Loss Functions : Data Science Basics
16:40
ritvikmath
Рет қаралды 33 М.
Gradient Boost Part 1 (of 4): Regression Main Ideas
15:52
StatQuest with Josh Starmer
Рет қаралды 816 М.
Gaussian Processes : Data Science Concepts
24:47
ritvikmath
Рет қаралды 11 М.
The ROC Curve : Data Science Concepts
17:19
ritvikmath
Рет қаралды 35 М.
Hidden Markov Model : Data Science Concepts
13:52
ritvikmath
Рет қаралды 120 М.
SVM (The Math) : Data Science Concepts
10:19
ritvikmath
Рет қаралды 102 М.
Backpropagation : Data Science Concepts
19:29
ritvikmath
Рет қаралды 37 М.