AdaBoost : Data Science Concepts

  Рет қаралды 18,823

ritvikmath

ritvikmath

Күн бұрын

How do we put together lots of weak models into a STRONG model?

Пікірлер: 51
@rmiliming
@rmiliming 2 жыл бұрын
I really like how you can clearly explain complicated concepts in as short as 10 mins and just over one whiteboard ! Much better than some other videos which tend to be long and take multiple slides. We are blessed to have you on KZbin!
@michaltrodler195
@michaltrodler195 Жыл бұрын
Finally! One man on the whole KZbin elucidated the subject with eloquence, demonstrating a remarkable command of the English language and skillful execution in his presentation. Deserved a subscribe 🎉
@Matt-tn2on
@Matt-tn2on 3 жыл бұрын
Man, I really love your videos. I live overseas and it’s always the first thing I watch when I wake up. Thank you for the clean explanations.
@hameddadgour
@hameddadgour 2 жыл бұрын
I finally understood the difference between bagging and boosting by watching your videos. Thank you!
@drsandeepvm5622
@drsandeepvm5622 Жыл бұрын
Highly involved in your explanation, the comment diverted me to realise the mic wire problem. We're here for the great and simple explanation for any concept of any complexity you provide. Thanks for everything.
@tapanbagchi3835
@tapanbagchi3835 Жыл бұрын
Ritvik, you are just superb! I am from IIT Kharagpur and I love your crystal clear teaching - Tapan Bagchi
@parhambateni
@parhambateni Жыл бұрын
Thanks for your great power in clarifying these concepts.
@oskeeg619
@oskeeg619 2 жыл бұрын
Thank you!! I now have a clear understanding of AdaBoost and can have conversation about it.
@evgenyivanko9680
@evgenyivanko9680 9 ай бұрын
you are doing a great job
@sihatafnan5450
@sihatafnan5450 Жыл бұрын
That was great explanation
@ritvikmath
@ritvikmath Жыл бұрын
Glad it was helpful!
@williamfriedeman7078
@williamfriedeman7078 2 жыл бұрын
Clear explanation, thank you!
@hahahaYL-h3x
@hahahaYL-h3x 5 ай бұрын
Thanks!
@riccardobellide6975
@riccardobellide6975 3 жыл бұрын
Thak you for these videos, so useful
@jijie133
@jijie133 Жыл бұрын
Great video!
@talaasoudalial-bimany6605
@talaasoudalial-bimany6605 3 жыл бұрын
Thank you for the Good and Clear Explanation; I request a stacking generalisation algorithm video if possible.
@jaivratsingh9966
@jaivratsingh9966 8 ай бұрын
excellent
@thomaspavelka7335
@thomaspavelka7335 Жыл бұрын
Thanks a lot!
@ritvikmath
@ritvikmath Жыл бұрын
You're welcome!
@lancelotdulak1640
@lancelotdulak1640 3 жыл бұрын
Very clear and useful !
@ritvikmath
@ritvikmath 3 жыл бұрын
Glad it was helpful!
@gemon39
@gemon39 3 жыл бұрын
Amazing video! Could you please explain XGBoost ?
@ritvikmath
@ritvikmath 3 жыл бұрын
good suggestion!
@ajithshenoy5566
@ajithshenoy5566 3 жыл бұрын
@@ritvikmath +1 for xgboost please
@hahahaYL-h3x
@hahahaYL-h3x 5 ай бұрын
Just a quick comment. Your teaching is brilliant! I learn a lot from you. But I found the organization of topics (the order in the data concept stream) is a little bit confusing.
@OneworldKW
@OneworldKW 6 ай бұрын
I need to practice 😮
@verayan2019
@verayan2019 3 жыл бұрын
omg, so well explained
@ayseyesil1532
@ayseyesil1532 25 күн бұрын
Why did you draw different lengths for 3 and 4? Isn't in the first step a correct prediction yield error of exp(-alpha1) and wrong prediction yield exp(alpha1)? So the correct ones should have the same size, incorrect ones should have larger but same size. And how do you choose alpha values?
@jarrelldunson
@jarrelldunson 3 жыл бұрын
Thanks again for a great video. How do you work with scaling alpha constants? a1, a2? How do you recognize which steps need adjusting (e.g., increasing/decreasing the alpha constants, a1, a2, etc.)? Or is this over-fitting?
@TheMarComplex
@TheMarComplex 2 жыл бұрын
Thank you!
@ritvikmath
@ritvikmath 2 жыл бұрын
No problem!
@kevinscaria
@kevinscaria 11 ай бұрын
Can someone explain, how is the value of alpha set? In the original implementation it was the log of errors, but since this looks like a generalized formula, is alpha a hyper parameter?
@thespicycabbage
@thespicycabbage 3 жыл бұрын
Thx bro!
@ritvikmath
@ritvikmath 3 жыл бұрын
No problem
@Lucifer-wd7gh
@Lucifer-wd7gh 3 жыл бұрын
Brother I request , please make a video on gradient decent 🙏
@Donaid
@Donaid 3 жыл бұрын
Thank you for the video
@bhargav8232
@bhargav8232 3 жыл бұрын
Thank you
@yannickpezeu3419
@yannickpezeu3419 3 жыл бұрын
Thanks
@n.m.c.5851
@n.m.c.5851 2 жыл бұрын
Should have started commenting for Support a long time Ago
@emuccino
@emuccino 3 жыл бұрын
Fastest subscribe
@ccuuttww
@ccuuttww 3 жыл бұрын
Did he just miss how alpha made?
@kdhlkjhdlk
@kdhlkjhdlk 3 жыл бұрын
Is adaboost even used for anything anymore, with random forest and gradient boosting being so much better?
@sansin-dev
@sansin-dev 3 жыл бұрын
Only to pass exams.
@phantinh2613
@phantinh2613 3 жыл бұрын
What if I have 3 results now? help
@__-de6he
@__-de6he 2 жыл бұрын
But second learner can correct the previous mistake but make your own. How is this ploblem resolved?
@minhaoling3056
@minhaoling3056 2 жыл бұрын
You can tune alphas
@__-de6he
@__-de6he 2 жыл бұрын
@@minhaoling3056 I don't know what is "alphas" 🙂
@cleansquirrel2084
@cleansquirrel2084 3 жыл бұрын
Thank you
@cleansquirrel2084
@cleansquirrel2084 3 жыл бұрын
Best thumbnail till now
@brave_v
@brave_v Жыл бұрын
Thank you for this awesome video! Is my understanding correct: Gradient boosting assigns all weights to different errors but adaboost assigns different weights to different errors? I'm also confused why Adaboost just uses the exponential loss function where the gradient boosting you can choose whatever loss function you want?
@elihaylevi6569
@elihaylevi6569 2 жыл бұрын
great contant thanks you!
TFIDF : Data Science Concepts
7:55
ritvikmath
Рет қаралды 28 М.
Random Forests : Data Science Concepts
15:56
ritvikmath
Рет қаралды 47 М.
ПРИКОЛЫ НАД БРАТОМ #shorts
00:23
Паша Осадчий
Рет қаралды 6 МЛН
Gradient Boosting : Data Science's Silver Bullet
15:48
ritvikmath
Рет қаралды 62 М.
SVM Dual : Data Science Concepts
15:32
ritvikmath
Рет қаралды 48 М.
AdaBoost, Clearly Explained
20:54
StatQuest with Josh Starmer
Рет қаралды 758 М.
Backpropagation : Data Science Concepts
19:29
ritvikmath
Рет қаралды 37 М.
Maximum Likelihood : Data Science Concepts
20:45
ritvikmath
Рет қаралды 36 М.
Bayesian Linear Regression : Data Science Concepts
16:28
ritvikmath
Рет қаралды 80 М.
The ROC Curve : Data Science Concepts
17:19
ritvikmath
Рет қаралды 35 М.
Trevor Hastie - Gradient Boosting Machine Learning
44:14
H2O.ai
Рет қаралды 150 М.
Boosting - EXPLAINED!
17:31
CodeEmporium
Рет қаралды 50 М.
Soft Margin SVM : Data Science Concepts
12:29
ritvikmath
Рет қаралды 50 М.