I don't understand why some people hating, - yes, Prof Ahmad missed a couple of symbols (once in a lifetime) but he's still the best !
@yasindemirel78712 жыл бұрын
Why are you dropping three videos (each about 40 minutes) a week ? Please take care of your wellbeing, Ahmad :) We love you
@mdnishad11482 жыл бұрын
Nice 🥰🥰🥰
@SadManEdition2 жыл бұрын
This is the best explanation of Optimization I have ever come across. This guy is talented
@FuadEkberov0902 жыл бұрын
I like how you make examples to explain the concepts of each method! Brilliant and easy to understand! Thank you so much!!!
@rasxodmusic48212 жыл бұрын
This will complete my Linear Algebra / Calculus /Optimization trio I was missing to truly understand Machine Learning.
@enessweed2512 жыл бұрын
You are watching a master at work !!!!!!!!
@topmusic73562 жыл бұрын
The Convex Optimization King is back
@vishalchandekarekachchhawa96272 жыл бұрын
Those animations are sick af !
@nursyazwani77572 жыл бұрын
This and the video on the second Wolfe condition helped me understand completely the concepts and the intuition behind these criteria. Thank you very much ! Amazing explanations.
@AhmadBazzi2 жыл бұрын
Wow Nur - glad you found them really helpful !
@kral-brawlstars67102 жыл бұрын
I am studying at Erasmus University Rotterdam for Non-Linear Optimization. This video helped me significantly. Thank you for your efforts.
@razanalkado16882 жыл бұрын
That's correct, the value shown in the video is a local minimum, and the function is unbounded for large negative x and y values.
@JosephBenson2 жыл бұрын
Amazing lectures! I'm using these to study for my Continuous Optimization course
@ulasyldz13442 жыл бұрын
This guy is super underated !
@Informationalcreator2 жыл бұрын
Brilliant! One of the best explanation to descent gradient I have ever seen. Well done man
@ankushsharma64562 жыл бұрын
I really like the way you explained the optimizing algorithm. love it :)
@1twoka662 жыл бұрын
A man before his time ❤
@dj.emyemy87592 жыл бұрын
This nailed down the Adam paper. Thanks alot
@erenhd942 жыл бұрын
My professor at Stanford recommended this channel.
@dannycashy2 жыл бұрын
It's a good example of why it's important to understand the shape of the function you are optimizing, and one of the potential downfalls of gradient based solvers.
@galacticgames98242 жыл бұрын
Great introductory video. Thank you.
@thevowtv15632 жыл бұрын
Excellent explanations thank you! Will watch more
@huseyinsuataydn64122 жыл бұрын
Love from the USA !
@volkanmaral19442 жыл бұрын
You are a good teacher
@oromoshow20572 жыл бұрын
Thankyou sooo much sir for such a simple and brilliant graphical illustrations. RESPECT!!!!!
@hdcluptr3662 жыл бұрын
your all videos are great
@yahiabenliram86912 жыл бұрын
This lecture was recommended by my professor at Harvard !!!!!
@503_alexx2 жыл бұрын
Damn those animations are sick bruh !
@arifdrgn87562 жыл бұрын
This is incredible .. crystal clean explanations.
@tthmidov28422 жыл бұрын
THANK YOU DR AHMAD !
@alionen2 жыл бұрын
Super. Content que cela soit utile. Bonne chance pour la suite.
@tamerolur27762 жыл бұрын
Cannot thank you enough professor Ahmad Bazzi.
@mami33232 жыл бұрын
WOW! Truly impressive teacher. YOU should get professors fired for not being on your level.
@DJAYUSHOFFICIALL2 жыл бұрын
Thank you very much - that was concise, clear and easy to understand!
@awhlvna62612 жыл бұрын
You are so sweet. Thank you Sir, for these awesome videos!
@galipaltnbay63082 жыл бұрын
I hope listening to this brings more positive KZbin channels like yours 💜
@legendpubg65902 жыл бұрын
I was already at MIT. I must have missed you! :)
@efraim39402 жыл бұрын
Wonderful explanation!!
@doruktadunya9432 жыл бұрын
Nicely done
@filmcehennemi5922 жыл бұрын
many thanks! please upload more videos! there are very helpful, especially for students!
@samedgaming43772 жыл бұрын
nice tutorial good explanation tnx
@soc1etysports7672 жыл бұрын
Thanks for the explanations.
@vibezz_gal90102 жыл бұрын
Great explanation..thank you
@مطبخامريتاجوتسنيم2 жыл бұрын
Excellent video! Thank you!
@puroporo94372 жыл бұрын
great explanation
@DanielyOliveira2 жыл бұрын
Thank so you much for this video, it helped me a lot
@failoyuncu14822 жыл бұрын
Your videos are very informative. Thank you!
@ugh.victory2 жыл бұрын
Greetings from Canada !
@besiktasndunyas9542 жыл бұрын
make more videos!! It was fantastic!!
@jadolive-erdem28292 жыл бұрын
Underrated !!!
@AHMETCAN-hk4en2 жыл бұрын
indeed helped. Thanks for the great video
@anuragtech16372 жыл бұрын
سلام عليكم دكتور ممكن اسهل اوالافضل لخوارزميات ضمن ال Meta- heuristic Optimization موفقين ان شاء الله بحق محمد وال محمد
@elekber_pubgaze66092 жыл бұрын
Great video!
@ramibayraktar37402 жыл бұрын
very nice and cool
@confusedtv2 жыл бұрын
Thanks for the great explanation oh mighty bearded one !
@CİOzSlegzWeg2 жыл бұрын
Wow, that's an interesting approach. I hope the videos are helpful :-)
@hayaletoyuncu98872 жыл бұрын
Not fair, this guy is more underrated than Hugh Heffner !
@eheehe79652 жыл бұрын
highly appreciated!!
@shiroitem82302 жыл бұрын
Great video thanks.
@sreerag21672 жыл бұрын
To the viewers, I am a graduate student getting into optimization theory. And I must say this is the best explanation of the inexact line search conditions which often go by the name Armijo conditions.
@emrebozkurt46762 жыл бұрын
Damn. This was really good explanation
@atakanbayar932 жыл бұрын
thanks for give a caption, helpful!
@aybars832 жыл бұрын
Thank you very much, sir!
@edanursirin44142 жыл бұрын
Nice 👍🏽
@hakancuval14962 жыл бұрын
Hi Ahmad, in this context a solver is a computer program that finds the solution to an optimization problem.
@melekzehrakara33652 жыл бұрын
Great Video thanks
@mertkara91652 жыл бұрын
Love this
@masteytv46642 жыл бұрын
Nice video
@LIFEOFAGAMER2972 жыл бұрын
Many thanks!
@garyoak74622 жыл бұрын
Followed you on LinkedIn ..
@mdnishad11482 жыл бұрын
Nice
@fxriyt22062 жыл бұрын
I just learned from a friend of a friend who knows Ahmad that he does not have a team to help him with all this 😲 Then i found the answer to my question if superheros exist.
@clothyrabbitz16452 жыл бұрын
I like that tea-drinking always causes non-zero suffering
@mumbaikichorisn15342 жыл бұрын
You are my god.
@gameking74402 жыл бұрын
Why does Ahmad not have 1 million subscribers by now ?
@StarMax072 жыл бұрын
super Nice! :)
@nekros39892 жыл бұрын
Thank you so much for such a helpful video! May I ask what software setup you used to create illustrations and images on the screen and to edit the video?
@huseyinhatip70662 жыл бұрын
Nice video Ahmad. I would like to help to point out that the slope equation in 2:20 is mistyped. I hope it helps. Thanks.
@MRGAMINGop12 жыл бұрын
Sir please explain how to apply dataset on any one of the algorithm
@amineslimane51522 жыл бұрын
Thats used in optimization methods for training a machine learning model ! you need to refer to the Machine Learning course
@wolfbeta58282 жыл бұрын
Can you give any advise on optimization of pid conteollers using ADAM (Thank you in advance ❤️)
@مطبخالشطورةوبس2 жыл бұрын
Why do we need correction in momentum or rms using T elimination?
@eneserkurt17022 жыл бұрын
This example would technically be more correct if posed as a constrained optimization problem to limit the search to just the area shown.
@HH-nb1ou2 жыл бұрын
but we do initialize parameters beta_1 and beta_2 ?
@takeuchikame2 жыл бұрын
hey, any ideas on what is fuzzt rule based model, lasso regression?
@mysterchannel56132 жыл бұрын
Wow
@acclaros3562 жыл бұрын
Nice. Nice ! i wanna ask, what is the time complexity of any evolutionary based optimization algorithm?
@ohiogaming_72 жыл бұрын
Can Adam optimization be used for classification problems?
@j.g.gaming72962 жыл бұрын
Dear prof. Ahmad. We have proven that there exists alpha with 0 < beta_1 < alpha < beta_2 < 1 such that both Wolfe conditions are fulfilled. So why do we initialize the lower bound equal to zero and the upper bound equal to infinity. Is it not easier to set the alpha lower bound to beta_1 and the upper bound to beta_2? Best regards from Uni Heidelberg
@umuttosun24792 жыл бұрын
How can i get any algorithm of Ant Colony Optimization
@gptpodcast2382 жыл бұрын
Because we do not know their value from the theory. We just know that they exist.
@Rita-ky4wr2 жыл бұрын
(how to Calculate Convolutional Layer Volume in ConvNet)
@gamerspkistan3002 жыл бұрын
I didn't realize he was left-handed until 03:34 lol
@sarabrajsmusic2 жыл бұрын
Thank you God. I mean Ahmad !
@thekoray10312 жыл бұрын
No. Quasi-Newton method do not use the second derivatives. Only the gradient. They build a secant approximation of the second derivatives matrix. See chapter 13 of
@marouaammine29862 жыл бұрын
🇨🇦
@alioter30322 жыл бұрын
so what you're saying is, Buddha should have used ML to minimize suffering. got it.
@perikz86792 жыл бұрын
If Noecedal Wright confused you, this is the place to get it sorted once and for all.