贝叶斯解释“L1和L2正则化”,本质上是最大后验估计。如何深入理解贝叶斯公式?

  Рет қаралды 6,101

王木头学科学

王木头学科学

Күн бұрын

用贝叶斯概率理解L1和L2正则化,它们本质上是最大后验估计
如何直观理解先验概率、后验概率
什么是最大后验估计,与最大似然估计的区别是什么?
用贝叶斯主义思想去理解机器学习

Пікірлер: 16
@ztc106
@ztc106 2 жыл бұрын
花了二個星期,終於把 13集影片全部看完。每一集都很精彩!
@mo6982
@mo6982 Жыл бұрын
这就是课代表的力量。教授说的东西太脱离学生的实际了。课代表做了很好的沟通。
@user-il9vo4dj4e
@user-il9vo4dj4e 2 жыл бұрын
贝叶斯,期待
@youyoutianbulao
@youyoutianbulao Жыл бұрын
非常精彩的阐述和推导!
@yihanzhong6183
@yihanzhong6183 2 жыл бұрын
这么好的视频!!感动
@JL-mu6wp
@JL-mu6wp 2 жыл бұрын
我跪著看完! 實在太厲害了
@gordonwong2220
@gordonwong2220 Жыл бұрын
太棒了👏
@user-nr8oi6nv3r
@user-nr8oi6nv3r 2 ай бұрын
❤❤❤
@xiaomingliu5195
@xiaomingliu5195 2 жыл бұрын
从贝叶斯理解梯度下降也解释了为什么使用历史参数可以帮助优化梯度下降法。
@Rosie-lh5ge
@Rosie-lh5ge 5 ай бұрын
Thanks!
@michelyupeng
@michelyupeng 7 ай бұрын
厉害👍🏻,国内买的印度人写的中文翻译书,最大易燃函数就没看懂,听见君一席话,胜读十年书,贝叶斯牛逼
@zichenwang8068
@zichenwang8068 Жыл бұрын
木头哥可以启用”超级感谢“功能吗?
@genomedata
@genomedata 4 ай бұрын
16:07
@michelyupeng
@michelyupeng 7 ай бұрын
关键是学习率如何取,这里剃度下降最关键是学习率的取值,如果学习率太大就偏离了实际最大值,太小步骤太多,影响求剃度效率
@yuwu7547
@yuwu7547 10 ай бұрын
最后进行梯度下降那里没看懂。 s_{t}, s_{t+1}是指不同时刻的模型参数吗?
@michelyupeng
@michelyupeng 7 ай бұрын
剃度就是对概率函数的偏导数形成的向量,这里就是求s序列中最大的s值,本质上导数是求函数最大值或者最小值,就是切点的值
教科书为什么反人性?我们还可以如何学?
23:54
王木头学科学
Рет қаралды 3,4 М.
Men Vs Women Survive The Wilderness For $500,000
31:48
MrBeast
Рет қаралды 56 МЛН
АЗАРТНИК 4 |СЕЗОН 1 Серия
40:47
Inter Production
Рет қаралды 1,2 МЛН
7. 程序员的性格为什么那么轴,那都是有原因的
29:47
王木头学科学
Рет қаралды 5 М.
神经网络(十三):贝叶斯神经网络
14:45
技术喵
Рет қаралды 12 М.