KZ
bin
Негізгі бет
Қазірдің өзінде танымал
Тікелей эфир
Ұнаған бейнелер
Қайтадан қараңыз
Жазылымдар
Кіру
Тіркелу
Ең жақсы KZbin
Фильм және анимация
Автокөліктер мен көлік құралдары
Музыка
Үй жануарлары мен аңдар
Спорт
Ойындар
Комедия
Ойын-сауық
Тәжірибелік нұсқаулар және стиль
Ғылым және технология
“随机梯度下降、牛顿法、动量法、Nesterov、AdaGrad、RMSprop、Adam”,打包理解对梯度下降法的优化
34:28
什么是“感知机”,它的缺陷为什么让“神经网络”陷入低潮
25:48
This Game Is Wild...
00:19
Do you love Blackpink?🖤🩷
00:23
Turn Off the Vacum And Sit Back and Laugh 🤣
00:34
За кого болели?😂
00:18
softmax是为了解决归一问题凑出来的吗?和最大熵是什么关系?最大熵对机器学习为什么非常重要?
Рет қаралды 13,777
Facebook
Twitter
Жүктеу
1
Жазылу 32 М.
王木头学科学
Күн бұрын
Пікірлер: 19
@benny81305
3 ай бұрын
這頻道是寶藏嗎?
@xylineone
3 жыл бұрын
很好的内容希望视频主能继续坚持做下去
@ztc106
2 ай бұрын
沒想到我二年就看過,現在再看一次。之前的影片,entropy 部分,log 的底數2,這次 log 的底數為 e。Up主在 bili bili 解釋「以2为底,log计算出来的信息量单位是bit,以e为底计算出来的信息量单位是纳特/nats,本质相通,单位不同。」
@chiaominchang
8 ай бұрын
耶看完了 要再複習一下交叉 感謝
@ztc106
3 жыл бұрын
46:01 裡的式子都必須都為 0,是因為「對所有可能的 x,P(tilde)(x) > 0 都成立」嗎?
@ixy6864
2 жыл бұрын
23:32 傅里叶变换与概论密度函数共轭!!!
@chenning1799
2 жыл бұрын
我感觉你说到1个分类和2个分类的区别,好像不怎么合适。其实,我觉得1个分类跟2个分类从概率来说,分别不大。一个分类,你给到的标签是非此即彼,其实也算是2类,一个是正确的分类,一个是错误的分类,总概率也是1,只是我们只需要求出正确的分类的概率。而两个分类问题,如果这两类不能构成一个集合,那么这应该算是三分类的问题,但如果你从softmax来定义,那么你就默认了这两分类就是构成一个集合。所以这两分类跟一分类是一样的,都是非此即彼。我觉得你哪怕用sigmoid求都可以,因为知道一个概率后,另一个自然而然就知道了。
@yutingchang9735
4 ай бұрын
為什麼不乾脆中間不用relu?如果relu是為了避免sigmoid/softmax梯度消失,其實relu也很像線性方程式,中間層直接不使用激活函數,最後一層再套用sigmoid/softmax是否一樣效果?
@LichengBao-to6eb
Жыл бұрын
非常棒!
@masonalex3000
Жыл бұрын
对于任意x, y 式子恒为0,那么每一项都必须为0,不然就不是对于任意 x, y
@qiangqi-u6k
Жыл бұрын
最大墒得出softmax的形式,那这里面的eq,ep的想等的约束,和最后的误差最小,是一回事?
@weizhang5023
Жыл бұрын
👍👍👍
@hxie9881
3 жыл бұрын
filter 的值怎样定义?有一定的标准码?
@weizhang5023
Жыл бұрын
文档可以分享吗
@jameshu497
2 жыл бұрын
softmax为什么要使用指数,而不是平方?王老师是否有研究过?我的直觉是平方容易产生0,其次可能指数能让梯度更大,平方不利于收敛
@dediver832
7 ай бұрын
平方不是单调的啊
@minglee5164
Жыл бұрын
42:50 处,感觉原问题才是max min吧
@逸叶之楸见微知足
3 жыл бұрын
在你研究的科学的人工智能智商超高常人前,教会它伦理道德。
@joetsai4676
3 жыл бұрын
因为这几项不相关啊,所以只能是都为零相加才能保证为零
34:28
“随机梯度下降、牛顿法、动量法、Nesterov、AdaGrad、RMSprop、Adam”,打包理解对梯度下降法的优化
王木头学科学
Рет қаралды 10 М.
25:48
什么是“感知机”,它的缺陷为什么让“神经网络”陷入低潮
王木头学科学
Рет қаралды 20 М.
00:19
This Game Is Wild...
MrBeast
Рет қаралды 186 МЛН
00:23
Do you love Blackpink?🖤🩷
Karina
Рет қаралды 21 МЛН
00:34
Turn Off the Vacum And Sit Back and Laugh 🤣
SKITSFUL
Рет қаралды 7 МЛН
00:18
За кого болели?😂
МЯТНАЯ ФАНТА
Рет қаралды 3,2 МЛН
30:03
2027,人類終結 | 老高與小茉 Mr & Mrs Gao
老高與小茉 Mr & Mrs Gao
Рет қаралды 662 М.
30:17
“交叉熵”如何做损失函数?打包理解“信息量”、“比特”、“熵”、“KL散度”、“交叉熵”
王木头学科学
Рет қаралды 24 М.
1:25:12
卷积神经网络(CNN)详细介绍及其原理详解
唐宇迪
Рет қаралды 303
53:57
2. 如何用概率论解决真实问题?用随机变量去建模,最大的难题是相关关系
王木头学科学
Рет қаралды 3,8 М.
47:23
直观解释:为什么噪声不是过拟合的原因?又什么只要没有过拟合就一定有噪声?
王木头学科学
Рет қаралды 4,8 М.
1:00:34
【機器學習2021】Transformer (下)
Hung-yi Lee
Рет қаралды 162 М.
15:56
什么是卷积神经网络?卷积到底卷了啥?
妈咪说MommyTalk
Рет қаралды 78 М.
35:55
贝叶斯解释“L1和L2正则化”,本质上是最大后验估计。如何深入理解贝叶斯公式?
王木头学科学
Рет қаралды 7 М.
49:48
如何理解“梯度下降法”?什么是“反向传播”?通过一个视频,一步一步全部搞明白
王木头学科学
Рет қаралды 28 М.
12:25
如何理解信息熵
Ele实验室
Рет қаралды 33 М.
00:19
This Game Is Wild...
MrBeast
Рет қаралды 186 МЛН