KZ
bin
Негізгі бет
Қазірдің өзінде танымал
Тікелей эфир
Ұнаған бейнелер
Қайтадан қараңыз
Жазылымдар
Кіру
Тіркелу
Ең жақсы KZbin
Фильм және анимация
Автокөліктер мен көлік құралдары
Музыка
Үй жануарлары мен аңдар
Спорт
Ойындар
Комедия
Ойын-сауық
Тәжірибелік нұсқаулар және стиль
Ғылым және технология
Жазылу
王木头学科学
41:03
一个天文摄影的极简入门
7 ай бұрын
38:11
哥德尔不完备视角下的自然数为什么如此特殊?这个问题隐藏着数学和世界真实性的线索
10 ай бұрын
2:08:00
真随机存在吗?量子力学如何超越概率论?经典概率和量子概率的联系与区别
11 ай бұрын
53:57
2. 如何用概率论解决真实问题?用随机变量去建模,最大的难题是相关关系
Жыл бұрын
55:54
1. 从头开始,把概率、统计、信息论中零散的知识统一起来
Жыл бұрын
29:47
7. 程序员的性格为什么那么轴,那都是有原因的
Жыл бұрын
38:27
卷积神经网络的底层是傅里叶变换,傅里叶变换的底层是希尔伯特空间坐标变换
Жыл бұрын
43:18
学习分享一年,对神经网络的理解全都在这40分钟里了
Жыл бұрын
47:32
6. 软件工程背后的思想是如何影响编程的
2 жыл бұрын
23:54
教科书为什么反人性?我们还可以如何学?
2 жыл бұрын
47:48
5. 深度学习和元胞自动机有什么关系?会给编程带来什么样的颠覆性改变?
2 жыл бұрын
37:09
4. 用“λ演算法”去理解,为什么函数式编程会有更少的bug
2 жыл бұрын
22:20
3. 编程是如何用数学解决现实问题的?
2 жыл бұрын
18:48
2. 为什么所有编程语言都是数据+指令?
2 жыл бұрын
6:15
1. 非计算机专业学编程难在哪?
2 жыл бұрын
47:23
直观解释:为什么噪声不是过拟合的原因?又什么只要没有过拟合就一定有噪声?
2 жыл бұрын
26:18
分享自己考研成功上岸的独门绝技,也是自己度过各种人生危机的心法
2 жыл бұрын
1:13:30
VC维是如何推导出来的?为什么说它是机器学习理论最重要的发明?
2 жыл бұрын
30:14
如果大数定律失效,机器学习还能学吗?幂律分布可以告诉你答案
2 жыл бұрын
30:28
用VC维度理解SVM的结构风险最小化 & VC维是理解正则化的第4个角度
2 жыл бұрын
36:38
什么是SVM,如何理解软间隔?什么是合叶损失函数、铰链损失函数?SVM与感知机横向对比,挖掘机器学习本质
2 жыл бұрын
35:55
贝叶斯解释“L1和L2正则化”,本质上是最大后验估计。如何深入理解贝叶斯公式?
2 жыл бұрын
35:03
“L1和L2正则化”直观理解(之二),为什么又叫权重衰减?到底哪里衰减了?
2 жыл бұрын
28:00
“L1和L2正则化”直观理解(之一),从拉格朗日乘数法角度进行理解
2 жыл бұрын
49:00
“拉格朗日对偶问题”如何直观理解?“KKT条件” “Slater条件” “凸优化”打包理解
2 жыл бұрын
26:56
从无穷小来看,芝诺悖论错哪了?1=0.999...吗?ε-δ描述极限到底严谨在哪?微分就是无穷小吗?
2 жыл бұрын
34:28
“随机梯度下降、牛顿法、动量法、Nesterov、AdaGrad、RMSprop、Adam”,打包理解对梯度下降法的优化
2 жыл бұрын
59:47
softmax是为了解决归一问题凑出来的吗?和最大熵是什么关系?最大熵对机器学习为什么非常重要?
3 жыл бұрын
49:48
如何理解“梯度下降法”?什么是“反向传播”?通过一个视频,一步一步全部搞明白
3 жыл бұрын
Пікірлер
@nanzhou2301
2 күн бұрын
说的真好,作为一个ML工程师很惭愧,已关注。以后多听听您的分享见解。
@advancelll3521
2 күн бұрын
傅里叶变换,就是把时域的原函数与另外一个坐标系中的某个标准正交基做内积运算,计算出来的结果就是投影到这个基上的分量, 反傅里叶变换,就是这些标准正交基向量的加权和,得到原来的时域函数。
@advancelll3521
2 күн бұрын
线性代数应该这样学第三版
@hongliangli4959
3 күн бұрын
可以专门解释一下哥德尔不完备性定理吗?
@eggdog
3 күн бұрын
怎麼過這麼久還沒有新影片😭😭
@flyinsky5656
5 күн бұрын
独到心法,从习惯到成就的过程。维持节拍生活,潜移默化影响自己
@kcl918
5 күн бұрын
講的好仔細呀,感謝你
@MasterMathematicswithMatthias
6 күн бұрын
这个例子没看懂,关于吃饭和消化,不理解为什么要用乘法
@chadwicklin2091
7 күн бұрын
有人明白那个“是R0,和自然数是等势的,不是R1”,是什么意思吗,听不是很懂😢
@xumiss.3441
7 күн бұрын
大佬,太强了
@user-gg9jq2po1o
7 күн бұрын
咋地!我們都一樣,以前學數理,都當他們是個混沌,自從GPU火了,又抱回來當祖宗。
@weiyuan1981
8 күн бұрын
首先感谢老师的讲解! 这里针对三个关键点,补充一点点小细节: - 最小二乘法: 针对回归问题,也就是预测值是一个实数 - 极大似然估计: 可以针对回归问题,也就是预测值是一个实数;也可以针对分类问题,也就是预测值是离散的类别 - 交叉熵: 针对分类问题,也就是预测值是离散的类别 视频中使用分类问题,联系起来最大似然估计和交叉熵。 此外,在回归问题中,可以在线性系统的输出之上,加入一个高斯噪声。然后利用最大似然估计,最后可以把最小二乘法和极大似然估计联系在一起。 这样的话,以上三个关键点就可以全部串起来了。
@user-kt9yw1gr6w
9 күн бұрын
thanks to your video! it helps me learn more about ml!
@christinashi2821
10 күн бұрын
Thank you!
@chuizitech
12 күн бұрын
梨是pear
@YingleiZhang
12 күн бұрын
看完了。再次赞一下。通俗易懂,脉络清晰,深表感谢!
@YingleiZhang
12 күн бұрын
极少数不用开倍速的博主。
@PRED122
13 күн бұрын
看到一半的时候插一嘴。王木头说机器翻译需要统一潜空间,要将两个语言的潜空间给统一起来,就能完成机器翻译。这让我联想到多模态模型的编码器,这玩意的目的也是要将语言的潜空间和图像的潜空间联系起来。所以说在现在的大模型任务里,很多东西是在做潜空间的统一
@3a146
13 күн бұрын
老哥你从计算经验来的直觉还可以, 但理论水平有点低了.
@3a146
13 күн бұрын
手册是元语言的啊, 谁告诉你生成的结构就是可数的了.
@3a146
13 күн бұрын
行列式的理论意义主要是作为矩阵到实数的同态, 这样在代数意义下有一个可以进行分析的基础. 在抽象代数的语境里考虑, 就可以开始问, 为什么矩阵的相乘操作不交换, 然后你就可以去试矩阵的各种性质, 也就是关于“数”的“学”, 至于学出来的结果, 是几何性质. 这估计是苏联人写教材的时候的想法. 不过时代早变了, 几何结构也可以是直接的数, 拿来学.
@3a146
13 күн бұрын
中文还能不能事偏旁部首和字源啊.
@m.m8994
14 күн бұрын
说中国队夺冠概率1/1024---这不是侮辱中国足球,而是在夸他们
@rchuang-ff5qk
13 күн бұрын
差不多得了啊 真能进决赛 这个赔率是买定了。。。。
@yutingchang9735
15 күн бұрын
為什麼不乾脆中間不用relu?如果relu是為了避免sigmoid/softmax梯度消失,其實relu也很像線性方程式,中間層直接不使用激活函數,最後一層再套用sigmoid/softmax是否一樣效果?
@qilingzhang-ys7bc
15 күн бұрын
🎉🎉真的给王老师点赞,获益匪浅
@fpn12099
15 күн бұрын
8:06 函數如何允許傳入任意多的參數? 其實很多科普人士,不抄書,就開始胡說八道。 其實理解數學的基礎,是一個倒退的行為,是在反向地追因,追問的就是「做這件事依循的規則是什麼?」 回到原本的問題。 當然,你可以用程式語言中的連結列表來理解它, 一個 pointer 指到 linked list 的某個點 a,它會一直自己去找下一個 b,然後是 c,d,... , 直到找到 null 為止,那這下子你的基本設定就會變得很龐大囉。 光是一個函數就搞成這樣,那你還打算定義數學上的函數嗎? programming 的函數跟數學的函數還打算整合嗎? 如果你打算用其他方式來處理不限數量的參數,難道是要用有限數列來理解參數嗎? 例如 f(a,b,c,d,e,f,g,h) 其實就是 f(<a,b,c,d,e,f,g,h>) ,那麼接下來就要定義有限數列了。 有限數列一般就是用自然數,循環定義了耶。 如果你知道 Tarski 有著繞過自然數來定義有限無限的方式,那你也可以試著證證看 Tarski有限集必可 well-ordered,看能不能幫你這樣子處理 f(<a,b,c,d,e,f,g,h>)。 當然,如果你不是採用一階邏輯+集合論的基礎,請說明你的基礎。
@dianshili2294
18 күн бұрын
非常深入浅出!
@chrisyzz
20 күн бұрын
谢谢!真的很厉害!
@mark_at_yt_8320
22 күн бұрын
Thanks!
@shijzhen
22 күн бұрын
加油
@user-xb7mo9ll5i
23 күн бұрын
我要0.75速才聽到,說太快,平時聽其他都要1.5倍速😂
@evenlau8246
24 күн бұрын
敏捷开发只是个笑话😂
@jackvz8987
25 күн бұрын
只能说,良心博主
@guiguangruanjian
26 күн бұрын
谢谢老师,讲的很好果断关注
@allen-lee
28 күн бұрын
感谢博主细致专业的讲解,这个视频值得多刷好多遍了
@foodfootfool
28 күн бұрын
讲得非常nb
@yoyooversea
29 күн бұрын
厉害!对分析力学、量子力学都很精通!
@enochx7964
29 күн бұрын
谢谢!讲的太好了。解了很久的困惑!
@user-wz3dp5ej5k
29 күн бұрын
通透
@user-rn5ov9fb7u
Ай бұрын
好累,聽你說話真的好累,抓不到重點
@King-Allen
Ай бұрын
你在逆熵进化。
@user-jg7qv7bk4i
Ай бұрын
我认为15‘左右的时候,给的Eout以及fh的图像有些问题,特别是纵轴的值,我一开始以为G和H的误差最低点的值都是0,实际则不然。Ein在h等于G时,Ein不等于Eout不等于0,不仅仅是样本数量有限的原因,还和Ein的定义有关:6’30‘’左右给的定义y = G太理想,真实情况是y = G + ϵ(误差项)
@liuchanson3
Ай бұрын
在讲梯度下降法的时候,为什么直接对Y求最大值,而不是对损失函数呢?
@huazhu
Ай бұрын
图像这个卷积运算其实是相关运算,但相关运算和卷积运算公式形式一致只是倒一下个,所以老外也把它叫做卷积。但死脑筋的我认为这是错误的,应该就叫相关运算,信号处理的书上就有很清楚的定义。不要迷信老外,在你不知道的地方,老外也可能蠢得很。卷积主要考虑的是所有的信号累积的滞后效应,显然静态图片并没有左边信号对右侧的滞后效应,反之亦然。但是动态图像(movie)在时间上就会有滞后效应,就有可能施加真正的卷积运算,那时就要把时间倒过来乘上去了,这是我的推测。
@yoyooversea
Ай бұрын
11:33 精彩
@yoyooversea
Ай бұрын
该理念是不是也可以应用于量子力学中的波动、矩阵、路径积分之间关系的理解?
@jmo6688
Ай бұрын
复习一遍以前学过但一知半解的东西
@yoyooversea
Ай бұрын
高高手!仰慕!
@croissant0329
Ай бұрын
挺有深度的
@yoyooversea
Ай бұрын
梯度下降法,讲解得相当通俗易懂!