一个天文摄影的极简入门
41:03
Пікірлер
@nanzhou2301
@nanzhou2301 2 күн бұрын
说的真好,作为一个ML工程师很惭愧,已关注。以后多听听您的分享见解。
@advancelll3521
@advancelll3521 2 күн бұрын
傅里叶变换,就是把时域的原函数与另外一个坐标系中的某个标准正交基做内积运算,计算出来的结果就是投影到这个基上的分量, 反傅里叶变换,就是这些标准正交基向量的加权和,得到原来的时域函数。
@advancelll3521
@advancelll3521 2 күн бұрын
线性代数应该这样学第三版
@hongliangli4959
@hongliangli4959 3 күн бұрын
可以专门解释一下哥德尔不完备性定理吗?
@eggdog
@eggdog 3 күн бұрын
怎麼過這麼久還沒有新影片😭😭
@flyinsky5656
@flyinsky5656 5 күн бұрын
独到心法,从习惯到成就的过程。维持节拍生活,潜移默化影响自己
@kcl918
@kcl918 5 күн бұрын
講的好仔細呀,感謝你
@MasterMathematicswithMatthias
@MasterMathematicswithMatthias 6 күн бұрын
这个例子没看懂,关于吃饭和消化,不理解为什么要用乘法
@chadwicklin2091
@chadwicklin2091 7 күн бұрын
有人明白那个“是R0,和自然数是等势的,不是R1”,是什么意思吗,听不是很懂😢
@xumiss.3441
@xumiss.3441 7 күн бұрын
大佬,太强了
@user-gg9jq2po1o
@user-gg9jq2po1o 7 күн бұрын
咋地!我們都一樣,以前學數理,都當他們是個混沌,自從GPU火了,又抱回來當祖宗。
@weiyuan1981
@weiyuan1981 8 күн бұрын
首先感谢老师的讲解! 这里针对三个关键点,补充一点点小细节: - 最小二乘法: 针对回归问题,也就是预测值是一个实数 - 极大似然估计: 可以针对回归问题,也就是预测值是一个实数;也可以针对分类问题,也就是预测值是离散的类别 - 交叉熵: 针对分类问题,也就是预测值是离散的类别 视频中使用分类问题,联系起来最大似然估计和交叉熵。 此外,在回归问题中,可以在线性系统的输出之上,加入一个高斯噪声。然后利用最大似然估计,最后可以把最小二乘法和极大似然估计联系在一起。 这样的话,以上三个关键点就可以全部串起来了。
@user-kt9yw1gr6w
@user-kt9yw1gr6w 9 күн бұрын
thanks to your video! it helps me learn more about ml!
@christinashi2821
@christinashi2821 10 күн бұрын
Thank you!
@chuizitech
@chuizitech 12 күн бұрын
梨是pear
@YingleiZhang
@YingleiZhang 12 күн бұрын
看完了。再次赞一下。通俗易懂,脉络清晰,深表感谢!
@YingleiZhang
@YingleiZhang 12 күн бұрын
极少数不用开倍速的博主。
@PRED122
@PRED122 13 күн бұрын
看到一半的时候插一嘴。王木头说机器翻译需要统一潜空间,要将两个语言的潜空间给统一起来,就能完成机器翻译。这让我联想到多模态模型的编码器,这玩意的目的也是要将语言的潜空间和图像的潜空间联系起来。所以说在现在的大模型任务里,很多东西是在做潜空间的统一
@3a146
@3a146 13 күн бұрын
老哥你从计算经验来的直觉还可以, 但理论水平有点低了.
@3a146
@3a146 13 күн бұрын
手册是元语言的啊, 谁告诉你生成的结构就是可数的了.
@3a146
@3a146 13 күн бұрын
行列式的理论意义主要是作为矩阵到实数的同态, 这样在代数意义下有一个可以进行分析的基础. 在抽象代数的语境里考虑, 就可以开始问, 为什么矩阵的相乘操作不交换, 然后你就可以去试矩阵的各种性质, 也就是关于“数”的“学”, 至于学出来的结果, 是几何性质. 这估计是苏联人写教材的时候的想法. 不过时代早变了, 几何结构也可以是直接的数, 拿来学.
@3a146
@3a146 13 күн бұрын
中文还能不能事偏旁部首和字源啊.
@m.m8994
@m.m8994 14 күн бұрын
说中国队夺冠概率1/1024---这不是侮辱中国足球,而是在夸他们
@rchuang-ff5qk
@rchuang-ff5qk 13 күн бұрын
差不多得了啊 真能进决赛 这个赔率是买定了。。。。
@yutingchang9735
@yutingchang9735 15 күн бұрын
為什麼不乾脆中間不用relu?如果relu是為了避免sigmoid/softmax梯度消失,其實relu也很像線性方程式,中間層直接不使用激活函數,最後一層再套用sigmoid/softmax是否一樣效果?
@qilingzhang-ys7bc
@qilingzhang-ys7bc 15 күн бұрын
🎉🎉真的给王老师点赞,获益匪浅
@fpn12099
@fpn12099 15 күн бұрын
8:06 函數如何允許傳入任意多的參數? 其實很多科普人士,不抄書,就開始胡說八道。 其實理解數學的基礎,是一個倒退的行為,是在反向地追因,追問的就是「做這件事依循的規則是什麼?」 回到原本的問題。 當然,你可以用程式語言中的連結列表來理解它, 一個 pointer 指到 linked list 的某個點 a,它會一直自己去找下一個 b,然後是 c,d,... , 直到找到 null 為止,那這下子你的基本設定就會變得很龐大囉。 光是一個函數就搞成這樣,那你還打算定義數學上的函數嗎? programming 的函數跟數學的函數還打算整合嗎? 如果你打算用其他方式來處理不限數量的參數,難道是要用有限數列來理解參數嗎? 例如 f(a,b,c,d,e,f,g,h) 其實就是 f(<a,b,c,d,e,f,g,h>) ,那麼接下來就要定義有限數列了。 有限數列一般就是用自然數,循環定義了耶。 如果你知道 Tarski 有著繞過自然數來定義有限無限的方式,那你也可以試著證證看 Tarski有限集必可 well-ordered,看能不能幫你這樣子處理 f(<a,b,c,d,e,f,g,h>)。 當然,如果你不是採用一階邏輯+集合論的基礎,請說明你的基礎。
@dianshili2294
@dianshili2294 18 күн бұрын
非常深入浅出!
@chrisyzz
@chrisyzz 20 күн бұрын
谢谢!真的很厉害!
@mark_at_yt_8320
@mark_at_yt_8320 22 күн бұрын
Thanks!
@shijzhen
@shijzhen 22 күн бұрын
加油
@user-xb7mo9ll5i
@user-xb7mo9ll5i 23 күн бұрын
我要0.75速才聽到,說太快,平時聽其他都要1.5倍速😂
@evenlau8246
@evenlau8246 24 күн бұрын
敏捷开发只是个笑话😂
@jackvz8987
@jackvz8987 25 күн бұрын
只能说,良心博主
@guiguangruanjian
@guiguangruanjian 26 күн бұрын
谢谢老师,讲的很好果断关注
@allen-lee
@allen-lee 28 күн бұрын
感谢博主细致专业的讲解,这个视频值得多刷好多遍了
@foodfootfool
@foodfootfool 28 күн бұрын
讲得非常nb
@yoyooversea
@yoyooversea 29 күн бұрын
厉害!对分析力学、量子力学都很精通!
@enochx7964
@enochx7964 29 күн бұрын
谢谢!讲的太好了。解了很久的困惑!
@user-wz3dp5ej5k
@user-wz3dp5ej5k 29 күн бұрын
通透
@user-rn5ov9fb7u
@user-rn5ov9fb7u Ай бұрын
好累,聽你說話真的好累,抓不到重點
@King-Allen
@King-Allen Ай бұрын
你在逆熵进化。
@user-jg7qv7bk4i
@user-jg7qv7bk4i Ай бұрын
我认为15‘左右的时候,给的Eout以及fh的图像有些问题,特别是纵轴的值,我一开始以为G和H的误差最低点的值都是0,实际则不然。Ein在h等于G时,Ein不等于Eout不等于0,不仅仅是样本数量有限的原因,还和Ein的定义有关:6’30‘’左右给的定义y = G太理想,真实情况是y = G + ϵ(误差项)
@liuchanson3
@liuchanson3 Ай бұрын
在讲梯度下降法的时候,为什么直接对Y求最大值,而不是对损失函数呢?
@huazhu
@huazhu Ай бұрын
图像这个卷积运算其实是相关运算,但相关运算和卷积运算公式形式一致只是倒一下个,所以老外也把它叫做卷积。但死脑筋的我认为这是错误的,应该就叫相关运算,信号处理的书上就有很清楚的定义。不要迷信老外,在你不知道的地方,老外也可能蠢得很。卷积主要考虑的是所有的信号累积的滞后效应,显然静态图片并没有左边信号对右侧的滞后效应,反之亦然。但是动态图像(movie)在时间上就会有滞后效应,就有可能施加真正的卷积运算,那时就要把时间倒过来乘上去了,这是我的推测。
@yoyooversea
@yoyooversea Ай бұрын
11:33 精彩
@yoyooversea
@yoyooversea Ай бұрын
该理念是不是也可以应用于量子力学中的波动、矩阵、路径积分之间关系的理解?
@jmo6688
@jmo6688 Ай бұрын
复习一遍以前学过但一知半解的东西
@yoyooversea
@yoyooversea Ай бұрын
高高手!仰慕!
@croissant0329
@croissant0329 Ай бұрын
挺有深度的
@yoyooversea
@yoyooversea Ай бұрын
梯度下降法,讲解得相当通俗易懂!