27:29 用链式求导确实是很自然的。因为神经网络的 cost function 本身就是一个复杂一点的函数而已,反向传播算法的本质也就是对neural_network_cost_function求θ的偏导,其实也没什么特别的,但可能是因为这个求导过程实在是太繁琐复杂了,导致很多不太会求导的人不理解,而且求导必须从输出层“反向”计算到输入层,所以就有了个名字“反向传播算法” 28:13 The Feynman Lectures on Physics Volume II - mainly electromagnetism and matter 讲了gradient, divergence and curl. 我本科的时候也没搞懂这些概念,也是看了费曼的书才懂的。。 29:07 Vectorization(Array programming)在机器学习,机器人学等很多学科都是基本操作了,但这也是上了本科的课程才可以接触到,之前的初高中的问题标量就可以解决了,小学初中高中12年都只学了一些简单的没有什么价值的东西😥 29:36 神经网络里面的符号系统我感觉Andrew Ng的machine learning讲的好一些,他用θ来表示了w+b少写了了一个加号和一个字母,Robot Modeling and Control by Mark W这本书里面讲机器人前向运动学的时候也是用齐次矩阵来表示一个rotation matrix + linear matrix,都增加了矩阵的维度方便了我们理解但是也多了一些计算 43:58 吐槽的确实有道理,我们的教材没有定义符全是等号确实难以理解。不过编程语言里的“=”号确实相当于定义,而“==”符号才相当于教材里面的“=”,很多时候我机器学习的数学公式没看懂,但是用python或matlab写的代码就可以看懂!🤣 47:32 里面关于事实与解释和观点感觉讲的好。对与一个事实,不同的人(或者不同的系统)回有不同的观点看法解释,这是不同的解释很可能是等价的没有对与错,好与不好的区别,关键是这些解释能不能符合事实。而且我们的自然语言(无论是英语还是汉语日语)本身就是很模糊的,本身就没有严格的定义与解释,所以用自然语言对事实做出的解释不同也是很正常的。