并行计算与机器学习(1/3)(中文) Parallel Computing for Machine Learning (Part 1/3)

  Рет қаралды 25,096

Shusen Wang

Shusen Wang

Күн бұрын

Пікірлер: 65
@yuewang9882
@yuewang9882 Жыл бұрын
讲的很好,通俗易懂,调理清晰。图文并貌
@dvnovice
@dvnovice Жыл бұрын
感谢老师非常清楚且浅显易懂的教学 只是最后一页提到的 mapreduce cost,学生认为 computation cost 应该直接涵盖于 synchronization 里,毕竟synchronization主要就是最慢的 computation cost
@daytonchan5038
@daytonchan5038 2 жыл бұрын
讲的真的是太好了!王老师,字正腔圆,清晰易懂,谁会不爱呢???!
@XZJAK
@XZJAK 2 жыл бұрын
深入浅出,去繁就简,直指核心,必须点赞!!!
@wilamlu1433
@wilamlu1433 2 жыл бұрын
偶然点开这个视频,花了十分钟居然听懂了mapreduce,感谢老师!
@luzengyuan5326
@luzengyuan5326 4 жыл бұрын
非常好,我是做ai芯片,讲了理论基础
@dr_920
@dr_920 3 жыл бұрын
机器学习的宝藏。谢谢分享。
@linlinzhao9085
@linlinzhao9085 4 жыл бұрын
干练清晰明了,讲得太好了👍👍👍
@chengcheng6082
@chengcheng6082 4 жыл бұрын
真不知道说啥了,这些课程太好了!我要向您学习!
@fzzying
@fzzying 4 жыл бұрын
干货满满,给你点赞
@xcl2555
@xcl2555 4 жыл бұрын
期待更新更多视频
@dongdong7229
@dongdong7229 4 жыл бұрын
真正的牛人!
@pruzhinki0422
@pruzhinki0422 4 жыл бұрын
NLP研究生在读 期待您更多的视频
@jamesmaxwell4919
@jamesmaxwell4919 3 жыл бұрын
太棒了
@kaitian9580
@kaitian9580 4 жыл бұрын
王老师太赞了
@bojack2334
@bojack2334 3 жыл бұрын
太棒了!一直在想梯度是什么意思!您一讲我就听懂了……
@DDDD-bh8wk
@DDDD-bh8wk Жыл бұрын
有没有deeplearning的系列,老师讲的太好了
@jinlinli9253
@jinlinli9253 3 жыл бұрын
老师讲得太强了!
@张曦文-p6k
@张曦文-p6k 4 жыл бұрын
谢谢王老师
@wangbenqi8938
@wangbenqi8938 4 жыл бұрын
很好的课程
@chunmingj8612
@chunmingj8612 3 жыл бұрын
讲的真好!
@Mirai12377
@Mirai12377 4 жыл бұрын
感谢您~!
@liutian3
@liutian3 10 ай бұрын
推荐系统中当物品数量多embedding很大,但model其他部分并不大时,用什么distributed training技术比较好?
@姚泽平-x7o
@姚泽平-x7o 4 жыл бұрын
赞👍
@fl2024steve
@fl2024steve 2 жыл бұрын
太强了!
@songmeishu5445
@songmeishu5445 3 жыл бұрын
marvelous video!
@AGI.Trainer
@AGI.Trainer 4 жыл бұрын
语气变温柔了
@batibati8654
@batibati8654 2 жыл бұрын
老师讲的很好!谢谢您!《入侵检测,使用机器学习算法分析网络和系统安全威胁》这个题目有材料或资料吗?
@haiyuetian618
@haiyuetian618 2 жыл бұрын
王老师我想请教一下,为什么Loss function只是把所有样本的误差加起来而不求一个平均呢,如果不求的话损失不是会随着样本的增加而无限制增加嘛。不求平均是因为我们平时在实际应用的情况中确定了batch size所以不需要求吗?
@george8840
@george8840 3 жыл бұрын
不知当问不当问,为什么Loss Function中有1/2呢?我理解是此处常数是多少不影响,只是为了在求导得梯度时可以与2相乘抵消掉。
@ShusenWang
@ShusenWang 3 жыл бұрын
是的。系数无所谓,会被learning rate吸收掉。
@george8840
@george8840 3 жыл бұрын
@@ShusenWang 谢谢王老师!
@hangerchou9572
@hangerchou9572 3 жыл бұрын
王老师,可以推荐一些分布式机器学习应用的paper吗?
@ShusenWang
@ShusenWang 3 жыл бұрын
现在已经不是很热门的领域了,了解一下就好,不建议深挖
@jiutianyu3592
@jiutianyu3592 3 жыл бұрын
@@ShusenWang 请问王老师最近这个领域哪个方向较热啊。还是都比较卷
@ShusenWang
@ShusenWang 3 жыл бұрын
@@jiutianyu3592 不太建议做这个方向。low-hanging fruits都被摘完了
@tiantianli5812
@tiantianli5812 3 жыл бұрын
@@ShusenWang 王老师 那现在哪个方向比较好
@wangyan5229
@wangyan5229 Жыл бұрын
@@ShusenWang 但是看最近出了很多pipeline并行,tensor并行的方法
@hongleixie4315
@hongleixie4315 4 жыл бұрын
非常好的内容!老师能讲一下为什么你不推荐Spark这类MapReduce的系统做ML?视频里面留了一个flag但是我没有找到 谢谢!
@ShusenWang
@ShusenWang 4 жыл бұрын
这些系统需要synchronization。只有几个节点的时候没问题。但是当节点多的时候,synchronization的代价很大。比实际的时间的话,同步算法总是比异步慢很多。
@chiehchang9724
@chiehchang9724 4 жыл бұрын
w* = argminL(w) 吧。
@ShusenWang
@ShusenWang 4 жыл бұрын
是的。我写错了。多谢!
@hxcai8199
@hxcai8199 3 жыл бұрын
博主了解automl吗?可以讲一些关于automl最新的研究方向和进展吗?感谢。
@ShusenWang
@ShusenWang 3 жыл бұрын
我打算讲 neural architecture search,但是暂时没时间录。
@hxcai8199
@hxcai8199 3 жыл бұрын
@@ShusenWang 期待!
@yuehanlyu324
@yuehanlyu324 3 жыл бұрын
王老师您好,想请教一下 worker node里共享内存的processor ,跟我们平时说的cluster的worker node可以划分为多个executor是同一个概念吗?
@ShusenWang
@ShusenWang 3 жыл бұрын
不太一样。处理器是机器本身的。executor数量是人为定的,可以任意。
@bingchen6686
@bingchen6686 4 жыл бұрын
cool!
@wangrobbie6867
@wangrobbie6867 4 жыл бұрын
稳!
@jamesguo1344
@jamesguo1344 4 жыл бұрын
有这个课程的PPT可以共享吗
@ShusenWang
@ShusenWang 4 жыл бұрын
PDF文件都在这: github.com/wangshusen/DeepLearning
@jamesguo1344
@jamesguo1344 4 жыл бұрын
@@ShusenWang 谢谢
@jamesguo1344
@jamesguo1344 4 жыл бұрын
@@ShusenWang 博主有什么ins、推特之类的社交账号嘛,可以关注一下
@mr.pootis2472
@mr.pootis2472 2 жыл бұрын
@@jamesguo1344 他有小红书
@zhuzi2547
@zhuzi2547 3 жыл бұрын
深入浅出,复杂的理论听着像王刚炒菜那么简单
@chaojiezhang265
@chaojiezhang265 3 жыл бұрын
4:00 f(x)=x^T w是不是应该写成f(x)=w x^T
@ShusenWang
@ShusenWang 3 жыл бұрын
不是的。向量是列向量,x^T w 是实数,而你说的 w x^T 是矩阵。
@chaojiezhang265
@chaojiezhang265 3 жыл бұрын
@@ShusenWang 哦哦好的,谢谢!
@朱禾兴
@朱禾兴 3 жыл бұрын
@@ShusenWang 我学校老师喜欢把weight写在前面😂
@linsun8439
@linsun8439 4 жыл бұрын
这里的 x 应该是 R^{dx1}而不是 R^d 吧
@ShusenWang
@ShusenWang 4 жыл бұрын
嗯,其实是一个意思
@dadawang7063
@dadawang7063 Жыл бұрын
音画不同步啊
Why no RONALDO?! 🤔⚽️
00:28
Celine Dept
Рет қаралды 115 МЛН
Turn Off the Vacum And Sit Back and Laugh 🤣
00:34
SKITSFUL
Рет қаралды 11 МЛН
LAVROV's interview with Tucker CARLSON 😁 [Parody]
8:34
Юрий ВЕЛИКИЙ
Рет қаралды 324 М.
学习分享一年,对神经网络的理解全都在这40分钟里了
43:18
Reinforcement Learning, by the Book
18:19
Mutual Information
Рет қаралды 111 М.
花花酱 线程与进程 并行计算1 - CS大讲堂 EP1
18:13
[Chinese] Monte Carlo Algorithms
25:15
Shusen Wang
Рет қаралды 29 М.