KZ
bin
Негізгі бет
Қазірдің өзінде танымал
Тікелей эфир
Ұнаған бейнелер
Қайтадан қараңыз
Жазылымдар
Кіру
Тіркелу
Ең жақсы KZbin
Фильм және анимация
Автокөліктер мен көлік құралдары
Музыка
Үй жануарлары мен аңдар
Спорт
Ойындар
Комедия
Ойын-сауық
Тәжірибелік нұсқаулар және стиль
Ғылым және технология
并行计算与机器学习(2/3)(中文) Parallel Computing for Machine Learning (Part 2/3)
17:25
联邦学习:技术角度的讲解(中文)Introduction to Federated Learning
37:01
Қарғалардың анасы бар ма? | 1 серия | Сериал «QARGA 2» | КОНКУРС
41:02
Why no RONALDO?! 🤔⚽️
00:28
Turn Off the Vacum And Sit Back and Laugh 🤣
00:34
Cool Items!🥰 New Gadgets, Smart Appliances, Kitchen Tools Utensils, Home Cleaning, Beauty #shorts
00:40
并行计算与机器学习(1/3)(中文) Parallel Computing for Machine Learning (Part 1/3)
Рет қаралды 25,096
Facebook
Twitter
Жүктеу
1
Жазылу 29 М.
Shusen Wang
Күн бұрын
Пікірлер: 65
@yuewang9882
Жыл бұрын
讲的很好,通俗易懂,调理清晰。图文并貌
@dvnovice
Жыл бұрын
感谢老师非常清楚且浅显易懂的教学 只是最后一页提到的 mapreduce cost,学生认为 computation cost 应该直接涵盖于 synchronization 里,毕竟synchronization主要就是最慢的 computation cost
@daytonchan5038
2 жыл бұрын
讲的真的是太好了!王老师,字正腔圆,清晰易懂,谁会不爱呢???!
@XZJAK
2 жыл бұрын
深入浅出,去繁就简,直指核心,必须点赞!!!
@wilamlu1433
2 жыл бұрын
偶然点开这个视频,花了十分钟居然听懂了mapreduce,感谢老师!
@luzengyuan5326
4 жыл бұрын
非常好,我是做ai芯片,讲了理论基础
@dr_920
3 жыл бұрын
机器学习的宝藏。谢谢分享。
@linlinzhao9085
4 жыл бұрын
干练清晰明了,讲得太好了👍👍👍
@chengcheng6082
4 жыл бұрын
真不知道说啥了,这些课程太好了!我要向您学习!
@fzzying
4 жыл бұрын
干货满满,给你点赞
@xcl2555
4 жыл бұрын
期待更新更多视频
@dongdong7229
4 жыл бұрын
真正的牛人!
@pruzhinki0422
4 жыл бұрын
NLP研究生在读 期待您更多的视频
@jamesmaxwell4919
3 жыл бұрын
太棒了
@kaitian9580
4 жыл бұрын
王老师太赞了
@bojack2334
3 жыл бұрын
太棒了!一直在想梯度是什么意思!您一讲我就听懂了……
@DDDD-bh8wk
Жыл бұрын
有没有deeplearning的系列,老师讲的太好了
@jinlinli9253
3 жыл бұрын
老师讲得太强了!
@张曦文-p6k
4 жыл бұрын
谢谢王老师
@wangbenqi8938
4 жыл бұрын
很好的课程
@chunmingj8612
3 жыл бұрын
讲的真好!
@Mirai12377
4 жыл бұрын
感谢您~!
@liutian3
10 ай бұрын
推荐系统中当物品数量多embedding很大,但model其他部分并不大时,用什么distributed training技术比较好?
@姚泽平-x7o
4 жыл бұрын
赞👍
@fl2024steve
2 жыл бұрын
太强了!
@songmeishu5445
3 жыл бұрын
marvelous video!
@AGI.Trainer
4 жыл бұрын
语气变温柔了
@batibati8654
2 жыл бұрын
老师讲的很好!谢谢您!《入侵检测,使用机器学习算法分析网络和系统安全威胁》这个题目有材料或资料吗?
@haiyuetian618
2 жыл бұрын
王老师我想请教一下,为什么Loss function只是把所有样本的误差加起来而不求一个平均呢,如果不求的话损失不是会随着样本的增加而无限制增加嘛。不求平均是因为我们平时在实际应用的情况中确定了batch size所以不需要求吗?
@george8840
3 жыл бұрын
不知当问不当问,为什么Loss Function中有1/2呢?我理解是此处常数是多少不影响,只是为了在求导得梯度时可以与2相乘抵消掉。
@ShusenWang
3 жыл бұрын
是的。系数无所谓,会被learning rate吸收掉。
@george8840
3 жыл бұрын
@@ShusenWang 谢谢王老师!
@hangerchou9572
3 жыл бұрын
王老师,可以推荐一些分布式机器学习应用的paper吗?
@ShusenWang
3 жыл бұрын
现在已经不是很热门的领域了,了解一下就好,不建议深挖
@jiutianyu3592
3 жыл бұрын
@@ShusenWang 请问王老师最近这个领域哪个方向较热啊。还是都比较卷
@ShusenWang
3 жыл бұрын
@@jiutianyu3592 不太建议做这个方向。low-hanging fruits都被摘完了
@tiantianli5812
3 жыл бұрын
@@ShusenWang 王老师 那现在哪个方向比较好
@wangyan5229
Жыл бұрын
@@ShusenWang 但是看最近出了很多pipeline并行,tensor并行的方法
@hongleixie4315
4 жыл бұрын
非常好的内容!老师能讲一下为什么你不推荐Spark这类MapReduce的系统做ML?视频里面留了一个flag但是我没有找到 谢谢!
@ShusenWang
4 жыл бұрын
这些系统需要synchronization。只有几个节点的时候没问题。但是当节点多的时候,synchronization的代价很大。比实际的时间的话,同步算法总是比异步慢很多。
@chiehchang9724
4 жыл бұрын
w* = argminL(w) 吧。
@ShusenWang
4 жыл бұрын
是的。我写错了。多谢!
@hxcai8199
3 жыл бұрын
博主了解automl吗?可以讲一些关于automl最新的研究方向和进展吗?感谢。
@ShusenWang
3 жыл бұрын
我打算讲 neural architecture search,但是暂时没时间录。
@hxcai8199
3 жыл бұрын
@@ShusenWang 期待!
@yuehanlyu324
3 жыл бұрын
王老师您好,想请教一下 worker node里共享内存的processor ,跟我们平时说的cluster的worker node可以划分为多个executor是同一个概念吗?
@ShusenWang
3 жыл бұрын
不太一样。处理器是机器本身的。executor数量是人为定的,可以任意。
@bingchen6686
4 жыл бұрын
cool!
@wangrobbie6867
4 жыл бұрын
稳!
@jamesguo1344
4 жыл бұрын
有这个课程的PPT可以共享吗
@ShusenWang
4 жыл бұрын
PDF文件都在这: github.com/wangshusen/DeepLearning
@jamesguo1344
4 жыл бұрын
@@ShusenWang 谢谢
@jamesguo1344
4 жыл бұрын
@@ShusenWang 博主有什么ins、推特之类的社交账号嘛,可以关注一下
@mr.pootis2472
2 жыл бұрын
@@jamesguo1344 他有小红书
@zhuzi2547
3 жыл бұрын
深入浅出,复杂的理论听着像王刚炒菜那么简单
@chaojiezhang265
3 жыл бұрын
4:00 f(x)=x^T w是不是应该写成f(x)=w x^T
@ShusenWang
3 жыл бұрын
不是的。向量是列向量,x^T w 是实数,而你说的 w x^T 是矩阵。
@chaojiezhang265
3 жыл бұрын
@@ShusenWang 哦哦好的,谢谢!
@朱禾兴
3 жыл бұрын
@@ShusenWang 我学校老师喜欢把weight写在前面😂
@linsun8439
4 жыл бұрын
这里的 x 应该是 R^{dx1}而不是 R^d 吧
@ShusenWang
4 жыл бұрын
嗯,其实是一个意思
@dadawang7063
Жыл бұрын
音画不同步啊
17:25
并行计算与机器学习(2/3)(中文) Parallel Computing for Machine Learning (Part 2/3)
Shusen Wang
Рет қаралды 10 М.
37:01
联邦学习:技术角度的讲解(中文)Introduction to Federated Learning
Shusen Wang
Рет қаралды 36 М.
41:02
Қарғалардың анасы бар ма? | 1 серия | Сериал «QARGA 2» | КОНКУРС
OMIR
Рет қаралды 1,2 МЛН
00:28
Why no RONALDO?! 🤔⚽️
Celine Dept
Рет қаралды 115 МЛН
00:34
Turn Off the Vacum And Sit Back and Laugh 🤣
SKITSFUL
Рет қаралды 11 МЛН
00:40
Cool Items!🥰 New Gadgets, Smart Appliances, Kitchen Tools Utensils, Home Cleaning, Beauty #shorts
Cool Items Official
Рет қаралды 41 МЛН
24:55
并行计算与机器学习(3/3)(中文) Parallel Computing for Machine Learning (Part 3/3)
Shusen Wang
Рет қаралды 8 М.
8:34
LAVROV's interview with Tucker CARLSON 😁 [Parody]
Юрий ВЕЛИКИЙ
Рет қаралды 324 М.
8:31
Mock Interview on Generative AI & LLM | Top Interview Questions 🔥
AD Academy
Рет қаралды 13 М.
26:09
Computer Scientist Explains Machine Learning in 5 Levels of Difficulty | WIRED
WIRED
Рет қаралды 2,4 МЛН
43:18
学习分享一年,对神经网络的理解全都在这40分钟里了
王木头学科学
Рет қаралды 183 М.
18:19
Reinforcement Learning, by the Book
Mutual Information
Рет қаралды 111 М.
18:13
花花酱 线程与进程 并行计算1 - CS大讲堂 EP1
Hua Hua
Рет қаралды 20 М.
25:15
[Chinese] Monte Carlo Algorithms
Shusen Wang
Рет қаралды 29 М.
40:01
深度强化学习(1/5):基本概念 Deep Reinforcement Learning (1/5)
Shusen Wang
Рет қаралды 103 М.
26:18
【突發】巴菲特最新交代的遺言警告?等了16年的抄底暴富危機終於出現?未來世界的資產將會易主?史上最大的拋售真相終於解密,巴菲特的最後一戰?
90後創業家掃地僧
Рет қаралды 382 М.
41:02
Қарғалардың анасы бар ма? | 1 серия | Сериал «QARGA 2» | КОНКУРС
OMIR
Рет қаралды 1,2 МЛН