KZ
bin
Негізгі бет
Қазірдің өзінде танымал
Тікелей эфир
Ұнаған бейнелер
Қайтадан қараңыз
Жазылымдар
Кіру
Тіркелу
Ең жақсы KZbin
Фильм және анимация
Автокөліктер мен көлік құралдары
Музыка
Үй жануарлары мен аңдар
Спорт
Ойындар
Комедия
Ойын-сауық
Тәжірибелік нұсқаулар және стиль
Ғылым және технология
ViT论文逐段精读【论文精读】
1:11:31
深度学习入门教学--Resnet残差网络介绍
21:48
ЭКСКЛЮЗИВ: МАЛ екенмін! Некесіз туылған ҚЫЗЫН мойындай ма? 15 мың теңгеге ренжіді!
2:44:02
Don't underestimate anyone
00:47
Turn Off the Vacum And Sit Back and Laugh 🤣
00:34
How To Choose Mac N Cheese Date Night.. 🧀
00:58
BERT 论文逐段精读【论文精读】
Рет қаралды 33,336
Facebook
Twitter
Жүктеу
1
Жазылу 84 М.
跟李沐学AI
Күн бұрын
Пікірлер: 31
@dorisfang8636
2 жыл бұрын
比我自己看论文容易理解多了,期待更多解读
@Stefan-pb4jw
2 жыл бұрын
沐神可不可以出一期知识图谱的!一直在追你的视频,质量很高!🥺
@evelyn-rd3lb
Жыл бұрын
同問想看知識圖譜的🙋♀️
@zzzjohnpaper
Жыл бұрын
謝謝老師
@pantan4206
3 жыл бұрын
在B站看了,再来这里看第二遍!
@OptimusPrimeYan
9 ай бұрын
李沐老师讲的很牛逼
@jayzhang3065
9 ай бұрын
Mu神,来挖坑了,你视频最后说到的想法是啥啊?关于为什么bert 比 gpt的影响力要大。我觉得一个很大的原因,你视频里也提到了,他把cv 里面那套 大的数据集预训练,然后在垂类领域微调拿到nlp 里面来用,而且用的好,破圈了。
@alphaprofold5707
3 жыл бұрын
先赞再看
@pentapandamusic
Жыл бұрын
Attention is all you need
@u4rr837
Жыл бұрын
想請問各位,大約25:00計算模型參數時有計算到transformer block 中的兩個 layer norm 嗎? layer norm應該要有gamma跟beta屬於可學習參數。
@thomassun7015
3 жыл бұрын
支持沐神!
@jinhuizhang702
3 жыл бұрын
太棒了
@jasonwu8166
3 жыл бұрын
沐神👍 之后有没有机会讲讲automl? 或者推荐一些经典automl paper?
@runyulu7453
3 жыл бұрын
支持沐神😍
@amanhasnoname836
Жыл бұрын
啊哈哈哈,现在GPT要排在第一的位置了😊
@Benjaminyang-fb7nf
Жыл бұрын
❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤
@zhgzhou3589
3 жыл бұрын
计算参数量的时候为什么没有注意力头的个数A呢?
@zhgzhou3589
3 жыл бұрын
A*64=H
@cuifengshen2466
2 жыл бұрын
注意力本身是没有参数的
@hansimon1097
3 жыл бұрын
导师好
@cy2340
Жыл бұрын
太神了
@yks2323
Жыл бұрын
很酷
@jinhuizhang702
2 жыл бұрын
大佬什么时候讲讲gpt3
@user-wzb
3 жыл бұрын
来了
@sampsuns
3 жыл бұрын
Mum for the next video
@tildarusso
Жыл бұрын
早年RNN和LSTM的使用双向模型是为克服记忆消失问题,但是如果说attention机制没有视野限制可以注意到间隔很远的词,那在基于transformer编码器的模型中bidirectional为什么会有增益呢?
@sally5453
Жыл бұрын
开头讲了之前用transformer的时候decoder是unidirectional的 "attention注意到间隔很远的词"和"unidirectional vs bidirectional"是两个topics
@richard126wfr
9 ай бұрын
7:50 笑死了。
@cc189tv
3 жыл бұрын
youxiu
@JiancongXie
Жыл бұрын
能不能出一期论文工程复现的视频?
@GangWang-mn9gk
6 ай бұрын
谢谢老师
1:11:31
ViT论文逐段精读【论文精读】
跟李沐学AI
Рет қаралды 52 М.
21:48
深度学习入门教学--Resnet残差网络介绍
波波bobo
Рет қаралды 24 М.
2:44:02
ЭКСКЛЮЗИВ: МАЛ екенмін! Некесіз туылған ҚЫЗЫН мойындай ма? 15 мың теңгеге ренжіді!
НТК Show
Рет қаралды 590 М.
00:47
Don't underestimate anyone
奇軒Tricking
Рет қаралды 21 МЛН
00:34
Turn Off the Vacum And Sit Back and Laugh 🤣
SKITSFUL
Рет қаралды 7 МЛН
00:58
How To Choose Mac N Cheese Date Night.. 🧀
Jojo Sim
Рет қаралды 99 МЛН
40:25
History of computers | تاريخ الكمبيوتر
anaHr
Рет қаралды 130 М.
17:23
BERT 看透你说的话 双向语言模型 #6.4 【莫烦Python NLP 自然语言处理教学】
Morvan Zhou
Рет қаралды 7 М.
47:04
MAE 论文逐段精读【论文精读】
跟李沐学AI
Рет қаралды 16 М.
1:04:52
ELMO, BERT, GPT
Hung-yi Lee
Рет қаралды 114 М.
46:17
GAN论文逐段精读【论文精读】
跟李沐学AI
Рет қаралды 21 М.
1:27:05
Transformer论文逐段精读
跟李沐学AI
Рет қаралды 423 М.
11:37
BERT Neural Network - EXPLAINED!
CodeEmporium
Рет қаралды 409 М.
27:40
大白话AI | 图像生成模型之DDPM | 扩散模型 | 生成模型 | 概率扩散去噪生成模型 | Diffusion Model
大白话AI
Рет қаралды 26 М.
54:22
DETR 论文精读【论文精读】
跟李沐学AI
Рет қаралды 9 М.
11:26
BERT (预训练Transformer模型)
Shusen Wang
Рет қаралды 22 М.
2:44:02
ЭКСКЛЮЗИВ: МАЛ екенмін! Некесіз туылған ҚЫЗЫН мойындай ма? 15 мың теңгеге ренжіді!
НТК Show
Рет қаралды 590 М.