BERT 论文逐段精读【论文精读】

  Рет қаралды 33,336

跟李沐学AI

跟李沐学AI

Күн бұрын

Пікірлер: 31
@dorisfang8636
@dorisfang8636 2 жыл бұрын
比我自己看论文容易理解多了,期待更多解读
@Stefan-pb4jw
@Stefan-pb4jw 2 жыл бұрын
沐神可不可以出一期知识图谱的!一直在追你的视频,质量很高!🥺
@evelyn-rd3lb
@evelyn-rd3lb Жыл бұрын
同問想看知識圖譜的🙋‍♀️
@zzzjohnpaper
@zzzjohnpaper Жыл бұрын
謝謝老師
@pantan4206
@pantan4206 3 жыл бұрын
在B站看了,再来这里看第二遍!
@OptimusPrimeYan
@OptimusPrimeYan 9 ай бұрын
李沐老师讲的很牛逼
@jayzhang3065
@jayzhang3065 9 ай бұрын
Mu神,来挖坑了,你视频最后说到的想法是啥啊?关于为什么bert 比 gpt的影响力要大。我觉得一个很大的原因,你视频里也提到了,他把cv 里面那套 大的数据集预训练,然后在垂类领域微调拿到nlp 里面来用,而且用的好,破圈了。
@alphaprofold5707
@alphaprofold5707 3 жыл бұрын
先赞再看
@pentapandamusic
@pentapandamusic Жыл бұрын
Attention is all you need
@u4rr837
@u4rr837 Жыл бұрын
想請問各位,大約25:00計算模型參數時有計算到transformer block 中的兩個 layer norm 嗎? layer norm應該要有gamma跟beta屬於可學習參數。
@thomassun7015
@thomassun7015 3 жыл бұрын
支持沐神!
@jinhuizhang702
@jinhuizhang702 3 жыл бұрын
太棒了
@jasonwu8166
@jasonwu8166 3 жыл бұрын
沐神👍 之后有没有机会讲讲automl? 或者推荐一些经典automl paper?
@runyulu7453
@runyulu7453 3 жыл бұрын
支持沐神😍
@amanhasnoname836
@amanhasnoname836 Жыл бұрын
啊哈哈哈,现在GPT要排在第一的位置了😊
@Benjaminyang-fb7nf
@Benjaminyang-fb7nf Жыл бұрын
❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤
@zhgzhou3589
@zhgzhou3589 3 жыл бұрын
计算参数量的时候为什么没有注意力头的个数A呢?
@zhgzhou3589
@zhgzhou3589 3 жыл бұрын
A*64=H
@cuifengshen2466
@cuifengshen2466 2 жыл бұрын
注意力本身是没有参数的
@hansimon1097
@hansimon1097 3 жыл бұрын
导师好
@cy2340
@cy2340 Жыл бұрын
太神了
@yks2323
@yks2323 Жыл бұрын
很酷
@jinhuizhang702
@jinhuizhang702 2 жыл бұрын
大佬什么时候讲讲gpt3
@user-wzb
@user-wzb 3 жыл бұрын
来了
@sampsuns
@sampsuns 3 жыл бұрын
Mum for the next video
@tildarusso
@tildarusso Жыл бұрын
早年RNN和LSTM的使用双向模型是为克服记忆消失问题,但是如果说attention机制没有视野限制可以注意到间隔很远的词,那在基于transformer编码器的模型中bidirectional为什么会有增益呢?
@sally5453
@sally5453 Жыл бұрын
开头讲了之前用transformer的时候decoder是unidirectional的 "attention注意到间隔很远的词"和"unidirectional vs bidirectional"是两个topics
@richard126wfr
@richard126wfr 9 ай бұрын
7:50 笑死了。
@cc189tv
@cc189tv 3 жыл бұрын
youxiu
@JiancongXie
@JiancongXie Жыл бұрын
能不能出一期论文工程复现的视频?
@GangWang-mn9gk
@GangWang-mn9gk 6 ай бұрын
谢谢老师
ViT论文逐段精读【论文精读】
1:11:31
跟李沐学AI
Рет қаралды 52 М.
深度学习入门教学--Resnet残差网络介绍
21:48
波波bobo
Рет қаралды 24 М.
Don't underestimate anyone
00:47
奇軒Tricking
Рет қаралды 21 МЛН
Turn Off the Vacum And Sit Back and Laugh 🤣
00:34
SKITSFUL
Рет қаралды 7 МЛН
How To Choose Mac N Cheese Date Night.. 🧀
00:58
Jojo Sim
Рет қаралды 99 МЛН
History of computers |  تاريخ الكمبيوتر
40:25
MAE 论文逐段精读【论文精读】
47:04
跟李沐学AI
Рет қаралды 16 М.
ELMO, BERT, GPT
1:04:52
Hung-yi Lee
Рет қаралды 114 М.
GAN论文逐段精读【论文精读】
46:17
跟李沐学AI
Рет қаралды 21 М.
Transformer论文逐段精读
1:27:05
跟李沐学AI
Рет қаралды 423 М.
BERT Neural Network - EXPLAINED!
11:37
CodeEmporium
Рет қаралды 409 М.
DETR 论文精读【论文精读】
54:22
跟李沐学AI
Рет қаралды 9 М.
BERT (预训练Transformer模型)
11:26
Shusen Wang
Рет қаралды 22 М.