[Paper Review] Transformer to T5 (XLNet, RoBERTa, MASS, BART, MT-DNN,T5)

  Рет қаралды 13,213

서울대학교 산업공학과 DSBA 연구실

서울대학교 산업공학과 DSBA 연구실

Күн бұрын

Пікірлер: 20
@KimJunsaek
@KimJunsaek 4 жыл бұрын
발표자의뛰어난 분석력 정리력에 감탄을 하고갑니다
@고기맛고구마
@고기맛고구마 3 жыл бұрын
정말 많은 도움이 되었습니다. 정말 감사드립니다
@kanjangmommy6406
@kanjangmommy6406 2 жыл бұрын
발표 잘 들었습니다 감사합니다.
@frances_sb
@frances_sb 2 жыл бұрын
설명도 깔끔하고 어려운 내용인데 한 눈에 알아볼 수 있도록 정리도 해주셔서 공부에 많은 도움이 되었습니다. 감사합니다!
@aaannn9407
@aaannn9407 3 жыл бұрын
정말 잘 들었습니다. 감사드립니다!!
@hyungrak.kim_ko5555
@hyungrak.kim_ko5555 3 жыл бұрын
MT-DNN은 각 Task를 순차적으로 학습하는 Continual Learning 기법이 적용된거 같은데, 그렇다면 Pretraining 시 Catastrophic Forgetting문제 점은 어떻게 해결하고 있나요.??
@yu-kyung-lee
@yu-kyung-lee 3 жыл бұрын
안녕하세요 발표자 이유경입니다. 좋은 질문 감사합니다! MT-DNN의 경우 각 TASK를 순차적으로 학습하지 않고, 랜덤하게 특정 Task의 Data를 Batch단위로 뽑아 학습을 진행합니다. 또한 MultiTask learning 기반의 모델이므로 Continual Learning과는 조금 다른 가정을 가지고 있습니다. CL은 고정된 TASK 순서로 학습을 진행해야하지만 해당 모델은 TASK 학습 순서가 고정되어 있지 않습니다.
@hyungrak.kim_ko5555
@hyungrak.kim_ko5555 3 жыл бұрын
@@yu-kyung-lee 답변 감사합니다!! 너무 좋은 발표였어요!
@yu-kyung-lee
@yu-kyung-lee 3 жыл бұрын
@@hyungrak.kim_ko5555 좋은 말씀 감사합니다 🙂!
@케이케이-u8y
@케이케이-u8y 2 жыл бұрын
설명 진짜 잘하시네요 , 잘들었습니다.
@prows12
@prows12 3 жыл бұрын
감사합니다
@byeongjukim9816
@byeongjukim9816 4 жыл бұрын
좋은발표 감사합니다..!
@9sup2
@9sup2 3 жыл бұрын
좋은설명 감사합니다 ㅎㅎ
@ilovemyminutes
@ilovemyminutes 3 жыл бұрын
감사합니다~
@choeungjinjin
@choeungjinjin 3 жыл бұрын
감사합니다. ^^
@김아무개-f9v
@김아무개-f9v 4 жыл бұрын
감사합니다.
@김아무개-f9v
@김아무개-f9v 3 жыл бұрын
roberta 19:45
@bts.goodlife
@bts.goodlife 3 жыл бұрын
엄지 척 드리고 갑니다.
@user-ze1ll4cz1j
@user-ze1ll4cz1j 3 жыл бұрын
24:40 BART
@i4r-mk2
@i4r-mk2 3 жыл бұрын
감사합니다.
08-8: GPT-3
1:00:17
서울대학교 산업공학과 DSBA 연구실
Рет қаралды 6 М.
RoFormer: Enhanced Transformer with Rotary Position Embedding paper review!!
53:54
딥러닝논문읽기모임
Рет қаралды 4,3 М.
Молодой боец приземлил легенду!
01:02
МИНУС БАЛЛ
Рет қаралды 1,4 МЛН
Из какого города смотришь? 😃
00:34
МЯТНАЯ ФАНТА
Рет қаралды 2,2 МЛН
Can You Find Hulk's True Love? Real vs Fake Girlfriend Challenge | Roblox 3D
00:24
BERT (Bidirectional Encoder Representations from Transformers)
59:44
이수안컴퓨터연구소
Рет қаралды 7 М.
RoBERTa: A Robustly Optimized BERT Pretraining Approach
19:15
Yannic Kilcher
Рет қаралды 25 М.
BART: Denoising Sequence-to-Sequence Pre-training for NLG & Translation (Explained)
18:17
08-1: Seq2Seq Learning
23:53
서울대학교 산업공학과 DSBA 연구실
Рет қаралды 9 М.
08-6: GPT-2
26:33
서울대학교 산업공학과 DSBA 연구실
Рет қаралды 8 М.
[ENG SUB] BART paper review
29:58
딥러닝논문읽기모임
Рет қаралды 4 М.
Молодой боец приземлил легенду!
01:02
МИНУС БАЛЛ
Рет қаралды 1,4 МЛН