ML Lecture 19: Transfer Learning

  Рет қаралды 92,520

Hung-yi Lee

Hung-yi Lee

Күн бұрын

Пікірлер: 46
@jyli8688
@jyli8688 7 жыл бұрын
爆漫王這比喻真的太精闢了
@braydenz3759
@braydenz3759 3 жыл бұрын
15分钟的时候,课件应该是有误,新模型训练的那些层应该用的是target data才对。因为source data是用来训练旧模型例如ResNet,对于具体任务需要用具体数据(Target data)训练
@siruili7924
@siruili7924 2 жыл бұрын
The best explanation of transfer learning! Clear and detailed.
@bradyhuang5606
@bradyhuang5606 3 жыл бұрын
這集我看了14個小時,中間跑去看爆漫王
@xizhang9335
@xizhang9335 2 жыл бұрын
🤣
@YichatMa
@YichatMa 11 ай бұрын
哈哈哈🤣
@JavaPedigro
@JavaPedigro 2 жыл бұрын
好像有錯? 抓到 12:50 前後, source data 與 target data 顛倒? 應該是 target data 很少 (隔一兩年再聽一次老師的課, 又得到許多...期待自己過幾年能再聽一次)
@heyhello849
@heyhello849 7 жыл бұрын
請問 15:13 是不是有錯誤呢 右邊應該是用 Target data 來 train 特定的 layers?
@HungyiLeeNTU
@HungyiLeeNTU 7 жыл бұрын
沒錯,你是對的!
@bonaldli
@bonaldli 7 жыл бұрын
yeah, it should be target data.
@duoyizhang4665
@duoyizhang4665 3 жыл бұрын
谢谢老师,讲得非常生动!
@abc121-j8f
@abc121-j8f Жыл бұрын
在本节41:39处,任务描述中说,source data用作训练集,target data用作测试集,但是这样的话feature extractor提取到的不都是source data里数据的特征吗?
@DED_Search
@DED_Search 3 жыл бұрын
我想请问 14:39,老师提到的两种conservative training strategies, 是不是就是distillation的两种strategy, 叫soft/hard label 和 hint regression? 感谢
@trioduoxx
@trioduoxx 4 жыл бұрын
搞笑+清晰,谢谢!
@周如-b1p
@周如-b1p 3 жыл бұрын
請問28:07是對應到前一頁27:45的左邊還是右邊?
@Sandy-ik5fr
@Sandy-ik5fr 3 жыл бұрын
52:45那說的 '所有的attribute' 是指訓練時 要準備很多張圖片和該圖對應的attribute嗎? 還是準備每個'類別'的attribute就好?
@aaronye4857
@aaronye4857 3 жыл бұрын
只要每個類別的就好, 不然就直接替每張圖片標Label就好了不用attribute了
@alphonseinbaraj7602
@alphonseinbaraj7602 4 жыл бұрын
Sir, Really good to know and learn.. Thanks.. But if it's in English, then so good.. My humble request.. Or subtitle. Thanks
@vincentwu3023
@vincentwu3023 3 ай бұрын
12:59 source data 跟 target data好像講反了...
@bluce54088
@bluce54088 7 жыл бұрын
老師 我有個問題 44:22 的意思是把domain classifier train出來之後就可以 把MNIST-M 跟MNIST的差別移除,就可以分辨MNIST-M的數字了嗎?
@jzyen4390
@jzyen4390 5 жыл бұрын
train的還是前面的feature extractor 只是利用domain classifier去迫使feature extractor把MNIST-M 跟MNIST分開的能力消除掉 專心在分類數字就好 有點像是原本的feature extractor有種族歧視 用一個方法抵銷他腦中的種族歧視之後 他就可以一視同仁的對人做出評論
@BOURNE399
@BOURNE399 6 жыл бұрын
老师,在domain adversarial training中,我们只知道source domain的label,不知道target domain数据的label,那么后者输进去的时候怎么对label predictor 进行训练呢?
@linyang4459
@linyang4459 5 жыл бұрын
在这里target domain的label和source domain是相同的,只是输入的分布不同。
@边远-f8i
@边远-f8i 5 жыл бұрын
只用有label的算预测的loss,无label的只用作对抗的loss上。应该是这样
@haroldsu
@haroldsu 7 жыл бұрын
awesome lecture!
@varunyc4196
@varunyc4196 4 жыл бұрын
Hi ..Looks to be good..Do you have it in English
@frankwang6217
@frankwang6217 8 жыл бұрын
It's very interesting!
@孙毅-c6l
@孙毅-c6l 7 жыл бұрын
李老师讲太好了!
@zes7215
@zes7215 6 жыл бұрын
不存在太,或者好不好,cnx讲任何都可
@rebeenali917
@rebeenali917 7 жыл бұрын
can you give me an idea about transfer learning for unsupervised leaning
@jzyen4390
@jzyen4390 5 жыл бұрын
老師好,想請教您一個問題 在zero-shot learning的段落中,最後一個草尼馬辨識的舉例 如果我們要做一個embedding, 是否表示我們得先有草尼馬的影像? 那如果我們有草尼馬的影像是否就不屬於zero-shot了呢? 謝謝您!
@dinobbychen7016
@dinobbychen7016 4 жыл бұрын
草尼瑪的影像應該是屬於target data,也就是我們不會有他的label,訓練模型的時候會在有source data中訓練出一個能夠得到符合影像屬性的embedding的模型,測試時將草尼瑪的影像餵給訓練好的模型得到屬性的embedding,再去看這個embedding和怎麼樣的屬性最像,得到最後的預測!以上是個人的理解,有誤的話還請多指教
@obsiyoutube4828
@obsiyoutube4828 3 жыл бұрын
please upload english lecture too
@和泽-s6x
@和泽-s6x 5 жыл бұрын
不错
@yutingguo3110
@yutingguo3110 7 жыл бұрын
BAKUMAN超好看的w
@高君宇-z4g
@高君宇-z4g 7 жыл бұрын
1.25速度正好
@a741987
@a741987 7 жыл бұрын
爆漫王笑死
@bright1402
@bright1402 7 жыл бұрын
有課件嘛??
@HungyiLeeNTU
@HungyiLeeNTU 7 жыл бұрын
在這裡 speech.ee.ntu.edu.tw/~tlkagk/courses_ML17.html
@bright1402
@bright1402 7 жыл бұрын
謝謝老師!
@kawsershovon3005
@kawsershovon3005 5 жыл бұрын
Make video in English
@jzyen4390
@jzyen4390 5 жыл бұрын
shut up and learn chinese
@432tsk8
@432tsk8 5 жыл бұрын
Chinese is beautiful, learn it and show off
@ZMAO-sz5lf
@ZMAO-sz5lf 4 жыл бұрын
shut up and learn Chinese
@ziqiyang2558
@ziqiyang2558 3 жыл бұрын
If you don't like the video, go away, if you think the course is good, learn Chinese
ML Lecture 20: Support Vector Machine (SVM)
1:05:28
Hung-yi Lee
Рет қаралды 81 М.
ML Lecture 9-1: Tips for Training DNN
1:26:03
Hung-yi Lee
Рет қаралды 158 М.
Сестра обхитрила!
00:17
Victoria Portfolio
Рет қаралды 958 М.
Tuna 🍣 ​⁠@patrickzeinali ​⁠@ChefRush
00:48
albert_cancook
Рет қаралды 148 МЛН
It works #beatbox #tiktok
00:34
BeatboxJCOP
Рет қаралды 41 МЛН
My scorpion was taken away from me 😢
00:55
TyphoonFast 5
Рет қаралды 2,7 МЛН
Transfer learning and Transformer models (ML Tech Talks)
44:59
TensorFlow
Рет қаралды 117 М.
ML Lecture 13: Unsupervised Learning - Linear Methods
1:40:21
Hung-yi Lee
Рет қаралды 112 М.
【機器學習2021】概述領域自適應 (Domain Adaptation)
34:33
How might LLMs store facts | DL7
22:43
3Blue1Brown
Рет қаралды 1 МЛН
ML Lecture 12: Semi-supervised
1:00:00
Hung-yi Lee
Рет қаралды 102 М.
Transformers (how LLMs work) explained visually | DL5
27:14
3Blue1Brown
Рет қаралды 4,4 МЛН
ML Lecture 23-1: Deep Reinforcement Learning
1:06:22
Hung-yi Lee
Рет қаралды 111 М.
ML Lecture 7: Backpropagation
31:26
Hung-yi Lee
Рет қаралды 209 М.
ML Lecture 11: Why Deep?
57:45
Hung-yi Lee
Рет қаралды 89 М.
Сестра обхитрила!
00:17
Victoria Portfolio
Рет қаралды 958 М.