KZ
bin
Негізгі бет
Қазірдің өзінде танымал
Тікелей эфир
Ұнаған бейнелер
Қайтадан қараңыз
Жазылымдар
Кіру
Тіркелу
Ең жақсы KZbin
Фильм және анимация
Автокөліктер мен көлік құралдары
Музыка
Үй жануарлары мен аңдар
Спорт
Ойындар
Комедия
Ойын-сауық
Тәжірибелік нұсқаулар және стиль
Ғылым және технология
ML Lecture 20: Support Vector Machine (SVM)
1:05:28
ML Lecture 9-1: Tips for Training DNN
1:26:03
Сестра обхитрила!
00:17
Tuna 🍣 @patrickzeinali @ChefRush
00:48
It works #beatbox #tiktok
00:34
My scorpion was taken away from me 😢
00:55
ML Lecture 19: Transfer Learning
Рет қаралды 92,520
Facebook
Twitter
Жүктеу
1
Жазылу 253 М.
Hung-yi Lee
Күн бұрын
Пікірлер: 46
@jyli8688
7 жыл бұрын
爆漫王這比喻真的太精闢了
@braydenz3759
3 жыл бұрын
15分钟的时候,课件应该是有误,新模型训练的那些层应该用的是target data才对。因为source data是用来训练旧模型例如ResNet,对于具体任务需要用具体数据(Target data)训练
@siruili7924
2 жыл бұрын
The best explanation of transfer learning! Clear and detailed.
@bradyhuang5606
3 жыл бұрын
這集我看了14個小時,中間跑去看爆漫王
@xizhang9335
2 жыл бұрын
🤣
@YichatMa
11 ай бұрын
哈哈哈🤣
@JavaPedigro
2 жыл бұрын
好像有錯? 抓到 12:50 前後, source data 與 target data 顛倒? 應該是 target data 很少 (隔一兩年再聽一次老師的課, 又得到許多...期待自己過幾年能再聽一次)
@heyhello849
7 жыл бұрын
請問 15:13 是不是有錯誤呢 右邊應該是用 Target data 來 train 特定的 layers?
@HungyiLeeNTU
7 жыл бұрын
沒錯,你是對的!
@bonaldli
7 жыл бұрын
yeah, it should be target data.
@duoyizhang4665
3 жыл бұрын
谢谢老师,讲得非常生动!
@abc121-j8f
Жыл бұрын
在本节41:39处,任务描述中说,source data用作训练集,target data用作测试集,但是这样的话feature extractor提取到的不都是source data里数据的特征吗?
@DED_Search
3 жыл бұрын
我想请问 14:39,老师提到的两种conservative training strategies, 是不是就是distillation的两种strategy, 叫soft/hard label 和 hint regression? 感谢
@trioduoxx
4 жыл бұрын
搞笑+清晰,谢谢!
@周如-b1p
3 жыл бұрын
請問28:07是對應到前一頁27:45的左邊還是右邊?
@Sandy-ik5fr
3 жыл бұрын
52:45那說的 '所有的attribute' 是指訓練時 要準備很多張圖片和該圖對應的attribute嗎? 還是準備每個'類別'的attribute就好?
@aaronye4857
3 жыл бұрын
只要每個類別的就好, 不然就直接替每張圖片標Label就好了不用attribute了
@alphonseinbaraj7602
4 жыл бұрын
Sir, Really good to know and learn.. Thanks.. But if it's in English, then so good.. My humble request.. Or subtitle. Thanks
@vincentwu3023
3 ай бұрын
12:59 source data 跟 target data好像講反了...
@bluce54088
7 жыл бұрын
老師 我有個問題 44:22 的意思是把domain classifier train出來之後就可以 把MNIST-M 跟MNIST的差別移除,就可以分辨MNIST-M的數字了嗎?
@jzyen4390
5 жыл бұрын
train的還是前面的feature extractor 只是利用domain classifier去迫使feature extractor把MNIST-M 跟MNIST分開的能力消除掉 專心在分類數字就好 有點像是原本的feature extractor有種族歧視 用一個方法抵銷他腦中的種族歧視之後 他就可以一視同仁的對人做出評論
@BOURNE399
6 жыл бұрын
老师,在domain adversarial training中,我们只知道source domain的label,不知道target domain数据的label,那么后者输进去的时候怎么对label predictor 进行训练呢?
@linyang4459
5 жыл бұрын
在这里target domain的label和source domain是相同的,只是输入的分布不同。
@边远-f8i
5 жыл бұрын
只用有label的算预测的loss,无label的只用作对抗的loss上。应该是这样
@haroldsu
7 жыл бұрын
awesome lecture!
@varunyc4196
4 жыл бұрын
Hi ..Looks to be good..Do you have it in English
@frankwang6217
8 жыл бұрын
It's very interesting!
@孙毅-c6l
7 жыл бұрын
李老师讲太好了!
@zes7215
6 жыл бұрын
不存在太,或者好不好,cnx讲任何都可
@rebeenali917
7 жыл бұрын
can you give me an idea about transfer learning for unsupervised leaning
@jzyen4390
5 жыл бұрын
老師好,想請教您一個問題 在zero-shot learning的段落中,最後一個草尼馬辨識的舉例 如果我們要做一個embedding, 是否表示我們得先有草尼馬的影像? 那如果我們有草尼馬的影像是否就不屬於zero-shot了呢? 謝謝您!
@dinobbychen7016
4 жыл бұрын
草尼瑪的影像應該是屬於target data,也就是我們不會有他的label,訓練模型的時候會在有source data中訓練出一個能夠得到符合影像屬性的embedding的模型,測試時將草尼瑪的影像餵給訓練好的模型得到屬性的embedding,再去看這個embedding和怎麼樣的屬性最像,得到最後的預測!以上是個人的理解,有誤的話還請多指教
@obsiyoutube4828
3 жыл бұрын
please upload english lecture too
@和泽-s6x
5 жыл бұрын
不错
@yutingguo3110
7 жыл бұрын
BAKUMAN超好看的w
@高君宇-z4g
7 жыл бұрын
1.25速度正好
@a741987
7 жыл бұрын
爆漫王笑死
@bright1402
7 жыл бұрын
有課件嘛??
@HungyiLeeNTU
7 жыл бұрын
在這裡 speech.ee.ntu.edu.tw/~tlkagk/courses_ML17.html
@bright1402
7 жыл бұрын
謝謝老師!
@kawsershovon3005
5 жыл бұрын
Make video in English
@jzyen4390
5 жыл бұрын
shut up and learn chinese
@432tsk8
5 жыл бұрын
Chinese is beautiful, learn it and show off
@ZMAO-sz5lf
4 жыл бұрын
shut up and learn Chinese
@ziqiyang2558
3 жыл бұрын
If you don't like the video, go away, if you think the course is good, learn Chinese
1:05:28
ML Lecture 20: Support Vector Machine (SVM)
Hung-yi Lee
Рет қаралды 81 М.
1:26:03
ML Lecture 9-1: Tips for Training DNN
Hung-yi Lee
Рет қаралды 158 М.
00:17
Сестра обхитрила!
Victoria Portfolio
Рет қаралды 958 М.
00:48
Tuna 🍣 @patrickzeinali @ChefRush
albert_cancook
Рет қаралды 148 МЛН
00:34
It works #beatbox #tiktok
BeatboxJCOP
Рет қаралды 41 МЛН
00:55
My scorpion was taken away from me 😢
TyphoonFast 5
Рет қаралды 2,7 МЛН
44:59
Transfer learning and Transformer models (ML Tech Talks)
TensorFlow
Рет қаралды 117 М.
1:40:21
ML Lecture 13: Unsupervised Learning - Linear Methods
Hung-yi Lee
Рет қаралды 112 М.
34:33
【機器學習2021】概述領域自適應 (Domain Adaptation)
Hung-yi Lee
Рет қаралды 38 М.
22:43
How might LLMs store facts | DL7
3Blue1Brown
Рет қаралды 1 МЛН
1:00:00
ML Lecture 12: Semi-supervised
Hung-yi Lee
Рет қаралды 102 М.
27:14
Transformers (how LLMs work) explained visually | DL5
3Blue1Brown
Рет қаралды 4,4 МЛН
46:20
【機器學習2021】元學習 Meta Learning (一) - 元學習跟機器學習一樣也是三個步驟
Hung-yi Lee
Рет қаралды 53 М.
1:06:22
ML Lecture 23-1: Deep Reinforcement Learning
Hung-yi Lee
Рет қаралды 111 М.
31:26
ML Lecture 7: Backpropagation
Hung-yi Lee
Рет қаралды 209 М.
57:45
ML Lecture 11: Why Deep?
Hung-yi Lee
Рет қаралды 89 М.
00:17
Сестра обхитрила!
Victoria Portfolio
Рет қаралды 958 М.