KZ
bin
Негізгі бет
Қазірдің өзінде танымал
Тікелей эфир
Ұнаған бейнелер
Қайтадан қараңыз
Жазылымдар
Кіру
Тіркелу
Ең жақсы KZbin
Фильм және анимация
Автокөліктер мен көлік құралдары
Музыка
Үй жануарлары мен аңдар
Спорт
Ойындар
Комедия
Ойын-сауық
Тәжірибелік нұсқаулар және стиль
Ғылым және технология
【機器學習2021】元學習 Meta Learning (一) - 元學習跟機器學習一樣也是三個步驟
46:20
【機器學習2021】神經網路壓縮 (Network Compression) (一) - 類神經網路剪枝 (Pruning) 與大樂透假說 (Lottery Ticket Hypothesis)
29:32
Balloon Stepping Challenge: Barry Policeman Vs Herobrine and His Friends
00:28
Китайка и Пчелка 4 серия😂😆
00:19
Accessorio fantastico per chiudere qualsiasi contenitore || Conservazione ermetica!
00:19
Hamster Kombat Update: How Morse Code Can Help You Earn More 🐹⚡️Hamster Academy
01:25
【機器學習2021】神經網路壓縮 (Network Compression) (二) - 從各種不同的面向來壓縮神經網路
Рет қаралды 24,737
Facebook
Twitter
Жүктеу
1
Жазылу 225 М.
Hung-yi Lee
3 жыл бұрын
speech.ee.ntu.edu.tw/~hylee/m...
Пікірлер: 12
@williechen1876
3 жыл бұрын
端午連假不出門,在家上老師的課程 讚
@steven-lin
3 жыл бұрын
週末就是要來上課看老師的影片啦
@moluo3048
2 жыл бұрын
李老师的课就是通俗易懂
@sq9340
3 жыл бұрын
13:00 上一届留言的问题终于有同学帮我问了 感谢😆
@r321032100
2 жыл бұрын
照這樣發展下來... 以後就會有各領域的Expert Net 再由這些Exper Net融合訓練出全知全能的God Net 然後最後God Net就說出: 痛みを感じろ痛みを考えろ The End.
@shadownight5679
2 жыл бұрын
想請問各位和老師 52:00 在老師講到 Dynamic Width Network 是可以讓 network 根據運算資源的多寡去自動調整他的寬度 腦袋中有個想法,因為看到寬度的這些圖,讓我想到跟 network pruning 以 neuron 來做為 pruning 單位的圖很像。 如果是以 pruning 的每一個 update 當作是一個能夠在考慮運算資源中的 network ( 以課堂上為例,在還沒看過 paper 的情況下,認為是隨機去刪除 25% , 50% 的 neuron 當作其餘選項的 network ,我的想法是用 pruning 的每一個 update 當作一個選項 ) 這樣會有效提高每一個選項的 accuracy 嗎,還是只是多此一舉或者是跟原本Dynamic width的想法偏離了 以上想問 謝謝 !!
@feixiongluo4198
2 ай бұрын
great leacture
@user-zj8vv4qb6s
2 жыл бұрын
想問一下老師有機會講到神經搜索架構嗎? 因為這方面網路上都講得蠻攏統的
@bingbingsun6304
2 жыл бұрын
binary 的系数,但是节点还是实数吧,这样确实应该没有区别,因为 a*b=(ab)*1, 可以把实数表达的需要转嫁到节点上。
@user-ns6ux7jq7v
Жыл бұрын
感覺卷積層跟池化層好像
@miku3920
3 жыл бұрын
10:19 直接把 softmax 拔掉呢
@arvinliu9858
3 жыл бұрын
的確也有KD是直接對score做L2-loss
46:20
【機器學習2021】元學習 Meta Learning (一) - 元學習跟機器學習一樣也是三個步驟
Hung-yi Lee
Рет қаралды 49 М.
29:32
【機器學習2021】神經網路壓縮 (Network Compression) (一) - 類神經網路剪枝 (Pruning) 與大樂透假說 (Lottery Ticket Hypothesis)
Hung-yi Lee
Рет қаралды 22 М.
00:28
Balloon Stepping Challenge: Barry Policeman Vs Herobrine and His Friends
Garri Creative
Рет қаралды 15 МЛН
00:19
Китайка и Пчелка 4 серия😂😆
KITAYKA
Рет қаралды 3,6 МЛН
00:19
Accessorio fantastico per chiudere qualsiasi contenitore || Conservazione ermetica!
SMOL Italian
Рет қаралды 24 МЛН
01:25
Hamster Kombat Update: How Morse Code Can Help You Earn More 🐹⚡️Hamster Academy
Hamster Kombat
Рет қаралды 55 МЛН
17:19
模型压缩的开山之作:谷歌的《知识蒸馏》讲了什么?
Ph.D. Vlog
Рет қаралды 1 М.
12:15
彻底弄懂,神经网络的误差反向传播算法
小黑黑讲AI
Рет қаралды 2,6 М.
34:35
【生成式AI導論 2024】第3講:訓練不了人工智慧?你可以訓練你自己 (上) - 神奇咒語與提供更多資訊
Hung-yi Lee
Рет қаралды 72 М.
29:29
【生成式AI導論 2024】第1講:生成式AI是什麼?
Hung-yi Lee
Рет қаралды 165 М.
36:39
【機器學習2021】機器終身學習 (Life Long Learning, LL) (二) - 災難性遺忘(Catastrophic Forgetting)的克服之道
Hung-yi Lee
Рет қаралды 19 М.
32:00
【機器學習2021】機器終身學習 (Life Long Learning, LL) (一) - 為什麼今日的人工智慧無法成為天網?災難性遺忘(Catastrophic Forgetting)
Hung-yi Lee
Рет қаралды 22 М.
30:56
【機器學習2021】類神經網路訓練不起來怎麼辦 (五): 批次標準化 (Batch Normalization) 簡介
Hung-yi Lee
Рет қаралды 81 М.
38:19
【生成式AI導論 2024】第7講:大型語言模型修練史 - 第二階段: 名師指點,發揮潛力 (兼談對 ChatGPT 做逆向工程與 LLaMA 時代的開始)
Hung-yi Lee
Рет қаралды 34 М.
14:27
用Excel的「規劃求解」建構一個類神經網路 【譯人說書】#7 《圖解AI與深度學習的運作機制》東販出版
Dodomilk 譯人豆奶
Рет қаралды 8 М.
0:30
Cadiz smart lock official account unlocks the aesthetics of returning home
Blueberry Lutein
Рет қаралды 141 М.
0:20
iPhone 15 PRO MAX 😈 vs WATCH - FREEFIRE TEST #freefire #watch #iphone15 #smartwatch
Sameer Gaming
Рет қаралды 2,6 МЛН
0:36
Почему Играть на зарядке в Samsung, можно? #Shorts
lifegoodd
Рет қаралды 973 М.
0:30
Урна с айфонами!
По ту сторону Гугла
Рет қаралды 6 МЛН
0:30
iPhone 12 socket cleaning #fixit
Tamar DB (mt)
Рет қаралды 35 МЛН
0:10
Samsung galaxy S24ultra titanium green 💚, Oppo find N flip 3 Display quality 😱🤯 Digital #shorts
Kasim Tech
Рет қаралды 8 МЛН
37:21
Купил этот ваш VR.
Ремонтяш
Рет қаралды 200 М.