KZ
bin
Негізгі бет
Қазірдің өзінде танымал
Тікелей эфир
Ұнаған бейнелер
Қайтадан қараңыз
Жазылымдар
Кіру
Тіркелу
Ең жақсы KZbin
Фильм және анимация
Автокөліктер мен көлік құралдары
Музыка
Үй жануарлары мен аңдар
Спорт
Ойындар
Комедия
Ойын-сауық
Тәжірибелік нұсқаулар және стиль
Ғылым және технология
【機器學習2021】神經網路壓縮 (Network Compression) (一) - 類神經網路剪枝 (Pruning) 與大樂透假說 (Lottery Ticket Hypothesis)
29:32
Why Does Diffusion Work Better than Auto-Regression?
20:18
coco在求救? #小丑 #天使 #shorts
00:29
Tuna 🍣 @patrickzeinali @ChefRush
00:48
Что будет если украсть в магазине шоколадку 🍫
00:39
Cat mode and a glass of water #family #humor #fun
00:22
【機器學習2021】機器終身學習 (Life Long Learning, LL) (二) - 災難性遺忘(Catastrophic Forgetting)的克服之道
Рет қаралды 21,561
Facebook
Twitter
Жүктеу
1
Жазылу 250 М.
Hung-yi Lee
Күн бұрын
Пікірлер: 16
@王铈弘
3 жыл бұрын
哈哈哈哈,老師講得真好呢😁
@jinghu5718
3 жыл бұрын
some ideas behind Life-Long learning are similar to meta-learning, right?
@福运汪
3 жыл бұрын
life long learning Catastrophic Forgetting一个很重要的原因是long-tail distribution。之所以这么认为,是因为classifier相比于feature extractor更容易坏掉。
@shadownight5679
3 жыл бұрын
14:04 在看完這部分bi的決定方式,想到說是否能夠用L(θb) 的 second derivative 來當作 bi 的值,但二次微分的計算量也是會對 machine 的負擔有所提高,所以想問老師這個方法是不是可以但也同時存在著上面的問題或其他我沒想到的問題 26:17 老師講到關於EWC這類life-long learning的 algorithm 需要儲存舊的model 和 bi,這裡舊的model指的是甚麼? 複習完還是想不到舊的model指的是誰 以上問題想做詢問 ,謝謝 !
@daydreamblue1198
2 жыл бұрын
旧的model应该指的是需要储存model的参数θb,来计算新的loss
@GenerativeDiffusionModel_AI_ML
3 жыл бұрын
We can use meta learning for b_i.
@影武者-x9k
3 жыл бұрын
比如有1万笔数据,batchsize等于100,那么1万笔数据前100笔数据和最后100笔数据在一个episode也是前后训练的。和这个前后训练感觉区别也不大吧
@konataizumi6358
4 ай бұрын
但是这1万笔数据会反复看很多遍(很多个epoch)啊,而每个epoch里所有batch都是随机组的,这样就避免了因为前后顺序导致对某些数据更加重视的问题
@jsjsnsnns
Жыл бұрын
Research Directions里面有个小小的笔误,是Replay不是reply啦
@simonyue3986
2 жыл бұрын
关于哪一个参数对于最终的loss的影响,这个前面不是讲模型压缩的时候提到过吗? 和初始化参数变化越大的,作用越低。
@林家佑-j7b
3 жыл бұрын
Generating的model不是也要克服Catastrophic Forgetting ? 拿這個來解決Catastrophic Forgetting好奇怪喔
@HungyiLeeNTU
3 жыл бұрын
是的,generative model 也會有 forgetting 的問題。所以 generative model 在新任務上 update 時,也會把自己產生出來的 data 再拿來學一次,就跟解任務的model 一樣
@林家佑-j7b
3 жыл бұрын
@@HungyiLeeNTU 原來如此,謝謝老師回覆。
@Jack-sk9hy
3 жыл бұрын
前排占座
@albertwang5974
2 жыл бұрын
其实不用搞这么复杂,下面是一种简单的解决方案: 1,我们可以对每一个任务都单独训练,得到针对具体任务的最好模型,每一个模型咱们赋予它一个任务类型编号,相当于class id 2,再训练一个模型,扮演router的角色,对于每一个输入任务,这个模型就输出具体的任务类型编号 3,根据上面给出的任务类型编号,调用对应的任务模型来处理这个任务就行 这样的好处是各个任务模型可以完全隔离,不会相互影响,方便训练,调试和维护
@Yen-yu4zh
2 жыл бұрын
上一部20:00有提到了 這是節省資源方面的問題 已知這1個model就有能力同時學會處理20種任務 那比起分別保存20個model 如果有方法能讓1個model不要遺忘那自然是值得研究 否則隨著想處理的任務越來越多 就會是要存1億個或20億個model的差別了
29:32
【機器學習2021】神經網路壓縮 (Network Compression) (一) - 類神經網路剪枝 (Pruning) 與大樂透假說 (Lottery Ticket Hypothesis)
Hung-yi Lee
Рет қаралды 25 М.
20:18
Why Does Diffusion Work Better than Auto-Regression?
Algorithmic Simplicity
Рет қаралды 407 М.
00:29
coco在求救? #小丑 #天使 #shorts
好人小丑
Рет қаралды 120 МЛН
00:48
Tuna 🍣 @patrickzeinali @ChefRush
albert_cancook
Рет қаралды 148 МЛН
00:39
Что будет если украсть в магазине шоколадку 🍫
Miracle
Рет қаралды 3,2 МЛН
00:22
Cat mode and a glass of water #family #humor #fun
Kotiki_Z
Рет қаралды 42 МЛН
46:20
【機器學習2021】元學習 Meta Learning (一) - 元學習跟機器學習一樣也是三個步驟
Hung-yi Lee
Рет қаралды 53 М.
1:00:19
MIT 6.S191: Reinforcement Learning
Alexander Amini
Рет қаралды 67 М.
1:25:12
卷积神经网络(CNN)详细介绍及其原理详解
唐宇迪
Рет қаралды 669
57:45
Visualizing transformers and attention | Talk for TNG Big Tech Day '24
Grant Sanderson
Рет қаралды 287 М.
22:45
【機器學習2021】機器學習模型的可解釋性 (Explainable ML) (下) -機器心中的貓長什麼樣子?
Hung-yi Lee
Рет қаралды 23 М.
56:46
【機器學習2021】神經網路壓縮 (Network Compression) (二) - 從各種不同的面向來壓縮神經網路
Hung-yi Lee
Рет қаралды 27 М.
26:03
Reinforcement Learning: Machine Learning Meets Control Theory
Steve Brunton
Рет қаралды 291 М.
1:45:12
从编解码和词嵌入开始,一步一步理解Transformer,注意力机制(Attention)的本质是卷积神经网络(CNN)
王木头学科学
Рет қаралды 103 М.
49:08
【機器學習2021】機器學習模型的可解釋性 (Explainable ML) (上) - 為什麼類神經網路可以正確分辨寶可夢和數碼寶貝呢?
Hung-yi Lee
Рет қаралды 51 М.
5:55
李锐评习:没想到文化程度这么低
美国之音中文网
Рет қаралды 7 МЛН
00:29
coco在求救? #小丑 #天使 #shorts
好人小丑
Рет қаралды 120 МЛН