【機器學習2021】預測本頻道觀看人數 (下) - 深度學習基本概念簡介

  Рет қаралды 219,786

Hung-yi Lee

Hung-yi Lee

Күн бұрын

slides: speech.ee.ntu....

Пікірлер: 179
@kevinnan2078
@kevinnan2078 3 жыл бұрын
神经网络结构那部分讲的太精彩了。从简单的线性回归开始,到用几个简单线性函数去逼近一个分段线性函数,然后提出用sigmooid和线性逼近曲线,然后自然而然引出神经网络的基本结构。输入特征,参数,激活函数..等等概念自然而然都出来了
@cayman1021
@cayman1021 Жыл бұрын
以前在念資工的時候還沒有deep learning,現在就業十年多了回來上課,有Internet可以學習的現代人真幸福,願意分享知識貢獻全人類,都有福報
@user-jt5ts7ni5d
@user-jt5ts7ni5d 2 жыл бұрын
真的是大神,希望以後有機會可以現場聽老師的課,也感謝老師願意把這門課變成公開課。
@張詠辰
@張詠辰 3 жыл бұрын
老師真的太厲害了,居然可以講得那麼精煉
@baobaolong423
@baobaolong423 3 жыл бұрын
遇到一个好教授真的是很幸运的事情。
@xiaoranchen5363
@xiaoranchen5363 3 жыл бұрын
老师,我是你的铁粉!你的所有的录影我都至少看过了两遍,也把你的频道推给了我所有学习人工智慧的同学和同事!非常期待课程新的内容!
@frogasian8888
@frogasian8888 3 жыл бұрын
厲害了老鐵
@user-sc2vn7xe6x
@user-sc2vn7xe6x Жыл бұрын
很多書都無法簡單的講清出sigmoid,今天看一遍就懂了,讚 初等的數學擬合曲線,沒記錯的話都是提高X的次數,f(x)=c(x-a)(x-b)(x-d).... [ 提高次數事情就變得複雜] 電子學或工程數學則是用U(t)={1 as t>a ; 0 as t
@yuanchintsai3355
@yuanchintsai3355 2 жыл бұрын
淺顯易懂,上課風趣,沒有故弄玄虛,真的是太了不起了
@ohyeah8836
@ohyeah8836 3 жыл бұрын
優質課程,我決定當每周新番來追了
@hhjoy222
@hhjoy222 2 жыл бұрын
一年就看完老師以前的機器學習課程影片 現在在看一次新的影片 雞皮疙瘩都起來了.... 沒想到神經元能用這種方式理解 太神啦~~~~
@telegin_w
@telegin_w 3 жыл бұрын
老师讲得十分生动!我之前看书学习时,真的是对DL的概念和流程都很困惑,看了这两个视频,突然感觉清晰起来了。真是听君一席话,胜读十年书啊。
@canaan4684
@canaan4684 3 жыл бұрын
虽然仅仅是introduction但已经解决了两个困扰我很久的问题!老师太厉害了
@billpan1868
@billpan1868 3 жыл бұрын
Dr. Lee 课程讲得非常棒!深入浅出,还利用KZbin观看数作为例子,方便理解。良心课程!
@weikao2963
@weikao2963 3 жыл бұрын
老師太厲害了,講得超級讓人能懂,以前對深度學習結構霧煞煞終於搞懂了😆 感謝老師優質的講解,受益良多🙏🙏
@andywang945
@andywang945 Жыл бұрын
老師講話言之有物,言簡意賅、用字精確又淺顯易懂,這部課程後半段又講得十分有趣、最後又埋下觀看下一集的伏筆,真的超級讚的學習影片!
@shadowchaser19816
@shadowchaser19816 3 жыл бұрын
我看了 MIT 和 Stanford 的 ML 課、一直是霧煞煞、只有看到李老師的說明、才豁然大解👍!
@patrickruan2290
@patrickruan2290 2 жыл бұрын
有一位台灣軟體上市公司的老闆說,他自學看了很多課程,一直到看到了李老師的課程才通了,然後回公司招集工程師開幹 AI project ~~
@shihaoxiao2188
@shihaoxiao2188 Жыл бұрын
李老师讲得太好了!!!听了这多个版本的教程,李老师这个听得最醍醐灌顶
@spidey0o0zheng40
@spidey0o0zheng40 4 ай бұрын
刚看了两节,目前认为是机器学习最好的中文课程
@ld-gggg3248
@ld-gggg3248 2 жыл бұрын
感谢李宏毅老师的精彩讲解,很有效率,真的一遍就能搞懂!
@胡震岳
@胡震岳 4 ай бұрын
太神啦~~ 豁然開朗!
@peterpopopan
@peterpopopan 2 жыл бұрын
老師深入淺出的教學方法跟引導,實在是太精彩也太棒了! 非常感謝老師帶領入門!
@nwxxzchen3105
@nwxxzchen3105 2 жыл бұрын
看过3b1b的 neuron network 系列,他是上来就弄了个 network,sigmoid 出现的比较生硬,李老师 compose sigmoid来逼近的做法是更好理解的,当然人家3b1b也不赖,但我还是支持咱李老师😄
@kuo-hunglo8379
@kuo-hunglo8379 Жыл бұрын
太厲害了!搞統計的第一個反應會用多項式迴歸去fit,現在看來,搞統計的人會在這裡 "中毒"。還有20年前學了一種叫如找線性分割點的方式,它不就淹沒在窮舉裡了,相較之下sigmoid更厲害了!
@tsukimijuicejuly2496
@tsukimijuicejuly2496 3 жыл бұрын
老师讲的很生动,很有趣,尤其是对深度学习有一些了解但不精通的时候听完课有一种豁然开朗的感觉
@howardchu7674
@howardchu7674 3 жыл бұрын
自學中,真的是很幸運能看到!謝謝老師太優質了!
@user-rb4ub1ej5k
@user-rb4ub1ej5k 3 жыл бұрын
老师的课讲的太好了,深入浅出,看2020版的没看完,又追来这里了,强烈支持!
@lynnejayce1854
@lynnejayce1854 3 жыл бұрын
老師講特真的是太好了,這真的就是聽君一席話勝讀十年書吧!!
@Fat_Cat_Fly
@Fat_Cat_Fly Жыл бұрын
太神了!!!看过的最好的ai课程!
@hankwang4580
@hankwang4580 Жыл бұрын
感謝老師循序漸進的教學!
@hwz8834
@hwz8834 Жыл бұрын
学完老师的线性代数,又过来看机器学习了。老师讲得好本质,继续认真学下去!机器学习这边就手动切片视频了哈哈哈~
@user-we9pd3gs5x
@user-we9pd3gs5x Жыл бұрын
感谢老师,三年后重看,依然受益匪浅!
@RobertLin-gj3jd
@RobertLin-gj3jd 3 жыл бұрын
老師講得淺顯易懂 太讚了
@blessedwang7380
@blessedwang7380 3 жыл бұрын
我太喜欢老师耐心的解答问题
@delinqu396
@delinqu396 2 жыл бұрын
学校里老师讲解的时候没听懂,在这里终于听懂了!
@robertnull6653
@robertnull6653 3 жыл бұрын
老師教得很好,謝謝分享,喜歡從數學切入的講法
@daneng110
@daneng110 2 жыл бұрын
老师讲的真的很好啊,醍醐灌顶
@carol8099
@carol8099 3 жыл бұрын
感謝老師上傳影片,本來一知半解的概念忽然都懂了,piecewise linear curve解答了我上課聽不懂deep有什麼好處的疑問
@VolkanChen
@VolkanChen 2 жыл бұрын
讲得实在是太好了!点赞!
@user-py8er7fz8t
@user-py8er7fz8t Жыл бұрын
感觉讲得比andrew还透彻很多 没想到华语也有这么优秀的内容
@xinxinwang3700
@xinxinwang3700 3 жыл бұрын
太喜欢您的课程啦,深入浅出,期待周五更新的课程 ps: 我觉得观看量可能会超出预测值
@user-shihmin
@user-shihmin 2 жыл бұрын
sigmoid那里真的是醍醐灌顶,感谢老师
@wenzhengzhao7225
@wenzhengzhao7225 3 жыл бұрын
真的讲的很通俗易懂 对于小白非常友好~~~~ 感谢老师
@hudsonvan4322
@hudsonvan4322 3 жыл бұрын
原來我之前一直誤會,我真的以為參數 bias 跟 Model Bias 是有關連的東西,其實是不同的東西。還有這是我第一次聽到 Activation Function 有這樣的解釋方式,難怪 ReLU 更好用,之前聽過的說法都是「仿生物函數」、「把數值映射至0、1區間」
@xinxinwang3700
@xinxinwang3700 3 жыл бұрын
老师是不是说下周讲ReLU为啥好,这周只是展示了用ReLU模型的结果更好?我又回头看了一遍也没找着
@jeffkevin3
@jeffkevin3 3 жыл бұрын
這個 model bias 聽起來蠻像 inductive bias 的欸?
@HungyiLeeNTU
@HungyiLeeNTU 3 жыл бұрын
@@jeffkevin3 這裡的 model bias 就是指 inductive bias
@HungyiLeeNTU
@HungyiLeeNTU 3 жыл бұрын
@@xinxinwang3700 之後會講到為什麼今日相較於 Sigmoid 大家比較喜歡用 ReLU
@jimmybai-p7i
@jimmybai-p7i 2 ай бұрын
重新理解了激活函数的作用,精彩
@ariasminato8280
@ariasminato8280 Жыл бұрын
後悔大三的時候沒被YT推薦李老師的課,希望碩班能變成正統AI仔
@jameschen1498
@jameschen1498 3 жыл бұрын
老師您講的好精彩 淺顯易懂 真是太厲害了 ,期待新系列的每堂課
@xiaolianyuan6660
@xiaolianyuan6660 Жыл бұрын
终于联系上为什么NN可以逼近各种复杂模型。感谢大师级讲解!
@cchokohin3051
@cchokohin3051 Жыл бұрын
受益匪浅,非常利于理解,老师大才
@wenlongwang-f5x
@wenlongwang-f5x Жыл бұрын
每次听都有一次收获,对初学者太友好了
@zhengrarachel5490
@zhengrarachel5490 3 жыл бұрын
老师您讲的真的太好了!!!好后悔没有早点看您的视频55555!希望it's never too late too learn TAT
@alexlin8936
@alexlin8936 3 жыл бұрын
淺顯易懂,深入淺出。 太猛了! XD
@pelosi7897
@pelosi7897 5 ай бұрын
超级棒的讲解
@朱占仕
@朱占仕 3 жыл бұрын
好喜欢老师的讲课方式。知其然 知其所以然。发现问题 解决问题。我第一次知道全连接神经网络还可以这样解释。
@高國倫-o1n
@高國倫-o1n 2 жыл бұрын
講得太好了,還有字幕,太用心了
@patrickruan2290
@patrickruan2290 3 жыл бұрын
老師,元宵節快樂!!
@HungyiLeeNTU
@HungyiLeeNTU 3 жыл бұрын
派大好 😊
@fenneka1410
@fenneka1410 2 жыл бұрын
太精彩了。。。。意犹未尽
@hankwang4580
@hankwang4580 Жыл бұрын
16:29 這裡一時間沒有領略到意圖,已經組好 Sigma 的 sigmoid 了,形狀上已經可以無限接近 curve 了,為什麼還要把裡面的 b+wx 擴充? 回到前面想了一下,恍然大悟,哦 對~ 如果要把時間,往前幾天考慮進來的話。自然是要增加一個 維度,投影片以 j 表示。 所以 i 維度是要用到多少個 sigmoid, j 維度則是考慮要橫跨多少資料點(例如這裡是表示向前多少時間點) 而實際上 j 維度這個部分應該是 feature 的數量,而在這邊我們覺得 往前一定天數的 data 都是有貢獻的,所以往前天數的 data ,在這裡就成為 feature。
@user-sc2vn7xe6x
@user-sc2vn7xe6x Жыл бұрын
一個是增加該Xi變數的解釋力(讓該xi可以在不同位置更符合model,也就是Loss變小) 一個是增加變數的個數 ( j維度 ) 你的回答也助我更釐清此一細節,謝謝
@tiger8938
@tiger8938 3 жыл бұрын
53:02 这个地方讲的真好
@海阔天空-s8v
@海阔天空-s8v 6 ай бұрын
老师讲的太清楚了
@i-fanlin568
@i-fanlin568 3 жыл бұрын
老師你太棒了!學生覺得收穫良多>
@waynechao9582
@waynechao9582 Жыл бұрын
非常感謝老師的講解,不過有個好奇的點。如果對x1來說可以用y=b+Σ_i ci*sigmoid(bi+wi*x1)來逼近,那對另一個輸入x2也是用同樣的方法逼近y=b+Σ_i ci*sigmoid(bi+wi*x2),這樣一來最直覺不就是把兩者相加嗎?變成double summation,如y=b+Σ_j { Σ_i cij*sigmoid(bij+wij*xj) },好奇這樣結果會如何
@zanbinhong314
@zanbinhong314 3 жыл бұрын
我覺得會遠大於0.38k,這學期修課人數是之前的數倍,這是機器所不知道的,所以模型很也可能不準
@yayoru
@yayoru 2 жыл бұрын
我的看法倒是,可能因為我比較皮 我可以刻意揪大家刷觀看量,讓預測失準XD
@efj1774
@efj1774 Ай бұрын
哈哈,织席贩履之徒看乐了,感谢Lee的讲解!
@user-fx3tg6cw6m
@user-fx3tg6cw6m 6 ай бұрын
真正的大师
@FreddytheMEDmissile
@FreddytheMEDmissile Жыл бұрын
謝謝老師無私的分享
@aemm8315
@aemm8315 2 жыл бұрын
老师有趣,有用,有才,有爱
@zoeyhu6878
@zoeyhu6878 2 жыл бұрын
best lecture ever!!! Thank you so much for open sourcing this!
@陳劭晏
@陳劭晏 Жыл бұрын
A linear model doesn't have to be a straight line. The limitations of it are the assumptions of regression, not "too simple".
@noahzhoushen
@noahzhoushen 3 жыл бұрын
终于形象化地了解了sigmoid function是怎么应用到DL的,piecewise linear curve之前学的都没有提到过
@不太慌
@不太慌 2 жыл бұрын
謝謝老師,真的聼懂了!
@chenwilliam5176
@chenwilliam5176 Жыл бұрын
「準確」是重點 🌎
@HY-dj3zk
@HY-dj3zk 2 жыл бұрын
老师对DL的理解高屋建瓴, 才能把复杂的东西描述的这么清晰. 感谢李老师
@edwina06066
@edwina06066 Жыл бұрын
教授教的太精彩了 真幽默 呵呵
@PIGilbert
@PIGilbert 3 ай бұрын
您好,想請教一個問題,在影片中,您提到1個epoch 裡面會有與batch 數量相等的update,我想請教如果我改變batch大小,也相對變動epoch 數字,使其update 數一樣,那兩個model 會有什麼優缺點呢?
@kevinchen1227
@kevinchen1227 2 жыл бұрын
請問j 是不是feature x的序列個數?若j代表 no. of features 則意思是有好多不同的feature variable?
@crabime7703
@crabime7703 3 ай бұрын
太牛了,关注了...
@魏法然
@魏法然 2 жыл бұрын
非常棒!谢谢老师!
@songhomewei5218
@songhomewei5218 5 ай бұрын
請問為什麼reLU要設成c*max(0,b+wx)而不是直接max(0,c*b+c*wx)=max(0,b'+w'x) 把c提出來不是會每一個activation function多一個參數要訓練嗎?
@GGfor22
@GGfor22 3 жыл бұрын
我用1.5倍观看速非常适应。。
@mingyuni4137
@mingyuni4137 3 жыл бұрын
李老师太帅了,讲的真不错
@qihongpan2795
@qihongpan2795 2 жыл бұрын
best machine learning course on youtube!
@skkkylar
@skkkylar Жыл бұрын
老师讲得太好了
@yangjunyi5258
@yangjunyi5258 3 жыл бұрын
sigmoid function解释的好棒!之前看其他神经网络课程都没有这么形象的解释过!
@bohanchen7678
@bohanchen7678 3 жыл бұрын
老师,挺你,比我本科老师教授的机器学习课程好太多
@xingxingzhou828
@xingxingzhou828 2 жыл бұрын
听了这么多机器学习的课程,现在才知道sigmoid函数是怎么来的
@mlli3595
@mlli3595 3 жыл бұрын
除夕没有人学机器学习,哈哈哈
@温泽林
@温泽林 Жыл бұрын
老师讲的太好了吧
@trmann8065
@trmann8065 10 ай бұрын
讲的真挺好
@d246810g2000
@d246810g2000 3 жыл бұрын
太精采了,32:55 的 cc 字幕有錯字哦 θ start → star
@wenmingjin756
@wenmingjin756 2 жыл бұрын
讲的真棒
@chenghong24
@chenghong24 3 жыл бұрын
02:59 好像是 threshold >
@-_-zzzhen6072
@-_-zzzhen6072 10 ай бұрын
謝謝老師~
@ascafe13
@ascafe13 5 ай бұрын
老師謝謝你~~~~~~~~~
@chen39yi
@chen39yi 4 ай бұрын
我终于知道什么是sigmoid 为什么要用他
@oly8422
@oly8422 2 жыл бұрын
爱你老师,来自宁波市
@hsiajui-kai1580
@hsiajui-kai1580 Жыл бұрын
感謝老師
@Mrgigglesun
@Mrgigglesun 3 жыл бұрын
那个red curve是由几个分段的piecewise linear curve组成的,为什么可以用几个不分段的sigmoid function来替代?
@jinghu5718
@jinghu5718 2 жыл бұрын
与林轩田老师的课结合起来,就是深入浅出
@lechatterpicasso1030
@lechatterpicasso1030 Жыл бұрын
我是上海交大自动化方向的学生,学校的深度学习课程有很多缺失的地方,而且整体的教学环境、配套资源都不够好,谢谢老师的分享
@yangwang9688
@yangwang9688 3 жыл бұрын
For this time series based dataset, if we use hold-out method splitting the data into training and validation dataset, as a result, we can not let model to learn the most recent and new information. Is there any solution to this issue, to sum up, what should we do to let model learn the newest info?
@HungyiLeeNTU
@HungyiLeeNTU 3 жыл бұрын
Thank you for the great questions ... I do not have a good solution for the issue you raise. A possible solution is to update the model once for a while when collecting sufficient new data. However, in practice, if we only update the model with new data, it may forget the information it has learned. Life-long learning is the research direction trying to address the forgetting issue. (If you register for the course this semester, you can ask the questions on NTU COOL. I do not check KZbin messages frequently.)
@yangwang9688
@yangwang9688 3 жыл бұрын
@@HungyiLeeNTU It occurs to me that life-long learning is just like the way of walk-forward method does. Correct me if I was wrong? Unfortunately, I am not a student at NTU, I was wondering if I can still ask questions on COOL platform?
【機器學習2021】機器學習任務攻略
51:23
Hung-yi Lee
Рет қаралды 178 М.
Minecraft Creeper Family is back! #minecraft #funny #memes
00:26
отомстил?
00:56
История одного вокалиста
Рет қаралды 6 МЛН
Transformer论文逐段精读
1:27:05
跟李沐学AI
Рет қаралды 401 М.
DPO V.S. RLHF 模型微调
44:14
Alice in AI-land
Рет қаралды 2,1 М.
【機器學習2021】自注意力機制 (Self-attention) (上)
28:18
Why Does Diffusion Work Better than Auto-Regression?
20:18
Algorithmic Simplicity
Рет қаралды 315 М.
Minecraft Creeper Family is back! #minecraft #funny #memes
00:26