【機器學習 2022】再探寶可夢、數碼寶貝分類器 - 淺談機器學習原理

  Рет қаралды 89,379

Hung-yi Lee

Hung-yi Lee

Күн бұрын

Пікірлер: 31
@yangod2908
@yangod2908 2 жыл бұрын
7:45 是数码暴龙动画第三部主角男一的数码宝贝(名字是基尔兽)的超级体,名叫大古拉兽。它地位和第一部动画亚古兽一样,大哥级别。但是老师课件上的是黑化的大古拉兽,动画里没出现过,游戏里出现过。哈哈终于帮老师解答了一个问题。
@eddardstark6079
@eddardstark6079 2 жыл бұрын
非常厉害,深入浅出的讲解相当于把这些知识解构后再重组,粉了。
@p3939889q
@p3939889q 5 ай бұрын
台大教授
@Dextin1268
@Dextin1268 2 жыл бұрын
[當我試圖將 D train 變大] D all:不選擇逃跑反而主動接近我嗎?
@pohsoonchang6127
@pohsoonchang6127 2 жыл бұрын
如果include bias and variance。Larger H 就是 Higher capacity , easier to overfit. 因为High capacity,可以找到一个更低的Loss。 On the other had, smaller H就是比较小的capacity, High Bias。可以作为选择的Model 比较少,因此比较难找到一个合适的function, 所以Loss会比较高。但又是因为limited 选择,因此变化不多,所以比较小的gap?
@chun-juchen4424
@chun-juchen4424 2 жыл бұрын
34:12 在自己的BGM不會輸 花京院典明表示:
@遊蕩者
@遊蕩者 2 ай бұрын
老師講解得很深入淺出,不過我有點疑惑: 41:02 將 epsilon 定義為 delta / 2,那 1:04:18 怎麼會有兩者皆等於 0.1的情況?
@nonmo9238
@nonmo9238 Жыл бұрын
52:26 那里第一行,似乎是typo,应该是P(Union of (D_train is bad due to h)), 而不是union of probability。
@ascafe13
@ascafe13 9 ай бұрын
老師真的很強~深入淺出ㄚㄚ
@miku3920
@miku3920 2 жыл бұрын
36:36 難怪我把「訓練loss」和「驗證loss」很接近的模型的預測結果上傳 kaggle 也會獲得比較好的成績
@d2513850
@d2513850 2 жыл бұрын
26:48 還有2種可能:該圖片沒有寶可夢與數碼寶貝的物種(如真實的動物圖片、火影忍者裡面的忍者、入間同學入魔了的惡魔)、該圖片含有寶可夢與數碼寶貝的物種
@jx5298
@jx5298 7 ай бұрын
Hoeffding's Inequality provides a bound based solely on sample size and the bounded nature of the random variables. It does not account for the underlying variance introduced by model complexity. While the later is critical in practical scenarios, the increased variance is not captured by applying Hoeffding's inequality. The later does not reply on distribution of training loss only except its support [0,1]. Model complexity does affect Pr{D_train is bad} through |H| indeed. However. it is irrelevant to the core object (of inferring and minimizing the test loss bound \delta on 1:11:17), therefore a bit confusing. Kindly correct if I am wrong.
@簡水豪
@簡水豪 2 жыл бұрын
老師教學簡短易懂, 好評!!!
@yshun0206
@yshun0206 2 жыл бұрын
老師!!恭喜十萬訂閱!!!
@killianlee2046
@killianlee2046 2 жыл бұрын
看了这条才想起来订阅:)
@easonh6050
@easonh6050 Жыл бұрын
老师讲的真的好好哦!🎉
@marco1022
@marco1022 2 жыл бұрын
3:01 老師終於換寵物了~😂
@oscarsun-p5f
@oscarsun-p5f Жыл бұрын
what is the diffience between Loss and Cose
@yellowguagua
@yellowguagua 4 ай бұрын
1:03:23 需要多少筆資料的計算
@yellowguagua
@yellowguagua 4 ай бұрын
1:07:15 模型計算複雜度
@魏法然
@魏法然 2 жыл бұрын
这次我要跟完,把网课上面的也看完!
@蕭淇元
@蕭淇元 2 жыл бұрын
1:10:40 老師的比喻也太過真實,不知道是該笑還是該哭😅
@glhuang7944
@glhuang7944 2 жыл бұрын
7:46 大古拉兽
@a3393962
@a3393962 2 жыл бұрын
這段是不是就是在講PAC learning啊
@yellowguagua
@yellowguagua 4 ай бұрын
我要再看一次(提醒自己)
@xgboostcnn9246
@xgboostcnn9246 2 жыл бұрын
H是指参数h的取值?为什么不是参数的个数?没太理解这个。一般而言不是参数越多,越容易拟合,loss越容易降低吗?
@junjiehuo8777
@junjiehuo8777 9 ай бұрын
感觉解释了scaling law的底层原理
@baobaolong423
@baobaolong423 2 жыл бұрын
1:12:40
@wilsonedwards9432
@wilsonedwards9432 2 жыл бұрын
多谢!受益匪浅
@lvxi03
@lvxi03 6 ай бұрын
kust到此一看
@muchen597
@muchen597 2 жыл бұрын
热乎
【機器學習 2022】魚與熊掌可以兼得的深度學習
41:35
To Brawl AND BEYOND!
00:51
Brawl Stars
Рет қаралды 17 МЛН
“Don’t stop the chances.”
00:44
ISSEI / いっせい
Рет қаралды 62 МЛН
卷积神经网络(CNN)详细介绍及其原理详解
1:25:12
【機器學習2022】開學囉~ 又要週更了~
32:27
Hung-yi Lee
Рет қаралды 174 М.
To Brawl AND BEYOND!
00:51
Brawl Stars
Рет қаралды 17 МЛН