【機器學習 2022】為什麼用了驗證集 (validation set) 結果卻還是過擬合(overfitting)了呢?

  Рет қаралды 32,235

Hung-yi Lee

Hung-yi Lee

Күн бұрын

Пікірлер: 12
@nullpointer0x0000
@nullpointer0x0000 2 жыл бұрын
谢谢老师!有点没有理解,如果hyper parameter的search space小,理解来看是可能不容易找到比较好的hyper param,search space大了又可能造成overfitting,应该如何取舍? 另外,在time series,选择validation set会不会有特别需要注意的?
@jeffkevin3
@jeffkevin3 2 жыл бұрын
老師有說,DL 雖然我個人於私不太喜歡這個解釋,因為 DL 還是有類似的現象只是沒那麼明顯
@leonhuang9828
@leonhuang9828 2 жыл бұрын
个人感觉这个跟传统的underfitting和overfitting的tradeoff是一个意思,取舍方式应该也是一样的吧,就是经验+试错
@nullpointer0x0000
@nullpointer0x0000 2 жыл бұрын
@@jeffkevin3 刚看到,老师的下一节课有说这个tradeoff
@wade7349
@wade7349 2 жыл бұрын
Andrew Ng的課有講過這類問題,需要看validation accuracy和test accuracy. 如果validation accuracy 很好但是test accuracy 很差,那就是對validation set overfit了,就應該選擇簡單一點的模型或是用某種regularization,如果validation和test都很差就是underfit,就應該讓模型複雜點或降低regularization.
@张慧乐
@张慧乐 2 жыл бұрын
@@wade7349 解释的很到位,Andrew Ng的課有连接吗?
@hudsonvan4322
@hudsonvan4322 2 жыл бұрын
為大家解釋一下 1:08「arg min_h」這個符號的意思,我發現老師的影片好像沒有解數過符號本身使用上的意義與時機。單純只寫 min_h L(h, D_train) 的意思是「找到參數 h,使得 loss function L 所輸出的 loss value 達到最小值。而這個式子輸出值是 loss value」;加上「arg」之後所表達的意思就不同了,arg min_h L(h, D_train) 的意思是「找到並回傳參數 h,使得 loss function L 所輸出的 loss value 達到最小值。而這個式子會回傳最佳的 h。」言下之意,回傳值不同。所以 arg min_h L(h, D_train) 的等號左邊才會是 h*。以上參考自 StackExchange 的討論 (math.stackexchange.com/questions/227626/explanation-on-arg-min)
@shmanutd
@shmanutd Жыл бұрын
第一堂課就有說明了,你沒專心上
@winstonacousticstudio445
@winstonacousticstudio445 Жыл бұрын
就是老师讲的爆搜嘛
@Terry0319
@Terry0319 Жыл бұрын
謝謝老師
@Yaya-rs2cx
@Yaya-rs2cx Жыл бұрын
trinaing的acc很平滑的往上升並接近100%,而validation的acc一直沿著epoch大幅度跳動,不過test結果卻是好的,這樣算是overfitting嗎?
@hao6437
@hao6437 Жыл бұрын
test 結果是好的就不是overfitting了,畢竟我們會假設testing data 是包含所有可能的資料 , overfitting 的定義是在train的時候ACC很高,但test的ACC很低 但之後若遇到overfitting 有幾種辦法, 降低模型的complextiy、 增加training data 的量 or 對資料一般化(類似於降低資料的細節,不要讓model學的那麼好, 也能減少計算量).
【機器學習2021】機器學習任務攻略
51:23
Hung-yi Lee
Рет қаралды 188 М.
Что-что Мурсдей говорит? 💭 #симбочка #симба #мурсдей
00:19
【機器學習2022】開學囉~ 又要週更了~
32:27
Hung-yi Lee
Рет қаралды 174 М.
卷积神经网络(CNN)详细介绍及其原理详解
1:25:12
Machine Learning Fundamentals: Cross Validation
6:05
StatQuest with Josh Starmer
Рет қаралды 1,1 МЛН
k-Fold Cross-Validation
15:20
David Caughlin
Рет қаралды 22 М.
【機器學習2021】Transformer (下)
1:00:34
Hung-yi Lee
Рет қаралды 166 М.
Что-что Мурсдей говорит? 💭 #симбочка #симба #мурсдей
00:19