Machine Learning #1: Giải thích Gradient Descent bằng ví dụ (DỄ HIỂU NHẤT)

  Рет қаралды 11,736

HOÀNG QUÂN

HOÀNG QUÂN

Күн бұрын

Пікірлер: 22
@hoangquan8091
@hoangquan8091 3 жыл бұрын
Source code trong video cho bạn nào cần nhé bit.ly/3yIygEp Nếu có các câu hỏi về chủ đề này bạn comment dưới để mình có thể tổng hợp và giải đáp nhé
@viettiennguyen633
@viettiennguyen633 Жыл бұрын
Anh giảng bài dễ hiểu và rất gần gũi ạ. Thanks anh
@trantoan9845
@trantoan9845 25 күн бұрын
Giỏi quá anh ơi!
@dungduongthingoc5953
@dungduongthingoc5953 Жыл бұрын
cảm ơn bạn nhé giải thích dễ hỉu lắm
@lmhxink2309
@lmhxink2309 2 жыл бұрын
thầy giảng dễ hiểu quá, cảm ơn thầy ạ
@manhngo2724
@manhngo2724 Жыл бұрын
Cảm ơn bạn
@kudasaisenseiyamete3398
@kudasaisenseiyamete3398 Жыл бұрын
Tiếp series machine learning đi anh
@DoNguyenNhat0202
@DoNguyenNhat0202 Жыл бұрын
cảm ơn anh rất nhiều ạ
@khangnguyen5538
@khangnguyen5538 3 жыл бұрын
Deadline sát đít thì gặp vid này, cảm ơn a nha
@honguyenhieuminh5278
@honguyenhieuminh5278 Жыл бұрын
nhưng mà lỡ cho hàm xong mình đạo hàm cũng ko nổi luôn thì làm sao hả anh
@HueTran-js6zi
@HueTran-js6zi 2 жыл бұрын
Ad dùng ngôn ngữ nào viết Code vậy, và bài toán GD dùng vào những việc gì vậy.
@vtpvlogs7256
@vtpvlogs7256 Жыл бұрын
python đấy bro
@nhambeti6022
@nhambeti6022 Жыл бұрын
sao giống mấy thuật toán trong các phương pháp tối ưu vậy nhỉ @@
@nguyenvanphuong0711
@nguyenvanphuong0711 2 жыл бұрын
Cho em hỏi là như ví dụ trên f(x)=2x^2+x thì mình return 4*xo + 1 nó dễ. Nếu gặp mấy bài có f(x) phức tạp thì sao ạ?
@nguyenvanphuong0711
@nguyenvanphuong0711 2 жыл бұрын
Mình vẫn phải áp dụng kiến thức cấp 3 để xác định được công thức đạo hàm của f(x) hả anh?
@olivierngo5503
@olivierngo5503 2 жыл бұрын
@@nguyenvanphuong0711 phức tạp như nào hả bạn ơi? Có phương trình 1 biến và nhiều biến, nhiều biến thì tính đạo hàm theo từng biến để tìm ra Gradient-đạo hàm chung
@ucanhnguyen1134
@ucanhnguyen1134 2 жыл бұрын
Gradient Descent trong Machine Learning đóng vai trò gì a nhỉ
@SuperOnlyP
@SuperOnlyP 2 жыл бұрын
Sẽ giúp change weights để giúp Loss Functions về 0 dễ và nhanh Không có cái này thì weights nó change randomly rất khó , lâu để giúp Loss Function về 0 .
@demenphieuluu
@demenphieuluu 2 жыл бұрын
GD đóng vai trò minimize Cost Function, hay nói các khác là optimize Weight và Bias.
@baochauangphuc216
@baochauangphuc216 Жыл бұрын
mình nghĩ đơn giản là nó tối ưu giúp output của mô hình có sai số giảm về gần không nhanh hơn.
@mkdadmin5244
@mkdadmin5244 2 жыл бұрын
dòng 12 trong đoạn code, tại sao không phải là x_new -= daoHam(x_new)* learning_rate vậy bạn?
@hieun8346
@hieun8346 2 жыл бұрын
bỏ x_new vào tính sẽ làm thay đổi gtri khi đó bỏ vào history(x_new) ko còn chính xác
Machine Learning #2: Hồi quy tuyến tính (P1)
15:11
HOÀNG QUÂN
Рет қаралды 2,3 М.
Gradient Descent From Scratch in Python - Visual Explanation
28:44
龟兔赛跑:好可爱的小乌龟#short #angel #clown
01:00
Super Beauty team
Рет қаралды 136 МЛН
REAL MAN 🤣💪🏻
00:35
Kan Andrey
Рет қаралды 39 МЛН
Try Not To Laugh 😅 the Best of BoxtoxTv 👌
00:18
boxtoxtv
Рет қаралды 7 МЛН
Tất cả các thuật toán Machine Learning trong 23 phút
25:59
Việt Nguyễn AI
Рет қаралды 24 М.
Gradient Descent Explained
7:05
IBM Technology
Рет қаралды 73 М.
Gradient Descent, Step-by-Step
23:54
StatQuest with Josh Starmer
Рет қаралды 1,4 МЛН
Giải thuật Gradient Descent
53:14
Học trực tuyến OLM
Рет қаралды 1,1 М.