ㄹㅇ쉬운 딥러닝 5강 : 신나는 경사하강법

  Рет қаралды 62,514

코딩애플

코딩애플

Күн бұрын

Пікірлер: 39
@codingapple
@codingapple 4 жыл бұрын
그래서 저번시간까지 계속 w값 컴퓨터 노예에게 찾으라고 시킨댔는데 어떤식으로 찾는건지 구체적으로 설명하자면 경사하강법을 이용합니다. w값을 일단 아무거나 꼴리는 값으로 69 이렇게 설정하신 다음 69라는 w값이 0.0001만큼 쪼끔 변할 때 총손실 loss는 얼마나 변하는지를 자를 대고 측정하시면 됩니다. 그리고 그 변화량을 기존 w값에서 빼면 그것이 바로 새로운 최적의 w값입니다. 이걸 몇백번 하시면 아주 적절한 w값이 신기하게 나와염 그리고 학습속도를 높이거나 그러고 싶으면 그냥 뺄셈 하지말고 변화량에 learning rate라는걸 곱해서 빼기도 합니다. learning rate 그것도 님들 꼴리는대로 74 이렇게 설정해보셈
@xhslrn
@xhslrn 3 жыл бұрын
ㅋㅋㅋㅋㅋㅋㅋㅋㅋ
@nacelle_strike
@nacelle_strike 3 жыл бұрын
확실히 구어체로 비속어좀 섞어서 설명해주시니 빠르게 이해됩니다
@QQQKOR
@QQQKOR Жыл бұрын
와 ㅋㅋㅋㅋㅋ 이 형 모임 ㅋㅋㅋㅋㅋㅋㅋ
@딕딕-q3x
@딕딕-q3x 3 жыл бұрын
경사하강법 강의 5개봤는데 가장 이해잘됩니다
@우울바이러스
@우울바이러스 3 жыл бұрын
예전에 다 알아낸 개념인데 이렇게 쉽게 배울 수 있는 강의가 있었다고 생각하니까 차라리 이 강의가 없었으면 덜 억울할 정도네요... ㄷㄷ
@jangmanbnb
@jangmanbnb 2 жыл бұрын
정말 최고입니다. 대학 4학년 전공 강의 들으며 이해도 안되고 흥미도 떨어지고 의지도 꺽이고 그랬는데 코딩애플님 설명은 정말 이해가 잘 갑니다. 좋은 강의 정말 정말 감사합니다.
@이성우-g7p
@이성우-g7p 3 жыл бұрын
11:03 AdaGrad: 자주변하는 w는 작게, 자주 안변하면 크게 오타인거 같습니다! 영상 재밌게 잘 보고 있습니다!
@chun-ja8445
@chun-ja8445 2 жыл бұрын
개념 설명 기가 막히네요. 돈 내고 들어야 할듯.
@kunoolee3
@kunoolee3 3 жыл бұрын
강의력 타고나셨네유..ㅋㅋㅋ 유머코드 좋습니다
@hyunkang2090
@hyunkang2090 3 жыл бұрын
정말 감사합니다. 이렇게 재밌게 쉽게 알려주시는 분은 처음입니다
@이지훈-x9f6z
@이지훈-x9f6z Жыл бұрын
1:39 에서 w1값에 여러 수를 대입해 볼 때마다 그에 따른 총손실e값이 대응되어 나오고 이걸 그래프화한 다음 경사하강법으로 총손실 e를 최소화하는 w1의 위치를 구해야 한다고 하셨습니다. 그런데 w1값에 여러 수를 대입하여 그래프로 그릴 수 있는 사건은 어떤 시점에 일어나는 것인가요? 첫 번째 데이터를 집어넣을 때 정해진 w1값은 두 번째 데이터를 집어넣을 때 변하는 것인가요? 두 번째 데이터를 처리하는 모델 입장에서는 아직 그래프가 없어서 미분할 방법이 없는데 어떻게 다음 w1값을 결정하나요?
@user-xj1jv5kr6q
@user-xj1jv5kr6q 11 ай бұрын
정말 감사합니다. 학교 수업 너무 어려워서 맨땅에 헤딩하는 기분으로 울면서 과제하는중이었는데 정말 감사합니다
@햅삐-y3s
@햅삐-y3s 8 ай бұрын
댓글 잘 안다는데 너무 감사해서 답니다! 설명 너무 깔끔하게 해주셔서 이해가 너무 잘 되네요! 감사합니다!!!
@rangsuk
@rangsuk 19 күн бұрын
와 설명 쥑이네요 ㅋㅋ
@applemangos
@applemangos Жыл бұрын
와… 책으로 독학하면서 이론 배우기 힘들었는데 이거 영상 보니까 다 해결이네요..ㅋㅋㅋㅋ 진작 찾았어야했는데 말입니다
@2gggg0
@2gggg0 Жыл бұрын
너무 쉽게 설명해주셔서 정말 x 100 감사합니다!!
@kitschgom
@kitschgom Жыл бұрын
너무 쉽게 잘 설명해주셔서 재밌게 공부중입니다!
@떡락을부르는사나이
@떡락을부르는사나이 2 жыл бұрын
오빠, 나중에 시간되면 머신러닝 관련된 책도 지어보고, 자격증 관련된 강의자료도 만들어봐. 앞으로 크게될 사람이네 ㄷㄷ
@zero1world
@zero1world 7 ай бұрын
설명 최고🎉
@arccosine
@arccosine 2 ай бұрын
안녕하세요, 영상 너무 좋아요!! 그런데 아직 제가 딥러닝 관련 지식이 부족해서 궁금한 점이 생겼습니다. 경사하강법을 시행하기 위해서는 파라미터 - 총손실 다차원 그래프가 이미 구해져 있어야 하는 거라고 이해했습니다. 그러면 왜 여러가지 값들을 파라미터에 대입하는 그 순간에 총손실이 최소가 되는 조합을 찾지 않나요? 모든 파라미터 값에 대한 총손실을 모두 구해놓고 다시 이 엄청난 경우의 수에서 최솟값을 찾아나가는 이유가 있나요?
@JH-ow3qo
@JH-ow3qo 2 ай бұрын
경사하강법은 손실 함수가 미리 구해져 있어야 하는 것이 아니라, 초기화된 랜덤한 가중치를 사용하여 순전파를 통해 손실 값을 계산하고, 이를 기반으로 역전파를 통해 가중치를 업데이트하는 방식입니다. 매 반복마다 손실 함수의 기울기를 계산하고, 그 기울기에 따라 파라미터를 조정함으로써 최적의 파라미터 조합을 찾아갑니다.
@비온다-x3y
@비온다-x3y 2 жыл бұрын
설명 지존.. 감사합니다
@Gonykim
@Gonykim Жыл бұрын
개꿀이네요.. 감사합니다
@이채은-g5v
@이채은-g5v 3 жыл бұрын
이해 잘 되네요. 감사합니다!!
@jq2748
@jq2748 3 жыл бұрын
와..엄청 잘 설명하시네요.
@흰둥이-t7o
@흰둥이-t7o 2 жыл бұрын
혹시 따로 강의 제작하신거 있나요?? 돈주고라도 보고싶습니다
@codingapple
@codingapple 2 жыл бұрын
저기 있읍니다
@Rrrlatth
@Rrrlatth 11 ай бұрын
감사합니다
@김겨란-x8b
@김겨란-x8b 3 жыл бұрын
이렇게 재밌고 보고싶게 만드는 강의가 찾기힘든데 ㅋㅋ 잘찾았습니다. 이해도 매우쉽게 되구요. 결국엔 알파값이 아다리가 잘 맞아서 가짜 최저점에 도달하면 그건 좋지 못한 알파값이라고 볼 수 있는건가요 그럼?
@codingapple
@codingapple 3 жыл бұрын
@JihooonKim
@JihooonKim 2 жыл бұрын
왜 또 시그모이드 곱해진 값에 w2가 갑툭튀해서 곱해지나요?? 밑장빼기인가요??
@강민구-l1y
@강민구-l1y 3 жыл бұрын
손실을 발생시키는 w가 여러 개이니깐 w1을 기준으로 편미분을 하는 건가요?
@따뜻한콜드브루-f6n
@따뜻한콜드브루-f6n 2 жыл бұрын
노잼이라서 유튜브에서 빼셨다는 강의 볼수잇는곳 없을까요???ㅠㅠ
@handsomguymin
@handsomguymin 7 ай бұрын
Adam Loss - gradient Local minima
@wonjo_yu
@wonjo_yu 3 жыл бұрын
w 값에 따른 총손실에 대한 그래프를 그렸다면 이미 최저값을 알았다는 것인데 그래프를 이미 그려놓고, 다시 최저값을 찾는다는 것인가요? 그보다 그 그래프를 추정하는 것이 더 우선시 되야하지 않을까요?
@codingapple
@codingapple 3 жыл бұрын
강의의 그래프는 w값이 1개일 때 그린 예시일 뿐입니다 w값이 100개면 100차원그래프가 되겠군요 그건 그릴 수 없어서 경사하강법을 씁니다
@SmithHam-xj5yy
@SmithHam-xj5yy 6 ай бұрын
대학 때려치고 이거 들
@cppcompile
@cppcompile 2 жыл бұрын
아다 그라드 ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ
ㄹㅇ쉬운 딥러닝 6강 : Tensorflow 2 기초 빠르게 정리
16:45
경사하강법 (Gradient Descent)의 기본 개념을 쉽게 알려드립니다
17:42
To Brawl AND BEYOND!
00:51
Brawl Stars
Рет қаралды 17 МЛН
Don’t Choose The Wrong Box 😱
00:41
Topper Guild
Рет қаралды 62 МЛН
Try this prank with your friends 😂 @karina-kola
00:18
Andrey Grechka
Рет қаралды 9 МЛН
[최적화] 3-1강. 경사하강법 (Gradient Descent) 미분만 알면 돼!
16:18
혁펜하임 | AI & 딥러닝 강의
Рет қаралды 20 М.
경사하강법 파이썬 구현
12:04
onenzero
Рет қаралды 2 М.
경사하강법 소개
9:41
공돌이의 수학정리노트
Рет қаралды 40 М.
국과수 출신 신입 개발자 vs 토스 5년차 개발자
5:01
바닐라코딩
Рет қаралды 51 М.
[Neural Network 8] 경사하강법
18:11
신박Ai
Рет қаралды 9 М.