경사하강법을 파이썬(python) 코드 구현

  Рет қаралды 15,414

테디노트 TeddyNote

테디노트 TeddyNote

Күн бұрын

Пікірлер: 19
@sungunkim78
@sungunkim78 2 жыл бұрын
감사합니다. 이론 공부하고, 실습하니까 좋네요
@임효정-p1n
@임효정-p1n 3 жыл бұрын
이해가 쉽게 잘 가르쳐주셔서 감사합니다.
@dhhan68
@dhhan68 3 жыл бұрын
와우, 너무 재밌게 잘 배웠습니다. 콘솔에서 실행하니 그래프가 애니메이션처럼 움직이는데 러닝레이트 값에 따라, 그리고 epoch 반복 횟수에 따라, break 하는 error 값에 따라, 별도로 만든 scatter 분포에 변하는 정도와 패턴이 확연하게 느껴지네요. 머신러닝에 대한 즐거움이 더욱 커졌습니다.
@teddynote
@teddynote 3 жыл бұрын
감사합니다~ 다양하게 직접 실행해보면서 변화를 몸소 체험하시면 잘 와닿습니다!
@조I인호
@조I인호 3 жыл бұрын
좋은 강의 , 감사합니다... 꾸^뻑
@수능도벼락치기
@수능도벼락치기 3 жыл бұрын
좋은 강의 감사합니다. 그런데 처음 2:30 에서 Y 설정에서 bias(b) 값이 더해진것이 아닌 곱해진 상태로 계산된 것 같네요. 그래서 그래프도 3:12 에서 보시면 y=0.2x+0.5의 그래프가 아닌 y=0.01x 그래프가 나온 것 같습니다.
@오훈-h7u
@오훈-h7u 4 жыл бұрын
우왕 넘 깔끔하고 잘 가르쳐주세요 :) 감사합니다
@teddynote
@teddynote 4 жыл бұрын
감사합니다 :)
@GorzeJin
@GorzeJin 3 жыл бұрын
선생님! 한 가지 궁금하게 있습니다. hypothesis = wX+b 일 경우를 예시로 했을때, w의 변경해야할 기울기 값을 (Y_Pred - Y)*X라고 설명하셨는데요. 그럼 hypothesis가 wX^2+b일 경우 w의 기울기는 (Y_Pred - Y)*X^2 가 맞을 까요? tensorflow의 GradientDescent 함수 내부는 편미분을 통해 구현하기 때문에 hypothesis가 어떻게 주어지든 간에 w의 기울기 값을 구할 수 있는건가요?
@teddynote
@teddynote 3 жыл бұрын
wX^2의 미분은 2wX가 됩니다. 제 채널의 backpropagation 영상을 보시면 이해하는데 도움이 되실 것 같습니다. chain rule 관련 내용도 있으니 참고해 보세요~
@lofifi123
@lofifi123 3 жыл бұрын
영상 정말 잘봤습니다. 혹시 질문이 있는데 경사하강법을 코드로 작성하실 때 넘파이의 역할이 정확히 무엇인지 알 수 있을까요?? 일단 제가 보기엔 무작위수 생성에 주로 사용하셨는데 더 중요한 역할이 있나 궁금합니다.
@teddynote
@teddynote 3 жыл бұрын
넘파이는 선형대수 수치 계산용 파이썬 라이브러리 입니다. 행렬 계산을 위해 필요합니다.
@lofifi123
@lofifi123 3 жыл бұрын
@@teddynote 감사합니다!!
@PB-hm1fm
@PB-hm1fm 2 жыл бұрын
W와 b값을 왜 경신하는지 정확히 무슨 의미인지 이해가 안됩니다
@teddynote
@teddynote Жыл бұрын
시리즈 영상인데요. 바로 직전 (이론 영상) 을 먼저 시청하시면 이해에 도움이 되실 것 같습니다^^
@박기현-t4t
@박기현-t4t 3 жыл бұрын
안녕하세요~ 너무 잘배웠습니다! 그런데 질문이 있는데요ㅠㅠ x 와 y 값을 직접 list 로 입력해서 구하려고하니.. TypeError: can't multiply sequence by non-int of type 'float' 가 뜨더라구요.. x 와 w 를 구할 수 없는 것 같은데 혹시 해결방법이 있을까요..?
@teddynote
@teddynote 3 жыл бұрын
파이썬 리스트는 선형대수를 지원하지 않기때문에 numpy를 사용해서 구현하셔야 합니다
@bogyeongkim7548
@bogyeongkim7548 4 жыл бұрын
세상 명쾌합니다! 감사합니다(●'◡'●)
@teddynote
@teddynote 4 жыл бұрын
잘 봐주셔서 감사합니다.
#선형회귀 의 기초인 #최소제곱법 ? 공식 유도를 해보자~!
20:21
테디노트 TeddyNote
Рет қаралды 15 М.
경사하강법 (Gradient Descent)의 기본 개념을 쉽게 알려드립니다
17:42
Une nouvelle voiture pour Noël 🥹
00:28
Nicocapone
Рет қаралды 9 МЛН
Quando eu quero Sushi (sem desperdiçar) 🍣
00:26
Los Wagners
Рет қаралды 15 МЛН
It’s all not real
00:15
V.A. show / Магика
Рет қаралды 20 МЛН
25분만에 끝내는 데이터분석, 머신러닝을 위한 기본 파이썬
25:43
#OpenAI #SWARM 핵심 기능 리뷰와 멀티에이전트 시스템 찍먹!
20:52
오차역전파 (Backprogation)의 개념을 쉽게 이해해 봅시다
12:05
테디노트 TeddyNote
Рет қаралды 40 М.
[인공지능 수학 14강] 미분과 경사하강법
8:14
아반투 (인공지능 및 안드로이드 강의)
Рет қаралды 10 М.
EP01. #RAG 의 동작 과정 쉽게 이해하기!
23:59
테디노트 TeddyNote
Рет қаралды 9 М.
ㄹㅇ쉬운 딥러닝 5강 : 신나는 경사하강법
12:29
코딩애플
Рет қаралды 62 М.
경사하강법 소개
9:41
공돌이의 수학정리노트
Рет қаралды 40 М.