그래서 저번시간까지 계속 w값 컴퓨터 노예에게 찾으라고 시킨댔는데 어떤식으로 찾는건지 구체적으로 설명하자면 경사하강법을 이용합니다. w값을 일단 아무거나 꼴리는 값으로 69 이렇게 설정하신 다음 69라는 w값이 0.0001만큼 쪼끔 변할 때 총손실 loss는 얼마나 변하는지를 자를 대고 측정하시면 됩니다. 그리고 그 변화량을 기존 w값에서 빼면 그것이 바로 새로운 최적의 w값입니다. 이걸 몇백번 하시면 아주 적절한 w값이 신기하게 나와염 그리고 학습속도를 높이거나 그러고 싶으면 그냥 뺄셈 하지말고 변화량에 learning rate라는걸 곱해서 빼기도 합니다. learning rate 그것도 님들 꼴리는대로 74 이렇게 설정해보셈
@xhslrn3 жыл бұрын
ㅋㅋㅋㅋㅋㅋㅋㅋㅋ
@nacelle_strike3 жыл бұрын
확실히 구어체로 비속어좀 섞어서 설명해주시니 빠르게 이해됩니다
@QQQKOR Жыл бұрын
와 ㅋㅋㅋㅋㅋ 이 형 모임 ㅋㅋㅋㅋㅋㅋㅋ
@딕딕-q3x3 жыл бұрын
경사하강법 강의 5개봤는데 가장 이해잘됩니다
@우울바이러스3 жыл бұрын
예전에 다 알아낸 개념인데 이렇게 쉽게 배울 수 있는 강의가 있었다고 생각하니까 차라리 이 강의가 없었으면 덜 억울할 정도네요... ㄷㄷ
@jangmanbnb2 жыл бұрын
정말 최고입니다. 대학 4학년 전공 강의 들으며 이해도 안되고 흥미도 떨어지고 의지도 꺽이고 그랬는데 코딩애플님 설명은 정말 이해가 잘 갑니다. 좋은 강의 정말 정말 감사합니다.
@이성우-g7p3 жыл бұрын
11:03 AdaGrad: 자주변하는 w는 작게, 자주 안변하면 크게 오타인거 같습니다! 영상 재밌게 잘 보고 있습니다!
@chun-ja84452 жыл бұрын
개념 설명 기가 막히네요. 돈 내고 들어야 할듯.
@kunoolee33 жыл бұрын
강의력 타고나셨네유..ㅋㅋㅋ 유머코드 좋습니다
@hyunkang20903 жыл бұрын
정말 감사합니다. 이렇게 재밌게 쉽게 알려주시는 분은 처음입니다
@이지훈-x9f6z Жыл бұрын
1:39 에서 w1값에 여러 수를 대입해 볼 때마다 그에 따른 총손실e값이 대응되어 나오고 이걸 그래프화한 다음 경사하강법으로 총손실 e를 최소화하는 w1의 위치를 구해야 한다고 하셨습니다. 그런데 w1값에 여러 수를 대입하여 그래프로 그릴 수 있는 사건은 어떤 시점에 일어나는 것인가요? 첫 번째 데이터를 집어넣을 때 정해진 w1값은 두 번째 데이터를 집어넣을 때 변하는 것인가요? 두 번째 데이터를 처리하는 모델 입장에서는 아직 그래프가 없어서 미분할 방법이 없는데 어떻게 다음 w1값을 결정하나요?
@user-xj1jv5kr6q11 ай бұрын
정말 감사합니다. 학교 수업 너무 어려워서 맨땅에 헤딩하는 기분으로 울면서 과제하는중이었는데 정말 감사합니다
@햅삐-y3s8 ай бұрын
댓글 잘 안다는데 너무 감사해서 답니다! 설명 너무 깔끔하게 해주셔서 이해가 너무 잘 되네요! 감사합니다!!!
@rangsuk19 күн бұрын
와 설명 쥑이네요 ㅋㅋ
@applemangos Жыл бұрын
와… 책으로 독학하면서 이론 배우기 힘들었는데 이거 영상 보니까 다 해결이네요..ㅋㅋㅋㅋ 진작 찾았어야했는데 말입니다
@2gggg0 Жыл бұрын
너무 쉽게 설명해주셔서 정말 x 100 감사합니다!!
@kitschgom Жыл бұрын
너무 쉽게 잘 설명해주셔서 재밌게 공부중입니다!
@떡락을부르는사나이2 жыл бұрын
오빠, 나중에 시간되면 머신러닝 관련된 책도 지어보고, 자격증 관련된 강의자료도 만들어봐. 앞으로 크게될 사람이네 ㄷㄷ
@zero1world7 ай бұрын
설명 최고🎉
@arccosine2 ай бұрын
안녕하세요, 영상 너무 좋아요!! 그런데 아직 제가 딥러닝 관련 지식이 부족해서 궁금한 점이 생겼습니다. 경사하강법을 시행하기 위해서는 파라미터 - 총손실 다차원 그래프가 이미 구해져 있어야 하는 거라고 이해했습니다. 그러면 왜 여러가지 값들을 파라미터에 대입하는 그 순간에 총손실이 최소가 되는 조합을 찾지 않나요? 모든 파라미터 값에 대한 총손실을 모두 구해놓고 다시 이 엄청난 경우의 수에서 최솟값을 찾아나가는 이유가 있나요?
@JH-ow3qo2 ай бұрын
경사하강법은 손실 함수가 미리 구해져 있어야 하는 것이 아니라, 초기화된 랜덤한 가중치를 사용하여 순전파를 통해 손실 값을 계산하고, 이를 기반으로 역전파를 통해 가중치를 업데이트하는 방식입니다. 매 반복마다 손실 함수의 기울기를 계산하고, 그 기울기에 따라 파라미터를 조정함으로써 최적의 파라미터 조합을 찾아갑니다.
@비온다-x3y2 жыл бұрын
설명 지존.. 감사합니다
@Gonykim Жыл бұрын
개꿀이네요.. 감사합니다
@이채은-g5v3 жыл бұрын
이해 잘 되네요. 감사합니다!!
@jq27483 жыл бұрын
와..엄청 잘 설명하시네요.
@흰둥이-t7o2 жыл бұрын
혹시 따로 강의 제작하신거 있나요?? 돈주고라도 보고싶습니다
@codingapple2 жыл бұрын
저기 있읍니다
@Rrrlatth11 ай бұрын
감사합니다
@김겨란-x8b3 жыл бұрын
이렇게 재밌고 보고싶게 만드는 강의가 찾기힘든데 ㅋㅋ 잘찾았습니다. 이해도 매우쉽게 되구요. 결국엔 알파값이 아다리가 잘 맞아서 가짜 최저점에 도달하면 그건 좋지 못한 알파값이라고 볼 수 있는건가요 그럼?
@codingapple3 жыл бұрын
넴
@JihooonKim2 жыл бұрын
왜 또 시그모이드 곱해진 값에 w2가 갑툭튀해서 곱해지나요?? 밑장빼기인가요??
@강민구-l1y3 жыл бұрын
손실을 발생시키는 w가 여러 개이니깐 w1을 기준으로 편미분을 하는 건가요?
@따뜻한콜드브루-f6n2 жыл бұрын
노잼이라서 유튜브에서 빼셨다는 강의 볼수잇는곳 없을까요???ㅠㅠ
@handsomguymin7 ай бұрын
Adam Loss - gradient Local minima
@wonjo_yu3 жыл бұрын
w 값에 따른 총손실에 대한 그래프를 그렸다면 이미 최저값을 알았다는 것인데 그래프를 이미 그려놓고, 다시 최저값을 찾는다는 것인가요? 그보다 그 그래프를 추정하는 것이 더 우선시 되야하지 않을까요?
@codingapple3 жыл бұрын
강의의 그래프는 w값이 1개일 때 그린 예시일 뿐입니다 w값이 100개면 100차원그래프가 되겠군요 그건 그릴 수 없어서 경사하강법을 씁니다