[핵심 머신러닝 ] 뉴럴네트워크모델 2 (Backpropagation 알고리즘)

  Рет қаралды 18,806

‍김성범[ 교수 / 산업경영공학부 ]

‍김성범[ 교수 / 산업경영공학부 ]

Күн бұрын

뉴럴네트워크 모델의 파라미터인 가중치를 업데이트 하는 오류역전파 (Backpropagation) 알고리즘에 대해 자세히 설명한다.

Пікірлер: 18
@user-ux1gj1sv3p
@user-ux1gj1sv3p 2 жыл бұрын
진짜 너무 좋은 강의입니다. neural network 나 deep-learning이 여러 기술에서 활용되고 있어 컴퓨터나 ai 관련 학과는 아니지만 공부하고 있는데, 비전공자에게 큰 도움이 되는 강의입니다. 양질의 강의를 올려주셔서 감사합니다!
@김성범교수산업경영공
@김성범교수산업경영공 Жыл бұрын
도움이 되셨다니 다행입니다. 감사합니다!
@davidson9353
@davidson9353 3 жыл бұрын
와우...제가 본 설명중에서 최고라고 생각합니다. 정말 감사합니다. 강추!!!
@김성범교수산업경영공
@김성범교수산업경영공 3 жыл бұрын
감사합니다~
@jiwonyoo5238
@jiwonyoo5238 9 ай бұрын
너무 좋은 강의 감사드립니다!
@MZ-pj4eq
@MZ-pj4eq 2 жыл бұрын
교수님, 감사합니다!!
@user-ol9nl3pq4w
@user-ol9nl3pq4w 4 жыл бұрын
좀전 질문에 답주셨던 내용이 여기에 있었네요. 도움에 감사드립니다!!!
@김성범교수산업경영공
@김성범교수산업경영공 4 жыл бұрын
^^*
@user-rt5mh7rp9k
@user-rt5mh7rp9k 4 жыл бұрын
딥러닝 공부를 막 시작한 반도체 업계 청년 입니다 ^^; 역전파 부분이 이해가 어려웠는데 친절한 설명 감사드립니다 교수님!
@김성범교수산업경영공
@김성범교수산업경영공 4 жыл бұрын
감사합니다!
@gt4065b
@gt4065b 5 жыл бұрын
I watched them all~~ Now I understand what the neural net model is~ Thanks
@김성범교수산업경영공
@김성범교수산업경영공 5 жыл бұрын
Thank you for watching my lecture and your kind message!
@robot3430
@robot3430 3 жыл бұрын
이게 역전파구나...ㅠㅠ 감사합니다. 교수님
@beomseokkwon6745
@beomseokkwon6745 5 жыл бұрын
이번 강의도 정말 좋은 강의 감사합니다.
@김성범교수산업경영공
@김성범교수산업경영공 5 жыл бұрын
팡팡시티 감사합니다!
@yookyungkho408
@yookyungkho408 4 жыл бұрын
04:20 교수님 이 슬라이드에서 언급하신 t가 실제 y값이라고 하셨는데 그럼 이 t값이 전슬라이드에 있는 출력층 t값들과 다른게 맞나요..?? 전슬라이드 기준 출력값t에서 활성함수를 거친 o값이 예측값이라고 봤을때 전 슬라이드와 이 슬라이드의 t가 다르다는 생각이 들어 질문 남깁니다!!
@user-ej1nj5ry6l
@user-ej1nj5ry6l Жыл бұрын
4:30 1/2이 평균을 취하기 위해서가 맞나요? 평균을 취하고싶으면 1/2이 아니라 1/m이 되어야 하는것같습니다. 제 짧은 지식으로는 미분할 때 식이 복잡해지는걸 막기 위해서 1/2을 곱해주는 걸로 알고 있는데 혹시 아닌가요? 저처럼 잘 모르는 사람들이 들으면상당히 헷갈릴거같습니다. 혹시 확실하게 아시는 분 계시면 대댓으로좀 알려주세요 ...ㅜ
@0x246-v7s
@0x246-v7s Жыл бұрын
말씀하신대로 미분 시에 계수를 없애기 위함이 맞는 듯 합니다. 사실 1/m 를 나누든 1/2를 나누든 크게 상관없습니다. 얼마만큼의 크기로 파라미터를 갱신할지에 대해서는 사용자가 정의할 수 있기 때문입니다. learning rate 처럼요. 따라서 MSE의 정의에는 1/m 이 들어가는 것이 맞습니다. 하지만 파라미터를 갱신할 때 쓰는 cost function은 계수가 1/2이든 1/m 이든 1이든 상관 없을 듯 합니다!
[핵심 머신러닝] 군집분석
1:02:47
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 20 М.
[핵심  머신러닝] Boosting
38:33
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 14 М.
GTA 5 vs GTA San Andreas Doctors🥼🚑
00:57
Xzit Thamer
Рет қаралды 29 МЛН
My daughter is creative when it comes to eating food #funny #comedy #cute #baby#smart girl
00:17
English or Spanish 🤣
00:16
GL Show
Рет қаралды 19 МЛН
SCHOOLBOY. Мама флексит 🫣👩🏻
00:41
⚡️КАН АНДРЕЙ⚡️
Рет қаралды 7 МЛН
[핵심 머신러닝] 불균형 데이터 분석을 위한 샘플링 기법
1:04:55
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 13 М.
오차역전파 (Backprogation)의 개념을 쉽게 이해해 봅시다
12:05
테디노트 TeddyNote
Рет қаралды 37 М.
예술의 경지, 딥러닝 시계열 예측 모델
12:31
JeTech
Рет қаралды 4,7 М.
[핵심 머신러닝] Recurrent Neural Networks and Attention (Introduction)
29:16
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 20 М.
[핵심 머신러닝] SVM 모델 1 (Margin, Hard Margin Linear SVM)
32:10
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 36 М.
[핵심 머신러닝] SVM 모델 2 (Soft Margin SVM, Nonlinear SVM, Kernel)
36:55
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 18 М.
What is backpropagation really doing? | Chapter 3, Deep learning
12:47
3Blue1Brown
Рет қаралды 4,5 МЛН
Lecture 6: Backpropagation
1:11:16
Michigan Online
Рет қаралды 95 М.
How are memories stored in neural networks? | The Hopfield Network #SoME2
15:14
GTA 5 vs GTA San Andreas Doctors🥼🚑
00:57
Xzit Thamer
Рет қаралды 29 МЛН