교수님, 양질의 강의를 이렇게 공개해주셔서 너무 감사드립니다. 이해하는데에 큰 도움이 되었습니다.
@Srcb-q7sКүн бұрын
RNN Backpropagation 에 대해서 이렇게 자세히 설명하고 이해하기 쉽게 알려주는 강의/블로그는 못 본것 같습니다. 감사합니다.
@seoungbumkim3300Күн бұрын
감사합니다! 도움이 되셨다니 기쁜 마음입니다.
@이지연-v1y Жыл бұрын
진짜 명강의입니다. RNN 구조 제대로 이해하고 싶어서 책도 읽고, 다른 강의도 찾아봤는데, 이 강의가 진짜 최고입니다. 구조만 설명해주시는 것이 아니라 학습 과정도 설명해주셔서 좋았습니다. 너무 감사합니다. 여러 번 반복해서 듣고 있습니다.
@김성범교수산업경영공 Жыл бұрын
도움이 되셔 다행입니다. 고맙습니다!
@DrKane9619 күн бұрын
LSTM을 이해 못했었는데 교수님 강의 듣고 잘 알아갑니다. 감사합니다.
@김성범교수산업경영공19 күн бұрын
도움이 되셨다니 다행입니다. 고맙습니다!
@정대진-t2xАй бұрын
교수님 유투브 댓글 처음 달아봅니다. 감사합니다.
@김성범교수산업경영공19 күн бұрын
감사합니다.
@구삼왕자3 ай бұрын
교수님 정말 감사합니다. 비전공자 입장에서 Dnn,cnn까지는 이해가 잘 되는데 rnn부터는 개념이 바뀌어 쉽게 이해가 안되었는데 교수님 강의가 정말 한줄기 빛이 되주었습니다. 정말 감사합니다.
@김성범교수산업경영공2 ай бұрын
도움이 되셨다니 감사합니다.
@ji88244 ай бұрын
이렇게 이해하기 쉽게 설명해주는 강의 처음입니다 감사합니다!:)
@이병훈-d8y7 ай бұрын
교수님 감사합니다. 강의 너무 좋습니다
@김성범교수산업경영공2 күн бұрын
감사합니다!
@김영진-q7w11 ай бұрын
너무 유익하고 쉬운 설명.. 정말 잘봤습니다. 감사합니다!
@김성범교수산업경영공2 күн бұрын
감사합니다!
@김현용-y3j4 ай бұрын
훌륭한 강의 잘 들었습니다. 감사합니다.
@김성범교수산업경영공2 ай бұрын
좋은 댓글 감사합니다!
@jin-pq8iv Жыл бұрын
예시와 설명이 바로 이해가 되네요!! 계속 헷갈리던 부분이 있었는데 시원하게 해결되었네요. 정말 유익한 내용 감사드립니다.
@김성범교수산업경영공2 күн бұрын
감사합니다!
@ss-ww6yh6 ай бұрын
교수님 좋은 영상 감사합니다!
@김성범교수산업경영공2 күн бұрын
감사합니다!
@namjungwon36567 ай бұрын
너무 쉽게 설명해주셔서 진짜 감사합니다. 정말 강추 입니다.
@김성범교수산업경영공2 күн бұрын
감사합니다!
@365wooАй бұрын
안녕하세요 강의 정말 감사합니다, 혹시 8분 가량에 각각 시점에 정보만을 이용한다고 하셨는데 시계열을 반영하지 않은거지 loss를 줄이는 과정에서 과거의 정보는 이용한거 아닌가요...? 조금 헷갈려서 질문드립니다,,
@김성범교수산업경영공2 күн бұрын
일반 DNN은 과거 정보를 이용하지 않은 ht를 이용하여 예측하기 때문에 loss에서 과거정보를 이용했다고 볼 수 없을 것 같습니다.
@helloo5480 Жыл бұрын
교수님 최고...
@김성범교수산업경영공 Жыл бұрын
감사합니다!
@히힣-i3s Жыл бұрын
너무 좋은 강의 감사합니다. 댓글을 안 달 수가 없었습니다.
@김성범교수산업경영공2 күн бұрын
감사합니다!
@son-ox4mo Жыл бұрын
정말 좋은 강의 잘 들었습니다!! 열심히 강의를 듣던 중에 한 가지 궁금한 점이 생겼는데, LSTM과 GRU 모두 최종 hidden state를 계산한 후에 에측값을 도출해내는 과정에서 가중치는 순환 신경망과 동일하게 W_hy로 표시하는게 맞는건가요? 아니면 강의에서 쓰신 것처럼 W_th 혹은 X_th가 맞는 것인가요? 궁금합니다.
@김성범교수산업경영공 Жыл бұрын
W_hy로 표시하는게 맞습니다.
@aaabbaaa1976 Жыл бұрын
타학교 학생인데 쏙쏙 들어오는 강의 해주셔서 감사합니다.
@김성범교수산업경영공 Жыл бұрын
고맙습니다!
@enlighten440010 ай бұрын
교수님 혹시 채널 가입자 한정, 강의 노트를 오픈하실 계획은 있으실까요? 명강의라 따라가며 듣고 싶은 수요(저 포함)가 많을 것 같습니다 :)
@마이구매11 ай бұрын
ㅠㅠㅠ타학교학생인데 여기서 길을 찾았어요 감사합니다 교수님!! 특히 lstm 에서 ht을 기준으로 역순으로 설명해주셔서 더 이해가 잘된것같아요 다른 영상들은 순차적으로 가다보니 이해하면서 길을 잃었는데😢😢 도움이 많이되었습니다!
@김성범교수산업경영공11 ай бұрын
도움이 되셨다니 기쁜 마음입니다.
@듀듑-o6l4 ай бұрын
궁금한게 있는데 이전 상태를 학습하는거라고 했는데 그러면 맨처음 시작되는 부분은 이전 상태를 반영할 수 없을텐데 그럴 경우에는 어떻게 상태가 초기화가 되는거죠?
@김성범교수산업경영공4 ай бұрын
초기에는 랜덤하게 파라미터를 부여합니다.
@아스롱가 Жыл бұрын
x에 y의 과거 자기 자신값을 포함해도 문제없나요? 제가 가진 시계열의 경우 현재 시점의 y는 자기 자신의 과거값에도 영향을 받기 때문에 y의 과거값도 x로 포함하하는게 맞는것 같은데 이렇게 설계해도 될까요? 즉, 현재 시점의 y는 과거 시점의 x와 과거 시점의 y 모두에 영향을 받는거죠..
@김성범교수산업경영공 Жыл бұрын
x를 이용해 y를 예측하는 궁극적인 목표는 추후에는 y를 이용하지 않으려고 하는 것에 있습니다. 보통 y값은 얻는데 시간과 비용이 많이 드는 경우가 많습니다.
@중TV-z3b11 ай бұрын
안녕하세요. 제어공학을 공부하고 있는 학생입니다. 혹시 수평 유지 창지에서 모터 각도에 따른 IMU센서가 얻는 Roll, Pitch각을 데이터화 하여 신경회로망 중 RNN을 적용시켜 3축 수평유지장치를 구현하려고하는데 올바른 모델일지 궁금하고 구현이 가능할지 궁금한데 의견 주실 수 있을까요?
@jammmm-mm Жыл бұрын
1:05:55 여기서 성분곱 첫번째 칸 -0.005가 0이 된건 단순 오타일까요? nonnegative 내용은 없어 보여서 질문드립니다.
@이석찬-u7j3 ай бұрын
39:40 에서 체인룰로 계산해서 소거시키지 않고 곱하는 이유가 궁금합니다.
@김성범교수산업경영공2 күн бұрын
소거한 식을 바로 미분하는 것이 어려워 체인룰을 이용하는 겁니다. 체인룰로 여러개 곱하는 것이 결국 우리가 하고 싶은 gradient 계산과 동일합니다.