지금 봐도 설명이 정말 명쾌하고 이해가 참 쉽네요. 다시한번 재능 공유 진심으로 감사드립니다.
@user-so8dr5zd3l4 жыл бұрын
강의 아직 몇 개 안 들었지만 정말 깔끔하고 쉽게 설명해 주시는 것 같아요. 감사합니다!
@user-yu5qs4ct2b4 жыл бұрын
감사합니다!
@haikuandbeth3 жыл бұрын
교수님덕에 참 쉽게 배우게 되어 너무 감사드립니다. 최고에용 ^.^
@user-yu5qs4ct2b3 жыл бұрын
감사합니다~
@hmpark17784 жыл бұрын
교수님 안녕하세요, 기억하실지 모르겠지만.. 학부때 교수님 강의 들었던 학생입니다 :) 업무때문에 배웠던 것들을 다시 공부하게되었습니다. 교수님 수업이 생각나서 이렇게 유투브 듣고있네요 감사합니다!
@user-yu5qs4ct2b4 жыл бұрын
홍민아. 반갑다.도움이 되길 바라고 궁금한 점 있으면 편하게 연락해라~
@hmpark17784 жыл бұрын
김성범[ 교수 / 산업경영공학부 ] 감사합니다 교수님 :)!!
@maketing825 жыл бұрын
좋은 강의 감사합니다
@MZ-pj4eq3 жыл бұрын
교수님, 감사합니다!!
@user-yu5qs4ct2b3 жыл бұрын
감사합니다!
@paul-ri1vs2 жыл бұрын
ㅠㅠ좋은 강의 정말 감사합니다
@user-yu5qs4ct2b2 жыл бұрын
감사합니다~
@EJ-lz6nc2 жыл бұрын
교수님 통계강의부터 시작해서 시계열 회귀분석 이후 강의를 접했습니다. 최소제곱법을 통해 본 베타1 수식을 보면 분자는 공분산이고, 분모는 자기자신의 공분산 혹은 분산꼴입니다. 이와 관련된 수학적 의미가 있는것인가요?
@jkim99313 жыл бұрын
14:00 잔차와 엡실론의 차이
@user-mo1xk7hc9z7 ай бұрын
교수님 강의 정말 도움 많이 됩니다! 너무 감사합니다!! 강의에서 질문이 있습니다!!! 1. 선형회귀에서의 Cost function은 항상 global optima를 갖는지 궁금합니다. 2. 8:49 설명하신 개념이 gradient descent로 보이는데, 실제 데이터는 cost function이 복잡해서 미분 계산을 통해 미분값이 0인 값을 찾는 것보다는 gradient descent 방법을 찾는다고 알고 있는데 맞는 개념인지 궁금합니다.
@user-yu5qs4ct2b7 ай бұрын
1. 선형회귀모델에서의 cost function은 항상 global optima를 갖습니다. 2. 선형회귀모델의 cost function은 convex 형태이기 때문에 (최소값이 한개 존재, 미분 가능) 미분값이 0인 지점을 그냥 찾으면 됩니다. Cost function이 복잡한 경우 (예를 들어 logistic regression, neural networks,...)는 단순히 미분해서 0이 되는 점을 찾기 어렵고 따라서 gradient decent 방법을 통해 최적의 파라미터를 찾습니다.
@user-mo1xk7hc9z7 ай бұрын
@@user-yu5qs4ct2b 답변 감사합니다! 선형회귀모델에서의 cost function은 미분값이 0인 지점을 찾기 쉬운 형태의 식으로 구성되어 있나요?? (대부분 글이나 영상에서 선형회귀를 설명할 때 경사하강법을 설명하기에 그냥 미분 0인 값을 구하면 되는데 왜 경사하강법을 사용해서 learning rate등의 개념의 고민을 하는지 궁금해서 질문드렸습니다!)
@user-xb5dv2vi9m3 жыл бұрын
안녕하세요 교수님 항상 잘듣고 있어 감사드립니다. 질문이 있습니다. 편향과 분산을 공부하고 있는데 MSE 분해하는 증명중 ‘노이즈를 바꿔가며 반복적 모델링 했을 때 그 모델의 평균(추정했던 추정값 평균)이 얼마나 실제 정답과 가까운지’ 라고 하는데 노이즈가 확률오차를 말하는 것 같은데 노이즈를 바꿔가며 라는 말이 무엇인지요? 같은 데이터 셋이 노이즈를 바꿔가며 모델링을 하면 다른데이터 셋이 되고 각각에 추정값을 구한다고 하는데 노이즈가 바꿔면 실제값이 바뀌는 것 아닌가요? 실제값을 바꿔가며 추정한다? 이것땜에 몇일을 헤메고 있습니다. 답변 간곡히 부탁드립니다. ㅠ
@MrJonghwi914 жыл бұрын
안녕하세요 교수님, 수업 정말 잘 듣고있습니다. 혹시 9:58 에 나오는 2번식 (beta1 deriviation)에서 Xi가 Chain rule 로 인해 [Yi-(B0+B1Xi)]Xi 가 되어야하지 않나요?
@user-gf9vf5xf5x4 жыл бұрын
Yi가 아닌 Yi*Xi가 맞네요. 이 부분도 오타인듯해요
@oooo-wf3gh4 жыл бұрын
@@user-gf9vf5xf5x ㅇㅋ.
@deliciouscat5 жыл бұрын
좋은 강의 감사합니다. 11:07 beta1hat의 유도가 어떻게 되는지 알 수 있을까요?
@user-yu5qs4ct2b4 жыл бұрын
답변이 늦어 죄송합니다. 답글에서 적기는 좀 부족하고... 대부분의 통계책 회귀분석 Chapter에 자세한 유도과정 나와있습니다.
@user-ol9nl3pq4w4 жыл бұрын
교수님 감사합니다. 강의를 듣다보니 통계학에서 말하는 선형회귀분석과 기계학습에서의 선형회귀분석과 차이가 뭔지 궁금합니다.
@user-yu5qs4ct2b4 жыл бұрын
같다고 보시면 될 것 같습니다 ^^
@user-ol9nl3pq4w4 жыл бұрын
@@user-yu5qs4ct2b 선형회귀에서는 전통적인 통계용어에서 최근에 머신러닝이라는 용어로 바뀌었다고 보면 되는군요. 감사합니다!
@user-ol9nl3pq4w4 жыл бұрын
@@user-yu5qs4ct2b 교수님 그러면 신경망을 활용한 회귀분석은 가능한가요?
@user-yu5qs4ct2b4 жыл бұрын
@@user-ol9nl3pq4w 회귀분석 (Y가 연속형변수) 에 신경망모델 사용 가능합니다.
@4396jin4 жыл бұрын
강의 잘들었습니다. 다만, B0 의 추정값에 B0 이 아니라, B1이 아닌지요.? 여러 슬라이드에서 그렇게 표현하고 계셔서 단순 오타가 아닌거같습니다.
@user-yu5qs4ct2b4 жыл бұрын
네. 오타입니다. 다음 강의 앞부분에 수정 슬라이드를 포함했습니다. kzbin.info/www/bejne/q6LJiHl_mK55bNU