정말 양질의 강의 감사드립니다. 제 머리에 흩어져있던 모든 개념들이 퍼즐 맞춰지듯이 정리가 되네요. 좋은 강의력에 깔끔한 시각화까지 더해져 군더더기가 없었던 것 같습니다 감사합니다~!~!
@user-kb8rw5dy1z4 жыл бұрын
하루만에 1강부터 랜덤포레스트까지 전부 시청해버렸습니다. 이번 학기에 딥러닝 수강하고 있는데 큰 그림 잡는 데에 정말정말 좋은 강의인 것 같네요 다시 한 번 감사드립니다
@user-yu5qs4ct2b4 жыл бұрын
감사합니다!
@user-ny6il8zb3t3 жыл бұрын
이렇게 완벽한 강의를 ㅠㅠ 정말 돈주고도 못듣는 강의를 해주셔서 감사드려요!
@user-yu5qs4ct2b3 жыл бұрын
감사합니다!
@minimini4542 Жыл бұрын
승산 개념이 잘 이해가 되지않았었는데 영상이 도움되었습니다. 감사합니다!
@user-yu5qs4ct2b Жыл бұрын
도움이 되었다니 저도 기쁩니다!
@MZ-pj4eq3 жыл бұрын
교수님, 강의 감사합니다!!
@user-yu5qs4ct2b3 жыл бұрын
감사합니다!
@user-yo2rz6ih7p3 ай бұрын
이런 영상은 이과생들이 꼭 알아야 할 지식이다..
@gt4065b5 жыл бұрын
Thank you so much for this lecture~~ Great Lecture~ Loved it~
@user-yu5qs4ct2b5 жыл бұрын
Thank you so much for your support!
@user-ne6rk7bw2u4 жыл бұрын
좋은 강의 감사합니다
@user-yu5qs4ct2b4 жыл бұрын
감사합니다 ~
@yoorakim84744 жыл бұрын
좋은 강의 감사합니다!
@user-yu5qs4ct2b4 жыл бұрын
감사합니다!
@lillllilliiilllj5 жыл бұрын
늦깍이로 경제학 석사과정에서 공부중입니다. 매우 도움이 되어 감사합니다
@user-yu5qs4ct2b5 жыл бұрын
감사합니다!
@Bulgogi_Haxen Жыл бұрын
처음에 4:24에서 오차항이 0이라는 가정은 선형회귀가 binary data에는 적합하지 않는다는 설명하고 관련이 있는걸까요? 아니면 로지스틱 회귀에서의 가정일까요? 로지스틱 회귀에서는 반응 변수들이 베르누이 분포를 따르기 때문에 오차항에 대한 가정이 필요 없다고 알고있었어가지고 여쭤봐요.. 강의랑은 관련이 없지만.. 혹시 GLM들의 모집단 분포를 표현할 때는 항상 오차항을 넣어서 표현하는걸까요? 예를 들어 아래처럼요.. Y_i = \beta_0 + \beta_1 x_1 + .... + error g( E(Y_i) ) = \beta_0 + \beta_1 x_1 + .... \beta_k x_k 정말 죄송하지만 한가지만 더 여쭤볼게요... 로지스틱 회귀를 할 때는 그러면 로지스틱 함수에 관측된 설명변수들(X)을 통해 확률을 계산하고(회귀 계수는 뭐.. 여러가지 방법으로 초기화한다음에), 이를 통해 MLE를 통해서 회귀계수들을 조정하고, 이렇게 모델링된 확률( P(Y=1|X) ), 로지스틱 함수)을 Logit 변환을 통해 선형식으로 표현하는 이유가 단순하게, 선형회귀처럼 각 회귀계수들의 의미를 해석하기 편하도록 하기 위한건가요? (GLM 모두 포함해서.. ) 쓰다보니.. GLM 모두가 회귀계수 해석을 위해 만들어진건가보군요... 어렵네요 ㅠ.ㅠ.ㅠ.ㅠ.ㅠ... 항상 공부하면서 다른 영상들도 많은 도움을 받고 있습니다. 감사합니다.