No video

[핵심 머신러닝] 선형회귀모델 4 (R2, ANOVA)

  Рет қаралды 18,271

‍김성범[ 교수 / 산업경영공학부 ]

‍김성범[ 교수 / 산업경영공학부 ]

Күн бұрын

결정계수(R2)와 선형회귀모델에서의 분산분석 (ANOVA)에 대해 설명합니다.

Пікірлер: 26
@soyeonmoon2611
@soyeonmoon2611 9 ай бұрын
정말 쉽고 꼼꼼하게 설명해주셔서 감사합니다😂 처음접하는 학생도 이해할수 있을것같습니다. 복받으십시오 교수님!
@user-yv7fz6gc9e
@user-yv7fz6gc9e 3 жыл бұрын
지난 학기 교수님의 수리통계 수강했던 학생입니다. 머신러닝에 관심이 생겨서 듣고 있는데 큰 도움이 됩니다. 감사합니다.
@user-yu5qs4ct2b
@user-yu5qs4ct2b 3 жыл бұрын
감사합니다!
@kangsj0327
@kangsj0327 Жыл бұрын
좋은 강의 올려주셔서 감사합니다. 전공 공부하는데 도움이 많이 되네요.
@user-yu5qs4ct2b
@user-yu5qs4ct2b Жыл бұрын
도움이 되셨다니 다행입니다.
@heisenberg4008
@heisenberg4008 2 жыл бұрын
꼼꼼하게 설명해주셔서 정말 이해가 잘 되네요 감사합니다.
@nnaeueun
@nnaeueun 4 жыл бұрын
감사합니다 교수님!
@user-yu5qs4ct2b
@user-yu5qs4ct2b 4 жыл бұрын
감사합니다!
@MZ-pj4eq
@MZ-pj4eq 3 жыл бұрын
교수님, 감사합니다!!
@user-yu5qs4ct2b
@user-yu5qs4ct2b 3 жыл бұрын
감사합니다!
@liasjdkfalds23
@liasjdkfalds23 3 жыл бұрын
명강의 감사합니다
@user-yu5qs4ct2b
@user-yu5qs4ct2b 3 жыл бұрын
감사합니다!
@beomseokkwon6745
@beomseokkwon6745 5 жыл бұрын
강의 감사합니다
@user-yu5qs4ct2b
@user-yu5qs4ct2b 5 жыл бұрын
감사합니다.
@albertlee5312
@albertlee5312 4 жыл бұрын
감사합니다. 교수님 마지막 중고차 데이터에서 에러의 DF 가 7로 되어있는데 Observation 수가 10이면... 아 n - (# of parameters) 가 되어서 7인 것이네요 감사합니다!
@thw1235
@thw1235 3 жыл бұрын
설명감사합니다!
@user-yu5qs4ct2b
@user-yu5qs4ct2b 3 жыл бұрын
감사합니다!
@choonlog
@choonlog 3 жыл бұрын
안녕하세요 교수님, 좋은 강의 감사합니다. 한 가지 궁금한점은 R^2 값이 negative도 가능할거 같은데요(model이 아주 좋지 못할 경우 SSE가 SST보다 더 큰 값을 가질 수도 있을거 같아서요). Range가 항상 [0, 1] 이라고 볼 수 있는 것인지요? 아니면 '대체로 그러하다'라고 생각하면 될까요?
@user-nc4ey6lk1i
@user-nc4ey6lk1i 3 жыл бұрын
R^2값이 negative는 불가능할것같아요 최소제곱법으로 모델을 만드는데 SSE값이 SST보다 크지 않겠죠?? 그리고 만약 SSE가 SST보다 더 큰값을 가진다면 SSR이 음수가 되야되는데 제곱합인 분산이 음수를 가지는것에 모순이 되네요
@choonlog
@choonlog 3 жыл бұрын
@@user-nc4ey6lk1i 좋은 의견 감사합니다. 말씀하신대로 data의 feature수가 적어서 최소제곱법으로 계산이 가능하다면 SSE값이 SST보다 클 일은 없을것 같아요. 그런데, data의 non-linearity가 강하고 feature수가 굉장히 많아서 neural net model로 학습을 했다고 해봅시다(analytic하게 각 parameter의 편미분값이 0이 되도록 하고 연립 미분방정식을 푸는게 아니라, gradient descent로 parameter를 학습한다고 할 때). 그런데, 모델 설계를 정말 정말 잘못해서 prediction을 엉뚱하게 하게 되었어요. 이런 가능성은 물론 거의 없겠지만, 오히려 평균으로 prediction할 때보다 성능이 더 안 좋은 경우도 발생할거 같은데, 그런 의미에서 '이론적'으로는 negative값도 충분히 가능하다고 생각됩니다. 다소 정성적인 설명이긴 하지만, r^2=1-SSE/SST 이 부분만 보면.. 그렇게 생각되어지네요.
@will981116
@will981116 Жыл бұрын
교수님 수업 감사합니다. 정리하자면, 선형회귀모델에서 저희가 검정과 관련하여 배운 것이 1. beta1에 대한 신뢰구간을 구하고, 여기에 beta1의 point estimator값이 속하냐 아니냐로 귀무가설 기각여부 판별이 가능할 것이고 2. beta1의 point estimator값과 standard error값을 통해 검정통계량 t값을 구하고, p-value를 계산함으로써 귀무가설 기각여부 판별이 가능할 것이며 3. SSE, SSR, SST와 같은 분산들이 카이제곱분포를 따르고, 이 중 SSR과 SSE에 대해 자유도 보정을 해줌을써 구한 비율이 F분포를 따르므로 여기서 F검정통계량 값을 구해 p-value를 계산함으로써 귀무가설 기각여부 판별이 가능한 것이 맞을까요? 추가적으로 2번에서의 검정통계량 값은 왜 t분포를 따르고, 3번의 검정통계량은 왜 F분포를 따르는지는 어떻게 판단할 수 있을까요?
@ycb7437
@ycb7437 2 жыл бұрын
안녕하세요! 오늘 배운 분산분석(ANOVA) 의 귀무가설과 대립가설이 저번시간에 배운 t분포를 사용한 가설검정의 귀무가설, 대립가설과 일치한데 변수(X) 의 갯수가 2이상이기때문에 ANOVA를 사용하는건가요? 만약 아니라면 t 검정과 ANOVA는 어떤 차이가 있을까요? 감사합니다!
@Cooffees019
@Cooffees019 2 жыл бұрын
SSE(explained sum of squares) SSR(residual sum of squares)의 공식이 서로 바뀐것 같습니다, 아무래도 SSE가 X로 설명가능함으로서 y^ 밑에 있어야 하지 않나 싶습니다,확인 부탁 드립니다.
@user-yu5qs4ct2b
@user-yu5qs4ct2b 2 жыл бұрын
어느 페이지를 말씀하시는 건지요?
@just_realize
@just_realize 3 ай бұрын
1:27 SSR, SSE 설명하시는 부분부터 쭉 관련 공식과 표시가 반대로 되어있는거 같습니다.
@jkim9931
@jkim9931 3 жыл бұрын
11:50 선형회귀 분석애서 anova
[핵심 머신러닝] 로지스틱회귀모델 1 (로지스틱함수, 승산)
22:19
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 46 М.
[핵심 머신러닝] 로지스틱회귀모델 2 (파라미터 추정, 해석)
24:49
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 23 М.
Gli occhiali da sole non mi hanno coperto! 😎
00:13
Senza Limiti
Рет қаралды 22 МЛН
Please Help Barry Choose His Real Son
00:23
Garri Creative
Рет қаралды 23 МЛН
[핵심 머신러닝] 선형회귀모델 3 (파라미터 구간추정, 가설검정)
25:30
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 18 М.
[핵심 머신러닝] 선형회귀모델 2 (파라미터 추정, 최소제곱법)
19:33
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 23 М.
[핵심 머신러닝] K-nearest neighbors & Distance Measures
42:55
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 18 М.
Ch11_05.R 회귀분석(Regression)(최소제곱법)05
12:43
강서대학교 빅데이터경영학과 이상철 교수
Рет қаралды 18 М.
[핵심 머신러닝 ]뉴럴네트워크모델 1 (구조, 비용함수, 경사하강법)
32:35
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 19 М.
[핵심 머신러닝] 의사결정나무모델 1 (모델개요, 예측나무)
29:39
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 23 М.
논문통계분석 기초와 논문 작성법 (6) 회귀분석
21:08
[핵심 머신러닝] 정규화모델 1(Regularization 개념, Ridge Regression)
37:08
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 37 М.
Gli occhiali da sole non mi hanno coperto! 😎
00:13
Senza Limiti
Рет қаралды 22 МЛН