No video

[핵심 머신러닝] 선형회귀모델 2 (파라미터 추정, 최소제곱법)

  Рет қаралды 23,021

‍김성범[ 교수 / 산업경영공학부 ]

‍김성범[ 교수 / 산업경영공학부 ]

Күн бұрын

선형회귀모델의 파라미터를 추정하는 알고리즘인 최소제곱법 (Least Squares Estimation Algorithm)에 대해 설명합니다.

Пікірлер: 32
@Orange-kt3gy
@Orange-kt3gy 2 ай бұрын
지금 봐도 설명이 정말 명쾌하고 이해가 참 쉽네요. 다시한번 재능 공유 진심으로 감사드립니다.
@user-so8dr5zd3l
@user-so8dr5zd3l 4 жыл бұрын
강의 아직 몇 개 안 들었지만 정말 깔끔하고 쉽게 설명해 주시는 것 같아요. 감사합니다!
@user-yu5qs4ct2b
@user-yu5qs4ct2b 4 жыл бұрын
감사합니다!
@haikuandbeth
@haikuandbeth 3 жыл бұрын
교수님덕에 참 쉽게 배우게 되어 너무 감사드립니다. 최고에용 ^.^
@user-yu5qs4ct2b
@user-yu5qs4ct2b 3 жыл бұрын
감사합니다~
@hmpark1778
@hmpark1778 4 жыл бұрын
교수님 안녕하세요, 기억하실지 모르겠지만.. 학부때 교수님 강의 들었던 학생입니다 :) 업무때문에 배웠던 것들을 다시 공부하게되었습니다. 교수님 수업이 생각나서 이렇게 유투브 듣고있네요 감사합니다!
@user-yu5qs4ct2b
@user-yu5qs4ct2b 4 жыл бұрын
홍민아. 반갑다.도움이 되길 바라고 궁금한 점 있으면 편하게 연락해라~
@hmpark1778
@hmpark1778 4 жыл бұрын
‍김성범[ 교수 / 산업경영공학부 ] 감사합니다 교수님 :)!!
@maketing82
@maketing82 5 жыл бұрын
좋은 강의 감사합니다
@MZ-pj4eq
@MZ-pj4eq 3 жыл бұрын
교수님, 감사합니다!!
@user-yu5qs4ct2b
@user-yu5qs4ct2b 3 жыл бұрын
감사합니다!
@paul-ri1vs
@paul-ri1vs 2 жыл бұрын
ㅠㅠ좋은 강의 정말 감사합니다
@user-yu5qs4ct2b
@user-yu5qs4ct2b 2 жыл бұрын
감사합니다~
@EJ-lz6nc
@EJ-lz6nc 2 жыл бұрын
교수님 통계강의부터 시작해서 시계열 회귀분석 이후 강의를 접했습니다. 최소제곱법을 통해 본 베타1 수식을 보면 분자는 공분산이고, 분모는 자기자신의 공분산 혹은 분산꼴입니다. 이와 관련된 수학적 의미가 있는것인가요?
@jkim9931
@jkim9931 3 жыл бұрын
14:00 잔차와 엡실론의 차이
@user-mo1xk7hc9z
@user-mo1xk7hc9z 7 ай бұрын
교수님 강의 정말 도움 많이 됩니다! 너무 감사합니다!! 강의에서 질문이 있습니다!!! 1. 선형회귀에서의 Cost function은 항상 global optima를 갖는지 궁금합니다. 2. 8:49 설명하신 개념이 gradient descent로 보이는데, 실제 데이터는 cost function이 복잡해서 미분 계산을 통해 미분값이 0인 값을 찾는 것보다는 gradient descent 방법을 찾는다고 알고 있는데 맞는 개념인지 궁금합니다.
@user-yu5qs4ct2b
@user-yu5qs4ct2b 7 ай бұрын
1. 선형회귀모델에서의 cost function은 항상 global optima를 갖습니다. 2. 선형회귀모델의 cost function은 convex 형태이기 때문에 (최소값이 한개 존재, 미분 가능) 미분값이 0인 지점을 그냥 찾으면 됩니다. Cost function이 복잡한 경우 (예를 들어 logistic regression, neural networks,...)는 단순히 미분해서 0이 되는 점을 찾기 어렵고 따라서 gradient decent 방법을 통해 최적의 파라미터를 찾습니다.
@user-mo1xk7hc9z
@user-mo1xk7hc9z 7 ай бұрын
@@user-yu5qs4ct2b 답변 감사합니다! 선형회귀모델에서의 cost function은 미분값이 0인 지점을 찾기 쉬운 형태의 식으로 구성되어 있나요?? (대부분 글이나 영상에서 선형회귀를 설명할 때 경사하강법을 설명하기에 그냥 미분 0인 값을 구하면 되는데 왜 경사하강법을 사용해서 learning rate등의 개념의 고민을 하는지 궁금해서 질문드렸습니다!)
@user-xb5dv2vi9m
@user-xb5dv2vi9m 3 жыл бұрын
안녕하세요 교수님 항상 잘듣고 있어 감사드립니다. 질문이 있습니다. 편향과 분산을 공부하고 있는데 MSE 분해하는 증명중 ‘노이즈를 바꿔가며 반복적 모델링 했을 때 그 모델의 평균(추정했던 추정값 평균)이 얼마나 실제 정답과 가까운지’ 라고 하는데 노이즈가 확률오차를 말하는 것 같은데 노이즈를 바꿔가며 라는 말이 무엇인지요? 같은 데이터 셋이 노이즈를 바꿔가며 모델링을 하면 다른데이터 셋이 되고 각각에 추정값을 구한다고 하는데 노이즈가 바꿔면 실제값이 바뀌는 것 아닌가요? 실제값을 바꿔가며 추정한다? 이것땜에 몇일을 헤메고 있습니다. 답변 간곡히 부탁드립니다. ㅠ
@MrJonghwi91
@MrJonghwi91 4 жыл бұрын
안녕하세요 교수님, 수업 정말 잘 듣고있습니다. 혹시 9:58 에 나오는 2번식 (beta1 deriviation)에서 Xi가 Chain rule 로 인해 [Yi-(B0+B1Xi)]Xi 가 되어야하지 않나요?
@user-gf9vf5xf5x
@user-gf9vf5xf5x 4 жыл бұрын
Yi가 아닌 Yi*Xi가 맞네요. 이 부분도 오타인듯해요
@oooo-wf3gh
@oooo-wf3gh 4 жыл бұрын
@@user-gf9vf5xf5x ㅇㅋ.
@deliciouscat
@deliciouscat 5 жыл бұрын
좋은 강의 감사합니다. 11:07 beta1hat의 유도가 어떻게 되는지 알 수 있을까요?
@user-yu5qs4ct2b
@user-yu5qs4ct2b 4 жыл бұрын
답변이 늦어 죄송합니다. 답글에서 적기는 좀 부족하고... 대부분의 통계책 회귀분석 Chapter에 자세한 유도과정 나와있습니다.
@user-ol9nl3pq4w
@user-ol9nl3pq4w 4 жыл бұрын
교수님 감사합니다. 강의를 듣다보니 통계학에서 말하는 선형회귀분석과 기계학습에서의 선형회귀분석과 차이가 뭔지 궁금합니다.
@user-yu5qs4ct2b
@user-yu5qs4ct2b 4 жыл бұрын
같다고 보시면 될 것 같습니다 ^^
@user-ol9nl3pq4w
@user-ol9nl3pq4w 4 жыл бұрын
@@user-yu5qs4ct2b 선형회귀에서는 전통적인 통계용어에서 최근에 머신러닝이라는 용어로 바뀌었다고 보면 되는군요. 감사합니다!
@user-ol9nl3pq4w
@user-ol9nl3pq4w 4 жыл бұрын
@@user-yu5qs4ct2b 교수님 그러면 신경망을 활용한 회귀분석은 가능한가요?
@user-yu5qs4ct2b
@user-yu5qs4ct2b 4 жыл бұрын
@@user-ol9nl3pq4w 회귀분석 (Y가 연속형변수) 에 신경망모델 사용 가능합니다.
@4396jin
@4396jin 4 жыл бұрын
강의 잘들었습니다. 다만, B0 의 추정값에 B0 이 아니라, B1이 아닌지요.? 여러 슬라이드에서 그렇게 표현하고 계셔서 단순 오타가 아닌거같습니다.
@user-yu5qs4ct2b
@user-yu5qs4ct2b 4 жыл бұрын
네. 오타입니다. 다음 강의 앞부분에 수정 슬라이드를 포함했습니다. kzbin.info/www/bejne/q6LJiHl_mK55bNU
@4396jin
@4396jin 4 жыл бұрын
아, 넵 감사합니다. 좋은 강의 감사합니다.
[핵심 머신러닝] 선형회귀모델 3 (파라미터 구간추정, 가설검정)
25:30
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 18 М.
[핵심 머신러닝] 로지스틱회귀모델 2 (파라미터 추정, 해석)
24:49
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 23 М.
这三姐弟太会藏了!#小丑#天使#路飞#家庭#搞笑
00:24
家庭搞笑日记
Рет қаралды 103 МЛН
拉了好大一坨#斗罗大陆#唐三小舞#小丑
00:11
超凡蜘蛛
Рет қаралды 14 МЛН
小丑把天使丢游泳池里#short #angel #clown
00:15
Super Beauty team
Рет қаралды 48 МЛН
Люблю детей 💕💕💕🥰 #aminkavitaminka #aminokka #miminka #дети
00:24
Аминка Витаминка
Рет қаралды 674 М.
Linear Regression, Clearly Explained!!!
27:27
StatQuest with Josh Starmer
Рет қаралды 241 М.
최대우도법(Maximum Likelihood Estimation) 소개
11:04
공돌이의 수학정리노트
Рет қаралды 45 М.
[핵심 머신러닝] 선형회귀모델 4 (R2, ANOVA)
22:37
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 18 М.
[핵심 머신러닝] 머신러닝 모델 학습 프로세스
22:51
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 15 М.
[핵심 머신러닝] 정규화모델 1(Regularization 개념, Ridge Regression)
37:08
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 37 М.
Regression: Crash Course Statistics #32
12:40
CrashCourse
Рет қаралды 697 М.
[핵심 머신러닝] K-nearest neighbors & Distance Measures
42:55
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 18 М.
这三姐弟太会藏了!#小丑#天使#路飞#家庭#搞笑
00:24
家庭搞笑日记
Рет қаралды 103 МЛН