이야기로 설명하는 최대 우도 추정법 (Maximum Likelihood Estimation)

  Рет қаралды 17,992

Sangho Lee

Sangho Lee

5 жыл бұрын

최대우도추정법 (Maximum Likelihood Estimation)을 최대한 쉽게 설명하려고 노력했습니다. 패턴인식, 기계학습을 처음 공부하시는 분들이 들으시면 좋을 것 같습니다.

Пікірлер: 44
@junoju9767
@junoju9767 3 жыл бұрын
수학의 신비 : 설명이든 강의든 들을때만 이해가 됨. 나중에 다시보고 또 끄덕임. 그리고 돌아서면 또 까먹음.
@hunkims
@hunkims 5 жыл бұрын
더 많은 영상 기대합니다!
@yoonchaena671
@yoonchaena671 5 жыл бұрын
아주 명쾌하고 쉬운 설명입니다. 감사합니다.
@user-sb4ml4gz2b
@user-sb4ml4gz2b 4 жыл бұрын
쏙쏙 이해가 됩니다. 명강의 잘 듣고 갑니다.
@user-oq6zl2ry4r
@user-oq6zl2ry4r 5 жыл бұрын
너무 명쾌해서 눈물이 다 나네요 ㅠㅠ 감사합니다
@user-dc4kv1qs4q
@user-dc4kv1qs4q 4 жыл бұрын
Maximum Likelihood Estimation 을 이해하는 데에 큰 도움이 되었습니다. 감사합니다.
@DonDon-gs4nm
@DonDon-gs4nm 5 жыл бұрын
이해가 쏙쏙 되네요~~ 올려주셔서 감사합니다 ㅎㅎ
@user-hm4vf3tk4x
@user-hm4vf3tk4x 4 жыл бұрын
감사합니다! 설명 진짜 찰떡인거 같아요 ㅎㅎ 이해 정말 잘 되었습니다 ㅎㅎ
@user-tm1hp2tu4z
@user-tm1hp2tu4z 5 жыл бұрын
정말 좋은 강의 감사합니다!!
@user-db2cw2ig1w
@user-db2cw2ig1w 3 жыл бұрын
교수님한테 배웠을 때 하나도 못알아들었는데 이걸 이렇게 명쾌하게 설명해주시네요... 너무너무 감사합니다 ㅠㅠ
@kwonmh628
@kwonmh628 2 жыл бұрын
저두요
@user-cz9vx3ig8h
@user-cz9vx3ig8h 2 жыл бұрын
최고의 강의였습니다.
@junanyoo
@junanyoo 5 жыл бұрын
영상 감사합니다!
@user-jf4hj2fm4u
@user-jf4hj2fm4u 2 жыл бұрын
MLE를 직관적으로 이해하는 데 많은 도움이 되었습니다. 감사합니다 !
@sangrocklee8612
@sangrocklee8612 5 жыл бұрын
이렇게 명쾌한 설명이라니...
@dang3877
@dang3877 4 жыл бұрын
영상 감사합니다. 쉽게 이해했어요ㅎㅎㅎ
@user-ch9rd2wg5t
@user-ch9rd2wg5t Жыл бұрын
와 설명을 진짜 쉽게 잘해주시네요~ mle가 뭔지 왜 그렇게 논리를 전개해 나가는지 의미 파악이 안되었는데 이제야 깨달았네요~ 감사합니다~
@yonghwanyim7895
@yonghwanyim7895 Жыл бұрын
정말 쉽게 이해됐어요! 감사합니다!!
@user-wd9zk2uo1k
@user-wd9zk2uo1k 3 ай бұрын
너무좋아요
@hobin6403
@hobin6403 5 жыл бұрын
와 진짜 이해가 잘되네요 ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ 비유 오졌따리
@user-gu1qx9bo3s
@user-gu1qx9bo3s 4 жыл бұрын
와..... 고맙습니다.
@user-ws9tg7cv2y
@user-ws9tg7cv2y 3 жыл бұрын
쉬운 설명 감사합니다 ^^^
@loveceugene
@loveceugene 2 жыл бұрын
대박! 이해가 정말 빨라요!
@leafeyes88
@leafeyes88 2 жыл бұрын
와 너무 좋아. 사랑합니다.
@user-qh1jp1dr2m
@user-qh1jp1dr2m Жыл бұрын
와 진짜감사해요
@user-xf1gm4en4e
@user-xf1gm4en4e 4 жыл бұрын
영상 정말 잘보고 갑니다
@oo4857
@oo4857 3 жыл бұрын
7:45 독립 변수의 확률아시는분들은 여기부터 보시면 될듯. 좋은강의 감사합니다.
@ycho7120
@ycho7120 4 жыл бұрын
감사합니다
@danny04278
@danny04278 3 ай бұрын
이거봐야지
@Hyunseokim0513
@Hyunseokim0513 2 ай бұрын
You Goat
@user-hg4jd9we4d
@user-hg4jd9we4d 4 жыл бұрын
와 .. 감사합니다.. ㅜ
@seilk226
@seilk226 2 жыл бұрын
이미 관측된 결과가 가장 높은 확률(maximum)로 발생할 수 있도록 하자. log, 미분계산 활용. 이 과정을 통해서 초기에 정한 모델변수의 최적의 값을 계산한다. ex) 모델변수 : b 상황에서 a 가 일어날 확률( p(a|b) ) 관측치 : b 상황에서 a는 4번 일어남 Maximum Likelihood Estimation : b 상황에서 a 가 4번 일어날 수 있도록 하는 최적의 모델변수 값을 계산 (Combination, 독립사건)
@deven_12
@deven_12 Жыл бұрын
시바.. 아 죄송; 설명 진짜 지대로 하시네요. 나의 선생님이 되어주세요 ~ ㅎ
@user-qo2kc7qg5i
@user-qo2kc7qg5i 4 жыл бұрын
흰돌 검은돌 뽑을때 순서가 정해져 있어서 앞에 경우수를 곱한건가요? 순서를 생각하지 않는 경우는 경우수를 곱하지 않아도 되는지 궁금합니다
@sangholeekr
@sangholeekr 4 жыл бұрын
이영호 흰돌 6개, 검은돌 4개라고만 이야기를 한 상태라서, 어떤 순서로 뽑았는지를 가르쳐주지 않았으니까 모든 조합의 수를 다 계산한 것입니다. 만약 첫째 돌은 흰색, 둘째 돌은 검은 색, 이런 식으로 다 가르쳐주었다면 조합을 구할 필요는 없겠죠.
@user-qo2kc7qg5i
@user-qo2kc7qg5i 4 жыл бұрын
@@sangholeekr 그렇군요 감사합니다! 결국엔 미분하는 과정에서 상수는 날라가서 의미가 없긴 하네요 크흠 ㄷㄷ
@aminmok3346
@aminmok3346 2 жыл бұрын
안녕하세요 반갑습니다. 저도 최대우도법에 대해 나름대로 이해하고 정리는 해봤는데, 잘 이해가 안되는 부분이 편미분해서 0이 되도록 하는 부분인데요. (전공분야가 아니라 독학으로 해서 그런지 수학적으로 빈 부분이 많나봅니다 ㅠㅠ) 대부분 책이든 인터넷이든 MLE 설명하면서 로그 취해가지고 그냥 편미분하고 0되는 점의 파라미터를 구하도록 하고 있는데.. 항상 너무 당연하게들 이렇게 풀어서 수학적으로 제가 놓치고 있는 부분이 있는게 아닌가 하는 생각이 듭니다. 이 부분에 대해 조금 자세한 설명 가능하신지요? 도저히 모르겠습니다 ㅠㅠ (단지 고등학교 수학에서만 봐도 미분해서 0이 되는 지점은 극대극소점 등이라 최대최소를 미분해서 0이 되는 것만으로는 판단할 수 없지 않나 생각되구요. 어떤 분포를 따르는지 정확히 알수 없는 경우도 있어 단순히 미분해서 0이 되도록 하는 파라미터를 찾는 것이 어떻게 최대값을 찾는 것인지 잘 모르겠습니다)
@sangholeekr
@sangholeekr 2 жыл бұрын
미분 값이 0이라는 것은 값의 증가/감소가 없는 위치 즉 최대값 혹은 최소값이라는 것이죠. 그러면 그 위치가 항상 최대값의 위치이냐라고 하면 그건 아닐 것 같아요. 이차미분을 해서 그 값이 (최대값위치는 기울기가 증가하다가 감소하니깐 그 위치의 2차 미분은 결국 음수값) 마이너스이면 조건을 만족할 것입니다. 그런데 이런거 다 차치하고, 위 식 f(p)=4log(p)+6log(1-p) 형태만 보면 일단 log 두 개가 더해진 것이고 (log는 증가함수이므로) 한쪽이 커지면 (log(p)) 다른 한쪽은 값이 감소 (log(1-p))하게 되고 이걸 4:6으로 섞는 형식이니 그냥 그 중간 어느 위치 (0과 1사이) 가 최대일 것 같은 느낌이 들게 됩니다.
@onemanfourtanks5556
@onemanfourtanks5556 10 ай бұрын
감사합니다. 항상 궁금했었는데... 장님이 눈을 뜬 느낌입니다. 그런데 max 앞에 arg 는 왜 붙이는건가요? 그냥 무시하고 봐도 이해는 되었지만, 이것도 긍금하네요. 서치해보니 argument를 maximize 한다는데.. 통 무슨 말인지 모르겠네요.
@sangholeekr
@sangholeekr 10 ай бұрын
Y = max P(x)라는 식이 있다면 모든 x에 대해서 P(x)를 구해서 그 중 가장 큰 값이 Y가 되는 것이고요, Y = arg max P(x)라는 식은 P(x) 값 중 가장 큰 값이 되게 만든 그 x가 Y로 됩니다. 즉 최대우도 추정은 발생확률을 최대로 만든 그 상태 x를 찾는 일이지, 정작 최대 발생확률 자체를 알아봐야 써 먹을 곳이 없습니다.
@JoNazKim
@JoNazKim 4 жыл бұрын
제목은 without tears인데 너무 간단명료해서 눈물이 납니다 ㅠ
@specialhwang
@specialhwang 3 жыл бұрын
가설이 복원 추출이어서, 동전 10번 던져서, 4번 앞면이 나오는 문제로 변환되고, 이때, p(역확률)값을 추정하는 문제로 보여집니다. binomial likelihood를 추정하는 문제로 설명하네요. 한번에 10개 추출했다고 가정하면 다른 문제가 될 것 같습니다. 어떤분은 이 비슷한 문제를 capture-recapture 문제로 설명한것을 youtue에서 봤습니다. 이때는 likelihood 함수가 binomial 분포에서 유도 되지 않았습니다. 이런 저런 자료를 보다 보니 개념에 혼동이 ... 도대체 likelihood 함수 vs pdf ?
@user-bf2le1ms7x
@user-bf2le1ms7x Жыл бұрын
8:35 16:10
@lutaaz
@lutaaz 2 ай бұрын
(기립박수)
최대우도법(Maximum Likelihood Estimation) 소개
11:04
공돌이의 수학정리노트
Рет қаралды 44 М.
MLE vs MAP - 1.Introduction
23:14
공대형아
Рет қаралды 5 М.
ROCK PAPER SCISSOR! (55 MLN SUBS!) feat @PANDAGIRLOFFICIAL #shorts
00:31
Получилось у Вики?😂 #хабибка
00:14
ХАБИБ
Рет қаралды 7 МЛН
ОСКАР vs БАДАБУМЧИК БОЙ!  УВЕЗЛИ на СКОРОЙ!
13:45
Бадабумчик
Рет қаралды 2,9 МЛН
최대우도 추정량(MLE)의 직관적 이해
9:44
슬기로운통계생활
Рет қаралды 6 М.
베이즈 정리의 의미
22:20
공돌이의 수학정리노트
Рет қаралды 78 М.
Machine Learning: Maximum Likelihood Estimation
9:32
Boris Meinardus
Рет қаралды 14 М.
Maximum Likelihood Estimation for the Poisson Distribution
16:39
Samuel Cirrito-Prince
Рет қаралды 34 М.
Maximum Likelihood, clearly explained!!!
6:12
StatQuest with Josh Starmer
Рет қаралды 1,3 МЛН
When you have 32GB RAM in your PC
0:12
Deadrig Gaming
Рет қаралды 1,2 МЛН
Best mobile of all time💥🗿 [Troll Face]
0:24
Special SHNTY 2.0
Рет қаралды 3,2 МЛН
PART 52 || DIY Wireless Switch forElectronic Lights - Easy Guide!
1:01
HUBAB__OFFICIAL
Рет қаралды 25 МЛН
Урна с айфонами!
0:30
По ту сторону Гугла
Рет қаралды 8 МЛН