카이제곱 분포와 검정
16:33
3 жыл бұрын
매개변수 변환법
16:00
3 жыл бұрын
미정계수법
11:26
3 жыл бұрын
Trace-Determinant Plane
10:26
3 жыл бұрын
연립 미분방정식 모델링
10:54
베르누이 미분방정식
12:01
3 жыл бұрын
1계 선형 미분방정식의 해법
17:25
변수분리법
15:25
3 жыл бұрын
방향장과 오일러 방법
13:31
3 жыл бұрын
블로그 사용 방법 소개
7:03
3 жыл бұрын
Пікірлер
@shaky670
@shaky670 5 күн бұрын
수년동안 수식 의미를 몰랐는데 강의듣고 이제야 알게되었네요
@tjdgus1999
@tjdgus1999 9 күн бұрын
단순히 수학적으로 설명하는것들을 봤을때는 와닿지가 않아서 이해가 안됐는데 어디에 활용되는지 왜 쓰는지 설명해주셔서 납득이 되고 이해가 잘 되는것같습니다. 늦었지만 좋은 강의 감사합니다.
@user-el2nb3zl6t
@user-el2nb3zl6t 10 күн бұрын
아아 미친 그래서 내적0이면 기저 취급한거였구나 아예 일치하지않다는 의미인거니깐 그냥 내적=0 =기저직교함수라고 머리에 넣었는데 지나가듯 던진 내적=얼만큼 유사해?가 큰 깨달음주네요
@uranusuranus9835
@uranusuranus9835 10 күн бұрын
감사합니다
@Sanbie
@Sanbie 12 күн бұрын
특정 구간 분포에 있을 때 그 pdf에서 데이터들이 더 큰 확률들을 가진다. 그 확률들을 곱하였을 때, 가장 큰 가능도를 가지는 특정구간의 통계량(평균, 분산)을 추정량으로 선정 소규모 연구에서는 편향이 발생할 우려가 있겠지만, 그렇기에 대규모 데이터가 모이는 인공지능에서 주로 사용. 빠르고, 효율적인 추정 방법
@bwshin413
@bwshin413 12 күн бұрын
기말 수학시험 보는데 강의내용만 복습하긴 지루해서 이거저거 찾아보다 보네요 굿굿
@박선영-b2s
@박선영-b2s 16 күн бұрын
5:33 공분산행렬의 각 요소는 행(data instance) 간 닮음 정도 (서로 함께 변하는 정도) 6:44 sample 수에 의해 값커지는 것 무효화 9:15 공분산 행렬은 수학적으로 선형변환 (shearing) 11:49 pca : 데이터의 구조 살리면서 차원감소 13:57 2차원 평면 상의 산점도를 1차원이 정사영 14:54 주축을 찾아 정사영시켜주는게 적절할것 17:04 정사영후의 분산이 클수록 데이터의 원존구조를 잘 살린것임 19:45 주축을 잘 찾는것: 크기만 바뀌고 방향은 안바뀌
@박선영-b2s
@박선영-b2s 16 күн бұрын
24:09 아이젠벨류가 큰 2개만 보면 3차원->2차원
@박선영-b2s
@박선영-b2s 16 күн бұрын
6:51 맥락을 고려한 상대적 거리 7:08 맥락의 수학적 정의->표둔편차 9:09 맥락을 정규화한 상태에서 유클리드거리->맥락을 고려한 상대적 거리 10:31 공분산 행렬의 역행렬을 이용해 맥락을 정규화 13:43 z의 모든열은 표준정규분포에서 iid 15:40 피쳐간의 닮음을 조사 16:33 xtx 17:58 about 공분산 행렬 22:54 결론
@-_--__---___
@-_--__---___ 18 күн бұрын
영상을 봤는데도 왜 굳이 귀무가설을 사용하는지 이유를 잘 모르겠어요ㅠ 만약 말씀하신대로 귀무가설이 틀렸음을 증명하는 게 대립가설이 맞음을 증명하는 것보다 "쉽다"면, 뭔가를 덜 증명했다고밖에 볼 수 없지 않나요? 귀무가설이 틀림과 대립가설의 맞음이 동치이고 별다른 수학적인 조작을 한게 없는데 증명 난이도가 다를 수가 있나요?
@AngeloYeo
@AngeloYeo 17 күн бұрын
말씀하신 부분이 참 의미가 있습니다. 귀무가설이 틀림을 증명하는 것과 대립가설이 맞음을 증명하는 것은 동치가 아닙니다. 귀무가설과 대립가설의 관계는 보통 상호 배타적이지만, 귀무가설을 기각하는 것이 반드시 대립가설을 증명하는 것과 같은 것은 아닙니다. 귀무가설을 기각한다는 것은 귀무가설이 맞지 않을 가능성이 크다는 것을 의미하며, 이는 대립가설이 맞을 가능성을 높여주지만, 그것이 대립가설이 참임을 직접적으로 증명하는 것은 아닙니다. 통계적 검정의 목적은 귀무가설을 기각할 수 있을 정도로 충분한 증거가 있는지를 평가하는 것입니다. 이는 대립가설을 "증명"하는 것이 아니라, 귀무가설을 기각할 수 있는 충분한 증거가 있는지를 확인하는 과정입니다. 수학적 증명은 논리적으로 절대적인 확신을 주는 반면, 통계적 검정은 확률적인 증거에 기반합니다. 따라서 통계에서는 절대적인 증명이 아니라, 데이터를 통해 얻은 증거로부터 결론을 내립니다. 예를 들어, 새로운 약물이 기존 약물보다 효과가 있다는 것을 입증하기 위해, 연구자들은 귀무가설(새로운 약물이 기존 약물과 효과가 같음)을 설정하고, 실험을 통해 이를 기각할 수 있는지를 검토합니다. 귀무가설이 기각되면, 대립가설(새로운 약물이 더 효과적임)을 지지하는 방향으로 해석하게 됩니다. 하지만 귀무가설을 기각했다고해서 항상 대립가설을 증명한 것이라고는 보기 어렵습니다. 여담으로, 이와 같은 귀무가설의 기각을 이용한 증명법은 피셔가 개발한 방법이며, 이 방법의 논리를 계속해서 따라가는 통계학자들이 있습니다. 이 방법이 주를 이루는 방법이기 때문에 많이 활용하고 있는 것입니다. 개인적으로는 피셔의 원래 논문을 찾아보시고 그가 말하는 한계점들에 대해서도 살펴보시는 것을 추천드립니다. 분명한 한계점에도 불구하고 요즘의 통계학에서 여전히 주로 활용되고 있는 방법이라는 점을 짚고 넘어가는게 도움이 되기도 하기 때문입니다.
@-_--__---___
@-_--__---___ 17 күн бұрын
@@AngeloYeo 상세한 답변 감사합니다! 한번 찾아보고 저도 이해해보겠습니다
@usr-sdd-2ffv
@usr-sdd-2ffv 22 күн бұрын
와 예제와 설명 미쳤네요. 왠만한 딱딱한 강의보다 10배 좋습니다.
@권다운-g8m
@권다운-g8m 26 күн бұрын
안녕하세요, 강의 잘 봤습니다. 덕분에 급히 써야 하는 개념인데 잘 공부했습니다. 다만, 선형대수학을 거의 공부해본 적이 없다 보니 강의를 듣고 나서 모호한 점이 있습니다. 대략 16:45부터 언급하신 동일한 행렬에 대해 원소 별 나눗셈을 수행한 결과가 Identity Matrix라는 것이 모호합니다. 제가 아는 선의 Identity Matrix는 대각 원소가 모두 1이고, 나머지는 0의 값을 갖는 행렬입니다. 다만, 해당 영상에서 수행한 연산의 결과는 '모든 원소의 값이 1인 행렬이 아닌가?'라는 의문이 남아있습니다. 해당 부분에 대한 답변을 듣고 싶습니다. 강의 잘 들었습니다 :)
@AngeloYeo
@AngeloYeo 26 күн бұрын
안녕하세요. 말씀해주신 부분은 제가 잘못 설명했네요. identity matrix가 아니라 모두 1로 구성된 행렬이 되어야 합니다. 이부분은 제가 정정 댓글을 쓰고 블로그도 수정하겠습니다.
@usr-sdd-2ffv
@usr-sdd-2ffv 26 күн бұрын
우리 나라 공학의 발전에 기여하신 분 감사합니다.
@haeseong-w3h
@haeseong-w3h 27 күн бұрын
영상 (10분 30초)에 코드 line 27에서 classf가 적혀있습니다. classf는 train_data, train_label, test_data, test_label 4개의 인수를 입력으로 받는 inline 함수인데, 어떻게 인수 없이 line 27에서 사용된 것일까요?
@AngeloYeo
@AngeloYeo 27 күн бұрын
sequentialfs의 문서를 보시기 바랍니다. kr.mathworks.com/help/stats/sequentialfs.html 첫 번째 입력 인자가 함수 핸들이기 때문에 영상 10:30에서 첫 번째 인자에 인수 없이 함수 핸들만 입력한 것입니다.
@빽미르
@빽미르 29 күн бұрын
수백년이지난 지금도 이자율로 설명 하는곳 만 있네요 신박 하고 눈이 확 떠지는 설명은 없을까요?
@phoenix2718Utube
@phoenix2718Utube 29 күн бұрын
그 어떤 정리보다 깔끔하고 직관적입니다! 대단한 재능을 가지신 듯해요. 감사합니다.
@haeseong-w3h
@haeseong-w3h Ай бұрын
안녕하세요 영상 잘 보았습니다. 7분에 cvpartion(y_train,~,~)으로 cross validation을 수행하였는데, cvpartition(y,~,~)로 수행하는 것이 맞는 것 같습니다. cross validation은 Training set과 Test set이 구분되지 않은 상황에서 어떤 Data를 Training set으로, Test set으로 분류했을 때 최고의 classification 성능이 나오는지를 파악하기 위한 것이기 때문입니다. 지금 cvpartition(y_train,~,~)으로 코드를 작성하신다면 Training set과 Test set을 이미 구분한 이후에 한번 더 Training set을 cross validation을 하기 위해 구분한다고 보여지므로 잘못된것 같습니다.
@AngeloYeo
@AngeloYeo Ай бұрын
안녕하세요. Training 셋을 Training 과 Validation셋으로 나누는 작업이기 때문에 y_train을 스플릿한 것으로 보입니다.
@haeseong-w3h
@haeseong-w3h Ай бұрын
@@AngeloYeo 친절한 답변 감사드립니다! 잘 이해가 되었습니다. 추가적으로 한가지만 더 여쭤보겠습니다. 영상 (10분 30초)에 코드 line 27에서 classf가 적혀있습니다. classf는 train_data, train_label, test_data, test_label 4개의 인수를 입력으로 받는 inline 함수인데, 어떻게 인수 없이 line 27에서 사용된 것일까요?
@pjohjontyp
@pjohjontyp Ай бұрын
감사합니다
@meiranfeng-ky1tj
@meiranfeng-ky1tj Ай бұрын
신입학부생입니다. 함수의 곱 적분(부분적분)을 내적으로 보는 발상은 한번도 생각해보지 못했습니다. 참 신기하고 기묘해서 3:15를 5번 돌려봤습니다.
@pazzini_lorenzo
@pazzini_lorenzo Ай бұрын
정말정말 좋습니다
@pazzini_lorenzo
@pazzini_lorenzo Ай бұрын
날 이해시키다니... 합격!
@오재무-j7f
@오재무-j7f Ай бұрын
안녕하십니까. 교차분석에서 실제 계산된 통계량이 자유도의 상위95%의 카이제곱 분포보다 큰경우 성별 및 메뉴판에대한 기대값에서 유의하게 벗어난다고 볼수있다고 이해가 됩니다. 그렇다면 유의하게 벗어낫을경우 어떤 항목(EX 남학생+ 짜장면)이 유의하게 벗어났는지 확인할수있을까요?
@vehekalfyywehhshxb
@vehekalfyywehhshxb Ай бұрын
미쳤네요.
@pazzini_lorenzo
@pazzini_lorenzo Ай бұрын
잘들었습니다 감사합니다
@ohsungc2
@ohsungc2 Ай бұрын
09:40 약간 말이 헷갈리는데, 같은 주파수인 정현파 2개 이상끼리 연산을 할때, 주파수와 시간없이도 더할 수 있으니 잠시 뺐다가 나중에 필요할때 다시 붙여준다는 얘기인가요?
@YjChl-z9r
@YjChl-z9r Ай бұрын
강의 같은건 따로 안하시나요?.. 어느 영상을 봐도 항상 이 영상으로 회귀합니다.... 없는 내용이 없어요 ㅠ.ㅠ 이해도 정말 쉽고 좋아요!! 자연어처리 분야 대학원생인데 선대수에 좀 약해서 항상 찾아보고 있습니다... 항상 감사합니다
@AngeloYeo
@AngeloYeo Ай бұрын
@@YjChl-z9r 그냥 직장인이라... 강의는 하지 않습니다 ^^... 좋게 봐주셔서 감사합니다. 아시겠지만 블로그도 있습니다 ㅎㅎ 필요하시면 참고해주세용 angeloyeo.github.io/
@reginakim9265
@reginakim9265 Ай бұрын
좋은 강의 감사합니다ㅎㅎ
@reginakim9265
@reginakim9265 Ай бұрын
깔끔하게 설명해주셔서 이해하는데 도움이 정말 많이 됩니다. 좋은 영상 감사합니다ㅎㅎ
@6sl5j3hc2iroa8fjr
@6sl5j3hc2iroa8fjr Ай бұрын
교수법이 부족한 교수님보다 잘 가르치시네요.. 훌륭하십니다.
@마리-z8v
@마리-z8v Ай бұрын
5:13 이동 거리가 왜 기울기의 크기가 되는 것인가요??
@anallogenglish8408
@anallogenglish8408 2 ай бұрын
직관적으로 이해가 안되는데요. ㅋㅋ
@Yesornonnnn
@Yesornonnnn 2 ай бұрын
공부하러 왔는데 목소리가 넘 좋아요 😳😳
@teddypark__v_x
@teddypark__v_x 2 ай бұрын
5:10 이 매트랩에서 표시된 2개의 벡터는 z값을 고정했을 때 각각 x,y성분으로 생성된거 같은데 이게 어떤의미를 갖는건지 잘 모르겠습니다. 최대변화량의 방향을 보려면 각 점마다 존재하는 접평면 상에 존재하는 기울기벡터이거나 접평면에 수직인 법선벡터를 알아야되지 않나여?
@Abcdefu838
@Abcdefu838 2 ай бұрын
혹시 INTJ인가요? 고양이 사진 올라오는 걸 보니 제 주변 INTJ들이랑 비슷해보여요 ㅋㅋ
@AngeloYeo
@AngeloYeo 2 ай бұрын
전 아니지만 와이프가 INTJ라더군요 🤣
@yonghykim40
@yonghykim40 2 ай бұрын
설명이 가히 경이적입니다!😊
@거북이왕-t2k
@거북이왕-t2k 2 ай бұрын
안녕하세요 ! 혹시 matlab에서 symbolic math toolbox 을 다운 받아야 코드가 돌아간다고 하는데 혹시 무료인가요 ?
@AngeloYeo
@AngeloYeo 2 ай бұрын
@@거북이왕-t2k 라이센스가 있어야 하긴 하는데요. MATLAB Online에서 돌리시면 라이센스 여부와 관계없이 무료로 Symbolic Math Toolbox를 쓰실 수 있습니다.
@거북이왕-t2k
@거북이왕-t2k 2 ай бұрын
@@AngeloYeo 답변 감사합니다 !! 추가적으로 오디오리드 코드를 실행할라면 따로 wav 파일을 생성해야할까요?
@AngeloYeo
@AngeloYeo 2 ай бұрын
@@거북이왕-t2k audioread 문서에 있는 예시를 실행해 보시죠. handel.mat 파일을 불러와서 음원을 재생하는 것을 볼 수 있습니다
@cominghis1612
@cominghis1612 2 ай бұрын
결국 허수의 증명방정식 이 오일러 등식 인데 오일러등식 이 증명하는 루트-1 의 존재 증명이 지금까지 발전해온 수학의 모든것을 집대성 한 결과 이자 너무나 우아하게 표현된 식이기 때문에 이 를 이해하는 많은사람들이 감탄하고 좋아하는것이죠!
@ll-bc4gn
@ll-bc4gn 2 ай бұрын
설명 john na 잘하시네요. 바로 이해되어버렸습니다. 감사합니다 형님.
@택이-u7u
@택이-u7u 2 ай бұрын
아 진짜 교수님보다 더 잘 가르치셔요 공업 수학, 제어공학, 디지털 제어는 진짜 참고 많이 했습니다...감사드립니다 진짜루ㅜㅜ
@starismypuppy745
@starismypuppy745 2 ай бұрын
안녕하세용 궁금하게 있어서 댓글 달아용 마할라노비스 거리 단위는 표준편차(z-value)로 이해를 했는데 이게 2차원으로 되면 chi-square 분포로 해석을 해야 하지 않나요? 그럼 신뢰도 분석에서 값이 차이가 발생해서요.. 잘몰라서 여쭤봅니다 ㅠ.ㅠ
@AngeloYeo
@AngeloYeo 2 ай бұрын
@@starismypuppy745 안녕하세요. 2차원 정규분포로 보통 해석하는 것 같습니다. 카이제곱 분포가 정규분포 통계량의 제곱값이지만 이 제곱이라는게 데이터의 차원을 의미하는 것은 아닙니다.
@starismypuppy745
@starismypuppy745 2 ай бұрын
@@AngeloYeo 감사합니다 제가 질문을 모호하게 한 것 같아서.. 다시 한번 다시 질문 드려보자면 x=[x1, x2]로 볼 때 sqrt((x-u)S^-1(x-u)^T)가 z-value 라는것은 이해 했는데요, 이게 신뢰도 평가를 할 때 마할라노비스 거리가 1.96 이면 95% 신뢰 구간 임계값 인데요 2자유도 카이제곱 분포에서 95% 신뢰 구간 임계값은 5.991이 되서 root 씌워주면 2.447가 되잖아요? 그래서 ...같은 신뢰구간 95%인데 임계값이 달라져서요 결국 마할라노비스 거리가 2라고 할 때, z 분포로 평가 하면 신뢰구간 95% 이 안되고 chi-sqaure 분포로 평가 하면 95%에 포함 된다가 되서요..
@jaeseunghwang1176
@jaeseunghwang1176 2 ай бұрын
개념 정리에서부터 응용-- 매틀랩 소스까지 늘 감사합니다.
@수진-f4p9e
@수진-f4p9e 2 ай бұрын
안녕하세요. 혹시 블로그는 폐쇄된걸까요? 네이버에서 서치하는 도중에 발견했는데 블로그가 들어가지지 않아서 여쭤봅니다.
@AngeloYeo
@AngeloYeo 2 ай бұрын
@@수진-f4p9e 아니요 아직 운영되고 있습니다. 어떤 내용의 포스팅이 보고싶으셨을까요?
@AngeloYeo
@AngeloYeo 2 ай бұрын
angeloyeo.github.io/2019/06/16/imaginary_root.html
@olirontruth1741
@olirontruth1741 2 ай бұрын
멋진해석이군요 허수는 1차원 영역의 실수라는 기반하에서 2차원으로 확장된 영역에 존재하는 엄연한 수라 봐야지요 수의 2차원 영역으로의 확장은 수학이 과학을 설명하는 언어로서 기반이 되게한 엄청난 인간의 발견이요 혜안이 아닌가 싶네요
@turang2
@turang2 2 ай бұрын
하진짜 뭔소리지
@함정-t3q
@함정-t3q 2 ай бұрын
감사합니다! 조금더 이해가는데에 도움됐습니다 :)
@재영전-q2z
@재영전-q2z 2 ай бұрын
답이진실한가
@재영전-q2z
@재영전-q2z 2 ай бұрын
질문하는본인은 왜! 존재하지
@SphereofTime
@SphereofTime 3 ай бұрын
3:07 Vector Multiplication