단순히 수학적으로 설명하는것들을 봤을때는 와닿지가 않아서 이해가 안됐는데 어디에 활용되는지 왜 쓰는지 설명해주셔서 납득이 되고 이해가 잘 되는것같습니다. 늦었지만 좋은 강의 감사합니다.
@user-el2nb3zl6t10 күн бұрын
아아 미친 그래서 내적0이면 기저 취급한거였구나 아예 일치하지않다는 의미인거니깐 그냥 내적=0 =기저직교함수라고 머리에 넣었는데 지나가듯 던진 내적=얼만큼 유사해?가 큰 깨달음주네요
@uranusuranus983510 күн бұрын
감사합니다
@Sanbie12 күн бұрын
특정 구간 분포에 있을 때 그 pdf에서 데이터들이 더 큰 확률들을 가진다. 그 확률들을 곱하였을 때, 가장 큰 가능도를 가지는 특정구간의 통계량(평균, 분산)을 추정량으로 선정 소규모 연구에서는 편향이 발생할 우려가 있겠지만, 그렇기에 대규모 데이터가 모이는 인공지능에서 주로 사용. 빠르고, 효율적인 추정 방법
@bwshin41312 күн бұрын
기말 수학시험 보는데 강의내용만 복습하긴 지루해서 이거저거 찾아보다 보네요 굿굿
@박선영-b2s16 күн бұрын
5:33 공분산행렬의 각 요소는 행(data instance) 간 닮음 정도 (서로 함께 변하는 정도) 6:44 sample 수에 의해 값커지는 것 무효화 9:15 공분산 행렬은 수학적으로 선형변환 (shearing) 11:49 pca : 데이터의 구조 살리면서 차원감소 13:57 2차원 평면 상의 산점도를 1차원이 정사영 14:54 주축을 찾아 정사영시켜주는게 적절할것 17:04 정사영후의 분산이 클수록 데이터의 원존구조를 잘 살린것임 19:45 주축을 잘 찾는것: 크기만 바뀌고 방향은 안바뀌
@박선영-b2s16 күн бұрын
24:09 아이젠벨류가 큰 2개만 보면 3차원->2차원
@박선영-b2s16 күн бұрын
6:51 맥락을 고려한 상대적 거리 7:08 맥락의 수학적 정의->표둔편차 9:09 맥락을 정규화한 상태에서 유클리드거리->맥락을 고려한 상대적 거리 10:31 공분산 행렬의 역행렬을 이용해 맥락을 정규화 13:43 z의 모든열은 표준정규분포에서 iid 15:40 피쳐간의 닮음을 조사 16:33 xtx 17:58 about 공분산 행렬 22:54 결론
@-_--__---___18 күн бұрын
영상을 봤는데도 왜 굳이 귀무가설을 사용하는지 이유를 잘 모르겠어요ㅠ 만약 말씀하신대로 귀무가설이 틀렸음을 증명하는 게 대립가설이 맞음을 증명하는 것보다 "쉽다"면, 뭔가를 덜 증명했다고밖에 볼 수 없지 않나요? 귀무가설이 틀림과 대립가설의 맞음이 동치이고 별다른 수학적인 조작을 한게 없는데 증명 난이도가 다를 수가 있나요?
@AngeloYeo17 күн бұрын
말씀하신 부분이 참 의미가 있습니다. 귀무가설이 틀림을 증명하는 것과 대립가설이 맞음을 증명하는 것은 동치가 아닙니다. 귀무가설과 대립가설의 관계는 보통 상호 배타적이지만, 귀무가설을 기각하는 것이 반드시 대립가설을 증명하는 것과 같은 것은 아닙니다. 귀무가설을 기각한다는 것은 귀무가설이 맞지 않을 가능성이 크다는 것을 의미하며, 이는 대립가설이 맞을 가능성을 높여주지만, 그것이 대립가설이 참임을 직접적으로 증명하는 것은 아닙니다. 통계적 검정의 목적은 귀무가설을 기각할 수 있을 정도로 충분한 증거가 있는지를 평가하는 것입니다. 이는 대립가설을 "증명"하는 것이 아니라, 귀무가설을 기각할 수 있는 충분한 증거가 있는지를 확인하는 과정입니다. 수학적 증명은 논리적으로 절대적인 확신을 주는 반면, 통계적 검정은 확률적인 증거에 기반합니다. 따라서 통계에서는 절대적인 증명이 아니라, 데이터를 통해 얻은 증거로부터 결론을 내립니다. 예를 들어, 새로운 약물이 기존 약물보다 효과가 있다는 것을 입증하기 위해, 연구자들은 귀무가설(새로운 약물이 기존 약물과 효과가 같음)을 설정하고, 실험을 통해 이를 기각할 수 있는지를 검토합니다. 귀무가설이 기각되면, 대립가설(새로운 약물이 더 효과적임)을 지지하는 방향으로 해석하게 됩니다. 하지만 귀무가설을 기각했다고해서 항상 대립가설을 증명한 것이라고는 보기 어렵습니다. 여담으로, 이와 같은 귀무가설의 기각을 이용한 증명법은 피셔가 개발한 방법이며, 이 방법의 논리를 계속해서 따라가는 통계학자들이 있습니다. 이 방법이 주를 이루는 방법이기 때문에 많이 활용하고 있는 것입니다. 개인적으로는 피셔의 원래 논문을 찾아보시고 그가 말하는 한계점들에 대해서도 살펴보시는 것을 추천드립니다. 분명한 한계점에도 불구하고 요즘의 통계학에서 여전히 주로 활용되고 있는 방법이라는 점을 짚고 넘어가는게 도움이 되기도 하기 때문입니다.
@-_--__---___17 күн бұрын
@@AngeloYeo 상세한 답변 감사합니다! 한번 찾아보고 저도 이해해보겠습니다
@usr-sdd-2ffv22 күн бұрын
와 예제와 설명 미쳤네요. 왠만한 딱딱한 강의보다 10배 좋습니다.
@권다운-g8m26 күн бұрын
안녕하세요, 강의 잘 봤습니다. 덕분에 급히 써야 하는 개념인데 잘 공부했습니다. 다만, 선형대수학을 거의 공부해본 적이 없다 보니 강의를 듣고 나서 모호한 점이 있습니다. 대략 16:45부터 언급하신 동일한 행렬에 대해 원소 별 나눗셈을 수행한 결과가 Identity Matrix라는 것이 모호합니다. 제가 아는 선의 Identity Matrix는 대각 원소가 모두 1이고, 나머지는 0의 값을 갖는 행렬입니다. 다만, 해당 영상에서 수행한 연산의 결과는 '모든 원소의 값이 1인 행렬이 아닌가?'라는 의문이 남아있습니다. 해당 부분에 대한 답변을 듣고 싶습니다. 강의 잘 들었습니다 :)
@AngeloYeo26 күн бұрын
안녕하세요. 말씀해주신 부분은 제가 잘못 설명했네요. identity matrix가 아니라 모두 1로 구성된 행렬이 되어야 합니다. 이부분은 제가 정정 댓글을 쓰고 블로그도 수정하겠습니다.
@usr-sdd-2ffv26 күн бұрын
우리 나라 공학의 발전에 기여하신 분 감사합니다.
@haeseong-w3h27 күн бұрын
영상 (10분 30초)에 코드 line 27에서 classf가 적혀있습니다. classf는 train_data, train_label, test_data, test_label 4개의 인수를 입력으로 받는 inline 함수인데, 어떻게 인수 없이 line 27에서 사용된 것일까요?
@AngeloYeo27 күн бұрын
sequentialfs의 문서를 보시기 바랍니다. kr.mathworks.com/help/stats/sequentialfs.html 첫 번째 입력 인자가 함수 핸들이기 때문에 영상 10:30에서 첫 번째 인자에 인수 없이 함수 핸들만 입력한 것입니다.
@빽미르29 күн бұрын
수백년이지난 지금도 이자율로 설명 하는곳 만 있네요 신박 하고 눈이 확 떠지는 설명은 없을까요?
@phoenix2718Utube29 күн бұрын
그 어떤 정리보다 깔끔하고 직관적입니다! 대단한 재능을 가지신 듯해요. 감사합니다.
@haeseong-w3hАй бұрын
안녕하세요 영상 잘 보았습니다. 7분에 cvpartion(y_train,~,~)으로 cross validation을 수행하였는데, cvpartition(y,~,~)로 수행하는 것이 맞는 것 같습니다. cross validation은 Training set과 Test set이 구분되지 않은 상황에서 어떤 Data를 Training set으로, Test set으로 분류했을 때 최고의 classification 성능이 나오는지를 파악하기 위한 것이기 때문입니다. 지금 cvpartition(y_train,~,~)으로 코드를 작성하신다면 Training set과 Test set을 이미 구분한 이후에 한번 더 Training set을 cross validation을 하기 위해 구분한다고 보여지므로 잘못된것 같습니다.
@AngeloYeoАй бұрын
안녕하세요. Training 셋을 Training 과 Validation셋으로 나누는 작업이기 때문에 y_train을 스플릿한 것으로 보입니다.
@haeseong-w3hАй бұрын
@@AngeloYeo 친절한 답변 감사드립니다! 잘 이해가 되었습니다. 추가적으로 한가지만 더 여쭤보겠습니다. 영상 (10분 30초)에 코드 line 27에서 classf가 적혀있습니다. classf는 train_data, train_label, test_data, test_label 4개의 인수를 입력으로 받는 inline 함수인데, 어떻게 인수 없이 line 27에서 사용된 것일까요?
@pjohjontypАй бұрын
감사합니다
@meiranfeng-ky1tjАй бұрын
신입학부생입니다. 함수의 곱 적분(부분적분)을 내적으로 보는 발상은 한번도 생각해보지 못했습니다. 참 신기하고 기묘해서 3:15를 5번 돌려봤습니다.
@pazzini_lorenzoАй бұрын
정말정말 좋습니다
@pazzini_lorenzoАй бұрын
날 이해시키다니... 합격!
@오재무-j7fАй бұрын
안녕하십니까. 교차분석에서 실제 계산된 통계량이 자유도의 상위95%의 카이제곱 분포보다 큰경우 성별 및 메뉴판에대한 기대값에서 유의하게 벗어난다고 볼수있다고 이해가 됩니다. 그렇다면 유의하게 벗어낫을경우 어떤 항목(EX 남학생+ 짜장면)이 유의하게 벗어났는지 확인할수있을까요?
@vehekalfyywehhshxbАй бұрын
미쳤네요.
@pazzini_lorenzoАй бұрын
잘들었습니다 감사합니다
@ohsungc2Ай бұрын
09:40 약간 말이 헷갈리는데, 같은 주파수인 정현파 2개 이상끼리 연산을 할때, 주파수와 시간없이도 더할 수 있으니 잠시 뺐다가 나중에 필요할때 다시 붙여준다는 얘기인가요?
@YjChl-z9rАй бұрын
강의 같은건 따로 안하시나요?.. 어느 영상을 봐도 항상 이 영상으로 회귀합니다.... 없는 내용이 없어요 ㅠ.ㅠ 이해도 정말 쉽고 좋아요!! 자연어처리 분야 대학원생인데 선대수에 좀 약해서 항상 찾아보고 있습니다... 항상 감사합니다
@AngeloYeoАй бұрын
@@YjChl-z9r 그냥 직장인이라... 강의는 하지 않습니다 ^^... 좋게 봐주셔서 감사합니다. 아시겠지만 블로그도 있습니다 ㅎㅎ 필요하시면 참고해주세용 angeloyeo.github.io/
@reginakim9265Ай бұрын
좋은 강의 감사합니다ㅎㅎ
@reginakim9265Ай бұрын
깔끔하게 설명해주셔서 이해하는데 도움이 정말 많이 됩니다. 좋은 영상 감사합니다ㅎㅎ
@6sl5j3hc2iroa8fjrАй бұрын
교수법이 부족한 교수님보다 잘 가르치시네요.. 훌륭하십니다.
@마리-z8vАй бұрын
5:13 이동 거리가 왜 기울기의 크기가 되는 것인가요??
@anallogenglish84082 ай бұрын
직관적으로 이해가 안되는데요. ㅋㅋ
@Yesornonnnn2 ай бұрын
공부하러 왔는데 목소리가 넘 좋아요 😳😳
@teddypark__v_x2 ай бұрын
5:10 이 매트랩에서 표시된 2개의 벡터는 z값을 고정했을 때 각각 x,y성분으로 생성된거 같은데 이게 어떤의미를 갖는건지 잘 모르겠습니다. 최대변화량의 방향을 보려면 각 점마다 존재하는 접평면 상에 존재하는 기울기벡터이거나 접평면에 수직인 법선벡터를 알아야되지 않나여?
@Abcdefu8382 ай бұрын
혹시 INTJ인가요? 고양이 사진 올라오는 걸 보니 제 주변 INTJ들이랑 비슷해보여요 ㅋㅋ
@AngeloYeo2 ай бұрын
전 아니지만 와이프가 INTJ라더군요 🤣
@yonghykim402 ай бұрын
설명이 가히 경이적입니다!😊
@거북이왕-t2k2 ай бұрын
안녕하세요 ! 혹시 matlab에서 symbolic math toolbox 을 다운 받아야 코드가 돌아간다고 하는데 혹시 무료인가요 ?
@AngeloYeo2 ай бұрын
@@거북이왕-t2k 라이센스가 있어야 하긴 하는데요. MATLAB Online에서 돌리시면 라이센스 여부와 관계없이 무료로 Symbolic Math Toolbox를 쓰실 수 있습니다.
@거북이왕-t2k2 ай бұрын
@@AngeloYeo 답변 감사합니다 !! 추가적으로 오디오리드 코드를 실행할라면 따로 wav 파일을 생성해야할까요?
@AngeloYeo2 ай бұрын
@@거북이왕-t2k audioread 문서에 있는 예시를 실행해 보시죠. handel.mat 파일을 불러와서 음원을 재생하는 것을 볼 수 있습니다
@cominghis16122 ай бұрын
결국 허수의 증명방정식 이 오일러 등식 인데 오일러등식 이 증명하는 루트-1 의 존재 증명이 지금까지 발전해온 수학의 모든것을 집대성 한 결과 이자 너무나 우아하게 표현된 식이기 때문에 이 를 이해하는 많은사람들이 감탄하고 좋아하는것이죠!
@ll-bc4gn2 ай бұрын
설명 john na 잘하시네요. 바로 이해되어버렸습니다. 감사합니다 형님.
@택이-u7u2 ай бұрын
아 진짜 교수님보다 더 잘 가르치셔요 공업 수학, 제어공학, 디지털 제어는 진짜 참고 많이 했습니다...감사드립니다 진짜루ㅜㅜ
@starismypuppy7452 ай бұрын
안녕하세용 궁금하게 있어서 댓글 달아용 마할라노비스 거리 단위는 표준편차(z-value)로 이해를 했는데 이게 2차원으로 되면 chi-square 분포로 해석을 해야 하지 않나요? 그럼 신뢰도 분석에서 값이 차이가 발생해서요.. 잘몰라서 여쭤봅니다 ㅠ.ㅠ
@AngeloYeo2 ай бұрын
@@starismypuppy745 안녕하세요. 2차원 정규분포로 보통 해석하는 것 같습니다. 카이제곱 분포가 정규분포 통계량의 제곱값이지만 이 제곱이라는게 데이터의 차원을 의미하는 것은 아닙니다.
@starismypuppy7452 ай бұрын
@@AngeloYeo 감사합니다 제가 질문을 모호하게 한 것 같아서.. 다시 한번 다시 질문 드려보자면 x=[x1, x2]로 볼 때 sqrt((x-u)S^-1(x-u)^T)가 z-value 라는것은 이해 했는데요, 이게 신뢰도 평가를 할 때 마할라노비스 거리가 1.96 이면 95% 신뢰 구간 임계값 인데요 2자유도 카이제곱 분포에서 95% 신뢰 구간 임계값은 5.991이 되서 root 씌워주면 2.447가 되잖아요? 그래서 ...같은 신뢰구간 95%인데 임계값이 달라져서요 결국 마할라노비스 거리가 2라고 할 때, z 분포로 평가 하면 신뢰구간 95% 이 안되고 chi-sqaure 분포로 평가 하면 95%에 포함 된다가 되서요..
@jaeseunghwang11762 ай бұрын
개념 정리에서부터 응용-- 매틀랩 소스까지 늘 감사합니다.
@수진-f4p9e2 ай бұрын
안녕하세요. 혹시 블로그는 폐쇄된걸까요? 네이버에서 서치하는 도중에 발견했는데 블로그가 들어가지지 않아서 여쭤봅니다.
@AngeloYeo2 ай бұрын
@@수진-f4p9e 아니요 아직 운영되고 있습니다. 어떤 내용의 포스팅이 보고싶으셨을까요?