명강의네요🎉 질문이 있는데 K는 그럼 인구 성장률? 페센트를 나타내는건가요? 그럼 K(birth)는 출생률 K(death)는 사망률이라고 이해했을때 K가 퍼센트끼리 뺀값이라고 생각하니까 잘 이해가 안가서요
@maktube_22020 күн бұрын
설명이 기가 막힙니다. 항상 도움많이 받습니다
@davidyang855025 күн бұрын
오피앰프. 입력 임피던스가 큰이유, 출력 임피던스가 작은 이유. 감사합니다
@롱-q4e26 күн бұрын
감사합니다 선생님
@hwe96528 күн бұрын
혹시 업로드 더이상 예정은 없으신가요 ㅠㅠ 컨벡스 최적화는 계획에 없으신가요 ㅠ
@basic7361Ай бұрын
이제 막 수2에서 미분 배운 고등학생입니다. Local Minima 문제에 궁금한 점이 있어서 남깁니다. 고등학교 수학 문제에서는 두 극값이 주어졌을 때 어디가 최솟값인지를 찾으려면 함숫값을 비교해서 더 작은 부분을 찾는 과정을 거치는데요. 머신러닝에서는 그러지 못하는 이유가 무엇인가요? 경사하강법 수식으로 극값을 여러개 발견하고 함숫값을 비교하면 될 것 같은데 비효율적이라 안하는건지 구조적으로 불가능한지 궁금합니다!
@AngeloYeoАй бұрын
안녕하세요. 문제 사항을 잘 이해하지 못했습니다. 경사하강법을 쓸 때는 수식 형태로 (닫힌 꼴로) 목적 함수를 갖지 못하는 경우가 많긴 합니다만, 결국에는 경사하강법을 통해서 목적 함수의 값이 작은 곳을 찾아가는데요. 다시 말하면, 함수 값을 계속해서 비교하는 작업을 수행하게 되는 것입니다. 문제 사항을 다시 한번 말씀해주실 수 있으신가요?
@basic7361Ай бұрын
@@AngeloYeo경사하강법을 여러번 시행해서 존재하는 극솟값을 모두 찾고 각각의 함숫값을 비교하면 최솟값을 알 수 있지 않나요? 왜 극솟값에 걸리는 문제가 생기는지 이해가 잘 안된다는 질문이었습니다.
@AngeloYeoАй бұрын
@basic7361 아하! 이해했습니다. 너무 좋은 질문이십니다. 극솟값에 걸려 빠져나오지 못하는 이유는 gradient descent 방법은 극솟값에 접근할 수록 기울기가 0에 가까워져서 다음 step에서 움직일 수 있는 이동 거리가 0에 수렴해버리기 때문입니다. 조금 advanced topic이지만, 이 문제를 해결하기 위해 step size (혹은 learning rate)를 scheduling 하는 방법이 많이 활용됩니다. 아래의 문서에 관련 내용이 있으니 확인하실 수 있습니다. kr.mathworks.com/help/deeplearning/ref/trainingoptions.html#bu59f0q-LearnRateSchedule 물론 말씀하신 것 처럼 다른 시작 포인트에서 여러 번 훈련하는 것도 방법일 수도 있습니다. 실제로 현업에서는 그런 시도도 많이 하고 있습니다. 다만 시간과 비용이 많이 드는 방법일 것입니다. 이를 위해서 여러 컴퓨터를 동시에 활용한 병렬 처리를 수행할 수 있습니다. 관련 문서는 아래에서 확인해보시기 바랍니다. kr.mathworks.com/help/deeplearning/ug/use-parfor-to-train-multiple-deep-learning-networks.html
@basic7361Ай бұрын
@@AngeloYeo 감사합니다ㅠ 이해됐어요!!
@HyeonsolLim7Ай бұрын
감사합니다!
@shaky670Ай бұрын
수년동안 수식 의미를 몰랐는데 강의듣고 이제야 알게되었네요
@tjdgus1999Ай бұрын
단순히 수학적으로 설명하는것들을 봤을때는 와닿지가 않아서 이해가 안됐는데 어디에 활용되는지 왜 쓰는지 설명해주셔서 납득이 되고 이해가 잘 되는것같습니다. 늦었지만 좋은 강의 감사합니다.
@user-el2nb3zl6tАй бұрын
아아 미친 그래서 내적0이면 기저 취급한거였구나 아예 일치하지않다는 의미인거니깐 그냥 내적=0 =기저직교함수라고 머리에 넣었는데 지나가듯 던진 내적=얼만큼 유사해?가 큰 깨달음주네요
@uranusuranus9835Ай бұрын
감사합니다
@SanbieАй бұрын
특정 구간 분포에 있을 때 그 pdf에서 데이터들이 더 큰 확률들을 가진다. 그 확률들을 곱하였을 때, 가장 큰 가능도를 가지는 특정구간의 통계량(평균, 분산)을 추정량으로 선정 소규모 연구에서는 편향이 발생할 우려가 있겠지만, 그렇기에 대규모 데이터가 모이는 인공지능에서 주로 사용. 빠르고, 효율적인 추정 방법
@bwshin413Ай бұрын
기말 수학시험 보는데 강의내용만 복습하긴 지루해서 이거저거 찾아보다 보네요 굿굿
@박선영-b2sАй бұрын
5:33 공분산행렬의 각 요소는 행(data instance) 간 닮음 정도 (서로 함께 변하는 정도) 6:44 sample 수에 의해 값커지는 것 무효화 9:15 공분산 행렬은 수학적으로 선형변환 (shearing) 11:49 pca : 데이터의 구조 살리면서 차원감소 13:57 2차원 평면 상의 산점도를 1차원이 정사영 14:54 주축을 찾아 정사영시켜주는게 적절할것 17:04 정사영후의 분산이 클수록 데이터의 원존구조를 잘 살린것임 19:45 주축을 잘 찾는것: 크기만 바뀌고 방향은 안바뀌
@박선영-b2sАй бұрын
24:09 아이젠벨류가 큰 2개만 보면 3차원->2차원
@박선영-b2sАй бұрын
6:51 맥락을 고려한 상대적 거리 7:08 맥락의 수학적 정의->표둔편차 9:09 맥락을 정규화한 상태에서 유클리드거리->맥락을 고려한 상대적 거리 10:31 공분산 행렬의 역행렬을 이용해 맥락을 정규화 13:43 z의 모든열은 표준정규분포에서 iid 15:40 피쳐간의 닮음을 조사 16:33 xtx 17:58 about 공분산 행렬 22:54 결론
@-_--__---___Ай бұрын
영상을 봤는데도 왜 굳이 귀무가설을 사용하는지 이유를 잘 모르겠어요ㅠ 만약 말씀하신대로 귀무가설이 틀렸음을 증명하는 게 대립가설이 맞음을 증명하는 것보다 "쉽다"면, 뭔가를 덜 증명했다고밖에 볼 수 없지 않나요? 귀무가설이 틀림과 대립가설의 맞음이 동치이고 별다른 수학적인 조작을 한게 없는데 증명 난이도가 다를 수가 있나요?
@AngeloYeoАй бұрын
말씀하신 부분이 참 의미가 있습니다. 귀무가설이 틀림을 증명하는 것과 대립가설이 맞음을 증명하는 것은 동치가 아닙니다. 귀무가설과 대립가설의 관계는 보통 상호 배타적이지만, 귀무가설을 기각하는 것이 반드시 대립가설을 증명하는 것과 같은 것은 아닙니다. 귀무가설을 기각한다는 것은 귀무가설이 맞지 않을 가능성이 크다는 것을 의미하며, 이는 대립가설이 맞을 가능성을 높여주지만, 그것이 대립가설이 참임을 직접적으로 증명하는 것은 아닙니다. 통계적 검정의 목적은 귀무가설을 기각할 수 있을 정도로 충분한 증거가 있는지를 평가하는 것입니다. 이는 대립가설을 "증명"하는 것이 아니라, 귀무가설을 기각할 수 있는 충분한 증거가 있는지를 확인하는 과정입니다. 수학적 증명은 논리적으로 절대적인 확신을 주는 반면, 통계적 검정은 확률적인 증거에 기반합니다. 따라서 통계에서는 절대적인 증명이 아니라, 데이터를 통해 얻은 증거로부터 결론을 내립니다. 예를 들어, 새로운 약물이 기존 약물보다 효과가 있다는 것을 입증하기 위해, 연구자들은 귀무가설(새로운 약물이 기존 약물과 효과가 같음)을 설정하고, 실험을 통해 이를 기각할 수 있는지를 검토합니다. 귀무가설이 기각되면, 대립가설(새로운 약물이 더 효과적임)을 지지하는 방향으로 해석하게 됩니다. 하지만 귀무가설을 기각했다고해서 항상 대립가설을 증명한 것이라고는 보기 어렵습니다. 여담으로, 이와 같은 귀무가설의 기각을 이용한 증명법은 피셔가 개발한 방법이며, 이 방법의 논리를 계속해서 따라가는 통계학자들이 있습니다. 이 방법이 주를 이루는 방법이기 때문에 많이 활용하고 있는 것입니다. 개인적으로는 피셔의 원래 논문을 찾아보시고 그가 말하는 한계점들에 대해서도 살펴보시는 것을 추천드립니다. 분명한 한계점에도 불구하고 요즘의 통계학에서 여전히 주로 활용되고 있는 방법이라는 점을 짚고 넘어가는게 도움이 되기도 하기 때문입니다.
@-_--__---___Ай бұрын
@@AngeloYeo 상세한 답변 감사합니다! 한번 찾아보고 저도 이해해보겠습니다
@wiki777-v6n2 ай бұрын
와 예제와 설명 미쳤네요. 왠만한 딱딱한 강의보다 10배 좋습니다.
@권다운-g8m2 ай бұрын
안녕하세요, 강의 잘 봤습니다. 덕분에 급히 써야 하는 개념인데 잘 공부했습니다. 다만, 선형대수학을 거의 공부해본 적이 없다 보니 강의를 듣고 나서 모호한 점이 있습니다. 대략 16:45부터 언급하신 동일한 행렬에 대해 원소 별 나눗셈을 수행한 결과가 Identity Matrix라는 것이 모호합니다. 제가 아는 선의 Identity Matrix는 대각 원소가 모두 1이고, 나머지는 0의 값을 갖는 행렬입니다. 다만, 해당 영상에서 수행한 연산의 결과는 '모든 원소의 값이 1인 행렬이 아닌가?'라는 의문이 남아있습니다. 해당 부분에 대한 답변을 듣고 싶습니다. 강의 잘 들었습니다 :)
@AngeloYeo2 ай бұрын
안녕하세요. 말씀해주신 부분은 제가 잘못 설명했네요. identity matrix가 아니라 모두 1로 구성된 행렬이 되어야 합니다. 이부분은 제가 정정 댓글을 쓰고 블로그도 수정하겠습니다.
@wiki777-v6n2 ай бұрын
우리 나라 공학의 발전에 기여하신 분 감사합니다.
@haeseong-w3h2 ай бұрын
영상 (10분 30초)에 코드 line 27에서 classf가 적혀있습니다. classf는 train_data, train_label, test_data, test_label 4개의 인수를 입력으로 받는 inline 함수인데, 어떻게 인수 없이 line 27에서 사용된 것일까요?
@AngeloYeo2 ай бұрын
sequentialfs의 문서를 보시기 바랍니다. kr.mathworks.com/help/stats/sequentialfs.html 첫 번째 입력 인자가 함수 핸들이기 때문에 영상 10:30에서 첫 번째 인자에 인수 없이 함수 핸들만 입력한 것입니다.
@빽미르2 ай бұрын
수백년이지난 지금도 이자율로 설명 하는곳 만 있네요 신박 하고 눈이 확 떠지는 설명은 없을까요?
@phoenix2718Utube2 ай бұрын
그 어떤 정리보다 깔끔하고 직관적입니다! 대단한 재능을 가지신 듯해요. 감사합니다.
@haeseong-w3h2 ай бұрын
안녕하세요 영상 잘 보았습니다. 7분에 cvpartion(y_train,~,~)으로 cross validation을 수행하였는데, cvpartition(y,~,~)로 수행하는 것이 맞는 것 같습니다. cross validation은 Training set과 Test set이 구분되지 않은 상황에서 어떤 Data를 Training set으로, Test set으로 분류했을 때 최고의 classification 성능이 나오는지를 파악하기 위한 것이기 때문입니다. 지금 cvpartition(y_train,~,~)으로 코드를 작성하신다면 Training set과 Test set을 이미 구분한 이후에 한번 더 Training set을 cross validation을 하기 위해 구분한다고 보여지므로 잘못된것 같습니다.
@AngeloYeo2 ай бұрын
안녕하세요. Training 셋을 Training 과 Validation셋으로 나누는 작업이기 때문에 y_train을 스플릿한 것으로 보입니다.
@haeseong-w3h2 ай бұрын
@@AngeloYeo 친절한 답변 감사드립니다! 잘 이해가 되었습니다. 추가적으로 한가지만 더 여쭤보겠습니다. 영상 (10분 30초)에 코드 line 27에서 classf가 적혀있습니다. classf는 train_data, train_label, test_data, test_label 4개의 인수를 입력으로 받는 inline 함수인데, 어떻게 인수 없이 line 27에서 사용된 것일까요?
@pjohjontyp2 ай бұрын
감사합니다
@meiranfeng-ky1tj2 ай бұрын
신입학부생입니다. 함수의 곱 적분(부분적분)을 내적으로 보는 발상은 한번도 생각해보지 못했습니다. 참 신기하고 기묘해서 3:15를 5번 돌려봤습니다.
@pazzini_lorenzo2 ай бұрын
정말정말 좋습니다
@pazzini_lorenzo2 ай бұрын
날 이해시키다니... 합격!
@오재무-j7f2 ай бұрын
안녕하십니까. 교차분석에서 실제 계산된 통계량이 자유도의 상위95%의 카이제곱 분포보다 큰경우 성별 및 메뉴판에대한 기대값에서 유의하게 벗어난다고 볼수있다고 이해가 됩니다. 그렇다면 유의하게 벗어낫을경우 어떤 항목(EX 남학생+ 짜장면)이 유의하게 벗어났는지 확인할수있을까요?
@vehekalfyywehhshxb2 ай бұрын
미쳤네요.
@pazzini_lorenzo2 ай бұрын
잘들었습니다 감사합니다
@ohsungc22 ай бұрын
09:40 약간 말이 헷갈리는데, 같은 주파수인 정현파 2개 이상끼리 연산을 할때, 주파수와 시간없이도 더할 수 있으니 잠시 뺐다가 나중에 필요할때 다시 붙여준다는 얘기인가요?
@YjChl-z9r2 ай бұрын
강의 같은건 따로 안하시나요?.. 어느 영상을 봐도 항상 이 영상으로 회귀합니다.... 없는 내용이 없어요 ㅠ.ㅠ 이해도 정말 쉽고 좋아요!! 자연어처리 분야 대학원생인데 선대수에 좀 약해서 항상 찾아보고 있습니다... 항상 감사합니다
@AngeloYeo2 ай бұрын
@@YjChl-z9r 그냥 직장인이라... 강의는 하지 않습니다 ^^... 좋게 봐주셔서 감사합니다. 아시겠지만 블로그도 있습니다 ㅎㅎ 필요하시면 참고해주세용 angeloyeo.github.io/
@reginakim92652 ай бұрын
좋은 강의 감사합니다ㅎㅎ
@reginakim92652 ай бұрын
깔끔하게 설명해주셔서 이해하는데 도움이 정말 많이 됩니다. 좋은 영상 감사합니다ㅎㅎ
@intp-developer3 ай бұрын
교수법이 부족한 교수님보다 잘 가르치시네요.. 훌륭하십니다.
@마리-z8v3 ай бұрын
5:13 이동 거리가 왜 기울기의 크기가 되는 것인가요??
@anallogenglish84083 ай бұрын
직관적으로 이해가 안되는데요. ㅋㅋ
@Yesornonnnn3 ай бұрын
공부하러 왔는데 목소리가 넘 좋아요 😳😳
@teddypark__v_x3 ай бұрын
5:10 이 매트랩에서 표시된 2개의 벡터는 z값을 고정했을 때 각각 x,y성분으로 생성된거 같은데 이게 어떤의미를 갖는건지 잘 모르겠습니다. 최대변화량의 방향을 보려면 각 점마다 존재하는 접평면 상에 존재하는 기울기벡터이거나 접평면에 수직인 법선벡터를 알아야되지 않나여?
@Abcdefu8383 ай бұрын
혹시 INTJ인가요? 고양이 사진 올라오는 걸 보니 제 주변 INTJ들이랑 비슷해보여요 ㅋㅋ
@AngeloYeo3 ай бұрын
전 아니지만 와이프가 INTJ라더군요 🤣
@yonghykim403 ай бұрын
설명이 가히 경이적입니다!😊
@거북이왕-t2k3 ай бұрын
안녕하세요 ! 혹시 matlab에서 symbolic math toolbox 을 다운 받아야 코드가 돌아간다고 하는데 혹시 무료인가요 ?
@AngeloYeo3 ай бұрын
@@거북이왕-t2k 라이센스가 있어야 하긴 하는데요. MATLAB Online에서 돌리시면 라이센스 여부와 관계없이 무료로 Symbolic Math Toolbox를 쓰실 수 있습니다.
@거북이왕-t2k3 ай бұрын
@@AngeloYeo 답변 감사합니다 !! 추가적으로 오디오리드 코드를 실행할라면 따로 wav 파일을 생성해야할까요?
@AngeloYeo3 ай бұрын
@@거북이왕-t2k audioread 문서에 있는 예시를 실행해 보시죠. handel.mat 파일을 불러와서 음원을 재생하는 것을 볼 수 있습니다
@cominghis16123 ай бұрын
결국 허수의 증명방정식 이 오일러 등식 인데 오일러등식 이 증명하는 루트-1 의 존재 증명이 지금까지 발전해온 수학의 모든것을 집대성 한 결과 이자 너무나 우아하게 표현된 식이기 때문에 이 를 이해하는 많은사람들이 감탄하고 좋아하는것이죠!