요즘 머신러닝 강의 듣고 있는 50대입니다. 중간에 러닝레이트. 알파값이 이해되지 않았는데 이 영상 보고 이해가 되었습니다. 감사합니다.
@별빛속에9 ай бұрын
2024년에 듣고 있습니다 귀에 쏙쏙 들어옵니다 짱!!!!
@radas75895 жыл бұрын
이선균씨 고마워요 연예인이 선형회귀를 다 알려주고 영광영광 ^.^
@mathmathmath22985 жыл бұрын
ㅋㅋㅋ 저도 목소리 듣고 이선균씨 닮았다 생각했어요 ㅋㅋㅋ 구독하고 갑니다 ㅎㅎ
@나의라임개쩌는나-n7d3 жыл бұрын
보우옹고오올레에에파아스으타아하느아아
@minyoungkim68793 жыл бұрын
점심 봉골레 먹어야겠다. 점심메뉴 고민 해결해줘서 고마워요 봉골레형
@PinkPong_official3 жыл бұрын
봉골레하나 한번만해주세요 제발요ㅠ
@mysonshine67 Жыл бұрын
👍🏼👍🏼
@최준영-f3p5 жыл бұрын
설명 진짜 잘해주신다!!!!!!!!!!!!!!!!!!!!!!!!!!! cf. 22:52 2Xib가 아니라 2XiW
@findmi54042 жыл бұрын
고등학생인데 선형회귀 관련해서 탐구해보려고 찾아보고 있었는데 이해하기 쉽게 잘 설명해주셔서 수월하게 발표했어요! 감사합니다!
@judy87224 жыл бұрын
23:10 중간에 실수도 스스로 찾아보게하는 컴피타티쳐 동빈나 당신은 도덕책....
@gogooo254 жыл бұрын
예비 컴공 전공자인데 완벽히 이해됐어요ㅠㅠ 설명 너무 잘하심..감사합니다
@choichirim62313 жыл бұрын
와우 코세라 몇달치를 한번에 설명하시다니 대단하십니다.
@Square20174 жыл бұрын
선형회귀에 대해 찾아보고 있는데 가장 이해하기 쉽게 설명해 주시네요 감사합니다 ㅎ
@lIlIililiillli3 жыл бұрын
며칠째 고생하다가 이 강의로 개념적인 이해가 완전히 된 것 같습니다 감사해요~~
@남극펭귄-n9k3 жыл бұрын
최고라는 말 밖에 안나오네요. 감사합니다
@kaichell3822 Жыл бұрын
자주뵙네요 감사합니다. 좋은하루되세요.
@효캉 Жыл бұрын
진짜 지금까지 들어본 선형 회귀 머신러닝 강의 중에 이렇게 기초를 쉽게 가르쳐주시는 분 처음봅니다.. 비슷한 강의 많이 만들어주세요ㅜㅜ
@youngtaegkim85308 ай бұрын
간단한 예제로 쉽게 설명해주셔서 고맙습니다. 그런데 w 기울기, b 기울기 라는 표현보다 w에대한 cost 함수의 기울기, b에대한 cost의 기울기 라고 하면 더 정확한 표현이 아닐까요? 보통 cost함수를 간단히 J라고 하면 함수 J의 기울기를 0 으로 만드는 w와 b를 찾는거죠. 즉. dJ/dw=0, dJ/db=0이 되는 w, b를 찾는거죠. 사족이 길어서 죄송합니다 😅
@강경태-t7fАй бұрын
진짜 겁나 잘 알려준다.. 지금까지 이해안되었던 부분이 근본적으로 이해되었다.. 정말 감사합니다 역시 교대..
@psg-go4yj4 жыл бұрын
코너링이 예술이시네요
@2320정민규2 жыл бұрын
예전에 다른 강의 들었을 때는 선형회귀의 개념이 잘 이해가 가지 않았는데 기초부터 말해주셔서 이해가 정말 잘 되었어요.
@Hobin-ou3zd14 күн бұрын
감사합니다. 덕분에 직관적인 의미를 이해했습니다.
@kyayamin2 жыл бұрын
와우.. 목소리도 깔끔하고 좋으셔서 더 잘 집중이 되네요 감사합니다 ☺️
@yanggunsj5 жыл бұрын
머신러닝의 기초 개념인 선형회귀를 정말 기본부터 쉽게 풀어주셨네요. 최고입니다. 더불어 영상 초반에 목차나 비쥬얼 적인 요소로 머신러닝의 흐름을 보여준다면 더 좋을 듯합니다. 멋진 후배님!!
@YoungHakKim2 жыл бұрын
유사한 동영상 몇 개를 봤지만 이 동영상 설명이 최고임
@icmansss Жыл бұрын
쌤 덕분에 드디어 이해할 수 있게 되었습니다 감사합니다 ㅠㅠ! 혹시 다른 머신러닝 개념들도 이런 형식으로 설명해주실수 있으실까요?? 확실히 수학개념부터 찬찬히 설명해주시니 너무 좋네요!! 부탁드립니다 ㅠㅠ
@서형준-b6u Жыл бұрын
오랜만에 강의 영상을 완주할 수 있었네요 감사합니다
@사과-d3t Жыл бұрын
회귀분석에 대해 알아보고 있었는데 설명이랑 목소리가 깔끔하고 좋아요!!
@Ahyun195 жыл бұрын
경영학과인데 경영과학에서 쓰이는 크래머 공식이 여기서 나올 줄은.... 소름.... 형님 감사합니다! 덕분에 파생상품 잘 이해할 수 있을듯 합니다 ㅠㅠㅠ 살았습니다... 정말.... (____) 복 받으시길.... 밑에 댓글 분 말씀대로 잔차항이나 이런 거 구하는 건 따로 이해해야겠지만 기본적인 선형회귀 공식 유도법은 감사히 배웠습니다! 혹시 경영학과 있으면 1학년 때 통계학은 제대로 빡세게 하거라 나처럼 늙다리에 고생하지말구... 다들 힘내...!!!
@wmf12353 жыл бұрын
잘 보아써요! 한 가지 요청이 있다면 자막을 달아주시거나 자막을 넣을 수 있도록 수정해주셨으면 해요. 듣지 못하는 친구를 위해서요
@ojijy945 жыл бұрын
코딩으로 런닝머신도 만들 수 있군요!
@이동준-p9u5 жыл бұрын
ㅋㅋㅋ 런닝머신이라뇨
@시간을아끼자-r4r5 жыл бұрын
완전 자연스럽네
@originalgm59475 жыл бұрын
넘 자연스러워서 뭐가 틀린지 몰랐다...
@김진우-w3i4 жыл бұрын
ㅋㅋㅋㅋㅋㅋㅋㅋ런닝머신ㅋㅋ
@kyumanrho88473 жыл бұрын
ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ 뻘하게 웃기네요 ㅋㅋㅋㅋㅋㅋㅋㅋ
@1020HeyHo3 жыл бұрын
와! 대단합니다. 강좌 보고 고수의 내공을 느꼈습니다. 좋은 강좌 감사합니다.
@xxi13755 жыл бұрын
와... 이제 선형회귀까지 가르쳐준다고...?
@함성식-o2e4 ай бұрын
아나 저도 저렇게 간단명료하고 깔끔하게 설명하고 싶네요. 질투나지만 배우고 갑니다.
@고승현-i9z2 жыл бұрын
정말 대박입니다 책만 보고 이해못했던 내용들을 이렇게 쉽게 풀어주시다니 감사합니다
@sicari63922 жыл бұрын
이해도 잘되고 목소리도 참 좋네요
@kwon36165 жыл бұрын
강의 너무 잘하십니다ㅠㅠ 감사합니다
@민혁김3 жыл бұрын
안녕하세요. 해외에서 유학중인 학생입니다. 이번 학기에 머신러닝 관련과목 수강신청을 했는데 렉쳐 이해가 잘 이해가 안되서 찾아보게 되었습니다. 감사합니다!
@bishopseol6992 Жыл бұрын
계량경제학 도입부에 배우는 선형회귀를 머신러닝 측면에서 보니까 새롭네요
@ieiiawkska79262 жыл бұрын
예전에 다른 강의 들었을 때는 선형회귀의 개념이 잘 이해가 가지 않았는데 기초부터 말해주셔서 이해가 정말 잘 되었어요. 앞으로 관련된 다른 주제의 영상도 많이 올려주셨으면 좋겠어요.
@zzs01893 жыл бұрын
와우!!! 처음으로 영상 봤는데, 완전... 명품 머신러닝 강의네요!! 덕분에 Linear Regression을 제대로 이해 했습니다.
@jjjjjjjj-mo2lf3 жыл бұрын
ㄷㄷ 이 분목소리 왤케 좋나요 집중도 잘되네요 잘 들었습니다~~
@하얀성-s9m Жыл бұрын
감사합니다. 좋은 강의였습니다.
@최적화-o6t4 жыл бұрын
설명이 너무 좋습니다 다른사람에 비해 제가 이해도가 낮은편인데 이해가 되다니... 의사결정나무 랑 비선형모델이랑 인공신경망 등 계획은 없으신가여?? ㅠㅠ 다른 유튜브 강의는 너무 이해가 안가고 이런방식이 저에게 너무 딱이라서요 ㅠㅠ
@genosyde787 ай бұрын
훌륭하다. 와계어에대한 해석이 필요하지만 반복해서 듣다보면 내가 하고 있는 map iou의 개념에 대해서 제대로 이해 하게되겠지. Map rate만 들여다 보고 있었는데 이게 뒤에서 이런 원리로 작동 하는 거였군
@tspark10713 жыл бұрын
Descending. Tangent W and b. 감사합니다
@ilapr6419 Жыл бұрын
설명이 너무 깔끔하십니다 ㅎㅎ
@정낙현-x9z4 жыл бұрын
감사합니다 이해가 정말잘되네요 큰 도움이 되었습니다
@개쩌는강희원5 жыл бұрын
아직 비전공자인데 이해 잘되요! 감사합니다
@amorousfinale Жыл бұрын
이분은 어려보이시는데 강의력도 미쳤고 목소리도 좋으시네... 하 여친 없어라
@유관동-u6x2 жыл бұрын
선형회귀 문제를 쉽게 잘 설명해 주셔서 감사합니다~
@BOILED_EGG1235 жыл бұрын
뭔가 어려운데 쉬운것 같고, 쉬운데 어렵네요.... 좋은 강의 잘 보았습니다. 경사하강법까지는 이해를 했는데, 그걸 행렬을 이용해서 푸는 부분부터는 수학적 지식이 짧아서 이해를 잘 못하겠네요. ㅎㅎ
@jinjin49924 жыл бұрын
우와 지금까지 들었던 강의중 가장 이해가 쉽군요. 감사합니다.
@sslee0004 жыл бұрын
Excellent!!! AI 처음 공부하는데 나라도 경사하강법을 사용할 것 같습니다. 재밌네요.. 설명 너무 잘했습니다. 시간 가는줄 모르고 보았습니다.
@jirah49639 ай бұрын
일차함수와 연결되어 이해가 잘되네용
@HumpWhale33 жыл бұрын
설명 아주 깔끔합니다. 배워가요!
@꼼양-t4w3 жыл бұрын
설명 진짜 너무 잘해주시네요 감사합니다 ^^
@purplepurplethings3 жыл бұрын
진짜 이해 너무 잘돼요 감사합니다.
@sayhello58223 жыл бұрын
이거 진짜 명강의네요.. 정말 감사합니다
@김경민-i2y8z3 жыл бұрын
교수님 왜 여기계십니까.. 학교 수업 3번돌려서 이해못한거 한번에 이해됬습니다;
@아아-x9n2 жыл бұрын
우와 컴공이라고 들었는데 수학잘하시네요! 감사합니다
@이강윤-r3f2 жыл бұрын
진짜 설명 기똥찹니다 너무 감사합니다
@찬이-c8x2 жыл бұрын
찰떡강의 감사합니다.
@yammsei5 жыл бұрын
좋은 강의 잘 들었습니다. 업무에 활용하겠습니다.
@김진우-w3i4 жыл бұрын
그제 친구가 알려줬었는데 나동빈님이 훨씬 깔끔하게 알려주시네요ㅋㅋ 감사합니다
@lolololololol-ugh4 жыл бұрын
한 3년전에 혼자 열심히 독학하면서 php로 regression 다차함수까지 구현했었는데, 이후에는 편하게 tensorflow만 돌리다보니 실제 수학이론 내용들은 다 까먹어서 흐릿흐릿 하네요. 즐겨찾기 해놓고 가끔 찾아와서 다시 봐야겠어요.
@유상준-g7p3 жыл бұрын
우와 비전공자도 이해할수 있게 잘 만드셨네요~ 감사합니다 .
@eunjungchoi96574 жыл бұрын
와 설명 진짜 잘 하시네요. 감사합니다. 미적분 복습하러 갑니다.
@imSKYLAND3 жыл бұрын
감사합니다. 덕분에 확실하게 이해하고 갑니다!!!
@c97440525 жыл бұрын
진짜 쉽게 설명 잘하시네요. 구독합니다
@TheBananakick3 жыл бұрын
몇달 만에 다시 왔습니다. 내용을 알고 들을 수록 더 멋진 강의네요 진심으로 감사합니다.
@jeeh-w9s4 жыл бұрын
노트도 올려주심 고맙겠습니다.
@몽쉘-t1b5 жыл бұрын
이제 다른강의 성에안찰것같아요~ 나동빈의 수학시리즈 원합니다🥺
@나윤호-b3x5 жыл бұрын
오 깔끔하게 정리해주셨네요. 감사합니다!
@daisy-zn7jx3 жыл бұрын
영상보니까 쉽게 이해되네요ㅜ 감사합니다😊
@Noah-jz3gt3 жыл бұрын
매우 잘 이해했습니다 감사합니당
@해윙-v1y2 жыл бұрын
도움이 됐어요 감사합니다~~~~~~
@ll49494 жыл бұрын
좋은 강의 감사드립니다. 한가지 궁금한 부분이 있는데요. 예제를 보면 우리는 결과적으로 나오게 되는 선형 방정식을 완벽하게 사전에 알고 있고 그에 대한 값 (w,b,y)도 전부 컴퓨터에 준다는 가정하에 진행되고 있습니다. 근데 실제 세상에서 저정도로 정확한 결과 값을 알고 있는 경우가 거의 없지 않나요...?프로세스를 보면 마치... 미리 해답지를 보고도 안 본척하며 수학문제 푸는 방법 같아 보여서요 ㅠ
@dongbinna4 жыл бұрын
선형 방정식을 완벽하게 사전에 알고 있지 않아도, 해당 방법을 이용하면 어떤 방정식이든 적절하게 근사(approximation)할 수 있다는 점이 포인트입니다. 비유하자면 하나를 꿰뚫어 열을 보기위한 것이라고 보시면 좋을 것 같습니다. 이 영상을 보고 느끼셨으면 좋을 내용은, '정확한 답을 이미 알고 있는 상태에서 gradient descent로도 문제를 해결할 수 있다는 게 왜 중요한 거지?'가 아니라, 'gradient descent를 이용하면, 학습이 진행될 수록 global optima에 가까워 지는구나! 그러면 정확한 답을 모르는 상황에서도 loss function을 적절하게 구비해서 gradient descent를 이용하면 문제를 유의미하게 근사하여 해결할 수 있겠군!'입니다. 질문자님이 '정확한 결과 값'이라고 하셨는데, global optima를 의미하시는 것 같네요. 말씀하신 대로 실제 다양한 문제에서는 정확히 솔루션을 구하기 어렵습니다. 모든 경우를 계산하여 솔루션을 찾는 문제 자체가 NP-hard인 경우도 많구요... 즉, 실제 문제들은 intractable한 경우가 많습니다. 현실 세계의 regression 혹은 classification task에서는 모델을 설정할 때는 input space가 고차원이고, hidden Layer의 space도 고차원이기 때문에 업데이트할 가중치의 개수가 매우 많습니다. (벡터 w의 파라미터의 개수가 많다고 보시면 됩니다.) 또한 non-linearity한 특성을 위한 다양한 activation function들이 적용됩니다. 그래서 전체적인 모델을 학습시키는 과정에서, 완벽한 global optima를 찾는 것은 tractable하지 않은 문제입니다. 본 영상에서는 설명을 쉽게 하기 위해서 가장 쉬운 예제를 들고 온 것입니다. 현재 예제는 뉴런이 1개이며 input과 output도 1개로만 구성된 뉴럴 네트워크라고 볼 수 있겠네요. 그렇기 때문에 가중치에 대한 loss function이 완전히 convex하고요. 그래서 완벽하게 global optima를 계산할 수 있는 것입니다. 다만 이렇게 쉬워보이고, 질문자님께서 말씀하셨듯이 '이미 답이 정해져 있는 것 같은' 상황에서의 이러한 전개가 중요한 이유는... 이 문제를 풀기 위한 접근 방법이 '실제로 매우 어려운 문제에도 적용될 수 있다는 점'입니다. 다양한 뉴럴 네트워크의 문제는 non-convex optimization 문제로 볼 수 있습니다. 하지만 그러한 어려운 문제에 대해서도, 본 영상에서 소개해드린 gradient descent를 이용하면 global optima와 유사한 local optima를 효과적으로 근사하여 찾을 수 있습니다. (물론 실제 모델들은 다양한 optimizer들을 적용합니다...) 나중에 관심이 생기시면 더 자세히 공부하실 수 있겠지만, 최근 모델들이 많이 사용하고 있는 ReLu function과 같이 상당히 piece-wise linear한 특징을 가지는 네트워크들은 first-order (본 영상에서처럼 한 번만 미분하여 가중치를 업데이트하는 방식) 으로 gradient descent 방법을 적용해도 상당히 빠르게 학습이 잘 됩니다. (adversarial examples과 같은 문제를 일으키는 요인이 되기도 합니다만...) 다시 말해 지금 소개해드린 gradient descent method는 현재 state-of-the-art 뉴럴 네트워크에서 학습을 위해 기본적으로 사용되고 있는 방법들이라는 점에서 중요합니다...
@클레이-q2h3 жыл бұрын
다른 내용도 이렇게 다뤄주시면 안될까요? 선형분류나 의사결정 나무 등과 같은 챕터들도요!
@손재익-t5h5 жыл бұрын
선형회귀를 쓰기만했는데 이렇게 업데이트가 될줄은 몰랐네요 좋은강의 감사합니다!
@jinhanaura4 жыл бұрын
실제 프로그램에선 저렇게 수학적으로 하는게 아니라 선형회귀 라이브러리 함수가 따로있는건가요?
@KimCoder_2 жыл бұрын
@@jinhanaura 라이브러리에서 설정해야하는게 많긴 합니다만.. 입력과 출력 (원인과 결과)를 넣어주고 몇번이나 학습(회귀) 시킬것인지 지정하고 에러값이 얼마나 떨어지면 완료 될지 입력만 해주면 해당 학습 모델에 대한 "수식"이 결과로 나옵니다. 해당 수식을 저장해뒀다가 새로운 입력을 수식에 넣어주면 출력값을 "예측" 해서 알려주는 방식을 사용하고 있습니다. 데이터 입력 : 1,2,3 출력 : 4 입력 : 4,5,6 출력 : 7 입력 : 7,8,9 출력 : 10 이런식으로 여러 입력과 출력 데이터를 10개정도 가지고 학습을 시켜주면 어떠한 "수식" 이 나오고 이 "수식"에 입력 : 10000,10001,10002 (입력에 대한 출력이 없던 데이터)을 넣어주면 출력값으로 "10003"을 나오게 됩니다. 저렇게 학습시킬때 영상에서처럼 선형회귀 방식을 사용할지.. 혹은 퍼지로직을 이용하는 방법이라던지 여러 알고리즘을 복합적으로 사용하여 인공신경망을 구현하게 되어있습니다. 프로그램도 하나만 사용하는게 아니고 여러가지를 합쳐서 사용하기도 하구요
@Kimmisuma2001 Жыл бұрын
@@KimCoder_ 오 감사합니다ㅠㅠ!!
@뵤-c7l3 жыл бұрын
미적분 탐구 보고서를 써야 해서 진로랑 연관시켜보려고 머신 러닝으로 주제를 잡긴 잡았는데 너무 어려워서 포기할까 하다가 이 영상을 발견했어요! 감사합니다ㅠㅠ
@eugene30775 жыл бұрын
진짜 잘 가르쳐주시네요^^ 수포자는 웁니다 ㅠㅠ 늙다리지만 머신러닝관련 수학공부 다시 할만한 책 추천해주실 수 있을까요??
@오성영-n7l4 жыл бұрын
저도 늙다리에요 힘내세요
@채주연-n4d4 жыл бұрын
와개재믹네요 이거 왜 재밌지…… 자소서에 쓰려고 막 찾아보는데후}………드디어 이해햇어요
@okseonhwang3231 Жыл бұрын
너무 이해가 잘 되요. ㅎ😂
@가상민-x7n5 жыл бұрын
오늘에서야 보게 되었습니다 영상 감사합니다 좋아요와 구독~^^
@이동욱-t9b5 жыл бұрын
고등학생때 친구가 모르는문제가르쳐주는 느낌
@judesong37544 жыл бұрын
좋은 강의 감사합니다!!
@金成柱김성주4 жыл бұрын
영상 재밌게 잘 봤습니다. 혹시 나중에 기회가 되신다면 파이썬을 이용한 최적화 해석 관련 영상도 가능하신가요?
@제이크타일러3 жыл бұрын
너무 감사합니다
@hyunyg4 жыл бұрын
좋은 강의 감사합니다....
@Shine_74 жыл бұрын
아이구;; 나도 모르게 동빛나라고 읽어서 순간 깜놀했네.. 나동빈님이시구나
@restonjesus5 жыл бұрын
우와 천제~ 감사합니다. 많이 배워 갑니다.
@appleapple1763 Жыл бұрын
36:20 차수가 높은 그래프를 그렸는데, w와 b에 관한 기울기가 0인 지점을 찾는거라 그래프는 w와 cost 함수, b와 코스트 함수 이렇게 항상 2차가 나오는거 아닌가요?
@클레이-q2h3 жыл бұрын
진짜 잘 가르치시네요..!
@닐리리-w9v5 жыл бұрын
그가 공책까지 꺼냈다!
@junyoon93213 жыл бұрын
와 정말 최고예요 ㅠㅠ 고맙습니다!
@targauxs76984 жыл бұрын
사용되는 수학이 간단한 것들이어서 이해하기 쉬웠네요. 제가 하는 연구에 머신러닝을 도입해보고 싶은데 갈길이 먼것같네요 ㅠㅠ ㅋㅋ
@강상규-b1e5 жыл бұрын
정말로 감사합니다. 이렇게 쉽게 가르쳐주시다니. 제 고민해결되었습니다. 그런데 목소리가 이선균씨 같네요...ㅎㅎ
@yuni71454 жыл бұрын
설명을 너무 잘하시네요! 교수님보다 이해가 잘간다는..
@yjjang71064 жыл бұрын
우왕 멋진 강의 너무 감사합니다 👍
@faketrue62832 жыл бұрын
감사합니다!
@모르면전진5 жыл бұрын
보안에 웹에 AI에 안다루시는 분야가 뭔가요 ㄷㄷ... 혹시 실례지 않으시면 어떤 진로(취업,진학, 분야 등) 생각하고 계신지 알수 있을까요? 저도 컴공인데 항상 와서 많이 배우고 그리고 자극받고 갑니다 !