머신러닝의 기초 - 선형 회귀 한 번에 제대로 이해하기 (30분만 투자해봐요!)

  Рет қаралды 225,476

동빈나

동빈나

Күн бұрын

Пікірлер
@hyeryunpark5170
@hyeryunpark5170 2 жыл бұрын
요즘 머신러닝 강의 듣고 있는 50대입니다. 중간에 러닝레이트. 알파값이 이해되지 않았는데 이 영상 보고 이해가 되었습니다. 감사합니다.
@별빛속에
@별빛속에 9 ай бұрын
2024년에 듣고 있습니다 귀에 쏙쏙 들어옵니다 짱!!!!
@radas7589
@radas7589 5 жыл бұрын
이선균씨 고마워요 연예인이 선형회귀를 다 알려주고 영광영광 ^.^
@mathmathmath2298
@mathmathmath2298 5 жыл бұрын
ㅋㅋㅋ 저도 목소리 듣고 이선균씨 닮았다 생각했어요 ㅋㅋㅋ 구독하고 갑니다 ㅎㅎ
@나의라임개쩌는나-n7d
@나의라임개쩌는나-n7d 3 жыл бұрын
보우옹고오올레에에파아스으타아하느아아
@minyoungkim6879
@minyoungkim6879 3 жыл бұрын
점심 봉골레 먹어야겠다. 점심메뉴 고민 해결해줘서 고마워요 봉골레형
@PinkPong_official
@PinkPong_official 3 жыл бұрын
봉골레하나 한번만해주세요 제발요ㅠ
@mysonshine67
@mysonshine67 Жыл бұрын
👍🏼👍🏼
@최준영-f3p
@최준영-f3p 5 жыл бұрын
설명 진짜 잘해주신다!!!!!!!!!!!!!!!!!!!!!!!!!!! cf. 22:52 2Xib가 아니라 2XiW
@findmi5404
@findmi5404 2 жыл бұрын
고등학생인데 선형회귀 관련해서 탐구해보려고 찾아보고 있었는데 이해하기 쉽게 잘 설명해주셔서 수월하게 발표했어요! 감사합니다!
@judy8722
@judy8722 4 жыл бұрын
23:10 중간에 실수도 스스로 찾아보게하는 컴피타티쳐 동빈나 당신은 도덕책....
@gogooo25
@gogooo25 4 жыл бұрын
예비 컴공 전공자인데 완벽히 이해됐어요ㅠㅠ 설명 너무 잘하심..감사합니다
@choichirim6231
@choichirim6231 3 жыл бұрын
와우 코세라 몇달치를 한번에 설명하시다니 대단하십니다.
@Square2017
@Square2017 4 жыл бұрын
선형회귀에 대해 찾아보고 있는데 가장 이해하기 쉽게 설명해 주시네요 감사합니다 ㅎ
@lIlIililiillli
@lIlIililiillli 3 жыл бұрын
며칠째 고생하다가 이 강의로 개념적인 이해가 완전히 된 것 같습니다 감사해요~~
@남극펭귄-n9k
@남극펭귄-n9k 3 жыл бұрын
최고라는 말 밖에 안나오네요. 감사합니다
@kaichell3822
@kaichell3822 Жыл бұрын
자주뵙네요 감사합니다. 좋은하루되세요.
@효캉
@효캉 Жыл бұрын
진짜 지금까지 들어본 선형 회귀 머신러닝 강의 중에 이렇게 기초를 쉽게 가르쳐주시는 분 처음봅니다.. 비슷한 강의 많이 만들어주세요ㅜㅜ
@youngtaegkim8530
@youngtaegkim8530 8 ай бұрын
간단한 예제로 쉽게 설명해주셔서 고맙습니다. 그런데 w 기울기, b 기울기 라는 표현보다 w에대한 cost 함수의 기울기, b에대한 cost의 기울기 라고 하면 더 정확한 표현이 아닐까요? 보통 cost함수를 간단히 J라고 하면 함수 J의 기울기를 0 으로 만드는 w와 b를 찾는거죠. 즉. dJ/dw=0, dJ/db=0이 되는 w, b를 찾는거죠. 사족이 길어서 죄송합니다 😅
@강경태-t7f
@강경태-t7f Ай бұрын
진짜 겁나 잘 알려준다.. 지금까지 이해안되었던 부분이 근본적으로 이해되었다.. 정말 감사합니다 역시 교대..
@psg-go4yj
@psg-go4yj 4 жыл бұрын
코너링이 예술이시네요
@2320정민규
@2320정민규 2 жыл бұрын
예전에 다른 강의 들었을 때는 선형회귀의 개념이 잘 이해가 가지 않았는데 기초부터 말해주셔서 이해가 정말 잘 되었어요.
@Hobin-ou3zd
@Hobin-ou3zd 14 күн бұрын
감사합니다. 덕분에 직관적인 의미를 이해했습니다.
@kyayamin
@kyayamin 2 жыл бұрын
와우.. 목소리도 깔끔하고 좋으셔서 더 잘 집중이 되네요 감사합니다 ☺️
@yanggunsj
@yanggunsj 5 жыл бұрын
머신러닝의 기초 개념인 선형회귀를 정말 기본부터 쉽게 풀어주셨네요. 최고입니다. 더불어 영상 초반에 목차나 비쥬얼 적인 요소로 머신러닝의 흐름을 보여준다면 더 좋을 듯합니다. 멋진 후배님!!
@YoungHakKim
@YoungHakKim 2 жыл бұрын
유사한 동영상 몇 개를 봤지만 이 동영상 설명이 최고임
@icmansss
@icmansss Жыл бұрын
쌤 덕분에 드디어 이해할 수 있게 되었습니다 감사합니다 ㅠㅠ! 혹시 다른 머신러닝 개념들도 이런 형식으로 설명해주실수 있으실까요?? 확실히 수학개념부터 찬찬히 설명해주시니 너무 좋네요!! 부탁드립니다 ㅠㅠ
@서형준-b6u
@서형준-b6u Жыл бұрын
오랜만에 강의 영상을 완주할 수 있었네요 감사합니다
@사과-d3t
@사과-d3t Жыл бұрын
회귀분석에 대해 알아보고 있었는데 설명이랑 목소리가 깔끔하고 좋아요!!
@Ahyun19
@Ahyun19 5 жыл бұрын
경영학과인데 경영과학에서 쓰이는 크래머 공식이 여기서 나올 줄은.... 소름.... 형님 감사합니다! 덕분에 파생상품 잘 이해할 수 있을듯 합니다 ㅠㅠㅠ 살았습니다... 정말.... (____) 복 받으시길.... 밑에 댓글 분 말씀대로 잔차항이나 이런 거 구하는 건 따로 이해해야겠지만 기본적인 선형회귀 공식 유도법은 감사히 배웠습니다! 혹시 경영학과 있으면 1학년 때 통계학은 제대로 빡세게 하거라 나처럼 늙다리에 고생하지말구... 다들 힘내...!!!
@wmf1235
@wmf1235 3 жыл бұрын
잘 보아써요! 한 가지 요청이 있다면 자막을 달아주시거나 자막을 넣을 수 있도록 수정해주셨으면 해요. 듣지 못하는 친구를 위해서요
@ojijy94
@ojijy94 5 жыл бұрын
코딩으로 런닝머신도 만들 수 있군요!
@이동준-p9u
@이동준-p9u 5 жыл бұрын
ㅋㅋㅋ 런닝머신이라뇨
@시간을아끼자-r4r
@시간을아끼자-r4r 5 жыл бұрын
완전 자연스럽네
@originalgm5947
@originalgm5947 5 жыл бұрын
넘 자연스러워서 뭐가 틀린지 몰랐다...
@김진우-w3i
@김진우-w3i 4 жыл бұрын
ㅋㅋㅋㅋㅋㅋㅋㅋ런닝머신ㅋㅋ
@kyumanrho8847
@kyumanrho8847 3 жыл бұрын
ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ 뻘하게 웃기네요 ㅋㅋㅋㅋㅋㅋㅋㅋ
@1020HeyHo
@1020HeyHo 3 жыл бұрын
와! 대단합니다. 강좌 보고 고수의 내공을 느꼈습니다. 좋은 강좌 감사합니다.
@xxi1375
@xxi1375 5 жыл бұрын
와... 이제 선형회귀까지 가르쳐준다고...?
@함성식-o2e
@함성식-o2e 4 ай бұрын
아나 저도 저렇게 간단명료하고 깔끔하게 설명하고 싶네요. 질투나지만 배우고 갑니다.
@고승현-i9z
@고승현-i9z 2 жыл бұрын
정말 대박입니다 책만 보고 이해못했던 내용들을 이렇게 쉽게 풀어주시다니 감사합니다
@sicari6392
@sicari6392 2 жыл бұрын
이해도 잘되고 목소리도 참 좋네요
@kwon3616
@kwon3616 5 жыл бұрын
강의 너무 잘하십니다ㅠㅠ 감사합니다
@민혁김
@민혁김 3 жыл бұрын
안녕하세요. 해외에서 유학중인 학생입니다. 이번 학기에 머신러닝 관련과목 수강신청을 했는데 렉쳐 이해가 잘 이해가 안되서 찾아보게 되었습니다. 감사합니다!
@bishopseol6992
@bishopseol6992 Жыл бұрын
계량경제학 도입부에 배우는 선형회귀를 머신러닝 측면에서 보니까 새롭네요
@ieiiawkska7926
@ieiiawkska7926 2 жыл бұрын
예전에 다른 강의 들었을 때는 선형회귀의 개념이 잘 이해가 가지 않았는데 기초부터 말해주셔서 이해가 정말 잘 되었어요. 앞으로 관련된 다른 주제의 영상도 많이 올려주셨으면 좋겠어요.
@zzs0189
@zzs0189 3 жыл бұрын
와우!!! 처음으로 영상 봤는데, 완전... 명품 머신러닝 강의네요!! 덕분에 Linear Regression을 제대로 이해 했습니다.
@jjjjjjjj-mo2lf
@jjjjjjjj-mo2lf 3 жыл бұрын
ㄷㄷ 이 분목소리 왤케 좋나요 집중도 잘되네요 잘 들었습니다~~
@하얀성-s9m
@하얀성-s9m Жыл бұрын
감사합니다. 좋은 강의였습니다.
@최적화-o6t
@최적화-o6t 4 жыл бұрын
설명이 너무 좋습니다 다른사람에 비해 제가 이해도가 낮은편인데 이해가 되다니... 의사결정나무 랑 비선형모델이랑 인공신경망 등 계획은 없으신가여?? ㅠㅠ 다른 유튜브 강의는 너무 이해가 안가고 이런방식이 저에게 너무 딱이라서요 ㅠㅠ
@genosyde78
@genosyde78 7 ай бұрын
훌륭하다. 와계어에대한 해석이 필요하지만 반복해서 듣다보면 내가 하고 있는 map iou의 개념에 대해서 제대로 이해 하게되겠지. Map rate만 들여다 보고 있었는데 이게 뒤에서 이런 원리로 작동 하는 거였군
@tspark1071
@tspark1071 3 жыл бұрын
Descending. Tangent W and b. 감사합니다
@ilapr6419
@ilapr6419 Жыл бұрын
설명이 너무 깔끔하십니다 ㅎㅎ
@정낙현-x9z
@정낙현-x9z 4 жыл бұрын
감사합니다 이해가 정말잘되네요 큰 도움이 되었습니다
@개쩌는강희원
@개쩌는강희원 5 жыл бұрын
아직 비전공자인데 이해 잘되요! 감사합니다
@amorousfinale
@amorousfinale Жыл бұрын
이분은 어려보이시는데 강의력도 미쳤고 목소리도 좋으시네... 하 여친 없어라
@유관동-u6x
@유관동-u6x 2 жыл бұрын
선형회귀 문제를 쉽게 잘 설명해 주셔서 감사합니다~
@BOILED_EGG123
@BOILED_EGG123 5 жыл бұрын
뭔가 어려운데 쉬운것 같고, 쉬운데 어렵네요.... 좋은 강의 잘 보았습니다. 경사하강법까지는 이해를 했는데, 그걸 행렬을 이용해서 푸는 부분부터는 수학적 지식이 짧아서 이해를 잘 못하겠네요. ㅎㅎ
@jinjin4992
@jinjin4992 4 жыл бұрын
우와 지금까지 들었던 강의중 가장 이해가 쉽군요. 감사합니다.
@sslee000
@sslee000 4 жыл бұрын
Excellent!!! AI 처음 공부하는데 나라도 경사하강법을 사용할 것 같습니다. 재밌네요.. 설명 너무 잘했습니다. 시간 가는줄 모르고 보았습니다.
@jirah4963
@jirah4963 9 ай бұрын
일차함수와 연결되어 이해가 잘되네용
@HumpWhale3
@HumpWhale3 3 жыл бұрын
설명 아주 깔끔합니다. 배워가요!
@꼼양-t4w
@꼼양-t4w 3 жыл бұрын
설명 진짜 너무 잘해주시네요 감사합니다 ^^
@purplepurplethings
@purplepurplethings 3 жыл бұрын
진짜 이해 너무 잘돼요 감사합니다.
@sayhello5822
@sayhello5822 3 жыл бұрын
이거 진짜 명강의네요.. 정말 감사합니다
@김경민-i2y8z
@김경민-i2y8z 3 жыл бұрын
교수님 왜 여기계십니까.. 학교 수업 3번돌려서 이해못한거 한번에 이해됬습니다;
@아아-x9n
@아아-x9n 2 жыл бұрын
우와 컴공이라고 들었는데 수학잘하시네요! 감사합니다
@이강윤-r3f
@이강윤-r3f 2 жыл бұрын
진짜 설명 기똥찹니다 너무 감사합니다
@찬이-c8x
@찬이-c8x 2 жыл бұрын
찰떡강의 감사합니다.
@yammsei
@yammsei 5 жыл бұрын
좋은 강의 잘 들었습니다. 업무에 활용하겠습니다.
@김진우-w3i
@김진우-w3i 4 жыл бұрын
그제 친구가 알려줬었는데 나동빈님이 훨씬 깔끔하게 알려주시네요ㅋㅋ 감사합니다
@lolololololol-ugh
@lolololololol-ugh 4 жыл бұрын
한 3년전에 혼자 열심히 독학하면서 php로 regression 다차함수까지 구현했었는데, 이후에는 편하게 tensorflow만 돌리다보니 실제 수학이론 내용들은 다 까먹어서 흐릿흐릿 하네요. 즐겨찾기 해놓고 가끔 찾아와서 다시 봐야겠어요.
@유상준-g7p
@유상준-g7p 3 жыл бұрын
우와 비전공자도 이해할수 있게 잘 만드셨네요~ 감사합니다 .
@eunjungchoi9657
@eunjungchoi9657 4 жыл бұрын
와 설명 진짜 잘 하시네요. 감사합니다. 미적분 복습하러 갑니다.
@imSKYLAND
@imSKYLAND 3 жыл бұрын
감사합니다. 덕분에 확실하게 이해하고 갑니다!!!
@c9744052
@c9744052 5 жыл бұрын
진짜 쉽게 설명 잘하시네요. 구독합니다
@TheBananakick
@TheBananakick 3 жыл бұрын
몇달 만에 다시 왔습니다. 내용을 알고 들을 수록 더 멋진 강의네요 진심으로 감사합니다.
@jeeh-w9s
@jeeh-w9s 4 жыл бұрын
노트도 올려주심 고맙겠습니다.
@몽쉘-t1b
@몽쉘-t1b 5 жыл бұрын
이제 다른강의 성에안찰것같아요~ 나동빈의 수학시리즈 원합니다🥺
@나윤호-b3x
@나윤호-b3x 5 жыл бұрын
오 깔끔하게 정리해주셨네요. 감사합니다!
@daisy-zn7jx
@daisy-zn7jx 3 жыл бұрын
영상보니까 쉽게 이해되네요ㅜ 감사합니다😊
@Noah-jz3gt
@Noah-jz3gt 3 жыл бұрын
매우 잘 이해했습니다 감사합니당
@해윙-v1y
@해윙-v1y 2 жыл бұрын
도움이 됐어요 감사합니다~~~~~~
@ll4949
@ll4949 4 жыл бұрын
좋은 강의 감사드립니다. 한가지 궁금한 부분이 있는데요. 예제를 보면 우리는 결과적으로 나오게 되는 선형 방정식을 완벽하게 사전에 알고 있고 그에 대한 값 (w,b,y)도 전부 컴퓨터에 준다는 가정하에 진행되고 있습니다. 근데 실제 세상에서 저정도로 정확한 결과 값을 알고 있는 경우가 거의 없지 않나요...?프로세스를 보면 마치... 미리 해답지를 보고도 안 본척하며 수학문제 푸는 방법 같아 보여서요 ㅠ
@dongbinna
@dongbinna 4 жыл бұрын
선형 방정식을 완벽하게 사전에 알고 있지 않아도, 해당 방법을 이용하면 어떤 방정식이든 적절하게 근사(approximation)할 수 있다는 점이 포인트입니다. 비유하자면 하나를 꿰뚫어 열을 보기위한 것이라고 보시면 좋을 것 같습니다. 이 영상을 보고 느끼셨으면 좋을 내용은, '정확한 답을 이미 알고 있는 상태에서 gradient descent로도 문제를 해결할 수 있다는 게 왜 중요한 거지?'가 아니라, 'gradient descent를 이용하면, 학습이 진행될 수록 global optima에 가까워 지는구나! 그러면 정확한 답을 모르는 상황에서도 loss function을 적절하게 구비해서 gradient descent를 이용하면 문제를 유의미하게 근사하여 해결할 수 있겠군!'입니다. 질문자님이 '정확한 결과 값'이라고 하셨는데, global optima를 의미하시는 것 같네요. 말씀하신 대로 실제 다양한 문제에서는 정확히 솔루션을 구하기 어렵습니다. 모든 경우를 계산하여 솔루션을 찾는 문제 자체가 NP-hard인 경우도 많구요... 즉, 실제 문제들은 intractable한 경우가 많습니다. 현실 세계의 regression 혹은 classification task에서는 모델을 설정할 때는 input space가 고차원이고, hidden Layer의 space도 고차원이기 때문에 업데이트할 가중치의 개수가 매우 많습니다. (벡터 w의 파라미터의 개수가 많다고 보시면 됩니다.) 또한 non-linearity한 특성을 위한 다양한 activation function들이 적용됩니다. 그래서 전체적인 모델을 학습시키는 과정에서, 완벽한 global optima를 찾는 것은 tractable하지 않은 문제입니다. 본 영상에서는 설명을 쉽게 하기 위해서 가장 쉬운 예제를 들고 온 것입니다. 현재 예제는 뉴런이 1개이며 input과 output도 1개로만 구성된 뉴럴 네트워크라고 볼 수 있겠네요. 그렇기 때문에 가중치에 대한 loss function이 완전히 convex하고요. 그래서 완벽하게 global optima를 계산할 수 있는 것입니다. 다만 이렇게 쉬워보이고, 질문자님께서 말씀하셨듯이 '이미 답이 정해져 있는 것 같은' 상황에서의 이러한 전개가 중요한 이유는... 이 문제를 풀기 위한 접근 방법이 '실제로 매우 어려운 문제에도 적용될 수 있다는 점'입니다. 다양한 뉴럴 네트워크의 문제는 non-convex optimization 문제로 볼 수 있습니다. 하지만 그러한 어려운 문제에 대해서도, 본 영상에서 소개해드린 gradient descent를 이용하면 global optima와 유사한 local optima를 효과적으로 근사하여 찾을 수 있습니다. (물론 실제 모델들은 다양한 optimizer들을 적용합니다...) 나중에 관심이 생기시면 더 자세히 공부하실 수 있겠지만, 최근 모델들이 많이 사용하고 있는 ReLu function과 같이 상당히 piece-wise linear한 특징을 가지는 네트워크들은 first-order (본 영상에서처럼 한 번만 미분하여 가중치를 업데이트하는 방식) 으로 gradient descent 방법을 적용해도 상당히 빠르게 학습이 잘 됩니다. (adversarial examples과 같은 문제를 일으키는 요인이 되기도 합니다만...) 다시 말해 지금 소개해드린 gradient descent method는 현재 state-of-the-art 뉴럴 네트워크에서 학습을 위해 기본적으로 사용되고 있는 방법들이라는 점에서 중요합니다...
@클레이-q2h
@클레이-q2h 3 жыл бұрын
다른 내용도 이렇게 다뤄주시면 안될까요? 선형분류나 의사결정 나무 등과 같은 챕터들도요!
@손재익-t5h
@손재익-t5h 5 жыл бұрын
선형회귀를 쓰기만했는데 이렇게 업데이트가 될줄은 몰랐네요 좋은강의 감사합니다!
@jinhanaura
@jinhanaura 4 жыл бұрын
실제 프로그램에선 저렇게 수학적으로 하는게 아니라 선형회귀 라이브러리 함수가 따로있는건가요?
@KimCoder_
@KimCoder_ 2 жыл бұрын
​@@jinhanaura 라이브러리에서 설정해야하는게 많긴 합니다만.. 입력과 출력 (원인과 결과)를 넣어주고 몇번이나 학습(회귀) 시킬것인지 지정하고 에러값이 얼마나 떨어지면 완료 될지 입력만 해주면 해당 학습 모델에 대한 "수식"이 결과로 나옵니다. 해당 수식을 저장해뒀다가 새로운 입력을 수식에 넣어주면 출력값을 "예측" 해서 알려주는 방식을 사용하고 있습니다. 데이터 입력 : 1,2,3 출력 : 4 입력 : 4,5,6 출력 : 7 입력 : 7,8,9 출력 : 10 이런식으로 여러 입력과 출력 데이터를 10개정도 가지고 학습을 시켜주면 어떠한 "수식" 이 나오고 이 "수식"에 입력 : 10000,10001,10002 (입력에 대한 출력이 없던 데이터)을 넣어주면 출력값으로 "10003"을 나오게 됩니다. 저렇게 학습시킬때 영상에서처럼 선형회귀 방식을 사용할지.. 혹은 퍼지로직을 이용하는 방법이라던지 여러 알고리즘을 복합적으로 사용하여 인공신경망을 구현하게 되어있습니다. 프로그램도 하나만 사용하는게 아니고 여러가지를 합쳐서 사용하기도 하구요
@Kimmisuma2001
@Kimmisuma2001 Жыл бұрын
@@KimCoder_ 오 감사합니다ㅠㅠ!!
@뵤-c7l
@뵤-c7l 3 жыл бұрын
미적분 탐구 보고서를 써야 해서 진로랑 연관시켜보려고 머신 러닝으로 주제를 잡긴 잡았는데 너무 어려워서 포기할까 하다가 이 영상을 발견했어요! 감사합니다ㅠㅠ
@eugene3077
@eugene3077 5 жыл бұрын
진짜 잘 가르쳐주시네요^^ 수포자는 웁니다 ㅠㅠ 늙다리지만 머신러닝관련 수학공부 다시 할만한 책 추천해주실 수 있을까요??
@오성영-n7l
@오성영-n7l 4 жыл бұрын
저도 늙다리에요 힘내세요
@채주연-n4d
@채주연-n4d 4 жыл бұрын
와개재믹네요 이거 왜 재밌지…… 자소서에 쓰려고 막 찾아보는데후}………드디어 이해햇어요
@okseonhwang3231
@okseonhwang3231 Жыл бұрын
너무 이해가 잘 되요. ㅎ😂
@가상민-x7n
@가상민-x7n 5 жыл бұрын
오늘에서야 보게 되었습니다 영상 감사합니다 좋아요와 구독~^^
@이동욱-t9b
@이동욱-t9b 5 жыл бұрын
고등학생때 친구가 모르는문제가르쳐주는 느낌
@judesong3754
@judesong3754 4 жыл бұрын
좋은 강의 감사합니다!!
@金成柱김성주
@金成柱김성주 4 жыл бұрын
영상 재밌게 잘 봤습니다. 혹시 나중에 기회가 되신다면 파이썬을 이용한 최적화 해석 관련 영상도 가능하신가요?
@제이크타일러
@제이크타일러 3 жыл бұрын
너무 감사합니다
@hyunyg
@hyunyg 4 жыл бұрын
좋은 강의 감사합니다....
@Shine_7
@Shine_7 4 жыл бұрын
아이구;; 나도 모르게 동빛나라고 읽어서 순간 깜놀했네.. 나동빈님이시구나
@restonjesus
@restonjesus 5 жыл бұрын
우와 천제~ 감사합니다. 많이 배워 갑니다.
@appleapple1763
@appleapple1763 Жыл бұрын
36:20 차수가 높은 그래프를 그렸는데, w와 b에 관한 기울기가 0인 지점을 찾는거라 그래프는 w와 cost 함수, b와 코스트 함수 이렇게 항상 2차가 나오는거 아닌가요?
@클레이-q2h
@클레이-q2h 3 жыл бұрын
진짜 잘 가르치시네요..!
@닐리리-w9v
@닐리리-w9v 5 жыл бұрын
그가 공책까지 꺼냈다!
@junyoon9321
@junyoon9321 3 жыл бұрын
와 정말 최고예요 ㅠㅠ 고맙습니다!
@targauxs7698
@targauxs7698 4 жыл бұрын
사용되는 수학이 간단한 것들이어서 이해하기 쉬웠네요. 제가 하는 연구에 머신러닝을 도입해보고 싶은데 갈길이 먼것같네요 ㅠㅠ ㅋㅋ
@강상규-b1e
@강상규-b1e 5 жыл бұрын
정말로 감사합니다. 이렇게 쉽게 가르쳐주시다니. 제 고민해결되었습니다. 그런데 목소리가 이선균씨 같네요...ㅎㅎ
@yuni7145
@yuni7145 4 жыл бұрын
설명을 너무 잘하시네요! 교수님보다 이해가 잘간다는..
@yjjang7106
@yjjang7106 4 жыл бұрын
우왕 멋진 강의 너무 감사합니다 👍
@faketrue6283
@faketrue6283 2 жыл бұрын
감사합니다!
@모르면전진
@모르면전진 5 жыл бұрын
보안에 웹에 AI에 안다루시는 분야가 뭔가요 ㄷㄷ... 혹시 실례지 않으시면 어떤 진로(취업,진학, 분야 등) 생각하고 계신지 알수 있을까요? 저도 컴공인데 항상 와서 많이 배우고 그리고 자극받고 갑니다 !
@dongbinna
@dongbinna 5 жыл бұрын
먼 미래까지는 고민하지 않았지만... 일단 저는 석사 과정에 진학하게 되었습니다.
@pasongsong
@pasongsong 4 жыл бұрын
영상 잘봤습니다! 감사합니다~
@보노보노-f1v
@보노보노-f1v 4 жыл бұрын
수학강의 너무 잘하신다
[핵심 머신러닝] 로지스틱회귀모델 1 (로지스틱함수, 승산)
22:19
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 48 М.
When Cucumbers Meet PVC Pipe The Results Are Wild! 🤭
00:44
Crafty Buddy
Рет қаралды 61 МЛН
Smart Sigma Kid #funny #sigma
00:33
CRAZY GREAPA
Рет қаралды 22 МЛН
회귀분석 쌩기초! 8분만 투자하세요 | 최소제곱법
8:48
설레는 수학
Рет қаралды 131 М.
Linear Regression, Clearly Explained!!!
27:27
StatQuest with Josh Starmer
Рет қаралды 293 М.
[딥러닝] 2편. 선형회귀, 경사하강법 (gradient descent)
20:54
BOS의 스터디룸
Рет қаралды 7 М.
[핵심 머신러닝] 선형회귀모델 1 (개요, 모델가정)
19:11
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 32 М.
논문통계분석 기초와 논문 작성법 (6) 회귀분석
21:08
드림셀파 (논문컨설팅 1:1맞춤)
Рет қаралды 50 М.
이해하면 인생이 바뀌는 TCP 송/수신 원리
32:19
널널한 개발자 TV
Рет қаралды 375 М.