질 좋은 강의에 감사 인사 드립니다!! 더 많은 강의 올려주세요! 소수의 애청자가 있으니..!
@user-yu5qs4ct2b3 жыл бұрын
감사합니다!
@user-bl4xq9kh4r Жыл бұрын
제가 들은 릿지 라쏘 설명 중 제일 쉽고 이해도 잘돼요😁
@haone84334 жыл бұрын
정말차근차근 하나하나이해가되게 설명해주셔서 너무감사합니다
@user-yu5qs4ct2b4 жыл бұрын
감사합니다!
@user-nd7zk4ts1r5 жыл бұрын
elastic net method에 대해서 이해가 필요했는데, 좋은 강의 감사합니다!! 덕분에 많은 도움이 됐습니다 교수님.
@user-yu5qs4ct2b4 жыл бұрын
감사합니다!
@dongryeolshin45204 жыл бұрын
강의 잘 들었습니다. 정말 도움이 많이 되었습니다. 앞으로 더 유익한 영상 올려주세요 ㅎㅎ
@user-yu5qs4ct2b4 жыл бұрын
감사합니다!
@e.k16563 жыл бұрын
정말 정확하고 필요한 내용만 설명 잘해주십니다 감사합니다
@user-yu5qs4ct2b3 жыл бұрын
감사합니다!
@MZ-pj4eq3 жыл бұрын
교수님, 감사합니다!!
@user-yu5qs4ct2b3 жыл бұрын
감사합니다!
@user-py4wv1ss8c3 жыл бұрын
감사합니다.
@user-jc4qs9xh9n4 жыл бұрын
감사합니다!
@user-yu5qs4ct2b4 жыл бұрын
감사합니다!
@user-xx2fh3kw3m Жыл бұрын
람다값과 튜닝파라미터의 차이가 뭔가요? 람다는 커질수록 제약이 강해지는거 같고 튜닝 파라미터는 작아질수록 제약이 강해지는거같은데 맞나요 ??
@user-yu5qs4ct2b Жыл бұрын
람다가 튜닝파라미터입니다. 튜팅파라미터(하이퍼파라미터)는 사용자가 지정해 주어야 하는 파라미터를 의미합니다.
@user-xx2fh3kw3m Жыл бұрын
@@user-yu5qs4ct2b10:53 부분의 그래프에선 람다가 커질수록 coefficient가 0 에 가까워진다 하는데 14:29 부분의 tuning parameter t는 오히려 작아질수록 coefficient가 0에 가까워진다 나와있어서요. t = 1/lambda 로 임의로 지정해준건가요?
@user-hb5zw1lt7p10 ай бұрын
@@user-xx2fh3kw3m 그건 아닐거에요. 제가 이해한 바로는 t 가 커지면 원의 크기가 점점 줄어들면서 제약이 점점 커진다는 의미이고, 람다가 있던 식에서는 람다 값이 커지면 커질수록 그 중요도가 커지니까 제약이 그만큼 커진다는 의미인걸로 이해했어요.
@AJK5443 жыл бұрын
강의력 대단하시네요ㅎㅎㅎ 교수님 강의 자료는 다운 받을 수 없나요?
@user-yu5qs4ct2b3 жыл бұрын
감사합니다~ 몇가지 이유로 강의자료는 현재 공개하지 않고 있습니다. 양해 바랍니다.
@sounghwanhwang54224 жыл бұрын
교수님 혹시 궁금한게 있는데 Lasso 모델에서 MSE의 contour와 마름모가 만나는 지점(최적점)이 모서리가 아니라 마음모의 빗변에서 만나게 되면 어떻게 되나요? 그러면 Beta1 Beta2 모두 영향을 끼친다는 의미인가요?
@user-yu5qs4ct2b4 жыл бұрын
항상 꼭지점에서 mse가 최소가 됩니다.
@user-hb5zw1lt7p10 ай бұрын
@@user-yu5qs4ct2b 왜죠?? 저도 이 부분이 궁금합니다.
@user-tx3dv2uj7p2 жыл бұрын
ridge,lasso,elastic net 모델은 하이퍼파라미터 튜닝을 어떤 식으로 하나요? 손으로 일일이 값 바꿔가면서 성능 확인하나요?
@josephahn26243 жыл бұрын
l1-norm 방식의 최적화를 공부하려면, 어떤 방법부터 보는게 좋을까요?! 혹시 많이 보는 논문같은거 소개해주실수 있으신지요,?
@user-yu5qs4ct2b3 жыл бұрын
글쎼요... 기본 개념은 논문으로 공부하시기 보다는 책이나 웹싸이트(검색을 통해)를 이용해서 이해 하시는 것이 좋습니다.