세미나 아주 좋아요 훌륭한 김교수님 처럼 잘 하네요 LG Display Mr Hyun 보냄
@김성범교수산업경영공3 жыл бұрын
감사합니다~
@jgjt22213 жыл бұрын
잘 봤습니다~^^
@김성범교수산업경영공3 жыл бұрын
감사합니다~
@제갈식3 жыл бұрын
3:20 그것을 딥러닝 네트웍에서의 불확정성 원리라고 부릅니다.: "일반화가 잘 되는 네트워크는 해석하기 어렵다. 해석이 용이한 네트워크는 일반화가 어렵다."
@jk001272 жыл бұрын
좋은 자료 감사합니다! 한 가지 궁금한 점이 있습니다. SHAP 예시 설명 중 Feature A의 Shapley value를 계산할 때 A가 포함되지 않는 부분 집합 중 그 어떤 feature도 포함이 안된, 엑스 표기가 되어 있는 케이스는 아무 feature도 사용되지 않은 상태인데 이 경우의 예측값은 어떻게 계산된다고 이해하면 될까요? 아무 feature value를 사용 안했는데 어떻게 값이 나와서 shapley value가 계산되는지 궁금합니다.
@hyunjaecho14152 жыл бұрын
늦었지만 제 생각을 공유해 볼게요. Neural networks의 경우 input shape이 정해져 있기 때문에 각 feature가 사용이 되지 않다고 하더라도 어떤 value라도 집어넣어야 할 겁니다. 예를 들어 input shape이 100일 때 A를 사용하지 않는다고 input shape을 99로 내리지는 않는다는 거죠. 그러면 A의 true value를 사용하지 않고 어떤 value를 넣는지가 중요할 텐데 0을 넣거나 random 한 value를 넣거나 아니면 다른 "null value"를 넣을 수 있을 거라 생각됩니다.
@도아튜브-q1b2 жыл бұрын
안녕하세요, 세미나 영상보며 공부하는 직장인 입니다. 내용 중에 하나 궁금한 것이 있어 여쭤보게 되었습니다. 영상 14분 50초부터 Loss 함수에 대해 설명해주시는 부분이 있는데요, z는 관측치 x 주변의 데이터포인트 이고, 모델 f와 g에 각각 z, z'을 넣어 Loss 함수를 구한다는 내용입니다. 제가 궁금한 것은 모델 f 와 모델 z에 같은 z값을 넣어 얻은 예측 결과치에 대해 손실함수를 구하는 것이 아니고, g에는 왜 z' 을 넣나요? 차원이 축소됐다는 말이 잘 이해가 되지 않습니다 ㅠㅠ (피처가 줄었다는 말인가요?) 많이 바쁘실 텐데 답글 주시면 정말 감사하겠습니다.
@dongheejung5332 жыл бұрын
안녕하세요, 학부생이라 잘 알지는 못하지만 제가 이해한 것은 다음과 같습니다. 1) g 모델이 f에 비해 단순한 설명 모델이기에 z' 값으로 차원을 축소 시킨 것 같습니다. 2) z가 input 값을 의미하는데 영상에서는 설명의 용이함을 위해 z에 들어가는 x값을 x_1, x_2로 구성된 2차원의 꼴로 표현하셨습니다. 그러나 실제 대부분의 모델에서 input feature들은 3개 이상의 다양한 feature들을 다룰 것입니다.(x_3, x_4, ...) 그러나 g와 같이 단순한 모델의 경우 모든 feature들을 고려하기 어려울 수 있기 때문에, 그 input에 맞춰서 feature 개수를 줄이게 될텐데 이를 차원 축소라고 표현하신 것 같습니다. Feature 개수를 줄이는 방법은 교수님 다른 동영상에 설명되어 있는 PCA와 같은 feature extraction method나 feature selection method 등이 있는 것으로 알고 있습니다.
@pangguinhyeonsoo13425 ай бұрын
@@dongheejung533 감사합니다. 저도 같은 부분이 마침 궁금했는데, 큰 도움이 되었습니다!