[Open DMQA Seminar] eXplainable AI (LIME and SHAP)

  Рет қаралды 9,696

‍김성범[ 교수 / 산업경영공학부 ]

‍김성범[ 교수 / 산업경영공학부 ]

Күн бұрын

Пікірлер: 20
@ploradoaa
@ploradoaa 7 ай бұрын
쉽고 친절한 설명 감사합니다.
@ksjksjgg
@ksjksjgg Жыл бұрын
좋은 내용 감사합니다. 핵심을 간결하고 정확하게 설명해주셨습니다.
@김성범교수산업경영공
@김성범교수산업경영공 Жыл бұрын
감사합니다!
@로봇-y8n
@로봇-y8n 2 жыл бұрын
좋은 영상입니다.
@이정민영어
@이정민영어 4 ай бұрын
정말 잘 봤습니다.
@김성범교수산업경영공
@김성범교수산업경영공 2 ай бұрын
좋은 댓글 감사합니다!
@sshyun9613
@sshyun9613 3 жыл бұрын
세미나 아주 좋아요 훌륭한 김교수님 처럼 잘 하네요 LG Display Mr Hyun 보냄
@김성범교수산업경영공
@김성범교수산업경영공 3 жыл бұрын
감사합니다~
@jgjt2221
@jgjt2221 3 жыл бұрын
잘 봤습니다~^^
@김성범교수산업경영공
@김성범교수산업경영공 3 жыл бұрын
감사합니다~
@제갈식
@제갈식 3 жыл бұрын
3:20 그것을 딥러닝 네트웍에서의 불확정성 원리라고 부릅니다.: "일반화가 잘 되는 네트워크는 해석하기 어렵다. 해석이 용이한 네트워크는 일반화가 어렵다."
@jk00127
@jk00127 2 жыл бұрын
좋은 자료 감사합니다! 한 가지 궁금한 점이 있습니다. SHAP 예시 설명 중 Feature A의 Shapley value를 계산할 때 A가 포함되지 않는 부분 집합 중 그 어떤 feature도 포함이 안된, 엑스 표기가 되어 있는 케이스는 아무 feature도 사용되지 않은 상태인데 이 경우의 예측값은 어떻게 계산된다고 이해하면 될까요? 아무 feature value를 사용 안했는데 어떻게 값이 나와서 shapley value가 계산되는지 궁금합니다.
@hyunjaecho1415
@hyunjaecho1415 2 жыл бұрын
늦었지만 제 생각을 공유해 볼게요. Neural networks의 경우 input shape이 정해져 있기 때문에 각 feature가 사용이 되지 않다고 하더라도 어떤 value라도 집어넣어야 할 겁니다. 예를 들어 input shape이 100일 때 A를 사용하지 않는다고 input shape을 99로 내리지는 않는다는 거죠. 그러면 A의 true value를 사용하지 않고 어떤 value를 넣는지가 중요할 텐데 0을 넣거나 random 한 value를 넣거나 아니면 다른 "null value"를 넣을 수 있을 거라 생각됩니다.
@도아튜브-q1b
@도아튜브-q1b 2 жыл бұрын
안녕하세요, 세미나 영상보며 공부하는 직장인 입니다. 내용 중에 하나 궁금한 것이 있어 여쭤보게 되었습니다. 영상 14분 50초부터 Loss 함수에 대해 설명해주시는 부분이 있는데요, z는 관측치 x 주변의 데이터포인트 이고, 모델 f와 g에 각각 z, z'을 넣어 Loss 함수를 구한다는 내용입니다. 제가 궁금한 것은 모델 f 와 모델 z에 같은 z값을 넣어 얻은 예측 결과치에 대해 손실함수를 구하는 것이 아니고, g에는 왜 z' 을 넣나요? 차원이 축소됐다는 말이 잘 이해가 되지 않습니다 ㅠㅠ (피처가 줄었다는 말인가요?) 많이 바쁘실 텐데 답글 주시면 정말 감사하겠습니다.
@dongheejung533
@dongheejung533 2 жыл бұрын
안녕하세요, 학부생이라 잘 알지는 못하지만 제가 이해한 것은 다음과 같습니다. 1) g 모델이 f에 비해 단순한 설명 모델이기에 z' 값으로 차원을 축소 시킨 것 같습니다. 2) z가 input 값을 의미하는데 영상에서는 설명의 용이함을 위해 z에 들어가는 x값을 x_1, x_2로 구성된 2차원의 꼴로 표현하셨습니다. 그러나 실제 대부분의 모델에서 input feature들은 3개 이상의 다양한 feature들을 다룰 것입니다.(x_3, x_4, ...) 그러나 g와 같이 단순한 모델의 경우 모든 feature들을 고려하기 어려울 수 있기 때문에, 그 input에 맞춰서 feature 개수를 줄이게 될텐데 이를 차원 축소라고 표현하신 것 같습니다. Feature 개수를 줄이는 방법은 교수님 다른 동영상에 설명되어 있는 PCA와 같은 feature extraction method나 feature selection method 등이 있는 것으로 알고 있습니다.
@pangguinhyeonsoo1342
@pangguinhyeonsoo1342 5 ай бұрын
@@dongheejung533 감사합니다. 저도 같은 부분이 마침 궁금했는데, 큰 도움이 되었습니다!
@everydayslongtake8641
@everydayslongtake8641 3 жыл бұрын
XAI 스터디에 도움이 많이 되었습니다 ^^
@김성범교수산업경영공
@김성범교수산업경영공 2 жыл бұрын
도움이 되셨다니 다행입니다. 감사합니다~
@김정의-r8m
@김정의-r8m 3 жыл бұрын
최고!
@김성범교수산업경영공
@김성범교수산업경영공 3 жыл бұрын
감사합니다~
[핵심 머신러닝] Shapley Value (Explainable AI)
24:51
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 11 М.
[DMQA Open Seminar] Contrastive Learning
16:41
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 8 М.
the balloon deflated while it was flying #tiktok
00:19
Анастасия Тарасова
Рет қаралды 35 МЛН
Wait… Maxim, did you just eat 8 BURGERS?!🍔😳| Free Fire Official
00:13
Garena Free Fire Global
Рет қаралды 9 МЛН
I Turned My Mom into Anxiety Mode! 😆💥 #prank #familyfun #funny
00:32
[Open DMQA Seminar] Causal Inference
41:36
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 4,8 М.
[DMQA Open Seminar] Introduction to Knowledge Distillation
20:20
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 9 М.
[DMQA Open Seminar] Autoencoder
21:46
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 4,6 М.
Explainable AI explained! | #3 LIME
13:59
DeepFindr
Рет қаралды 61 М.
SHAP with Python (Code and Explanations)
15:41
A Data Odyssey
Рет қаралды 66 М.
[핵심  머신러닝] Boosting
38:33
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 14 М.
Has Generative AI Already Peaked? - Computerphile
12:48
Computerphile
Рет қаралды 1 МЛН
Shapley Additive Explanations (SHAP)
11:52
KIE
Рет қаралды 64 М.
[Open DMQA Seminar] Anomaly Detection for Time Series with Autoencoder
37:55
‍김성범[ 교수 / 산업경영공학부 ]
Рет қаралды 4,2 М.
[AI TECH 2023] 카이스트 최재식 교수_설명 가능한 AI 기술이 바꿀 미래 산업 트렌드
41:28
헬로티_매일 만나는 산업, IT News
Рет қаралды 1,7 М.