[선대] 2-4강. 벡터의 norm 쉬운 설명

  Рет қаралды 24,720

혁펜하임 | AI & 딥러닝 강의

혁펜하임 | AI & 딥러닝 강의

Күн бұрын

Пікірлер: 37
@hyukppen
@hyukppen Жыл бұрын
> rank 구하기 예제: kzbin.info/www/bejne/bX2nlpWKbtVnm9U 중간고사 만점대비반 20 문제: kzbin.info/www/bejne/j5KUaWRmpsipoMk Ax=b 해의 수 판단: kzbin.info/www/bejne/nH7OaWeXlt94mq8 최소자승법 3 문제: kzbin.info/www/bejne/nV6Wc2uYYp2oa7M 고윳값 분해 6문제: kzbin.info/www/bejne/fWq7hYunr6Z_fsk 주성분 분석 연습 문제: kzbin.info/www/bejne/paHXeX2dapWiptE 특이값 분해 연습문제: kzbin.info/www/bejne/ooerd2SbhNKCh7M
@suhocho6986
@suhocho6986 2 жыл бұрын
점점 잘생겨지는 그...
@sando_7
@sando_7 2 жыл бұрын
3Blue1Brown같은 양질의 영상을 올려주셔서 감사합니다 :)
@code1479
@code1479 2 жыл бұрын
혁펜님 강의는 예시를 너무 적절하게 잘 사용해주셔서 이런 추상적인 개념들도 이해가 잘되네요 ㅠㅠ
@qcqced9020
@qcqced9020 Жыл бұрын
Generalized Mean Pooling 구현하다가 p가 무한대일때 max pool과 같다는 말이 와닿지 않았었는데 덕분에 쉽게 이해했습니당 ㅎㅎ 항상 엄청난 내공이 담긴 직관적인 설명 감사드려요!
@sdy5658
@sdy5658 2 жыл бұрын
강의 너무 좋아요 감사합니다
@ploradoaa
@ploradoaa Жыл бұрын
강의 정말 감사드립니다. 명쾌하고 간단해서 너무 좋습니다.
@nml1011
@nml1011 4 ай бұрын
식으로 봤을 때는 l1>l2>infinity norm 이게 간단하게 계산 할 때는 이해가 되는데 이걸 그림이랑 같이 보면 헷갈려요! 9:24에서 그림을 보면 빨강색이 l1 norm, 하늘색이 l2 norm, 그리고 노랑색이 infinity norm인데 식과는 정 반대라 이 그림이 나타내는건 length/size가 아닌 다른거인가요?
@daisykoh
@daisykoh 9 ай бұрын
저 모태문과생인데요,,, 자격증 시험 준비하다 이해가 안되어서 영상을 보게 됐어요! 제 인생에서 놈을 이해하게 될줄은.. 감동입니다ㅠㅠ
@science_100
@science_100 Жыл бұрын
12월 20일 동안 선대 다듣기 6강 완료 (혁형. 정말 사랑하고 감사합니다)
@user_legendary
@user_legendary 2 жыл бұрын
역시 혁펜하임.. 설명 개잘행
@대머리신-p9m
@대머리신-p9m Жыл бұрын
4:20 norm
@김은영-d7j
@김은영-d7j 6 ай бұрын
크게 되는 ~ 놈에서 가장 ~작아지는 놈에서 참~놈이 있다~😊
@entry_edobe
@entry_edobe 2 күн бұрын
민코프스키 거리가 딱 떠오르네요
@비싸게사서싸게파는놈
@비싸게사서싸게파는놈 2 жыл бұрын
질문입니다. 5:26 에서 가장 절대값 큰 것만 살아남는다고 하셨으니 정의 기호대신 등호를 써야되는거 아닌지요?
@hyukppen
@hyukppen Жыл бұрын
아래첨자로 무한대를 쓴다는 것은 정의상 우변과 같다 는 의미로 사용했습니다!
@이하-r6d
@이하-r6d 2 ай бұрын
6:54
@김영태-y3h
@김영태-y3h 2 жыл бұрын
뭔가 이해가 될 듯 말 듯..
@김경태-b2e2l
@김경태-b2e2l 9 ай бұрын
그래프상으론 1 norm이 가장 작은거 같은데, 3개 크기를 비교해서 크다는 것은 값으로만 보는건가요, 아님 그래프 면적으로 보는 건가요
@SOONHYELEE
@SOONHYELEE 7 ай бұрын
norm이 1이 되기 위해서는 l1. l2, infinite순으로 벡터가 시점(원점)에서 밖으로 나가야 한다 (커져야 한다)는 의미입니다. (면적을 보시지 마시구요..) 다시말해, 설명을 잘 들어 보시면, 똑같은 벡터에 대해 각각 l1, l2 infinite norm을 구해보면, l1, l2 infinite순이 된다는 의미입니다.
@산책하는풍경
@산책하는풍경 Жыл бұрын
5:08 infinity norm 설명하실때 무한대를 나눠서 없에는게 이해가 안가요 ,,,
@hyukppen
@hyukppen Жыл бұрын
3의 무한대승 보단 2의 무한대 승이 작을테니 이 둘 더한 것의 1/무한대 승은 3만 남겠다 이렇게 생각해 보았습니다!
@ptr.u
@ptr.u Жыл бұрын
질문이 있는데, 3가지 norm 이 1이 되는 모든 벡터를 그린 이유가 뭔가요? 수식은 이해되지만 그림의 의미를 모르겠습니다.
@hyukppen
@hyukppen Жыл бұрын
그냥 각각의 norm이 어떻게 다른지를 본 것입니다 ㅎㅎ
@Mulpool
@Mulpool 8 ай бұрын
근데 (1/2 1/2)인 벡터도 인피니트 놈이 1 아닌가요? (1 1)의 인피니트 놈은 2 아닌가요? 제가 잘못이해한건지 궁금합니다 알려주시면 감사하겠습니다
@hyukppen
@hyukppen 8 ай бұрын
저는 각각 1/2, 1 이 되는 것으로 알고 있습니다!
@Mulpool
@Mulpool 7 ай бұрын
​​@@hyukppen 제가 오류를 범했던 거였네요. 감사합니다. 항상 강의 감사합니다!
@productlog5895
@productlog5895 2 жыл бұрын
나중에 norm공간 내적공간 벡터 공간도 설명해주실 수 있나요
@hyukppen
@hyukppen 2 жыл бұрын
음.. 신호 및 시스템 과목에서 다뤘어서 선대에서는 따로 안할 것 같습니다!
@김성준-c6y2o
@김성준-c6y2o Жыл бұрын
Infinity norm에서 값이 같을때는 어떻게 되는지 궁금합니다
@hyukppen
@hyukppen Жыл бұрын
가장 큰 값이니까 그 동일한 값이 나오겠죠? [5,5,5] 라면 => (5^∞ + 5^∞ + 5^∞)^(1/∞) = (3*5^∞)^(1/∞) = 3^(1/∞) *5 = 5
@김성준-c6y2o
@김성준-c6y2o Жыл бұрын
아 (1/3)^inf 로 착각했었네요 감사합니다
@레온하르트-r2p
@레온하르트-r2p 2 жыл бұрын
아마 lp norm에서 l이 lebesgue일듯 싶어요!
@hyukppen
@hyukppen 2 жыл бұрын
오 대박! 좀더 설명해주실 수 있나요?
@productlog5895
@productlog5895 2 жыл бұрын
르벡 공간에서 나온 개념이라 르벡-p norm?
@yjjw1446
@yjjw1446 8 ай бұрын
정규화를 하는 이유에 대해서 설명해주셨으면 더 완벽했을 것 같아요!
@hyukppen
@hyukppen 8 ай бұрын
x/||x|| 말씀이신거죠? 크기를 1로 만들어 주기 위함입니다! 감사합니다 ㅎㅎ
[선대] 2-5강. 행렬의 곱셈과 네 가지 관점 (열공간 (column space) 등)
12:16
혁펜하임 | AI & 딥러닝 강의
Рет қаралды 29 М.
[선대] 2-3강. 내적과 정사영 (inner product & projection) 직관적 설명
15:58
혁펜하임 | AI & 딥러닝 강의
Рет қаралды 43 М.
Каха и дочка
00:28
К-Media
Рет қаралды 3,4 МЛН
How Strong Is Tape?
00:24
Stokes Twins
Рет қаралды 86 МЛН
REAL or FAKE? #beatbox #tiktok
01:03
BeatboxJCOP
Рет қаралды 17 МЛН
[선대] 5-1강. 고윳값 & 고유 벡터 (eigenvalue & eigenvector) 쉬운 설명
33:18
혁펜하임 | AI & 딥러닝 강의
Рет қаралды 38 М.
[선대] 2-7강. 선형 독립과 기저 (linearly independent & basis) 직관적 설명
7:15
혁펜하임 | AI & 딥러닝 강의
Рет қаралды 25 М.
linear algebra lesson 2: norm and dot product [ssootube]
10:35
수학채널 쑤튜브
Рет қаралды 40 М.
[선형대수학] 꼭 알아야 하는 기초 2 (벡터공간, 부분공간)
17:04
벡터란 무엇인가? - 구체적인 설명입니다.
10:33
파깨비TV
Рет қаралды 1,2 М.
[선대] 6-1강. 특이값 분해 (SVD: Singular Value Decomposition) 의 모든 것!
15:35
혁펜하임 | AI & 딥러닝 강의
Рет қаралды 19 М.
[선대] 3-5강. 최소자승법 & 정사영 행렬 (Least squares & Projection matrix)
7:17
혁펜하임 | AI & 딥러닝 강의
Рет қаралды 19 М.
The Lp Norm for Vectors and Functions
9:34
Dr. Will Wood
Рет қаралды 81 М.
[선대] 5-7강. 고윳값 분해는 역 푸리에 변환이다!
17:50
혁펜하임 | AI & 딥러닝 강의
Рет қаралды 3,9 М.
제7장: 역행렬, 열공간, 영공간 | 선형대수학의 본질
12:22
3Blue1Brown 한국어
Рет қаралды 20 М.
Каха и дочка
00:28
К-Media
Рет қаралды 3,4 МЛН