[선대] 9-1강. 그람-슈미트 직교화 (Gram-Schmidt Orthogonalization)

  Рет қаралды 14,103

혁펜하임 | AI & 딥러닝 강의

혁펜하임 | AI & 딥러닝 강의

Күн бұрын

Пікірлер: 33
@깜장지우개
@깜장지우개 Жыл бұрын
혁펜하임님! 항상 도움이 많이 됩니다! 주신 도움에 비해 약소하지만, 감사의 마음을 전헤 드립니다.
@hyukppen
@hyukppen Жыл бұрын
헉! 감사합니다 ㅎㅎㅎ
@SphereofTime
@SphereofTime 8 күн бұрын
7:25 Least square and Gram schmidts
@전효경-e9s
@전효경-e9s Жыл бұрын
안녕하세요 강의 듣다가 모르는게 생겨서 질문드립니다! 07:45부분에서 정사형 내린게 Ax라고 하셨는데 이게 왜 Ax가 되는건지 모르겠습니다. A=[a1,a2]가 돼서 a1과 a2는 서로 선형독립 관계이니 A평면이 만들어지는건 알겠는데 이후 정사형 내려준 것이 Ax가 왜 되는건지 모르겠습니다. a1과 a2를 이용해서 A안에 있는 특정 벡터를 만들수 있으니 저렇게 해준다고 생각을 했는데 그러면 a1과 a2에 다른 값이 곱해져서 생길수도있는 경우가 제외되니 같은 값인 x를 곱해서 만드는건 왜 만드는건지 의문이 들었습니다!
@hyukppen
@hyukppen Жыл бұрын
Ax는 A 의 space를 나타내는 데, 그 중, 정사영 내려진 Ax_hat 을 찾자는 것입니다 임의의 x가 아니에요! 최소자승법 강의를 보고 오시면 더 명확해지실 것 같습니다!
@ZERO-qc1jw
@ZERO-qc1jw 25 күн бұрын
07:45 부분에서 모르는게 있어서 댓글 달아봅니다. [a1, a2]가 rowspace가 아닌 columnspace라고 하고 v vector를 rowvector처럼 쓰신 이유가 궁금합니다
@hyukppen
@hyukppen 25 күн бұрын
column space를 먼저 이해하셔야할 것 같습니다 Ax는 column space에 놓이게 됩니다!
@이주홍-d5u
@이주홍-d5u 8 ай бұрын
와 least squares로 하는거 너무 좋아요! 고차원에서도 너무 깔끔하게 이해할 수 있게 됐네요 ㅋㅋㅋ
@pericles_world
@pericles_world 2 жыл бұрын
감사합니다. 잘 이해했습니다.
@seiyonlee3044
@seiyonlee3044 7 ай бұрын
한방에 이해됐습니다! 감사합니다.
@daesunryu9390
@daesunryu9390 6 ай бұрын
5:00 에서 V1을 정규화해서 내적을 구하는 이유는 단위 벡터가 아니기 때문이군요. PCA에서는 데이터들을 평균에서 빼고 중심화하니까, 즉 이미 단위 벡터이기 때문에 정규화할 필요가 없는 것이고요. 제대로 이해한것 맞나요?
@hyukppen
@hyukppen 6 ай бұрын
평균으로 뺀다고해도 단위 벡터가 되는 것은 아닙니다! 애초에 주성분을 찾을 때 단위 벡터를 조건으로(subject to) 찾기 때문에 단위 벡터인 것입니다
@김선우-m6f
@김선우-m6f 6 ай бұрын
감사합니다
@유혜원-y5s
@유혜원-y5s 6 ай бұрын
5:00 ||v1|| 나눠주는 거 하나 빼고 v2 = a2 - a2^T v1 (v1/||v1||) 이렇게 해도 그림의 v2가 나오나요?
@hyukppen
@hyukppen 6 ай бұрын
안됩니다 v1과 내적해보시면 0이 안나와서 직교화가 안됐음을 확인하실 수 있습니다!
@박시온-x9e
@박시온-x9e 6 ай бұрын
감사합니다.
@박이삭-m8o
@박이삭-m8o 2 жыл бұрын
오. 쉽게 이해했습니다 ㅎㅎ 감사합니다
@서지렝
@서지렝 Жыл бұрын
덕분에 중간 1등햇슴돠 계절학기 기말끝나고 정말 친구들에게 추천하겟슴돠 ㅋㅋㅋ
@hyukppen
@hyukppen Жыл бұрын
와우 선대 1등 소식은 귀하군요 ㅎㅎㅎ 축하드립니다!! 기말도 1등 찍으시고 또 댓글 달아 주십숑 ㅎㅎ
@CollegeTasty
@CollegeTasty 2 жыл бұрын
감사합니다 ㅎㅎ
@전효경-e9s
@전효경-e9s Жыл бұрын
12:50부분에서 (a3)T(v1)는 스칼라기 때문에 분자 부분인 (v1)(a3)T(v1)가 정리될때 (a3)(v1)(v1)으로 순서가 바뀌어서 정리될수 있는건가요?
@hyukppen
@hyukppen Жыл бұрын
넵 (a3)^T(v1)(v1)으로 보기좋게 순서만 바꾼거에요!
@전효경-e9s
@전효경-e9s Жыл бұрын
@@hyukppen 감사합니다!! 또 문제를 풀다가 생긴 수식에 대한? 궁금증이 생겼는데 내적을 표시할때는 큰 원을 통해 표시하고 행렬곱을 표시할때는 작은 원을 사용하는게 맞나요? 내적을 표시할때 a(큰원)b=(a)T (작은원) b 이런식으로요!
@전효경-e9s
@전효경-e9s Жыл бұрын
아니면 행렬곱은 작은 원이 아니라 생략해주는건가요?!
@hyukppen
@hyukppen Жыл бұрын
@@전효경-e9s en.wikipedia.org/wiki/Dot_product 이 문서가 도움이 될 것 같습니다. 그냥 곱하기는 xy 이런식으로 생략하기도 하고 사이에 아주 작은 점을 톡 찍어서 표현하기도 하죠 ㅎㅎ dot product는 그것보다는 진한 동그라미로 표현하는 것을 보실 수 있습니다
@전효경-e9s
@전효경-e9s Жыл бұрын
정말 감사합니다!! 저희 과애들한테 혁펜 전파중입니답 ㅎㅎ
@이하-r6d
@이하-r6d 2 ай бұрын
좋은강의 감사합니다! 241012
@피에이치원-k9y
@피에이치원-k9y 25 күн бұрын
뜨뜨?
@beartime121
@beartime121 7 ай бұрын
선형대수학에서 그냥 배우는거라 대학원과정까지는 아닌거같아요
@성이름-g3q
@성이름-g3q 8 ай бұрын
오빠 쌋어
@cacbon-dioxit
@cacbon-dioxit 2 жыл бұрын
이 내용이 대학원 내용이라고 하셨는데 저는 수학과 복수전공을 했어서 이 내용을 수학과 선형대수학 수업 때 배운 기억이 나네요 덕분에 복기 잘했습니다👍 저는 대학원생 아니고 대학생입니다.
[선대] 9-2강. QR 분해 (QR decomposition)
22:15
혁펜하임 | AI & 딥러닝 강의
Рет қаралды 9 М.
행렬식과 역행렬의 기하학적 의미
7:29
공돌이의 수학정리노트
Рет қаралды 15 М.
My scorpion was taken away from me 😢
00:55
TyphoonFast 5
Рет қаралды 2,7 МЛН
The Best Band 😅 #toshleh #viralshort
00:11
Toshleh
Рет қаралды 22 МЛН
When you have a very capricious child 😂😘👍
00:16
Like Asiya
Рет қаралды 18 МЛН
미적분학   벡터함수의 면적분
23:11
연고편입
Рет қаралды 19 М.
8일간의 선형대수학 기초 4.4절: 정규직교기저와 그람슈미트 직교기저과정 (orthonormal basis, Gram Schmidt)
11:41
선형대수학 70강: 그람슈미트 과정[쑤튜브]
15:54
수학채널 쑤튜브
Рет қаралды 16 М.
Gram-Schmidt Orthogonalization
6:37
Dan Gries
Рет қаралды 52 М.
[선대] 5-1강. 고윳값 & 고유 벡터 (eigenvalue & eigenvector) 쉬운 설명
33:18
혁펜하임 | AI & 딥러닝 강의
Рет қаралды 38 М.
Linear Algebra: Gram-Schmidt
13:53
Center of Math
Рет қаралды 107 М.
제6장: 행렬식 | 선형대수학의 본질
10:01
3Blue1Brown 한국어
Рет қаралды 19 М.
17. Orthogonal Matrices and Gram-Schmidt
49:10
MIT OpenCourseWare
Рет қаралды 220 М.
My scorpion was taken away from me 😢
00:55
TyphoonFast 5
Рет қаралды 2,7 МЛН