Рет қаралды 504
딥러닝을 배울 때 꼭 필요한 "딥러닝 수학" 강의 시리즈 입니다.
딥러닝을 이해하기 위해서는 1) 확률, 2) 미분, 3) 선형대수를 알아야 합니다.
이번 강의는 선형대수(Linear Algebra) 가장 큰 덩어리인 Matrix(행렬)과 Vector(벡터) 중에서 벡터에 대한 내용을 처음으로 진입하는 강의입니다.
벡터 내용에 대한 Overview 또는 Orentation 이라고 생각하면 될 것 같습니다.
1. 벡터가 왜 태어났는지 역사를 먼저 살펴봅니다.
2. 벡터를 바라보는 물리적 관점, 수학적 관점, 그리고 인공지능/빅데이터 관점에 대해 설명합니다.
3. 벡터를 어떻게 정의하고 표현(representation)하는지 살펴봅니다.
4. 벡터의 종류에 대해 살펴봅니다.
5. 벡터의 근간을 이루는 Basis (기저) 벡터에 대해 개략적 내용을 설명합니다.
6. 벡터의 크기를 표현하는 Vector Norm (놈)에 대한 개념을 설명합니다.
딥러닝 수학 시리즈 관련된 모든 동영상 링크, PPT 슬라이드, 소스코드는 아래 링크에서 다운로드 받을 수 있습니다.
ㅇ강의자료: github.com/kaf...