파이토치 한번에 끝내기 파이토치 모듈 구조 파이토치 구성 요소 텐서 Tensors 자동 미분 Autograd 신경망 구성 딥러닝 모델 정의 및 파라미터 손실 함수 옵티마이저 학습률 스케줄러 선형 회귀 모델 FashionMNIST 분류 모델 Colab: colab.research... 이수안 컴퓨터 연구소 (SuanLab) 채널 후원하기: buymeacoffee.c...
Пікірлер: 157
@inhaisaac12 күн бұрын
시간이 지나도 교수님 강의는 정말 명강의네요...
@Rnrmfaos Жыл бұрын
강의 퀄리티가 어줍잖은 유료강의들과 비교도 안될 정도로 높네요. 이렇게 좋은 강의를 무료로 해주시는 것에 정말 감사드립니다.
@suanlab Жыл бұрын
앗 감사합니다 ^^
@전성호-y1e Жыл бұрын
댓글 별로 안남기는데 3시간 영상 멈추면서 기록하면서 보느라 하루를 꼬박 봤네요. 그만큼 좋은 강의였습니다. 감사합니다.
선생님 강의를 들으면서 공부하는 학생입니다! 혹시 선생님께서 사용하시는 자료를 따로 블로그에 작성해서 기록한다고 하면 문제가 되는지 여쭤봐도 될까요??
@suanlab2 жыл бұрын
넵 가능합니다. ^^
@박성모-v2l2 жыл бұрын
@@suanlab 감사합니다...
@seokhyunyoun2 жыл бұрын
2:20:15 감사합니다
@suanlab2 жыл бұрын
넹, 감사합니다 ^^
@ploradoaa Жыл бұрын
1000번째 좋아요!!!
@suanlab Жыл бұрын
와우 감사합니다
@logi4840 Жыл бұрын
9.26 진도 18:50
@최준혁-w7x2 жыл бұрын
2:08:15 에서 softmax에서 prediction한 결과와 target을 비교할 때, 행 방향 차원이 아닌 열방향 차원을 기준으로 한 값들과 비교하는 게 맞지 않나요? 이 부분 이해가 잘 안가요..
@jlim3913 Жыл бұрын
26:49 (4차원) 01:27:25 (신경망 구성)
@user-nj8djdkdma1o Жыл бұрын
코랩 프로 gpu로 학부수준의 프로젝트나 책에 있는 실무프로젝트 돌리기 괜찮나요? 없는것보단 나을까요?
@suanlab Жыл бұрын
없는것보단 훨신 좋죠
@rain60142 жыл бұрын
안녕하세요 좋은 강의감사드립니다. 그런데 한 강의 자체가 너무 길어서 따라치다가 오류도 나고 그래서요, 코드가 채워진 완성본을 공유해주시면 안될까요? 부탁드립니다...
@푸키푸키-w2f7 ай бұрын
감사합니다ㅠㅠ
@양주희-r2v2 жыл бұрын
backward랑 grad 부분을 모르겠는데 딥러닝 영상에서 설명해주시나요 ㅜ
@건슬래이어 Жыл бұрын
혹시 강의 자료를 따로 다운받을수는 없겠죠?
@royalremi10 ай бұрын
열심히 공부해서 AI세계를 제패할거에요!
@전성용-v4i Жыл бұрын
안녕하세요. 파이토치를 사용하다가 발생된 에러인데요. 아무리 찾아봐도 몰라서 여쭤 봅니다. “ autograd function with non-static forward method is deprecated. Please use new-style autograd function with static forward method” 가 무슨 뜻이며, 해결 방법은 무엇인가요?
@겻븨님븨 Жыл бұрын
59:48 AutoGrad
@밍슈슈2 жыл бұрын
NeuralNet부분 분류 부분에서 running_loss 출력할 때 running_loss / 2000으로 해서 출력하시는데 2000을 나누는 이유를 알 수 있을까요?
@까까오당2 жыл бұрын
아마 running_loss가 100번씩 더해지기 때문에 2000이 아니라 100을 나눠야 정상적인 값이 나오는 것 같습니다!! 2000은 아마 오류인듯합니다
@MyMusicHealer8210 ай бұрын
1:10:11 백프로파게이션 나오면서 막히네요 기본개념부터 공부하러,.
@yong-hopark37172 жыл бұрын
선생님 강의 너무 잘 들었습니다. 질문이 있는데요. 모델 정의에서 Linear로 넘어갈때 (full connected layer) flatten해줘야 하는건 이해를 했는데 *5*5를 곱해주는 이유가 뭔가요? 확인을 먼저 해봐야하는거 아닌가요? 처음 '모델 정의' 배울 때도 5^2을 곱해주고 Fashion_Mnist 모델도 그냥 5^2을 곱해주길래 차이를 생각해보려고 했으나 모르겠습니다.😅
@herarmisnice Жыл бұрын
convolution 과 pooling과정을 거치면서 한번확인을 해야 할것같네요
@맥그슨2 жыл бұрын
그혹시.. 제가 예전에 공부햇었던 파이토치 자료가 너무오래돼서 어떻게하다보니까 전부 없어졋는데 모델일부가 pth 형식으로 남아있습니다. 근데 제가 한참할때는 모델을 미리 정의한다음 pth를 불러와야하고 반대방식은 안됬습니다. 저는 pth불러오면 예전에했던 모델을 불러오고싶은데 방법이없을까요?
@suanlab2 жыл бұрын
torch에서 간단하게 불러올 수 있습니다. model.load_state_dict(torch.load('model.pth'))
@suanlab2 жыл бұрын
아! 모델이 없으신거군요... ㅜ.ㅠ
@김문기-n1g2 жыл бұрын
1:59:05 Custom layer
@changwoo74632 жыл бұрын
35:00 이어보기
@recordable542 Жыл бұрын
감사합니다~ 혹시 33분 부근에 max(dim=0) 를 하면 0번째 배열 안에서 max 값을 찾는게 아닌가요...? 결과가 이해가 안되요 ㅠㅠ
@hayoung_jeremy8 ай бұрын
늦었지만 혹시 궁금해하실 다른 분들을 위해 답글 남겨요! dim=0은 각 열(column)을 기준으로 최댓값을 찾습니다. dim=1은 각 행(row)을 기준으로 최댓값을 찾고요. 그 이유는 다음과 같습니다 : 예시에서 사용한 2D 텐서의 특징은, 앞서 영상에서 설명해주셨듯이 sample과 feature 구조로 사용됩니다. 행(row)은 각각의 sample을 나타냅니다. 예를 들어 데이터셋이 여러 사람의 정보를 포함한다고 하면, 각 행은 한 사람에 대한 정보를 나타냅니다. 하나의 행이 한 명의 사람이라고 볼 수 있어요. 열(column)은 각 sample의 특성(feature)을 나타냅니다. 예를 들면 사람의 나이, 키, 체중 등의 다양한 속성을 특성이라고 할 수 있습니다. 즉 2차원 텐서에서 0번째 차원(dim = 0)은 행(row, sample), 1번째 차원(dim = 1)은 열(column, feature)을 나타냅니다. 그래서 0번째 배열이 아닌, 해당 텐서의 열을 기준으로 했을 때의 최댓값과 그 열에서의 인덱스를 출력해줍니다. 0.8456은 해당 텐서의 열 0.6946과 0.8456 중 가장 큰 값이며, 이는 해당 열의 1번째 인덱스에 위치합니다.
@alkancv17522 жыл бұрын
공변벡터나 반변벡터 연산 기능도 있나요?
@suanlab2 жыл бұрын
앗 ㅋㅋ 텐서 연산은 다루지만 공변벡터와 반변벡터는... 다루지 않습니다. 나중에 수학편을 별도로 만들어야 겠네요. ^^
@kimjehyun22 жыл бұрын
59:40 자동미분
@전지적사고2 жыл бұрын
1:18:22 datasets 불러오기 북마크
@김도겸-f2b Жыл бұрын
북마크 1:44:45
@유광현-s6w Жыл бұрын
❤
@ro74072 жыл бұрын
선생님 강의를 따라 보면서 모든 코드를 실습해보았습니다 생각보다 텐서플로워만 만져보다보니 파이토치는 그보다 좀 더 어려운 느낌이 조금 있는거같네요 질문있습니다! torch.svd()의 정확한 사용법이나 역할이 무언인지 알려주실수있나요..? 찾아봤는데도 이해가 너무 어렵네요..
@suanlab2 жыл бұрын
딥러닝을 좀 더 자유롭게 다룰 수 있다보니 어렵게 느껴지실수 있습니다. SVD 같은 부분들은 추후 Ai수학 강의때 보충해보겠습니다.
@lanyi862 жыл бұрын
Biopython도 다뤄주실수있을까여?
@suanlab2 жыл бұрын
네, 저도 나중에 꼭 해보고 싶네요 ㅋㅋ
@서로워2 жыл бұрын
선생님 직접 연락하거나.. 배울 수 있는 곳은 없나요?
@suanlab2 жыл бұрын
아! 오프라인 말하시는건가요?
@서로워2 жыл бұрын
@@suanlab 네 상담드리고 싶은 것도 있구해서 ..ㅠㅠ 오픈톡이나 알수있을까요?
@박건우-r9h2 жыл бұрын
1:27:00
@MyeongGeon Жыл бұрын
책갈피 34:23
@jilee-r3lАй бұрын
56:44
@mingikim94865 ай бұрын
2:00:26
@도비-j1g Жыл бұрын
22:00 33:00
@김인욱-u5q Жыл бұрын
1:51:33 토치 찍먹
@박나영-y4o24 күн бұрын
책갈피 (1:08:10)
@gksghkWin10 ай бұрын
23:41
@korea_response2 жыл бұрын
33:31
@김인수-z2p Жыл бұрын
37:10 37:10
@jena-e5q2 жыл бұрын
43:00
@창딩이2 жыл бұрын
1:22:36 images, labels = dataiter.next() 에서 에러가 나네요 ㅜ _MultiProcessingDataLoaderIter 에서 next메쏘드를 불러오는데 실패한 것 같아요.. 제가 파(이썬)린이라서.. ㅜㅠ 혹시 왜 발생하는지 알려주실 수 있나요 ? 저만 발생하나요..? ㅜ 아래 에러메세지를 카피했습니다.. s --------------------------------------------------------------------------- ValueError Traceback (most recent call last) in 3 # images, labels = next(dataiter) 4 print('s') ----> 5 images, labels = dataiter.next() 6 # images.shape, labels.shape 3 frames /usr/local/lib/python3.7/dist-packages/torch/utils/data/dataloader.py in __next__(self) 679 # TODO(github.com/pytorch/pytorch/issues/76750) 680 self._reset() # type: ignore[call-arg] --> 681 data = self._next_data() 682 self._num_yielded += 1 683 if self._dataset_kind == _DatasetKind.Iterable and \ /usr/local/lib/python3.7/dist-packages/torch/utils/data/dataloader.py in _next_data(self) 1374 else: 1375 del self._task_info[idx] -> 1376 return self._process_data(data) 1377 1378 def _try_put_index(self): /usr/local/lib/python3.7/dist-packages/torch/utils/data/dataloader.py in _process_data(self, data) 1400 self._try_put_index() 1401 if isinstance(data, ExceptionWrapper): -> 1402 data.reraise() 1403 return data 1404 /usr/local/lib/python3.7/dist-packages/torch/_utils.py in reraise(self) 459 # instantiate since we don't know how to 460 raise RuntimeError(msg) from None --> 461 raise exception 462 463 ValueError: Caught ValueError in DataLoader worker process 0. Original Traceback (most recent call last): File "/usr/local/lib/python3.7/dist-packages/torch/utils/data/_utils/worker.py", line 302, in _worker_loop data = fetcher.fetch(index) File "/usr/local/lib/python3.7/dist-packages/torch/utils/data/_utils/fetch.py", line 49, in fetch data = [self.dataset[idx] for idx in possibly_batched_index] File "/usr/local/lib/python3.7/dist-packages/torch/utils/data/_utils/fetch.py", line 49, in data = [self.dataset[idx] for idx in possibly_batched_index] File "/usr/local/lib/python3.7/dist-packages/torchvision/datasets/mnist.py", line 145, in __getitem__ img = self.transform(img) File "/usr/local/lib/python3.7/dist-packages/torchvision/transforms/transforms.py", line 94, in __call__ img = t(img) File "/usr/local/lib/python3.7/dist-packages/torch/nn/modules/module.py", line 1130, in _call_impl return forward_call(*input, **kwargs) File "/usr/local/lib/python3.7/dist-packages/torchvision/transforms/transforms.py", line 269, in forward return F.normalize(tensor, self.mean, self.std, self.inplace) File "/usr/local/lib/python3.7/dist-packages/torchvision/transforms/functional.py", line 360, in normalize return F_t.normalize(tensor, mean=mean, std=std, inplace=inplace) File "/usr/local/lib/python3.7/dist-packages/torchvision/transforms/functional_tensor.py", line 954, in normalize raise ValueError(f"std evaluated to zero after conversion to {dtype}, leading to division by zero.") ValueError: std evaluated to zero after conversion to torch.float32, leading to division by zero.