[Deep Learning 101] GAN 생성적 적대 신경망 Generative Adversarial Network

  Рет қаралды 4,421

신박Ai

신박Ai

Күн бұрын

Пікірлер: 33
@HennryK-c5s
@HennryK-c5s 2 күн бұрын
덕분에 GAN을 처음으로 이해할 수 있게 됬어요.
@phdshinAI
@phdshinAI Күн бұрын
도움이 되셨다니 저도 기쁩니다. 감사합니다!
@ryuboss9350
@ryuboss9350 9 ай бұрын
예전에 GAN 공부할 때 벽을 느꼈었는데... 그 벽이 한번에 허물어지는 것을 느꼈습니다. 좋은 설명 너무 감사드립니다.
@phdshinAI
@phdshinAI 9 ай бұрын
도움이 되셨다니 다행입니다. 앞으로도 딥러닝의 여러 개념들을 쉬운 설명으로 영상을 올려드리도록 노력하겠습니다!
@dangerous_Account
@dangerous_Account 9 ай бұрын
계산 과정을 다 보여주시는 게 이해하기 너무 도움되네요 감사합니다
@phdshinAI
@phdshinAI 9 ай бұрын
도움이 되셨다니 감사합니다! 앞으로도 계속 도움이 되는 영상 올리도록 하겠습니다.
@iridium3
@iridium3 9 ай бұрын
마침 공부하고자 했는데 딱 올려주셨군요 오늘도 감사합니다
@phdshinAI
@phdshinAI 9 ай бұрын
넵 영상 시청 감사드립니다!
@조만조-u5f
@조만조-u5f 9 ай бұрын
오늘도 좋은 강의 감사합니다! 잘들었습니다
@phdshinAI
@phdshinAI 9 ай бұрын
넵! 시청해주셔서 감사합니다.
@임바다-b5k
@임바다-b5k Ай бұрын
좋은 강의 정말 정말 감사합니다!!
@phdshinAI
@phdshinAI Ай бұрын
앗 생각지도 못한 후원..감사드립니다! 앞으로도 도움이 되는 좋은 강의 많이 올리도록 하겠습니다
@이지환-y4p
@이지환-y4p 9 ай бұрын
좋은영상 항상 감사합니다!
@phdshinAI
@phdshinAI 9 ай бұрын
영상 봐주시고 좋은 댓글로 응원해주셔서 감사합니다!
@doping8719
@doping8719 5 ай бұрын
컴퓨터를 잘 모르는데도 이해하기 쉽네요^^
@phdshinAI
@phdshinAI 5 ай бұрын
도움이 되셨다니 저도 기쁩니다! 앞으로도 많은 시청 부탁드립니다~!
@jziinn99
@jziinn99 8 ай бұрын
강의 진심으로 감사합니다! 질문이 있는데, 09:25 에서 input은 꼭 1차원 벡터여야 하나요? 그리고 처음 입력되는 input은 말 그대로 랜덤인지 D의 영향이 조금이라도 있는지 궁금합니다.
@phdshinAI
@phdshinAI 8 ай бұрын
안녕하세요 답변이 너무 늦었습니다. 죄송합니다. 네 보통 Generator의 인풋은 말하자면 random seed역할을 하기 때문에 1차원 벡터를 많이 씁니다. 하지만 반드시그럴 필요는 없습니다. 또 Pix2Pix나 CycleGAN같은 경우도 보면 방법에 따라 2차원 벡터를 쓰기도 합니다. 일반적인 GAN의 경우는 1차원 랜덤 벡터를 쓰지만, GAN 모델은 너무도 다양한 변형 모델들이 많이 나왔기 때문에 그에 따라 랜덤 인풋도 다양하게 쓰이는 것 같습니다. 실제로 랜덤을 어떻게 주느냐에 따라 D의 영향도 있는것 같기 때문입니다. 좋은 질문 감사드립니다!
@danny04278
@danny04278 4 ай бұрын
같은 학과 수업 듣는애들이 몰랐으면 좋겠을 강의1위
@phdshinAI
@phdshinAI 4 ай бұрын
앗..그래도..ㅠ 주변에 많이 알려주셔요..
@danny04278
@danny04278 4 ай бұрын
@@phdshinAI 기말끝나고 알려주겠습니다
@phdshinAI
@phdshinAI 4 ай бұрын
🤣
@모띠기-t6i
@모띠기-t6i 9 ай бұрын
안녕 하세요 신박 ai 님 궁금 한것이 있습니다!! Yolo 와 같은 모델이 bbox좌표값 추론을 퍼셉트론 층 없이 conv 층으로 만 해내는것이 conv층 또한 loss 함수를 잘설계하면 피쳐맵을 추출하는것과 더불어 bbox를 추론할 수 있게 학습이 가능 한것 인가요?? 아니면 완전히 틀린 이해일까요??
@phdshinAI
@phdshinAI 9 ай бұрын
안녕하세요 모띠 기 님, 질문해주셔서 감사합니다! 모띠님께서 하신 질문을 제가 해석하기로 conv층으로 이루어진 딥러닝 모델 중 bbox와 피처맵을 같이 추출하는 그런 딥러닝 모델이 있느냐는 질문으로 해석이 됩니다. 제가 모띠 님께서 하신 질문을 이렇게 같이 이해했는데 맞을까요? 만약 그렇다면, 네 YOLO모델도 object detection으로 아주 좋은 모델이고 또 제가 아는 모델중에 Faster R-CNN이라는 object detection을 수행하는 deep convolutional network가 있습니다. 이 Faster R-CNN은 주어진 이미지에서 해당 물체object를 찾아내는데 그 해당 물체의 bbox와 더불어 해당 bbox의 지역 feature map을 추출 할 수 있는 모델로 알고 있습니다. 물론 탐지된 물체에 해당하는 지역적인 feature map을 구하기 위해서는 모델 내부 연산의 결과물에 접근하는 함수를 따로 만들긴 해야하지만, 이론적으로 물체 탐지후 해당 물체의 bbox와 해당 bbox의 feature map을 다 추출 할 수 있습니다. 제 답변이 도움이 되었으면 좋겠습니다. 감사합니다 ;)
@모띠기-t6i
@모띠기-t6i 9 ай бұрын
@@phdshinAI 명쾌한 답변 너무 감사합니다 박사님 !! Ai에 관심이 많아서 박사님 영상보면서 여러 모델들을 한번 다 만들어 보고 싶습니다!!
@phdshinAI
@phdshinAI 9 ай бұрын
네! 제 채널 영상도 참고하시고 또 다른 분들의 여러 좋은 강의 영상들을 두루 보시면서 공부하시면 반드시 좋은 결실이 있으실거라 믿습니다. 함께 열심히 공부해봐요!
@모띠기-t6i
@모띠기-t6i 9 ай бұрын
@@phdshinAI 넵 유튜브에 좋은 강의 올려 주시는 분들이 많아서 참고를 많이 하고 있습니다. 감사합니다.
@박민우-v9h
@박민우-v9h 9 ай бұрын
좋은 영상 너무나도 감사합니다! 혹시 하시는 일을 여쭈어봐도 될까요?
@박민우-v9h
@박민우-v9h 9 ай бұрын
아 역시 ai엔지니어 셨군요! 저는 인공지능 학과에 재학중인 학생입니다! 공부할수록 모르는게 많아지는것을 느끼네요… 혹시 제가 나중에 실력적으로 성장한다면 약간의 자문을 구할 수 있는 방법이 있을까요?
@phdshinAI
@phdshinAI 9 ай бұрын
네 얼마든지 질문 하셔도 좋습니다! 나중이 아니라 언제라도 질문하시면 제가 아는부분에서 힘닫는대로 답변해드리겠습니다. 이렇게 서로 소통하면서 저도 많이 배우고 모르는걸 깨닫기도합니다. 인공지능학과에 재학중이시라니 너무 반갑고 멋있고 또 응원합니다! 화이팅입니다 👍🏻🫶
@박민우-v9h
@박민우-v9h 9 ай бұрын
@@phdshinAI 네 감사합니다
@모띠기-t6i
@모띠기-t6i 9 ай бұрын
최고세요 진짜..
@phdshinAI
@phdshinAI 9 ай бұрын
넵! 시청해주셔서 감사합니다.
[Deep Learning 101] 오토인코더 PyTorch로 구현하기
23:11
[Deep Learning 101] 트랜스포머, 스텝 바이 스텝
21:41
Bike Vs Tricycle Fast Challenge
00:43
Russo
Рет қаралды 108 МЛН
Как подписать? 😂 #shorts
00:10
Денис Кукояка
Рет қаралды 8 МЛН
[Deep Learning 101] L1, L2 Regularization
12:27
신박Ai
Рет қаралды 2,5 М.
Variational Autoencoders | Generative AI Animated
20:09
Deepia
Рет қаралды 16 М.
자연어 처리 트랜스포머 1강(Embedding, Positional Encoding)
16:55
Coding Opera Korea
Рет қаралды 2,5 М.
[Classic] Generative Adversarial Networks (Paper Explained)
37:04
Yannic Kilcher
Рет қаралды 63 М.
Why Does Diffusion Work Better than Auto-Regression?
20:18
Algorithmic Simplicity
Рет қаралды 332 М.
생성이랑 확률이 뭔 상관?
8:04
임커밋
Рет қаралды 10 М.
Attention/Transformer 시각화로 설명
30:02
임커밋
Рет қаралды 16 М.
Bike Vs Tricycle Fast Challenge
00:43
Russo
Рет қаралды 108 МЛН