오토인코더의 모든 것 - 1/3

  Рет қаралды 81,490

NAVER D2

NAVER D2

Күн бұрын

발표자: 이활석(NAVER)
tv.naver.com/n... 더욱 다양한 영상을 보시려면 NAVER Engineering TV를 참고하세요.
발표일: 2017.11.
최근 딥러닝 연구는 지도학습에서 비지도학습으로 급격히 무게 중심이 옮겨지고 있습니다. 본 과정에서는 비지도학습의 가장 대표적인 방법인 오토인코더의 모든 것에 대해서 살펴보고자 합니다. 차원 축소 관점에서 가장 많이 사용되는 Autoencoder와 (AE) 그 변형들인 Denoising AE, Contractive AE에 대해서 공부할 것이며, 데이터 생성 관점에서 최근 각광받는 Variational AE와 (VAE) 그 변형들인 Conditional VAE, Adversarial AE에 대해서 공부할 것입니다. 또한, 오토인코더의 다양한 활용 예시를 살펴봄으로써 현업과의 접점을 찾아보도록 노력할 것입니다.
1. Revisit Deep Neural Networks
2. Manifold Learning
3. Autoencoders
4. Variational Autoencoders
5. Applications
발표 슬라이드:
www.slideshare...

Пікірлер: 53
@ByungJoonSong
@ByungJoonSong 3 жыл бұрын
이런 강의를 무료로 볼 수 있는 세상이라는게, 놀라울 따름입니다. 좋은 강의 감사합니다.
@firstpenguin5653
@firstpenguin5653 3 жыл бұрын
여전히 이 강의는 오토인코더의 시작과 끝이네요. 감사합니다.
@kotai2003
@kotai2003 4 жыл бұрын
처음의 1.Revisit Deep Neural Networks만 띄어서 별개로 개제했으면 좋겠습니다. 기초를 잡는데 굉장히 좋은 내용입니다.
@서옒-s4i
@서옒-s4i 4 жыл бұрын
2년 전 자료이지만 여전히 훌륭하네요
@에움길-f8n
@에움길-f8n 6 ай бұрын
5년이 지난 영상임에도 배울게 아직 많은 영상입니다!!
@꼼지락안과쌤
@꼼지락안과쌤 2 жыл бұрын
반복해서 보고있습니다. 감사합니다 .
@4색볼펜-y5h
@4색볼펜-y5h 3 ай бұрын
레전드입니다 감사합니다
@gwanghyunbradleykim1083
@gwanghyunbradleykim1083 4 жыл бұрын
감동의 도가니탕입니다 감사합니다 이활석님!
@갱님-h7n
@갱님-h7n 3 жыл бұрын
전문가의 질 높은 강의 공유에 큰 감사를 표합니다 :D
@samuelpark7543
@samuelpark7543 7 ай бұрын
좋은 강의 감사합니다
@gyeonghokim
@gyeonghokim 4 жыл бұрын
정말 좋은 강의 고맙습니다
@yeonwoosung491
@yeonwoosung491 4 жыл бұрын
좋은 강의 공유해주셔서 감사합니다! 많이 배우고 갑니다!
@choihojo
@choihojo Жыл бұрын
좋은 강의 감사합니다.
@lfirnnne
@lfirnnne 2 жыл бұрын
오토인코더 설명해주실때 RBM을 요즘 안쓴다는게 왜 그런건지 알 수 있을까요?
@hoxyoh2584
@hoxyoh2584 2 жыл бұрын
최고의강의, 감사합니다.
@김현우-u6x
@김현우-u6x 4 жыл бұрын
감사합니다.
@지영채-b6x
@지영채-b6x 4 жыл бұрын
활석님 강의 믿고 들었습니다~ 따봉!!
@nicewook
@nicewook 6 жыл бұрын
감사히 보고 있습니다. 전체를 다 꿰고 계신 분의 강의라는 생각이 듭니다. 질문이 하나 생겼습닏.41:48 에서 MLE 부분을 듣고 있습니다. 가우시안 분포 또는 베르누이 분포를 따를거다라는 식으로 가정을 한다는 부분이었는데 (물론 완벽한 전체 y는 모르겠지만) 우리는 y 레이블 값들을 왕창 가지고 있는데 이것의 실제 분포를 그려보고 가장 유사한 분포로 가정을 할 수는 없는 것일까요?
@JongGwanLim
@JongGwanLim 6 жыл бұрын
실제 가지고 있는 empirical data에 기반하여 분포를 그려볼 수는 있습니다만 그럴 경우 generalization에는 불리할 수 있습니다. 내가 가진 데이터셋에 최적화된 결과니까요.
@fhzh123
@fhzh123 6 жыл бұрын
감사합니다!!
@leeminize
@leeminize 5 жыл бұрын
정말 명쾌한 강의 감사드립니다.
@ilovemyminutes
@ilovemyminutes 3 жыл бұрын
섬세한 설명 감사드립니다!!!
@보쿠링
@보쿠링 4 жыл бұрын
좋은 강의 감사드립니다 ㅠㅠ 더 많은 강의를 보고싶네용..
@KIMSHIUHN
@KIMSHIUHN 4 жыл бұрын
금과옥조..... 갓강의입니다
@lesleyeb
@lesleyeb 5 жыл бұрын
좋은 강의 공유해주셔서 감사합니다!
@박지안-x2r
@박지안-x2r 3 жыл бұрын
와우 감사합니다.
@HMJ-v6s
@HMJ-v6s 3 жыл бұрын
좋은 강의 감사합니다^^
@이철희-r3r
@이철희-r3r 4 жыл бұрын
개꿀개꿀 개꿀띠에요
@심민규-w8t
@심민규-w8t 5 жыл бұрын
너무 좋네요 강의
@bktsys
@bktsys 5 жыл бұрын
Thank you for your kind presentation!
@채종욱-f3c
@채종욱-f3c Жыл бұрын
1:13:15
@jasonhan778
@jasonhan778 4 жыл бұрын
와우... 좋은강의 감사합니다
@김인수-z2p
@김인수-z2p 9 ай бұрын
29:00 Backprop
@yuno_kim
@yuno_kim 2 жыл бұрын
17:33
@최원우-o2w
@최원우-o2w 6 жыл бұрын
이야 감사합니다!
@dhyoo970111
@dhyoo970111 2 жыл бұрын
25:21
@hyeungyunkim3169
@hyeungyunkim3169 5 жыл бұрын
11page에서 ML설명할때 (x,y,f)가 확률 events의 random 변수라는 것을 정의하여야 한다. 또한 system identification관점에서 ML을 생각해야죠
@다랑어-j1k
@다랑어-j1k 4 жыл бұрын
안녕하세요! 좋은 강의 감사합니다! 혹시 깃허브 계정 남겨주실 수 있을까요??
@유상철-d1x
@유상철-d1x 3 жыл бұрын
좋은 강의를 올려주셔서 감사합니다. 질문이 있어 댓글을 남깁니다. 21:04 에서 왜 gradient of L의 제곱이 L2 norm이 되는 거죠?
@chanlee-qi7re
@chanlee-qi7re 6 жыл бұрын
혹시 backpropagation의 두 가정에 대해서 조금 더 수학적으로 설명한 논문이나 참고할만한 자료가 있나요?
@kimchi_taco
@kimchi_taco 4 жыл бұрын
Ian Goodfellow의 deep learning book 이요
@hyeungyunkim3169
@hyeungyunkim3169 5 жыл бұрын
17page p(x:x)와 p(x)에 대하여 정의가 불분명하네요
@bayesianlee6447
@bayesianlee6447 5 жыл бұрын
s.o.t.a
@younique9710
@younique9710 2 ай бұрын
52:40~1:11
@yuminkim7264
@yuminkim7264 6 жыл бұрын
감사합니다!
@uoaj
@uoaj 4 жыл бұрын
1:03:15
@jackjack-xz7dz
@jackjack-xz7dz 3 жыл бұрын
19:50
@jackjack-xz7dz
@jackjack-xz7dz 3 жыл бұрын
49:30
@jackjack-xz7dz
@jackjack-xz7dz 3 жыл бұрын
1:07:32
@jackjack-xz7dz
@jackjack-xz7dz 3 жыл бұрын
1:30:00
@jackjack-xz7dz
@jackjack-xz7dz 2 жыл бұрын
1:13:52
@jackjack-xz7dz
@jackjack-xz7dz 2 жыл бұрын
1:19:00
오토인코더의 모든 것 - 2/3
1:18:24
NAVER D2
Рет қаралды 44 М.
Mom had to stand up for the whole family!❤️😍😁
00:39
DaMus
Рет қаралды 4,7 МЛН
Зу-зу Күлпаш 2. Бригадир.
43:03
ASTANATV Movie
Рет қаралды 573 М.
Стойкость Фёдора поразила всех!
00:58
МИНУС БАЛЛ
Рет қаралды 6 МЛН
How I Turned a Lolipop Into A New One 🤯🍭
00:19
Wian
Рет қаралды 9 МЛН
Query, Key and Value Matrix for Attention Mechanisms in Large Language Models
18:21
VAE 시각화로 설명
24:15
임커밋
Рет қаралды 6 М.
Lecture 13 | Generative Models
1:17:41
Stanford University School of Engineering
Рет қаралды 489 М.
Variational Autoencoders
15:05
Arxiv Insights
Рет қаралды 503 М.
딥러닝 Ch3.3 VAE
44:52
Smart Design Lab @ KAIST
Рет қаралды 21 М.
Simple Explanation of AutoEncoders
10:31
WelcomeAIOverlords
Рет қаралды 106 М.
Graph Neural Networks - a perspective from the ground up
14:28
Mom had to stand up for the whole family!❤️😍😁
00:39
DaMus
Рет қаралды 4,7 МЛН