진짜 정말 감사합니다. 더 깊은 이해를 하는데 도움을 많이 주시고, 몇년 전부터 궁금한 이론이 있으면 나동빈님 영상 보면서 공부했습니다! 특히 딥러닝 코드 실습은 선물드리고싶을 정도로 감사하네요 ㅠㅠ 앞으로도 꾸준히 올려주세요!! 한국 코딩발전에 힘써주세요 :) 감사합니다 !!
@ruind.85114 жыл бұрын
역시 설명도 쉽게 하는 교원대 출신 갓갓갓!
@alyosha071810 ай бұрын
대박이네요 진짜❤
@마이구매 Жыл бұрын
정말감사합니다 적게일하고 많이버세요
@suljeewoo3 жыл бұрын
Transformers 논문 읽었었는데 이해하는데 많은 도움이 되었습니다! BERT 논문도 올려주세용 ㅜㅜㅜ
@김성훈-w2u5e3 жыл бұрын
코드 설명 덕분에, 이론에 대한 부족한 이해를 보완할 수 있었습니다. 정말 잘 봤습니다.
@leewg883 жыл бұрын
13:35 이 부분에서 c_i가 좀 헷갈리네요 오른쪽 그림에서는 alpha_{t,1} 부터 시작해서 alpha_{t,T}로 끝나니까 c_i 에서 i는 t값이 되어야 하는것 같은데 그럼 총 t개 만큼의 c를 만들어서 s_{t-1}와 s_t를도출해 내는건지 ..? 그런데 t는 해당 timestep을 나타내는 것이지 vector의 사이즈를 나타내는 것은 아닌것 같고 ..
@tTunes-2024 Жыл бұрын
좋은 정보를 공유해주셔서 감사합니다~
@수수-v2m2 жыл бұрын
감사합니다 돈주고도 못구하는 코드실습까지 감동 😭😭
@SM0Cmarui2 жыл бұрын
자연어 처리에 관심이 많았는데 핵심 논문에 대한 자세한 설명을 해주시니 너무 좋습니다
@Slystomp4 жыл бұрын
직관적인 자료와 충분한 설명. 온라인 강의는 보통 이해하려면 3-4번 돌려봐야 했었는데 한번만 들어도 어느 정도 이해하는 느낌을 주네요~ :)
@오브젝 Жыл бұрын
좋은 정보 감사합니다! 덕분에 이해가 안되던 부분 엄청 이해가 잘됐습니다! 이해가 안가는 부분이 하나 있는데 질문좀 드릴게요. 디코더 부분에 mask self attention을 수행하는데 예측하려는 뒷부분의 참고하지 않고 출력하기 위함이라고 하셨네요. 근데 예측하려는 뒷부분은 예측이 안된, 측 아무것도 없는 상태인데 그것을 안보기 위해 mask를 한다 라는 것이 이해가 잘 안되네요.. 예를 들어 첫번째 디코더 인풋으로 sos토큰이 들어왔을때, 들어온 인풋이 sos토큰 하나밖에 없는데 가릴게 있나요?
@dasolkang17433 жыл бұрын
영상 37분 57초에 Wo 가중치를 곱해주는 이유가 shape를 d_model, d_model로 바꾸어주기 위한 건가요? 맞다면 왜 shape를 d_model, d_model로 바꾸어야하는걸까요..?ㅠㅠ
@vehekalfyywehhshxb Жыл бұрын
목소리도 너무 좋네요.
@지도-m3z2 жыл бұрын
정말 감사합니다. 모델을 이해하는데 많은 도움이 되었습니다.
@jinwooseong28623 жыл бұрын
좋은 강의 감사합니다. 설명을 잘 하기 위해서 엄청난 노력을 하신게 느껴지네요.
@naudx52039 ай бұрын
지금까지 여러 트랜스포머 논문 리뷰를 봤으나...이해가 하나도 안되었고.....ㅠ하지만 이 영상을 통해 드디어 간신히 이해하엿습니다ㅠ감사합니다
@Ssiil3 жыл бұрын
감사합니다 어텐션 가물가물했는데 같이 짚어줘서 이해가 쉬웠어요!
@JaechulLee-u2k Жыл бұрын
사랑합니다 선생님... 정말 너무너무 도움 됐어요!
@thegreatgaespi3 жыл бұрын
혼자 학습하려니 막막했는데, 영상보고 아키텍쳐의 맥을 효과적으로 빠르게 파악하였습니다. 감사합니다👍
@이동준-p3i2 жыл бұрын
정말 이렇게 설명을 잘하시다니 대단하세요. 꼭 동빈나님처럼 멋진 연구자가 되겠습니다 ㅋㅋ
@youngsooyi74813 жыл бұрын
최고의 강의입니다.
@wildforager Жыл бұрын
너무 잘 보고 있습니다. AI 공부 하는데 정말 많은 도움 되고 있습니다.
@김현우-u6x4 жыл бұрын
너무 좋은 자료 감사합니다 !!! Batch normalization부터 항상 잘 보고 있습니다 !! 혹시 블로그에 글 작성할때 이미지 자료 사용해도 괜찮을까요??
@aidenkim-t4v Жыл бұрын
좋은 강의 감사합니다
@Lee-ou2xj2 жыл бұрын
항상 잘보고 있습니다!!!:)
@레까-j7h10 ай бұрын
도움 많이 되었습니다. 감사합니다.
@hannahdo9802 жыл бұрын
최고네요 정말. 체계적인 설명 감사합니다 :)
@양현준-q9f3 жыл бұрын
설명 너무 쉽게 잘하시네요 행님;
@jeffreylim59204 жыл бұрын
20:30 수렴이 빠르면 global optimum 을 찾기 좋은가요??
@dongbinna4 жыл бұрын
좋은 질문 감사합니다. ResNet 논문에서는 residual connection을 이용했을 때 초기 단계에 빠르게 converge 할 수 있기 때문에 최적화를 쉽게 할 수 있었다는 구문이 있어 영상에서 그렇게 말했습니다. 원본 문장: "ResNet eases the optimization by providing faster convergence at the early stage." 다만 이게 직접적으로 global optima를 잘 찾을 수 있다고 주장한 내용은 아니라서, 제 의역은 경우에 따라 틀린 것 같습니다. 영상 찍을 때는 크게 고민하지 않고 말했네요... residual connection으로 인해 gradient vanishing 문제가 완화되어 이로 인해 수렴도 빨라지고, global optima도 쉽게 찾을 수 있다고 보는 게 정확한 표현인 것 같습니다. (단순히 learning rate를 줄이는 방법 등으로 억지로 빠르게 수렴하도록 하면, 되려 global optima가 아닌 local optima를 찾게 될 가능성이 커지므로)
Multi head attention 관련해 질문 있습니다! 각 헤드에 대해 서로 다른 Q,K,V를 생성한다고 하셨는데, 모든 헤드는 같은 학습을 겪고 같은 input을 입력받았는데 서로 다른 Q,K,V를 생성할 수 있는 이유는 무엇인가요?
@조용현-s8i2 жыл бұрын
너무 깔끔하시다 진짜..
@wonjunchoi42083 жыл бұрын
영상 너무 잘 보고 있습니다!! 해당 코드를 분석하던 중 궁금즘이 생겨 문의를 남깁니다. ic| query.shape: torch.Size([128, 26, 256]) ic| key.shape: torch.Size([128, 33, 256]) ic| value.shape: torch.Size([128, 33, 256]) multattention레이어에 들어가는 query, key,value 값들을 출력을 해 보았는데 다음과 같이 가운데의 lenth가 다른 경우가 확인이 되어 서로 다른 문장들이 베치에 포함되어 있는 것으로 생각이 되는데 제가 생각하는 것이 맞을까요
@rock__oh3 жыл бұрын
진짜 개 오지는 설명이네요.. 감사합니다 ㅠㅠ
@jinseokmoon86332 жыл бұрын
좋은 정보 감사합니다!
@임효정-p1n3 жыл бұрын
좋은 설명 감사합니다~ 구독하고 갑니다
@김중국-n3n3 жыл бұрын
나동빈님 존경합니다.
@june6971 Жыл бұрын
덕분에 잘 이해했습니다. 감사합니다 ^^
@이태환-l2w3 жыл бұрын
좋은 설명과 코드 감사합니다. 코드 중에 궁금한 게 있는데 token을 임베딩하는 과정에서 scale 값을 곱해주는 부분이 있는데, 이렇게 scaling 값을 곱해주는 이유가 따로 있을까요?
@유영재-c9c3 жыл бұрын
11:45 에너지 값 구할때 a는 어떤 수식을 포함하는건가요?
@deokjoonglee524 жыл бұрын
transformer 설명 너무 감사합니다!
@기석윤-n7d4 жыл бұрын
이상하게 대회에서 rnn 기법의 모델들이 너무 낮은 성적을 가진다고 생각했는데, 이미 대세가 넘어간지 3년이나 지났었군요.... 좋은 자료들 배우고 갑니다!
@강민지-p9q4 жыл бұрын
에너지를 구하는 부분에서 i가 디코더에서 현재 state의 time-step인 것 같은데 이전의 state의 값과 인코더의 출력으로 attention score를 구하는 것인가요?
@moplaylist_4 жыл бұрын
좋은 논문리뷰영상 감사합니다!
@heetaelee78732 жыл бұрын
41:24 - Positional Encoding 동작 원리
@gaussian37504 жыл бұрын
잘 보고 이해하였습니다. 감사합니다.
@minjoon13244 жыл бұрын
최고입니다..
@jeonghwanh86172 жыл бұрын
training 중에 decoder에 trg가 들어가는데 test 때는 decoder에 넣을 정답 trg가 존재하지 않을텐데 어떻게 output이 나올 수 있는지 궁금합니다
@dohahwang85623 жыл бұрын
동빈님 덕분에 Transformer에 대한 이해를 쉽게 할 수 있었습니다. 정말 감사합니다.
@조태흠-i2f3 жыл бұрын
강의 감사합니다. BERT 도 이렇게 해주실 생각없으신가요?
@JiyuKim-sr1mi10 ай бұрын
형 어디 갔어, 돌아와 제발
@유튜브프리미엄-r8t4 жыл бұрын
동빈님처럼 논문을보고 구현하는 경지에 이르고 싶은데 어디부터 시작해야할까요
@hyukiggle75603 жыл бұрын
혹시 처음 접하고 공부하실 때 얼마나 걸리셨나요ㅠㅠ정말 어렵네요,,,
@owlboy9997 Жыл бұрын
이제 나도 머신러닝 전문가~!?
@김민-v4x3 жыл бұрын
동비니 굿굿 좋아요 누르고간당~~
@123wptjf32 жыл бұрын
님들 저 3학년 1학기 끝난 시점인데 휴학을 했슴다 (지거국 편입 준비 + 인공지능 공부) 제가 CNN은 많이 다뤄봐서 아는데 이 동영상만 보고 자연어처리를 공부하려니까 하나도 이해가 안되는데 정상임까??.. 자연어처리에 대한 기초지식이 있어야 함까?