The video content is very interesting! I am a little confused: someone sent me a TRC20 USDT and I have the recovery phrase: 「pride pole obtain together second when future mask review nature potato bulb」 How do I extract them?
@새내-p1f9 күн бұрын
좋은내용 잘보았습니다
@딥러닝논문읽기모임8 күн бұрын
시청해 주셔서 감사드립니다.
@ĐàoVănTuyến-w9g9 күн бұрын
The video is very interesting! Something I don't understand: I have TRC20 USDT in my OKX wallet and I have the recovery phrase: [pride pole obtain together second when future mask review nature potato bulb]. How should I convert them into Bitcoin?
@MãThịThơ-q6y9 күн бұрын
hanks for sharing! Just a quick off-topic question: how can i withdraw my 668 TRC20 USDT from wallet to binance please help me 12 wallet recovery phrase: 『pride pole obtain together second when future mask review nature potato bulb』
@Rosariajo-g1b16 күн бұрын
좋은 정보 감사합니다~^^ 항상 응원합니다!
@ssw-i9b18 күн бұрын
안녕하세요, 좋은 논문 이해하기 쉽게 정리해서 전달해주셔서 감사합니다. 다름이 아니라 현재 paper에 제공되어있는 github MVFA-AD 코드로 zero-shot 학습을 돌려보니 학습 도중 NaN이 발생하는 문제를 겪고 있습니다. 코드가 논문과 일부 다르게 구현되어 있는 부분이 있어 batch 학습이 가능하도록 변경 등을 했고, pretrained CLIP의 모든 parameters를 freeze도 해봤지만 여전히 NaN이 발생하고 있습니다. 이 부분에 대해 발표자님께서는 어떻게 해결하셨는지 질문 드리고 싶습니다. 감사합니다.
@박소영-c6w22 күн бұрын
15:40
@quangkhai.saigon6085Ай бұрын
Thank you for the video. Could you please send me this PowerPoint presentation? I need it for my class at school. Thank you!
@kimchi_tacoАй бұрын
잘들었습니다. RL보다 더 좋을것 같지 않은 인상입니다. 제대로못이해해서 일수도있지만요
@tl2uz2 ай бұрын
고마워요 뿌잉
@user-ke2ji8la9jg52 ай бұрын
논문 리뷰 되게 잘하시네요 한 수 배우고 갑니다 😊
@levu66262 ай бұрын
May I ask for your slide ,please
@나나미-h3z3 ай бұрын
좋은 정보 감사합니다.
@FinnEdgar3 ай бұрын
8852 Margaretta Passage
@ryanku93053 ай бұрын
잘 들었습니다
@leepro3 ай бұрын
전혀 이해를 못하고 설명하는듯 😂
@딥러닝논문읽기모임4 ай бұрын
딥러닝 논문읽기 모임은 청강방 오픈채팅 방을 운영하고 있습니다. 최근 악성 홍보 봇 계정이 늘어나 방을 비밀번호를 걸어두게 되었습니다 딥러닝 청강방도 많은 관심 부탁드립니다! 청강방 링크 : open.kakao.com/o/gp6GHMMc 청강방 비밀번호 : 0501 kzbin.info/www/bejne/q32uooCYhKaSrLc
@nos49954 ай бұрын
where i can test it please
@kangminchoi18824 ай бұрын
감사합니다 잘 봤습니다! 청강도 해보고 싶은데 혹시 청강 단톡방 입장 코드는 어디서 볼 수 있을까요?
@Aidin-f5v4 ай бұрын
Is it possible to upload the slides and also share the English language?
@강동원-f5p5 ай бұрын
참조하겠습니다. 감사합니다😊
@코이힝5 ай бұрын
좋네여!
@김기재-i5w5 ай бұрын
좋은 리뷰 감사합니다
@taptap47345 ай бұрын
설명 너무 깔끔해서 잘 봤습니다. structure from motion 아닌가요? structure promotion으로 나와서 ... 자막이 잘못돼서 확인하시면 좋을 거 같습니다
@qhrms23335 ай бұрын
잘 듣고있는데, '갖다가' 라는 단어를 자주 쓰셔가지고 그게 신경쓰이는 순간 집중력이 흐트러지네요 ㅋㅋ 잘 집중해보겠습니다 영상 감사합니다
@안녕-x8l6g6 ай бұрын
좋은 자료 감사합니다^^ 저는 의료AI SW를 개발하고 있는 의사입니다. 혹시 가우시안 스플래팅으로 안면 3D RC에 조예가 깊으신 개발자에 대해 추천좀 해주실수 있는지요?^^
@heejuneAhn6 ай бұрын
오래된 자료라.
@UMTI146 ай бұрын
좋은 발표 감사합니다.
@딥러닝논문읽기모임6 ай бұрын
시청해 주셔서 감사드립니다.
@zinod79887 ай бұрын
좋은 발표 감사합니다
@딥러닝논문읽기모임5 ай бұрын
시청해 주셔서 감사드립니다.
@JamJamit7 ай бұрын
감사합니다~
@딥러닝논문읽기모임5 ай бұрын
시청해 주셔서 감사드립니다.
@dattran35538 ай бұрын
can u give me this powerpoint, because i need it to refer when finishing my course
@딥러닝논문읽기모임8 ай бұрын
Hello, thank you for your interest. If you leave your email address, we will send you the file by email. If you use it externally, we would appreciate it if you could leave the source.
@dattran35537 ай бұрын
@@딥러닝논문읽기모임 thank u so much and u can show me how to run the project
@brain.trinity8 ай бұрын
발표자분 목소리가 너무 이쁘세요!
@EdgarKim-q5h8 ай бұрын
Aaai가 아니라 iclr 아닌가요?
@Raziel_Sf8 ай бұрын
네 0:11 맞습니다 😅
@princekwesioseiaboagye9 ай бұрын
Can you have your videos made in English? Thank you
@딥러닝논문읽기모임9 ай бұрын
Yes, we will continue to add subtitles from now on! Thank you for your attention.
@초코동동9 ай бұрын
영상 감사합니다. Drag GAN 에서 motion supervision 과 point tracking 이 구분되는 이유를 잘 몰랐는데 영상 보면서 좀 더 이해하게 되었습니다. 마지막에 Real Image Editing 을 위해서 off-the-shelf inversion 방식을 사용하는 것은 한계점이라고 할 수 있겠네요.
@박슛티10 ай бұрын
굉장히 알기쉽게 잘 요약해주셨네요. 훌륭한 발표 감사합니다.
@안민기-z8g10 ай бұрын
잘 보고 있습니다
@딥러닝논문읽기모임10 ай бұрын
항상 봐주셔서 감사합니다!
@chaerinSim10 ай бұрын
모임의 영상이 딥러닝 논문 공부에 큰 힘이 됩니다. 늘 감사합니다 :)
@딥러닝논문읽기모임10 ай бұрын
항상 봐주셔서 감사합니다!
@kimchi_taco10 ай бұрын
설명왕이십니다
@딥러닝논문읽기모임10 ай бұрын
감사합니다 더 노력하겠습니다
@beeny-w6u10 ай бұрын
발표 잘 들었습니다. 궁금한게 하나 있어서 질문 남겨요~ lora_a 와 lora_b 를 사용해서 dxd matrix 를 w0 에 더해준다는건 이해했는데 w0 에 dxd matrix 를 더해줄 때 w0 의 모든 dxd matrix 에 더해주는건가요? 예를들어 decoder layer_1 에 들어가는 matrix 의 차원이 dxd 일테니 decoder layer_1 에 들어갈 때 더해준다. decoder layer_1 에서 연산을 통해 나온 matrix 의 차원도 dxd 일테이 거기에도 더해준다. 이런식으로 w0 의 어디에 lora_a 와 lora_b 로 만든 dxd matrix 를 더해주는건지 궁금합니다.!
@dalaymann11 ай бұрын
아이코 이놈의 분야는 왜 이리 기법이 많노 🫠
@광광이-i9t11 ай бұрын
논문 요약 감사합니다! 잘 듣고 갑니다 ~~~
@hashaamshahid3100 Жыл бұрын
amazing explaination
@Noah-jz3gt Жыл бұрын
자막이... 왜 저렇게 아예 화면에 박아져 있는 걸까요..? 슬라이드가 가립니다 ㅠ 그래도 좋은 발표 감사드립니다 general 한 맥락을 잡는 데 도움이 많이 되었습니다!