Lecture 1: Swin Transformer from Scratch in PyTorch - Hierarchic Structure and Shifted Windows Ideas

  Рет қаралды 13,522

AI HMP

AI HMP

Күн бұрын

Пікірлер
@viallykazadimutombo225
@viallykazadimutombo225 Жыл бұрын
This is the best of bests tutorial I've seen so far about Swin Transformer. I'm very much impressed!
@ai_hmp
@ai_hmp Жыл бұрын
Thank you so much for your kind comment. :)
@iumemon
@iumemon 7 ай бұрын
Hey Bro, I didn't know you were working on Vision Transformer.
@harusakichiwa
@harusakichiwa 8 ай бұрын
Very well explained. Thank you for making such a good tutorial 👍
@ai_hmp
@ai_hmp 8 ай бұрын
Thank you.
@BradNeuberg
@BradNeuberg Жыл бұрын
Very good, clear explanation, thanks for making this!
@ai_hmp
@ai_hmp Жыл бұрын
I am glad you found it helpful :)
@waqarmughal4755
@waqarmughal4755 3 ай бұрын
Thanks for the excellent videos. I have a question how can I train my custom data using that swin transformers
@akramsalim9706
@akramsalim9706 Жыл бұрын
Thank you very much. You are the best
@ai_hmp
@ai_hmp Жыл бұрын
I am glad you found it helpful :)
@syedadzha362
@syedadzha362 Жыл бұрын
Amazing explaination. Thank you!
@ai_hmp
@ai_hmp Жыл бұрын
Thank you!
@SS-zq5sc
@SS-zq5sc Жыл бұрын
This is perfect, thank you very much! Really well explained.
@ai_hmp
@ai_hmp Жыл бұрын
Glad it was helpful!
@ChizkiyahuOhayon
@ChizkiyahuOhayon 7 ай бұрын
How can a Swin Transformer backbone output multi-level feature maps like ResNet?
@malathip4043
@malathip4043 8 ай бұрын
Can this be used on character images of 32*32*1 dataset
@icanyagmur
@icanyagmur Жыл бұрын
Very intuitive!
@ai_hmp
@ai_hmp Жыл бұрын
Thank you!
@purnamakkena9553
@purnamakkena9553 Жыл бұрын
Is there any tutorial like this for understanding self attention? You are really explaining nicely. Thank You
@ai_hmp
@ai_hmp Жыл бұрын
Thank you so much! Regarding self-attention, I found a course on Coursera that is very easy to understand and well-explained: Introduction to Machine Learning, Duke University, Week 5.
@Krishnavandejagadguru-bo1ng
@Krishnavandejagadguru-bo1ng Жыл бұрын
How to trained the swin transformer for the rectangle image i.e 64x512x3
@ai_hmp
@ai_hmp Жыл бұрын
Thank you for your question. The window is still square but you will end up having less number of windows on height than width. The rest should be similar.
@smarttaurian30
@smarttaurian30 Жыл бұрын
what about the segmenatation?
@ai_hmp
@ai_hmp Жыл бұрын
We only focused on the backbone in this series.
@RomeoKienzler
@RomeoKienzler 10 ай бұрын
Very nicely explained. Thanks so much!
@ai_hmp
@ai_hmp 10 ай бұрын
Thank you so much :)
Swin Transformer - Paper Explained
19:59
Soroush Mehraban
Рет қаралды 12 М.
Twin Telepathy Challenge!
00:23
Stokes Twins
Рет қаралды 135 МЛН
Do you love Blackpink?🖤🩷
00:23
Karina
Рет қаралды 23 МЛН
If people acted like cats 🙀😹 LeoNata family #shorts
00:22
LeoNata Family
Рет қаралды 33 МЛН
Кто круче, как думаешь?
00:44
МЯТНАЯ ФАНТА
Рет қаралды 6 МЛН
Vision Transformer in PyTorch
29:52
mildlyoverfitted
Рет қаралды 84 М.
Let's build GPT: from scratch, in code, spelled out.
1:56:20
Andrej Karpathy
Рет қаралды 4,9 МЛН
Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
14:52
Pytorch Transformers from Scratch (Attention is all you need)
57:10
Aladdin Persson
Рет қаралды 318 М.
Swin Transformer V2 - Paper explained
21:32
Soroush Mehraban
Рет қаралды 3,6 М.
Transformer Neural Networks Derived from Scratch
18:08
Algorithmic Simplicity
Рет қаралды 150 М.
Vision Transformer and its Applications
34:38
Open Data Science
Рет қаралды 44 М.
Attention in transformers, visually explained | DL6
26:10
3Blue1Brown
Рет қаралды 1,8 МЛН
Swin Transformer
9:23
Machine Learning Studio
Рет қаралды 3,4 М.
Twin Telepathy Challenge!
00:23
Stokes Twins
Рет қаралды 135 МЛН