I love the videos you make. The good thing is that you explain the concept right to the point and don't waste time which means you are dominant on the subject. I really hope you don't lose the motivation to make such tutorials. because there are enthusiasts like me and my colleagues that literally waiting for your future videos. So please keep making videos
@sarthaknarayan21594 жыл бұрын
Your channel is underrated and is pure gold
@王大哥-e1c2 жыл бұрын
thanks for your high-quality videos which really help me a lot
@VikasSingh86 жыл бұрын
love what you are doing, your recent videos were really helpful to me, keep up the good work, keep exploring and uploading videos 👍
@CodeEmporium6 жыл бұрын
Thanks! Glad you like the videos!
@GunnuBhaiya6 жыл бұрын
This is a wonderful tutorial which deserves (and in the future will get) way more views
@CodeEmporium6 жыл бұрын
Rahul Gore Hoping the same. Thanks!
@deepaksingh56074 жыл бұрын
You explained it in the best way.
@maxsch.23676 ай бұрын
absolute banger! well done
@ParniaSh3 жыл бұрын
Well explained, beautifully demonstrated. Thanks!
@7688abinash6 жыл бұрын
That put down so simply. Just loved it :) Thanks a lot
@CodeEmporium6 жыл бұрын
Abinash Ankit Raut glad you liked it! Thanks!
@ShahriarMohammadShoyeb6 жыл бұрын
Brilliant explanation, described in a very understandable way.
@CodeEmporium6 жыл бұрын
Shahriar Mohammad Shoyeb thanks! Glad you liked it !
@myhofficiel46126 ай бұрын
well explained , you made it look really easy !
@esrabetulelhusseini23304 жыл бұрын
provide a clear understanding to me .so glad,thank you
@starcraftpain5 жыл бұрын
Finally understood MobileNets and DSCs. Thanks the for clear video!
@mamuncse0685 жыл бұрын
Excellent video,easy and well explain of Depth wise Separable Convolution.Really grateful to you.
@张程-f6d3 жыл бұрын
really helpful for me to understand the depthwise separable convolution! Thank you!
@vamsiKRISHNA-io1yi4 жыл бұрын
Simply Brilliant thank you for much for a detailed information about Xception
@jeamsdere96362 жыл бұрын
This video is real helpful. thank you
@yungwoo7294 жыл бұрын
Perfect explanation. I appreciate it. Thank you!
@Kumar7319956 жыл бұрын
Awesome video, subscribed! Had a really good understanding of what depth wise separable convolution is at the end of the video.
@sami-h5y6 жыл бұрын
That was a very lucid explanation, thanks.
@CodeEmporium6 жыл бұрын
Glad you found it usefule Sangeet
@austinmw896 жыл бұрын
Best explanation I've found on this, thanks
@CodeEmporium6 жыл бұрын
As long as it helps :)
@keithchua17232 жыл бұрын
Imbeccable explanations as always!
@senli22295 жыл бұрын
Great help for understanding DepthWise Seqarable Convolution!!!
@Vinay1272 Жыл бұрын
Thanks a lot for this! Very helpful.
@thecurious9262 жыл бұрын
omg this came out 4 years ago? I am living under a rock
@AmartyaMandal74 жыл бұрын
Amazing Explanation!
@Frostbyte-Game-Studio2 жыл бұрын
this is fantastic explaination
@CodeEmporium2 жыл бұрын
Thank you so much!!
@zhuotunzhu86606 жыл бұрын
Very clear, make it easy to understand! Thanks!
@CodeEmporium6 жыл бұрын
Zhuotun Zhu anytime! Thanks for watching
@maheshwaranumapathy6 жыл бұрын
Great video, reading the reference paper is going to be much easier now
@mayankchaurasia44836 жыл бұрын
Awesome explanation . Loved it.
@CodeEmporium6 жыл бұрын
Mayank Chaurasia So glad you loved it :)
@huythai62103 жыл бұрын
It is so useful and clear
@vinitakumari59136 жыл бұрын
Explained it so simply. Thanx
@CodeEmporium6 жыл бұрын
No worries. Glad it helps!
@duongkstn2 ай бұрын
incredible !
@bearflamewind6 жыл бұрын
Thank you so much for making such a nice video that is so easy to understand.
@CodeEmporium6 жыл бұрын
GUO GUANHUA For Sure! I'm glad you understood it :)
@win-n6k6 жыл бұрын
great video,looking forward more
@Ganitadava2 жыл бұрын
Super explanation
@PalashKarmore6 жыл бұрын
Thank you. You saved me a lot of time.
@CodeEmporium6 жыл бұрын
It's what it do. Thanks for watching :)
@felippewick5 жыл бұрын
Great video. Helped a lot!
@dufrewu74373 жыл бұрын
very helpful video, thanks
@srinathkumar14526 жыл бұрын
Nice video! I look forward to future videos on object detection and semantic segmentation.
@roberttlange86075 жыл бұрын
Great explanation! Thank you very much!
@knowhowww3 жыл бұрын
Okay, now I get it.... Thanks!
@RafiqulIslam-je4zy4 жыл бұрын
Many many thanks.
@RishabhGoyal6 жыл бұрын
Very clear explanation.. Thanks a lot.
@CodeEmporium6 жыл бұрын
Welcome! Glad you got some use out of it
@RishabhGoyal6 жыл бұрын
CodeEmporium Yeah.. I was reading W-Net where they have used it..
@harv6096 жыл бұрын
Amazing .. explained so clearly !! Thank you
@CodeEmporium6 жыл бұрын
Harsha Vardhana anytime! Glad you liked it!
@virajwadhwa6782 Жыл бұрын
Is standard convolution here and depth-wise separable convolution functionally equivalent? That is, they will both give the same outputs for a certain input? It is just that, depth-wise separable convolution saves on computations, but is otherwise functionally the same right?
@Maciek17PL2 жыл бұрын
What would pointwise convolution look like in a 1d separeble convolution???
@harutyunyansaten3 жыл бұрын
thank you, understood
@sahibsingh15635 жыл бұрын
Awesome explanation
@lonewolf25475 жыл бұрын
Awesome video dude
@yx98732 жыл бұрын
Well. I can't understand why the input size of the second phase is still M. Is that a typo?
@nexushotaru Жыл бұрын
Thank you for explanation, but please, use more intuitive designations (like H for height and W for width)
@gaussian37505 жыл бұрын
Thanks for explanation
@sergeyi25184 жыл бұрын
Is it correct that arbitrary standard convolition cannot be exposed as depthwise convolution (except some special cases)? Depthwise convolution is just another type of convolution, right?
@willz32224 жыл бұрын
This is excellent
@wuxb096 жыл бұрын
Good Explanation! Thanks
@reactorscience4 жыл бұрын
Amazing video sir.
@66tuananh88 Жыл бұрын
Do you have a python code 3d depthwise separable convolution?
@sourishsarkar52814 жыл бұрын
Why are the output number of features always an integral multiple of the number of input channels?
@Lucas7Martins5 жыл бұрын
Loved it!
@bhuvneshkumar19703 жыл бұрын
2:00 shouldn't it be (Dk^3 ) * M? As matrix multiplication of size (n x m) . (m x p), no. of multiplication are n x m x p.
@UniversalRankingOfficial2 жыл бұрын
Can you make a video on Resnet Architecture for beginners?
@sounakbhowmik28414 жыл бұрын
thank you, it was of great help !!
@vaibhavsingh10494 жыл бұрын
This was great.
@gopsda3 жыл бұрын
Great! Neatly put. Thanks for the video. One thought -- we can add one parameter lambda as multiplication factor in the combination step, and treat as a trainable parameter which increases total trainable parameters by 1 but may help converge the solution faster, I guess. Depthwise sep conv = Depthwise conv + lambda * Pointwise conv.
@strongsyedaa73783 жыл бұрын
Where to use depthwise separable convolution? How do we come to know to where to use it? 🤔
@gopsda3 жыл бұрын
@@strongsyedaa7378 Wherever you want to reduce number of trainable parameters. Most of the networks are defined with this depthwise conv.
@ducpham99915 жыл бұрын
very clear!
@busy_beaver2 жыл бұрын
Thanks!
@zhengxiangyan36545 жыл бұрын
excellent!very nice video
@meyouanddata93384 жыл бұрын
amazing content. thanks alot :)
@artsyfadwa5 жыл бұрын
Nice video. Thanks.
@joruPT6 жыл бұрын
This video was very helpful, thank you :)
@CodeEmporium6 жыл бұрын
Welcome. Glad it was useful!
@judyhwang93423 жыл бұрын
excellent
@CodeEmporium3 жыл бұрын
Thanks!
@strongsyedaa73783 жыл бұрын
Where to use depthwise separable convolution?
@MasayoMusic5 жыл бұрын
Thank you for this. What are you using for animations?
@jo-of-joey6 жыл бұрын
omg. you just saved the day!
@CodeEmporium6 жыл бұрын
You can always count on your friendly neighborhood data scientist..
@jo-of-joey6 жыл бұрын
can you do a video on Binarized Neural Networks?
@melihaslan95096 жыл бұрын
very nice!
@kartikpodugu6 жыл бұрын
easy to understand. i suggest to add animations for better understanding if possible. thanks
@ah-rdk4 ай бұрын
Thanks.
@abhishekchaudhary69752 жыл бұрын
Thanks
@digvijayyadav36334 жыл бұрын
worth the time!!
@varchitalalwani38026 жыл бұрын
very helpful, thanks
@CodeEmporium6 жыл бұрын
Glad it was helpful. Thanks for watching!
@rabhinav6 жыл бұрын
Hey really helpful Thank You. Can you also make a video on Winograd Convolution?
@ranam3 жыл бұрын
Ok genius iam also approaching the problem same way like you I don't use matheMatical way my question is so simple because LTI depends on convulution here's my question below Convulution is nothing but stacks and scales the input that's why the input to an amplifier is stacked and scaled or amplified but in filter design it attenuate frequency so I don't know how it regret certain frequency by stacking and scaling the input if possible some one explain to me
@willemprins45646 жыл бұрын
How does this do with Res and Densenets?
@harshnigm87596 жыл бұрын
In the Xception research paper they actually used skip connections and dense layers , skip connection were reported to have given a major boost to the final accuracy.
@mohitpilkhan70034 жыл бұрын
"immediately" hahaha. Thanks bro. SUbscribed
@aq5552 жыл бұрын
good
@harshadj135 жыл бұрын
Sakkath video!
@rahuldeora58156 жыл бұрын
Hey, I am making a video using some of your animations. Hope its cool!? It's on MobileNets
@CodeEmporium6 жыл бұрын
bluesky314 Absolutely. Just list this video in your references. Send a link to your video here when you're done. I'd like to see it :)
@rahuldeora58156 жыл бұрын
Thanks! Here it is: kzbin.info/www/bejne/fnWcd6Ggi9yIbsk Would love your feedback
@rahuldeora58156 жыл бұрын
hey
@mathematicalninja27565 жыл бұрын
Tjis is like mapreduce
@DarkLordAli953 жыл бұрын
First, thank you for making this helpful video. Second, why can't comp sci people agree on one notation for anything at all?! It's like for every video I watch I gotta learn a new set of notations... BOY. And why is F the input and not the filters? that's just straight up confusing man. humans really can't agree on anything.