بالعربي Backpropagation: Understanding How to Update Artificial Neural Networks Weights Step by Step

  Рет қаралды 88,958

Ahmed Gad

Ahmed Gad

Күн бұрын

Пікірлер: 245
@AhmedOsaka
@AhmedOsaka 2 жыл бұрын
شرح ممتاز أستاذ أحمد. بشكرك على مجهودك. انا فهمته كلو من أول مرة. أحسنت حقيقي. ربنا يجعله بميزان حساناتك.
@SezarBrokenLine
@SezarBrokenLine Жыл бұрын
يا زلمه رووح الله يسعدك على هاض الفيديو .. انا طالب بهارفرد والله البروفيسور ما شرحها بالطريقه هاي .. هاض الفيديو بالزبط الي كنت بدور عليه .. شكرا من قلبي ..
@doridore1234
@doridore1234 5 жыл бұрын
Mr. Gad, thank you so much for making the powerpoint in English! I've been studying Neural Networks and have been having trouble implementing the backpropagation algorithm in my code. Your presentation has made it much easier for me to understand. Thanks so much again!
@AhmedGadd
@AhmedGadd 5 жыл бұрын
Hi dear, Thanks for such a nice comment. For your info, I started the Python implementation of the ANN in both forward and backward passes in a series of tutorials available at Paperspace: blog.paperspace.com/author/ahmed
@hichambenghedier6760
@hichambenghedier6760 4 жыл бұрын
صراحة طريقة شرحك! خيالية وأكثر من رائعة 👌🏻💝 بارك الله فيك وجزاك عنا كل خير 💐
@AhmedGadd
@AhmedGadd 4 жыл бұрын
مشكور علي زوقك. الله يوفقك
@saraex8558
@saraex8558 5 жыл бұрын
ماشاءالله تبارك الله 👍🏼 افضل فيديو تعليمي عربي شفته في حياتي
@nauniversity767
@nauniversity767 5 жыл бұрын
الله يوفقنا يارب ❤️❤️❤️😂
@AhmedGadd
@AhmedGadd 5 жыл бұрын
شكراً جزيلاً لحضرتك
@edu_ka9274
@edu_ka9274 6 жыл бұрын
Thank u so much i cant understand your language but i understand through ur presentation I searched 100s of video and site bt not find wt i want to know.... Thank u so much again
@AhmedGadd
@AhmedGadd 6 жыл бұрын
Thanks for such a nice comment. You can also read about ANN and CNN in my 2018 book available here at Amazon: www.amazon.com/Practical-Computer-Vision-Applications-Learning/dp/1484241665/ Good luck.
@smohamed3593
@smohamed3593 4 жыл бұрын
@@AhmedGadd ما شاء الله شرحك رائع وفرحت كثيرا ان لك كتب تستخدم كمراجع. الله يوفقك
@AhmedGadd
@AhmedGadd 4 жыл бұрын
@@smohamed3593 شكراً جزيلاً لحضرتك. بس مين بيستخدم الكتب كمراجع؟ في الجامعة يستخدموها؟
@smohamed3593
@smohamed3593 4 жыл бұрын
أنا شفته على امازون وشفت الاندكس بتاعه شامل ويمكن استخدامة ك complete reference. وان شاء الله سوف أدرس منه
@ghofrankhalid3802
@ghofrankhalid3802 3 жыл бұрын
شرح رووعة استمر استاذ ربي يوفقك انا كنت مافاهمة الموضوع ابد لكن من تابعت الفيديو فمهتو كثثثير
@AhmedGadd
@AhmedGadd 3 жыл бұрын
الحمد لله. شكراً جزيلاً.
@Nabila_Labraoui
@Nabila_Labraoui 4 жыл бұрын
ماشاء الله من بين كل الفيديوهات التي شاهدتها بخصوص backward ، فيديوهات هي الأروع و شرحك مبسط. شكرا جزيلا 👍👍👍. أحلى لايك و اشتراك من الجزائر
@AhmedGadd
@AhmedGadd 4 жыл бұрын
أشكرك علي ترك تعليق زي أعتز بيه طول الوقت. تحياتي من مصر
@mohamedabdelfattah8627
@mohamedabdelfattah8627 Жыл бұрын
جزاكم الله كل خير دكتورنا.
@amanyaly9317
@amanyaly9317 4 жыл бұрын
اسلوبك حلو جدا فى تبسيط المعلومه وتنظيم الشرح ربنا يوفقك - وياريت لو فى كورس كامل
@AhmedGadd
@AhmedGadd 4 жыл бұрын
شكراً لحضرتك تحياتى
@saddamalihellal3286
@saddamalihellal3286 7 жыл бұрын
والله انا سعيد برؤية هذه المنشورات العربية رب يحفظك و زيذك علما و يرزقك يا استذ
@AhmedGadd
@AhmedGadd 7 жыл бұрын
شكراً لك أخي الكريم.
@tfarrag1981
@tfarrag1981 7 жыл бұрын
السلام عليكم الحقيقة شرحك و اسلوبك لم اجده فى فيديو اخر اقوم بتدريس هذا المقرر لطلاب الخلفية الرياضة لديهم ليست قويه و كنت محتار جدا اشرحه ازاى باسلوب لطيف و محبب و دورت كتير جدا عربى و انجليزى اسلوبك مميز و يدل على فهم عميق للموضوع لتتمكن من تبسطه هكذا بالتوفيق ان شاء الله و اتمنى اذا فى مرجع تراه قريب من اسلوب شرحك اتمنى ان تعطينى اسمه د/ تامر احمد فراج
@AhmedGadd
@AhmedGadd 7 жыл бұрын
وعليكم السلام ورحمة الله وبركاتة د. تامر، سعدت بتواصلك وكلامك المشجع. فيه فعلاً مجموعة مراجع ذاكرة بتشرح فيها الموضوع بس مش من البداية للنهاية. هجهز قائمة بهم وأرسلهم لحضرتك في القريب إن شاء الله. شكراً.
@AhmedGadd
@AhmedGadd 7 жыл бұрын
السلام عليكم د. تامر، من الكتب إلي تناولت الشبكات العصبية الإصطناعية من البداية ومدي مقدمة عن أجزاء كثيرة منها بما فيها بعض الأجزاء المعروضة في الفيديو بطريقة سهلة هو الكتاب التالي: Rashid, Tariq. Make your own neural network. CreateSpace Independent Publishing Platform, 2016. www.amazon.com/Make-Your-Own-Neural-Network/dp/1530826608 وفي توثيق للشرح الموجود في الفيديو موجود هنا: www.linkedin.com/pulse/backpropagation-understanding-how-update-artificial-neural-ahmed-gad/ www.slideshare.net/AhmedGadFCIT/backpropagation-understanding-how-to-update-artificial-neural-networks-weights-step-by-step أتمني يكون الرد مفيد. وشكراً جزيلاً.
@tfarrag1981
@tfarrag1981 7 жыл бұрын
Ahmed Gad شكرا على استجابتك و ان شاء الله تكون مصادر مفيده لى. تحياتى لك و بالتوفيق
@yousrakateb2383
@yousrakateb2383 5 жыл бұрын
@@AhmedGadd بارك الله فيكم على شرحكم المفصل
@makrhiunracist
@makrhiunracist 4 жыл бұрын
السلام عليكم أخى خقيقة لم أرى مثل هذا الشرح و التبسيط فى المراجع الاجنبية والعربية و اشكرك شكرا جزيلا و يرحم الله والديك وانشاء الله فى ميزان حسناتك أخوك من ليبيا ماجستير هنسة طرق ونقل
@AhmedGadd
@AhmedGadd 4 жыл бұрын
وعليكم السلام أخى الكريم أشكرك علي الدعم وأتمنى لك كل التوفيق والنجاح في دراستك وعملك. تحياتى
@huynhvanthuan1838
@huynhvanthuan1838 2 жыл бұрын
Nice. This is good video about back propagation. It is useful for me. Thanks
@thelastone1643
@thelastone1643 5 жыл бұрын
ما شاء الله تبارك الله على الشرح.. أتمنى تعلم كورس كامل ديب ليرنق
@AhmedGadd
@AhmedGadd 5 жыл бұрын
إن شاء الله .. بخطط لذلك
@mostafamarwanmostafa9975
@mostafamarwanmostafa9975 2 жыл бұрын
اقسم بالله اجمد فيديو ف الكوون انا بحبك في الله
@MohamedMahmoud-ul4ip
@MohamedMahmoud-ul4ip 5 жыл бұрын
فخر للعرب وللمسلمين يا دكتور أحمد
@AhmedGadd
@AhmedGadd 4 жыл бұрын
أشكر حضرتك علي هذا الدعم وأتمني تكون بألف صحة وسلامة
@HananMohamed-rw2tv
@HananMohamed-rw2tv 4 жыл бұрын
الله يزيدك علم ويبارك في علمك يارب وربي يجعله في ميزان حسناتك
@AhmedGadd
@AhmedGadd 4 жыл бұрын
الله يوفقك وينفعك بالعلم الصالح. شكراً جزيلاً
@Mwme2000
@Mwme2000 2 жыл бұрын
thank you dr for your amazing and simple explanation
@AhmedGadd
@AhmedGadd 2 жыл бұрын
It is a pleasure. Thank you.
@AlienAI23
@AlienAI23 5 жыл бұрын
وجب التنويه : في الدقيقة 28:47 يكون الاشتقاق بالنسبة ل w3 والنتيجه هي قيمة x1 وليس كما هو في الفيديو w3 وبالمثل التفاضل بالنسبة ل w4 يكون x2 , تماما كم تم حسابه بالنسبة ل w1 ,w2
@AhmedGadd
@AhmedGadd 5 жыл бұрын
شكراً جزيلاً علي التنوية.
@makrhiunracist
@makrhiunracist 4 жыл бұрын
المشكلة ليست فى الإشتقاق لأن أغلبية المتابعين مهندسين ولكن الشرح البسيط لكيفة عمل ال Backpropagation وهو أبدع فى ذلك
@safiasafia9950
@safiasafia9950 5 жыл бұрын
جزاك الله خيرا استاذ و شيخ الاساتذة
@AhmedGadd
@AhmedGadd 5 жыл бұрын
شكراً جزيلاً بس كلام كبير ده
@doaakhalil3287
@doaakhalil3287 6 жыл бұрын
السلام عليكم ربنا يجازيك خير علي شرحك الممتاز اكون ممنونه لحضرتك لو تعمل فيديو شرح CNN في deep learning و matlab tools او تدلني علي حاجه اقرا منها تكون بسيطه ربنا يكرمك
@hudaalbyati8581
@hudaalbyati8581 3 жыл бұрын
أحسنتم الشرح وبارك الله فيكم
@AhmedGadd
@AhmedGadd 3 жыл бұрын
شكراً لحضرتك
@m-alali-dev
@m-alali-dev 6 жыл бұрын
شرح أكثر من راائع لا مثيل له.. جزاك الله خير
@AhmedGadd
@AhmedGadd 4 жыл бұрын
جزانا وإياكم ❤❤
@mohammedjameel6791
@mohammedjameel6791 4 жыл бұрын
شرح رائع رائع ولا اروع..بارك الله فيك دكتور احمد
@AhmedGadd
@AhmedGadd 4 жыл бұрын
ألف شكر لحضرتك وجزاك الله خير
@انسالزيدي-ط4ص
@انسالزيدي-ط4ص 4 жыл бұрын
الله يبارك بيك ويجعلها في ميزان حسناتك
@AhmedGadd
@AhmedGadd 4 жыл бұрын
شكراً جزيلاً لحضرتك.
@EngArwa1
@EngArwa1 7 жыл бұрын
Thanks for sharing! Very awesome & clear explanation. Keep up the good work
@AhmedGadd
@AhmedGadd 7 жыл бұрын
Thanks for your kind words :).
@ammarghazwan2280
@ammarghazwan2280 4 ай бұрын
والله لو كنت بجواري كنت قبلت رأسك دكتور أحمد
@MrGhazally120
@MrGhazally120 7 жыл бұрын
ماشاء الله تبارك الله ربنا يزيدك ويوفقك , كفيت وأوفيت بس عندي اقتراح بسيط ياريت تربط الجزء النظري بالماتلاب والسمولنيك حتى تعم الفائدة بصورة أكبر
@AhmedGadd
@AhmedGadd 7 жыл бұрын
أشكرك أخي الكريم. أتمني أن أفعل ذلك في المستقبل. وشكراً لإقتراحك الجيد.
@abdallayasin903
@abdallayasin903 2 жыл бұрын
شرح ممتاز ورائع ...وفقك الله.
@AhmedGadd
@AhmedGadd 2 жыл бұрын
شكراً لحضرتك الله يوفقك
@benatallahabdennour9379
@benatallahabdennour9379 6 жыл бұрын
une bonne explication, merci pour votre méthode ...
@AhmedGadd
@AhmedGadd 6 жыл бұрын
Merci :)
@AhmedAbdElgawad-petroAnalyst
@AhmedAbdElgawad-petroAnalyst 3 жыл бұрын
جزاك الله كل خير .. شرح جميل جدا وملم .❤
@AhmedGadd
@AhmedGadd 3 жыл бұрын
شكراً لحضرتك
@ghaliahmed
@ghaliahmed 6 жыл бұрын
شرحك ولا أروع بارك الله فيك
@AhmedGadd
@AhmedGadd 6 жыл бұрын
GHALI Ahmed شكرا جزيلا
@safiasafia9950
@safiasafia9950 7 жыл бұрын
شرحك ل. Bac propagation very good. جزاك االله خيرا .
@AhmedGadd
@AhmedGadd 7 жыл бұрын
Thanks too much :) جزانا وإياكم
@SherenAhmedgodismyonlylove
@SherenAhmedgodismyonlylove 7 жыл бұрын
thanks for ur perfect and the simplest way in explaining, I hope u make other videos about the mathematics in deep learning.
@AhmedGadd
@AhmedGadd 7 жыл бұрын
Thanks for you kind comment. I will try in the future to make more about DL. Best regards.
@SherenAhmedgodismyonlylove
@SherenAhmedgodismyonlylove 7 жыл бұрын
I hope u always make successful videos. really , i don't understand this math from Androw machine course , but from ur video i well understanding it all thanks for u.
@AhmedGadd
@AhmedGadd 7 жыл бұрын
Thanks Allah for making it simple for you. Wish you all the best.
@SherenAhmedgodismyonlylove
@SherenAhmedgodismyonlylove 7 жыл бұрын
all thanks for Allah, best regards for u
@hasanramazan618
@hasanramazan618 3 жыл бұрын
وفقك الله ... شرح ممتاز
@AhmedGadd
@AhmedGadd 3 жыл бұрын
شكراً جزيلاً
@mesterMishere
@mesterMishere 2 жыл бұрын
عمي وعم عيالي يا هندسة 😃👍
@yazanmajzoub6582
@yazanmajzoub6582 3 жыл бұрын
افضل شرح ، استمر لو سمحت
@AhmedGadd
@AhmedGadd 3 жыл бұрын
شكراً لحضرتك
@workersuniversity9256
@workersuniversity9256 3 жыл бұрын
ماشاء الله شرح رائع يادكتور ممكن شرح لل Rough Neural Network
@yaminadjoudi4357
@yaminadjoudi4357 3 жыл бұрын
Thank you so much, there are some mistakes but it's okay, the concept is very well explained! thank you a lot & keep going, we hope you doing a videos about CNN, RNN, MNN (modular neural networks) and deep learning with tensorflow
@AhmedGadd
@AhmedGadd 3 жыл бұрын
Thank you! 😃 I will consider doing that!
@MohamedMedhat-ic5ng
@MohamedMedhat-ic5ng 2 жыл бұрын
ربنا يباركلك ويجازيك خير يا هندسة
@ariouathanane
@ariouathanane 4 ай бұрын
magnifique vidéo
@Nina7k
@Nina7k 2 жыл бұрын
yaatik alf saha from Algeris
@MrMKA2012
@MrMKA2012 Жыл бұрын
ماشاء الله جزاك الله خيرا
@ahmedmohamedhassan9205
@ahmedmohamedhassan9205 2 жыл бұрын
جميل جداً وشرح مبسط شكراً ليك
@ghain5075
@ghain5075 2 жыл бұрын
جزاك الله خيراً
@ahmedelgindy434
@ahmedelgindy434 Жыл бұрын
شرح ممتاز جدا
@the_talent2023
@the_talent2023 5 жыл бұрын
استمر شرحك فعلا رائع
@AhmedGadd
@AhmedGadd 5 жыл бұрын
شكراً جزيلاً لحضرتك
@salimahassouni1619
@salimahassouni1619 3 жыл бұрын
Vielen Lieben dank👌
@AhmedGadd
@AhmedGadd 3 жыл бұрын
Thank you :)
@noor-hb9tg
@noor-hb9tg 3 жыл бұрын
شكرا جزيلا و جزاك الله الف خير , عندي سؤال مش عارفة على اي اساس نستخدم اي نوع من ال Activiation Function, وليش استخدمت sigmoid مش غيره من انواع Activiation Function في هذا المثال؟
@lamaalramadan6635
@lamaalramadan6635 6 жыл бұрын
شرح رائع ...جزاك الله كل خير
@AhmedGadd
@AhmedGadd 4 жыл бұрын
أشكر حضرتك
@محمدكيمنكض
@محمدكيمنكض 5 жыл бұрын
جزاك الله خير
@AhmedGadd
@AhmedGadd 4 жыл бұрын
أشكرك أخي وأتمني لكم التوفيق
@عامرصالح-و2ط
@عامرصالح-و2ط 3 жыл бұрын
عاشت ايدك استاذ
@AhmedGadd
@AhmedGadd 3 жыл бұрын
تحياتي
@abdel-rahmanelshikh301
@abdel-rahmanelshikh301 6 жыл бұрын
جزاك الله كل خير
@AhmedGadd
@AhmedGadd 4 жыл бұрын
شكراً لحضرتك
@bassama2306
@bassama2306 2 жыл бұрын
السلام عليكم لماذا ال e مرفوعة لأس 1.85 و ليس 0.85 في الدقيقة 23.48 اعتذر في ححال كان السؤال غير مناسب
@saadtah2779
@saadtah2779 6 жыл бұрын
Very good explanation
@AhmedGadd
@AhmedGadd 4 жыл бұрын
Thanks :) ❤
@ibrahimhadeed47
@ibrahimhadeed47 10 ай бұрын
بارك الله بيك استاذ وشكرا على جهودك الجبارة لكن لدي استفسار هل لاحظت البارشيل لاخر وزنين 3 و4 من اشتقيت يمكن الاشتقاق كان خطأ لان اشتقيت x وبقيت الوزن مع العلم احنا عنشتق بالنسبة للوزن وشكرأ جزيلا على شرحك الاكثر من ممتاز
@AhmedGadd
@AhmedGadd 10 ай бұрын
شكراً جزيلاً فعلاً في أخطاء في بعض الحسابات. أتمني الفكرة بشكل عام تكون واضحة.
@Zohali
@Zohali 3 жыл бұрын
Thank you very much , you are amazing
@AhmedGadd
@AhmedGadd 3 жыл бұрын
Happy to help! Thank you.
@mohammedalaamri3447
@mohammedalaamri3447 4 жыл бұрын
Well explained
@AhmedGadd
@AhmedGadd 4 жыл бұрын
Thanks
@safiasafia9950
@safiasafia9950 7 жыл бұрын
جزاك الله خيرا جيد جيد........
@AhmedGadd
@AhmedGadd 7 жыл бұрын
جزانا وإياكم
@mazenarafah5159
@mazenarafah5159 5 жыл бұрын
عزيزي أحمد ، بارك الله في جهودك، اعتقد في الدقيقة 23:48 القيمة الصحيحة هي 0.865 * (0.865-1) = 0.116775، و ليس 0.23 خصوصا ان جميع الحسابات التالية تعتمد على هذه القيمة
@AhmedGadd
@AhmedGadd 5 жыл бұрын
شكراً لك فعلاً تم إرسال لي علي أخطاء في الحسابات في المثال الأخير
@abdulhassanshalalalhilaly8860
@abdulhassanshalalalhilaly8860 3 жыл бұрын
جزاك الله خير على هذا العمل الرائع ... شرح مفصل اتمنى ان ترسل البوربونت
@AhmedGadd
@AhmedGadd 3 жыл бұрын
ال powerpoint مش موجود للأسف. رابط ملف ال pdf في الوصف. هو ده: www.slideshare.net/AhmedGadFCIT/backpropagation-understanding-how-to-update-anns-weights-stepbystep
@abdelhamedahmed1529
@abdelhamedahmed1529 5 жыл бұрын
at the minute 28:49 how the last calculated derivative be W3 , i think it should be X1 any clarification please
@AhmedGadd
@AhmedGadd 5 жыл бұрын
Yes, you are right. Thanks for informing me. There are some mistakes as mentioned in some other comments.
@mohammedashraf8108
@mohammedashraf8108 2 жыл бұрын
You miscalculated Partial derivative for W5 comparing to the real result we got in here 24:18
@محمدكيمنكض
@محمدكيمنكض 5 жыл бұрын
السلام عليكم آسف على الازعاج هل ممكن تنزل فيديو تشرح فيه مثال عملي للتقدير باستخدام kernel
@smohamed3593
@smohamed3593 4 жыл бұрын
can you answer the following question please: explain why the following nonlinear activation functions fit the requirements pf sigmoid function. sketch this function and illustrate the difference between them
@AhmedGadd
@AhmedGadd 4 жыл бұрын
Yes sure. I see that the question is not complete. If you cannot write it here, please send it to my email: ahmed.f.gad@gmail.com
@ahmadtarawneh2990
@ahmadtarawneh2990 4 жыл бұрын
Nice job!
@AhmedGadd
@AhmedGadd 4 жыл бұрын
Thanks!
@remaabushahma2327
@remaabushahma2327 5 жыл бұрын
جزاك الله خيرا وفتح لك ابواب العلم والخير.. شرحك رائع بس ولو سمحت عندي سؤال قيمة الاوزان w1 w2 التي نضعها من وين نجيبها يعني هل نحن نفرضها ام هناك قاعدة معينة
@AhmedGadd
@AhmedGadd 5 жыл бұрын
شكراً جزيلاً وجزانا جميعا خير الأوزان بيتم إفتراضها بشكل عشوائي.
@bruce-candraw
@bruce-candraw 3 жыл бұрын
29:31 excuse me sir. Could there be possible correction that p h2in/ p W4 is actually X2. Please forgive me if I am wrong.
@zoro5191
@zoro5191 3 жыл бұрын
السلام عليكم هلا تملك كود الخوارزمية بلغة الجافا او c++او c#
@AhmedGadd
@AhmedGadd 3 жыл бұрын
وعليكم السلام، لا مش عندي. بس بالبايثون.
@ramyraad2647
@ramyraad2647 7 жыл бұрын
28:47 يرجى التأكد من الاشتقاق بالنسبة لل w1 وليس ل x1
@AhmedGadd
@AhmedGadd 7 жыл бұрын
في الثانية 28:47 أنا مش لاقي W1 خالص. بس علي العموم أنا بعمل التفاضل بالنسبة للأوزان.
@ramyraad2647
@ramyraad2647 7 жыл бұрын
اسف ,, اقصد w3 و x3 الاشتقاق بالنسبه لل w ولكن الذي قمت بعمله في الفديو هو الاشتقاق بالنسبة ل x
@ramyraad2647
@ramyraad2647 7 жыл бұрын
ناتج الاشتقاق و حسب اعتقادي يجب ان يكون هو قيمة x1 .
@AhmedGadd
@AhmedGadd 7 жыл бұрын
فعلاً دي غلطة. أنا عملت هنا التفاضل بالنسبة للمدخل وليس للوزن. المفروض الناتج يكون X3 وليس W3 شكراً جزيلاً للملاحظة.
@ramyraad2647
@ramyraad2647 7 жыл бұрын
عموما , مجهود رائع وجميل من حظرتك واتمنى الاستمرار في تقديم الفديوات.. ولك مني جزيل شكري وامتناني .
@safiasafia9950
@safiasafia9950 7 жыл бұрын
نريد دروس عن منطق المضبب مثل دروس الرائعة عن الشبكات العصبنية .
@engesraa8392
@engesraa8392 6 жыл бұрын
شكرا :)
@AhmedGadd
@AhmedGadd 6 жыл бұрын
تشرفت
@najwameftah3581
@najwameftah3581 3 жыл бұрын
how to bulid face recognition using neural network please help me
@hemoemo4543
@hemoemo4543 2 жыл бұрын
سلام عليكم, شرحك ممتاز جدا, سؤال ليش ما عملت Update ل Biases؟
@AhmedGadd
@AhmedGadd 2 жыл бұрын
ده جزء كنت المفروض أضيفة. الطبيعي هو تحديث ال bias
@ibrahimelkhalil479
@ibrahimelkhalil479 5 жыл бұрын
Thank you very much ,please could you specify what the derivative magnitude is !! 30:12
@AhmedGadd
@AhmedGadd 5 жыл бұрын
Differentiation is the action of computing a derivative. The derivative of a function y = f(x) of a variable x is a measure of the rate at which the value y of the function changes with respect to the change of the variable x. It is called the derivative of f with respect to x. Source: en.wikipedia.org/wiki/Derivative
@ibrahimelkhalil479
@ibrahimelkhalil479 5 жыл бұрын
@@AhmedGadd I got it , thank very much
@Darkev77
@Darkev77 4 жыл бұрын
نشكرك جدا علئ شرحك الرائع يا دكتور, و أسأل الله أن يجزيك عنا خير الجزاء. بس حبيت انوه انه فيه خطأ حسابي في 23:49 dout_out/dout_in = 0.117
@AhmedGadd
@AhmedGadd 4 жыл бұрын
شكراً لحضرتك علي التنوية .. بالفعل في بعض الأخطاء الحسابية الي في آخرين بلغوا عنها. لكن الخطوات والمعادلات صحيحة والتعويض فقط هو إلي فيه بعض الأخطاء.
@Darkev77
@Darkev77 4 жыл бұрын
@@AhmedGadd فعلا, مشكور جدا يا دكتور علئ العمل الجبار و الله يوفقك! و هل من الممكن دكتورنا انا نرسلك ايميل؟
@AhmedGadd
@AhmedGadd 4 жыл бұрын
@@Darkev77 أكيد ممكن
@Darkev77
@Darkev77 4 жыл бұрын
@@AhmedGadd السلام عليكم دكتورنا. سامحنا علئ الازعاج لكن أرسلتلك ايميل ماعرف اذا وصلك أو لا!
@raniaelrifai2105
@raniaelrifai2105 6 жыл бұрын
مع كل الاحترام والتقدير
@AhmedGadd
@AhmedGadd 4 жыл бұрын
تحياتي لحضرتك
@amlomar
@amlomar 5 жыл бұрын
السلام عليكم ممكن شرح لل Convolutional neural network(CNN) شرحك متميز جدا ما شاء الله
@AhmedGadd
@AhmedGadd 5 жыл бұрын
عامل فيديو بيشرح الفرق بين fully connected network & Convolutional Neural Network وشارح ال CNN في كتابي www.amazon.com/Practical-Computer-Vision-Applications-Learning/dp/1484241665
@donfeto7636
@donfeto7636 6 жыл бұрын
Updating weights in sigmod function at 4:20 it's Wnew=Wold+n(t-o)o(o-1)x !!?
@AhmedGadd
@AhmedGadd 6 жыл бұрын
Your equation is not clear for me but the used equation at 4:20 is correct.
@donfeto7636
@donfeto7636 6 жыл бұрын
@@AhmedGadd Derive gradient decent rules to train: one sigmoid function E/wi = -d(td-od) od (1-od) xi
@AhmedGadd
@AhmedGadd 6 жыл бұрын
At 4:20, I did not use the gradient rules yet. I just hinted that using the learning rate only to update the weights is not accurate and we should use the gradient descent for that task.
@NabilMO_O
@NabilMO_O 5 жыл бұрын
ليش نضف مدخل ال b اللي هو ال bias كاحد مدخلات الشبكة العصبية ....
@AhmedGadd
@AhmedGadd 5 жыл бұрын
الإجابة وضحتها في tutorial بعنوان ­­From Y=X to Building a Complete Artificial Neural Network heartbeat.fritz.ai/from-y-x-to-building-a-complete-artificial-neural-network-327da18894af ببساطه في حالات الأوزان فقط لا يمكن لها إن تحقق نتائج دقيقة ولذلك يتم إستخدام ال bias
@baan4930
@baan4930 6 жыл бұрын
السلام عليكم استاذ احمد شكرا على هذا التوضيح اريد الحصول على تحاليل سلسلة زمنية شهرية بطرقة الشبكات العصبونية كيف يتم ادخال البيانات وتحديد المخرجات في الماتلاب
@AhmedGadd
@AhmedGadd 6 жыл бұрын
وعليكم السلام، ممكن تبحث عن أمر nntool. ده بيتيح عمل شبكات عصبية بأنواع مختلفة وفيها إدخال البيانات بسيط. ده فيديو عملته لبناء شبكة للتصنيف لكنها مكانتش علي سلسلة زمنية: kzbin.info/www/bejne/opepnoF9e7F1os0
@baan4930
@baan4930 6 жыл бұрын
@@AhmedGadd شكرا لك استاذ احمد لقد شاهدت الفديو لكن بالنسبة للسلاسل الزمنية يختلف اذا بالإمكان من حضرتك مساعدة اكثر حيث انا احتاج التنبؤ بالسلاسل الزمنية اذا لديك وقت وتستطيع مساعدتي في ذلك وشكرا لك .
@MohamedMahmoud-ul4ip
@MohamedMahmoud-ul4ip 5 жыл бұрын
Amazing
@AhmedGadd
@AhmedGadd 4 жыл бұрын
Really thanks :)
@tarifiamegos8329
@tarifiamegos8329 5 жыл бұрын
الله يجزيك الخير يارب على هالشرح. بس كانو مو شارح بفيديوهاتك ايمتا منضيف طبقات مخفية وعدد العصبونات كيف منحددو واذا كان عندي مسألة كبيرة كيف فيني اعرف عدد العصبونات وعدد الطبقات اللي لازم احطها بحيث تكون مناسبة المسألة واذا ممكن ترد علي وتقلي بكون ممنون الك. .....الرجاء الرد
@AhmedGadd
@AhmedGadd 5 жыл бұрын
السؤال ده مش من السهل إجابته بس أنا كتبت حاجة عنه. DataCamp Tutorial "Deduce the Number of Layers and Neurons for ANN": www.datacamp.com/community/tutorials/layers-neurons-artificial-neural-networks وبردو كتبت عنه في كتابي الي منشور بسنة 2018 "Practical Computer Vision Applications Using Deep Learning with CNNs" موجود بأمازون هنا: amazon.com/Practical-Computer-Vision-Applications-Learning/dp/1484241665/
@tarifiamegos8329
@tarifiamegos8329 5 жыл бұрын
@@AhmedGadd شكرا كتير لالك
@osamahabdullah3715
@osamahabdullah3715 7 жыл бұрын
plz share your main reference btw, it's awesome explaination thanks alot
@AhmedGadd
@AhmedGadd 7 жыл бұрын
This is the book that covers most of what I said in a simple way: Rashid, Tariq. Make your own neural network. CreateSpace Independent Publishing Platform, 2016.
@osamahabdullah3715
@osamahabdullah3715 7 жыл бұрын
thnaks dear, appreciated
@osamahabdullah3715
@osamahabdullah3715 7 жыл бұрын
thnaks dear, appreciated
@osamahabdullah3715
@osamahabdullah3715 7 жыл бұрын
I do appreciated, is there any chance to make a video about convolutional neural network please
@AhmedGadd
@AhmedGadd 7 жыл бұрын
I will try :)
@sumayyakamal8857
@sumayyakamal8857 3 жыл бұрын
A question, the error symbol δ "local gradient" is literally which of these dc/dw, dc/da or da/dw? Thank you.
@neamaessa4037
@neamaessa4037 4 жыл бұрын
لو سمحت كيف احصل على كل فيديوهاتك
@AhmedGadd
@AhmedGadd 4 жыл бұрын
لو تقصد تحميلها فممكن تبحث علي جوجل عن طريقة لتحميل فيديوهات اليوتيوب
@donfeto7636
@donfeto7636 6 жыл бұрын
بعد ازنك السوال ده in the back propagation algorithm what are delta rule for multi-hidden layers? اجابته ايه ا
@AhmedGadd
@AhmedGadd 6 жыл бұрын
أعتقد دي الإجابة new_weight = old_weight - learning_rate*gradient
@muhammadessam7062
@muhammadessam7062 6 жыл бұрын
يا باشمهندس ما الفرق بين ال backpropagation و ال recurrent ANN .. على حد علمي ان ال multilayer perceptron network تندرج تحت feedforward architecture .. فكيف بيحصل backward propagation مع ان الداتا مفترض تمشي في one direction? أرجو حل هذا الالتباس
@AhmedGadd
@AhmedGadd 6 жыл бұрын
في البداية علشان تخلي الشبكة تربط مدخل واحد بس بالخرج المناظر ليه بتدي للشبكة المدخل والخرج بتاعه في ال pass forward .. لكن تخيل إن الشبكة مقدرتش تربط بين المدخل والخرج بتاعه .. فلازم يحصل تغيير في الأوزان المستخدمه .. التغيير ده بيتم في ال backward pass بعملية إسمها backpropagation. فيبقي ال forward علشان نخلي الشبكة تتعرف علي المدخلات والمخرجات المناظرة ليها .. ال backward في حالة إن الشبكة فشلت في الربط فبعمل تغيير فيها من خلال عملية ال backpropagation. ممكن تستعين بالمقالات ده: www.linkedin.com/pulse/backpropagation-understanding-how-update-artificial-neural-ahmed-gad www.slideshare.net/AhmedGadFCIT/backpropagation-understanding-how-to-update-artificial-neural-networks-weights-step-by-step بالتوفيق.
@sam19r
@sam19r 5 жыл бұрын
لمن نجي نعمل dH2in\dw3 المفروض يكون الناتج x3 مو w3 صحيح؟ ونفس الشي لdH2in\dw4 يعطيني x4
@AhmedGadd
@AhmedGadd 5 жыл бұрын
بالفعل في بعض الأخطاء زي دي تم التنوية عنها مسبقاً في التعليقات وبعتذر عنها لكثرة الحسابات
@MultiAllaeddine
@MultiAllaeddine 5 жыл бұрын
شكرا جزيلا على الشرح الرائع لم أفهم بهذه القوة حتى من مصادر إنجليزية من فضلك إذا ممكن ملف باور بوينت لأن في سلايد شير يمكن تحميل بي دي أف فقط
@AhmedGadd
@AhmedGadd 5 жыл бұрын
شكراً جزيلاً حالياً تم مشاركة الملفات بنسخة PDF وهذه النسخة فيها كل التفاصيل
@طارقماضى-الصراطالسوى
@طارقماضى-الصراطالسوى 5 жыл бұрын
هناك خطأ فى الشبكة التى بها خلايا خفيه فعند حساب القيمه الخامسه من W2 و W4 قمت بوضع x^1-1 والمفروض انها W^1-1 راجع المعادلات رجاءً
@AhmedGadd
@AhmedGadd 5 жыл бұрын
بالفعل في بعض الأخطاء الحسابيه الي تم التنوية عنها بالسابق وشكراً للتنوية مرة أخرى
@malekisraa9419
@malekisraa9419 5 жыл бұрын
السلام هل هذا القانون ساري مع تغير fonction d'activation لاني اختلاف في القوانين
@AhmedGadd
@AhmedGadd 5 жыл бұрын
لا يتغير بتغير الدالة الدوال المختلفة ليها اشتقاق مختلف
@ridharehouma9087
@ridharehouma9087 6 жыл бұрын
السلام عليكم ارجو منك المساعدة اريد ان انشئ neural network with two input and one input كل قيمة من المددخل 1 تتلاقى مع كل قيمة من المدخل 2 لتنتج قيمة في المخرج ويكون المخرج على شكل مصفوفة
@AhmedGadd
@AhmedGadd 6 жыл бұрын
ممكن توضيح أكثر .. المثال فيه مدخلين وخرج .. الخرج هيطلع لما المدخلين يتلاقوا؟ هل المصد يكونوا متساويين؟
@djimi9803
@djimi9803 2 жыл бұрын
0.03 ????? Desired كيف عرفت قيمة الديزايرد
@berom3561
@berom3561 7 жыл бұрын
وكمان ازاى اعملfeature extraction and feature selection to skin cancer by using codes of matlab
@AhmedGadd
@AhmedGadd 7 жыл бұрын
تم الرد.
@haydergfg6702
@haydergfg6702 7 жыл бұрын
thank you so nice what about forecasting to eco product or account to bank for some years
@haydergfg6702
@haydergfg6702 7 жыл бұрын
forecasting in neural e network
@AhmedGadd
@AhmedGadd 7 жыл бұрын
Thanks. Just collect the data, create the suitable NN structure, train it; and finally make predictions. Welcome for any further discussion.
@haydergfg6702
@haydergfg6702 7 жыл бұрын
i create my data ok but how i can forecasting by using mat lab nn pleas
@AhmedGadd
@AhmedGadd 7 жыл бұрын
Hayder Gfg Simple. I will give you materials for creating NN using MATLAB. Just give me time.
@haydergfg6702
@haydergfg6702 7 жыл бұрын
Thx alot dear I wait you
@gfhre757
@gfhre757 6 жыл бұрын
هذا المثال single layer ممكن مثال اعقد شوي؟ هذا بسيط جدا
@AhmedGadd
@AhmedGadd 6 жыл бұрын
المثال مبسط علشان الهدف توضيح فكرة الشبكات العصبية. ده مثال آخر فيه طبقة خفية kzbin.info/www/bejne/e5u6dXmqYpehb80 ولو أمثلة أكتر ممكن تشوف الكتاب ده www.amazon.com/Practical-Computer-Vision-Applications-Learning/dp/1484241665/
@gfhre757
@gfhre757 6 жыл бұрын
شكرا جزيلا
@DrFadiassad
@DrFadiassad 5 жыл бұрын
many thanks for the great effort and the nice explanation. Is the value of dE/dW5 right? I think there's a mistake in dOut_out/dOut_in
@AhmedGadd
@AhmedGadd 5 жыл бұрын
Thanks you :) Could you please tell me the exact min/sec for your comment? Some people told me about some mistakes like that previously due to the existence of many derivatives.
@DrFadiassad
@DrFadiassad 5 жыл бұрын
@@AhmedGadd It is 23:49.
@AhmedGadd
@AhmedGadd 5 жыл бұрын
Thanks. Could you can tell me which value you think it is not correct? I reviewed the modified presentation and found everything is right. I will be thankful if you followed the chain of calculations and tell me where is the exact error. I think the error might be just wrong substitution of values.
@DrFadiassad
@DrFadiassad 5 жыл бұрын
@@AhmedGadd 1/(1+exp(-1.858))=0.8651, but 1/1.56= 0.641
@AhmedGadd
@AhmedGadd 5 жыл бұрын
Yes you are right. The correct value is 0.641 I think someone told me about that previously and I forgot to reflect it in the presentation. I will do that. Thanks too much.
@mohamedsaleh1942
@mohamedsaleh1942 4 жыл бұрын
لو سمحت ممكن طريقة تواصل مع حضرتك ؟؟
@AhmedGadd
@AhmedGadd 4 жыл бұрын
طرق التواصل متاحة في وصف الفيديو.
Backpropagation proof  in neural network شرح الاثبات
23:19
To Brawl AND BEYOND!
00:51
Brawl Stars
Рет қаралды 17 МЛН
Cheerleader Transformation That Left Everyone Speechless! #shorts
00:27
Fabiosa Best Lifehacks
Рет қаралды 16 МЛН
VIP ACCESS
00:47
Natan por Aí
Рет қаралды 30 МЛН
بالعربي Build Neural Network using MATLAB
9:39
Ahmed Gad
Рет қаралды 93 М.
But what is a neural network? | Deep learning chapter 1
18:40
3Blue1Brown
Рет қаралды 18 МЛН
Transformer Neural Networks, ChatGPT's foundation, Clearly Explained!!!
36:15
StatQuest with Josh Starmer
Рет қаралды 815 М.
Lecture 6: Backpropagation
1:11:16
Michigan Online
Рет қаралды 113 М.
Transformers (how LLMs work) explained visually | DL5
27:14
3Blue1Brown
Рет қаралды 4,7 МЛН
MIT Introduction to Deep Learning | 6.S191
1:09:58
Alexander Amini
Рет қаралды 887 М.
Watching Neural Networks Learn
25:28
Emergent Garden
Рет қаралды 1,4 МЛН
To Brawl AND BEYOND!
00:51
Brawl Stars
Рет қаралды 17 МЛН