شرح ممتاز أستاذ أحمد. بشكرك على مجهودك. انا فهمته كلو من أول مرة. أحسنت حقيقي. ربنا يجعله بميزان حساناتك.
@SezarBrokenLine Жыл бұрын
يا زلمه رووح الله يسعدك على هاض الفيديو .. انا طالب بهارفرد والله البروفيسور ما شرحها بالطريقه هاي .. هاض الفيديو بالزبط الي كنت بدور عليه .. شكرا من قلبي ..
@doridore12345 жыл бұрын
Mr. Gad, thank you so much for making the powerpoint in English! I've been studying Neural Networks and have been having trouble implementing the backpropagation algorithm in my code. Your presentation has made it much easier for me to understand. Thanks so much again!
@AhmedGadd5 жыл бұрын
Hi dear, Thanks for such a nice comment. For your info, I started the Python implementation of the ANN in both forward and backward passes in a series of tutorials available at Paperspace: blog.paperspace.com/author/ahmed
@hichambenghedier67604 жыл бұрын
صراحة طريقة شرحك! خيالية وأكثر من رائعة 👌🏻💝 بارك الله فيك وجزاك عنا كل خير 💐
@AhmedGadd4 жыл бұрын
مشكور علي زوقك. الله يوفقك
@saraex85585 жыл бұрын
ماشاءالله تبارك الله 👍🏼 افضل فيديو تعليمي عربي شفته في حياتي
@nauniversity7675 жыл бұрын
الله يوفقنا يارب ❤️❤️❤️😂
@AhmedGadd5 жыл бұрын
شكراً جزيلاً لحضرتك
@edu_ka92746 жыл бұрын
Thank u so much i cant understand your language but i understand through ur presentation I searched 100s of video and site bt not find wt i want to know.... Thank u so much again
@AhmedGadd6 жыл бұрын
Thanks for such a nice comment. You can also read about ANN and CNN in my 2018 book available here at Amazon: www.amazon.com/Practical-Computer-Vision-Applications-Learning/dp/1484241665/ Good luck.
@smohamed35934 жыл бұрын
@@AhmedGadd ما شاء الله شرحك رائع وفرحت كثيرا ان لك كتب تستخدم كمراجع. الله يوفقك
@AhmedGadd4 жыл бұрын
@@smohamed3593 شكراً جزيلاً لحضرتك. بس مين بيستخدم الكتب كمراجع؟ في الجامعة يستخدموها؟
@smohamed35934 жыл бұрын
أنا شفته على امازون وشفت الاندكس بتاعه شامل ويمكن استخدامة ك complete reference. وان شاء الله سوف أدرس منه
@ghofrankhalid38023 жыл бұрын
شرح رووعة استمر استاذ ربي يوفقك انا كنت مافاهمة الموضوع ابد لكن من تابعت الفيديو فمهتو كثثثير
@AhmedGadd3 жыл бұрын
الحمد لله. شكراً جزيلاً.
@Nabila_Labraoui4 жыл бұрын
ماشاء الله من بين كل الفيديوهات التي شاهدتها بخصوص backward ، فيديوهات هي الأروع و شرحك مبسط. شكرا جزيلا 👍👍👍. أحلى لايك و اشتراك من الجزائر
@AhmedGadd4 жыл бұрын
أشكرك علي ترك تعليق زي أعتز بيه طول الوقت. تحياتي من مصر
@mohamedabdelfattah8627 Жыл бұрын
جزاكم الله كل خير دكتورنا.
@amanyaly93174 жыл бұрын
اسلوبك حلو جدا فى تبسيط المعلومه وتنظيم الشرح ربنا يوفقك - وياريت لو فى كورس كامل
@AhmedGadd4 жыл бұрын
شكراً لحضرتك تحياتى
@saddamalihellal32867 жыл бұрын
والله انا سعيد برؤية هذه المنشورات العربية رب يحفظك و زيذك علما و يرزقك يا استذ
@AhmedGadd7 жыл бұрын
شكراً لك أخي الكريم.
@tfarrag19817 жыл бұрын
السلام عليكم الحقيقة شرحك و اسلوبك لم اجده فى فيديو اخر اقوم بتدريس هذا المقرر لطلاب الخلفية الرياضة لديهم ليست قويه و كنت محتار جدا اشرحه ازاى باسلوب لطيف و محبب و دورت كتير جدا عربى و انجليزى اسلوبك مميز و يدل على فهم عميق للموضوع لتتمكن من تبسطه هكذا بالتوفيق ان شاء الله و اتمنى اذا فى مرجع تراه قريب من اسلوب شرحك اتمنى ان تعطينى اسمه د/ تامر احمد فراج
@AhmedGadd7 жыл бұрын
وعليكم السلام ورحمة الله وبركاتة د. تامر، سعدت بتواصلك وكلامك المشجع. فيه فعلاً مجموعة مراجع ذاكرة بتشرح فيها الموضوع بس مش من البداية للنهاية. هجهز قائمة بهم وأرسلهم لحضرتك في القريب إن شاء الله. شكراً.
@AhmedGadd7 жыл бұрын
السلام عليكم د. تامر، من الكتب إلي تناولت الشبكات العصبية الإصطناعية من البداية ومدي مقدمة عن أجزاء كثيرة منها بما فيها بعض الأجزاء المعروضة في الفيديو بطريقة سهلة هو الكتاب التالي: Rashid, Tariq. Make your own neural network. CreateSpace Independent Publishing Platform, 2016. www.amazon.com/Make-Your-Own-Neural-Network/dp/1530826608 وفي توثيق للشرح الموجود في الفيديو موجود هنا: www.linkedin.com/pulse/backpropagation-understanding-how-update-artificial-neural-ahmed-gad/ www.slideshare.net/AhmedGadFCIT/backpropagation-understanding-how-to-update-artificial-neural-networks-weights-step-by-step أتمني يكون الرد مفيد. وشكراً جزيلاً.
@tfarrag19817 жыл бұрын
Ahmed Gad شكرا على استجابتك و ان شاء الله تكون مصادر مفيده لى. تحياتى لك و بالتوفيق
@yousrakateb23835 жыл бұрын
@@AhmedGadd بارك الله فيكم على شرحكم المفصل
@makrhiunracist4 жыл бұрын
السلام عليكم أخى خقيقة لم أرى مثل هذا الشرح و التبسيط فى المراجع الاجنبية والعربية و اشكرك شكرا جزيلا و يرحم الله والديك وانشاء الله فى ميزان حسناتك أخوك من ليبيا ماجستير هنسة طرق ونقل
@AhmedGadd4 жыл бұрын
وعليكم السلام أخى الكريم أشكرك علي الدعم وأتمنى لك كل التوفيق والنجاح في دراستك وعملك. تحياتى
@huynhvanthuan18382 жыл бұрын
Nice. This is good video about back propagation. It is useful for me. Thanks
@thelastone16435 жыл бұрын
ما شاء الله تبارك الله على الشرح.. أتمنى تعلم كورس كامل ديب ليرنق
@AhmedGadd5 жыл бұрын
إن شاء الله .. بخطط لذلك
@mostafamarwanmostafa99752 жыл бұрын
اقسم بالله اجمد فيديو ف الكوون انا بحبك في الله
@MohamedMahmoud-ul4ip5 жыл бұрын
فخر للعرب وللمسلمين يا دكتور أحمد
@AhmedGadd4 жыл бұрын
أشكر حضرتك علي هذا الدعم وأتمني تكون بألف صحة وسلامة
@HananMohamed-rw2tv4 жыл бұрын
الله يزيدك علم ويبارك في علمك يارب وربي يجعله في ميزان حسناتك
@AhmedGadd4 жыл бұрын
الله يوفقك وينفعك بالعلم الصالح. شكراً جزيلاً
@Mwme20002 жыл бұрын
thank you dr for your amazing and simple explanation
@AhmedGadd2 жыл бұрын
It is a pleasure. Thank you.
@AlienAI235 жыл бұрын
وجب التنويه : في الدقيقة 28:47 يكون الاشتقاق بالنسبة ل w3 والنتيجه هي قيمة x1 وليس كما هو في الفيديو w3 وبالمثل التفاضل بالنسبة ل w4 يكون x2 , تماما كم تم حسابه بالنسبة ل w1 ,w2
@AhmedGadd5 жыл бұрын
شكراً جزيلاً علي التنوية.
@makrhiunracist4 жыл бұрын
المشكلة ليست فى الإشتقاق لأن أغلبية المتابعين مهندسين ولكن الشرح البسيط لكيفة عمل ال Backpropagation وهو أبدع فى ذلك
@safiasafia99505 жыл бұрын
جزاك الله خيرا استاذ و شيخ الاساتذة
@AhmedGadd5 жыл бұрын
شكراً جزيلاً بس كلام كبير ده
@doaakhalil32876 жыл бұрын
السلام عليكم ربنا يجازيك خير علي شرحك الممتاز اكون ممنونه لحضرتك لو تعمل فيديو شرح CNN في deep learning و matlab tools او تدلني علي حاجه اقرا منها تكون بسيطه ربنا يكرمك
@hudaalbyati85813 жыл бұрын
أحسنتم الشرح وبارك الله فيكم
@AhmedGadd3 жыл бұрын
شكراً لحضرتك
@m-alali-dev6 жыл бұрын
شرح أكثر من راائع لا مثيل له.. جزاك الله خير
@AhmedGadd4 жыл бұрын
جزانا وإياكم ❤❤
@mohammedjameel67914 жыл бұрын
شرح رائع رائع ولا اروع..بارك الله فيك دكتور احمد
@AhmedGadd4 жыл бұрын
ألف شكر لحضرتك وجزاك الله خير
@انسالزيدي-ط4ص4 жыл бұрын
الله يبارك بيك ويجعلها في ميزان حسناتك
@AhmedGadd4 жыл бұрын
شكراً جزيلاً لحضرتك.
@EngArwa17 жыл бұрын
Thanks for sharing! Very awesome & clear explanation. Keep up the good work
@AhmedGadd7 жыл бұрын
Thanks for your kind words :).
@ammarghazwan22804 ай бұрын
والله لو كنت بجواري كنت قبلت رأسك دكتور أحمد
@MrGhazally1207 жыл бұрын
ماشاء الله تبارك الله ربنا يزيدك ويوفقك , كفيت وأوفيت بس عندي اقتراح بسيط ياريت تربط الجزء النظري بالماتلاب والسمولنيك حتى تعم الفائدة بصورة أكبر
@AhmedGadd7 жыл бұрын
أشكرك أخي الكريم. أتمني أن أفعل ذلك في المستقبل. وشكراً لإقتراحك الجيد.
@abdallayasin9032 жыл бұрын
شرح ممتاز ورائع ...وفقك الله.
@AhmedGadd2 жыл бұрын
شكراً لحضرتك الله يوفقك
@benatallahabdennour93796 жыл бұрын
une bonne explication, merci pour votre méthode ...
@AhmedGadd6 жыл бұрын
Merci :)
@AhmedAbdElgawad-petroAnalyst3 жыл бұрын
جزاك الله كل خير .. شرح جميل جدا وملم .❤
@AhmedGadd3 жыл бұрын
شكراً لحضرتك
@ghaliahmed6 жыл бұрын
شرحك ولا أروع بارك الله فيك
@AhmedGadd6 жыл бұрын
GHALI Ahmed شكرا جزيلا
@safiasafia99507 жыл бұрын
شرحك ل. Bac propagation very good. جزاك االله خيرا .
@AhmedGadd7 жыл бұрын
Thanks too much :) جزانا وإياكم
@SherenAhmedgodismyonlylove7 жыл бұрын
thanks for ur perfect and the simplest way in explaining, I hope u make other videos about the mathematics in deep learning.
@AhmedGadd7 жыл бұрын
Thanks for you kind comment. I will try in the future to make more about DL. Best regards.
@SherenAhmedgodismyonlylove7 жыл бұрын
I hope u always make successful videos. really , i don't understand this math from Androw machine course , but from ur video i well understanding it all thanks for u.
@AhmedGadd7 жыл бұрын
Thanks Allah for making it simple for you. Wish you all the best.
@SherenAhmedgodismyonlylove7 жыл бұрын
all thanks for Allah, best regards for u
@hasanramazan6183 жыл бұрын
وفقك الله ... شرح ممتاز
@AhmedGadd3 жыл бұрын
شكراً جزيلاً
@mesterMishere2 жыл бұрын
عمي وعم عيالي يا هندسة 😃👍
@yazanmajzoub65823 жыл бұрын
افضل شرح ، استمر لو سمحت
@AhmedGadd3 жыл бұрын
شكراً لحضرتك
@workersuniversity92563 жыл бұрын
ماشاء الله شرح رائع يادكتور ممكن شرح لل Rough Neural Network
@yaminadjoudi43573 жыл бұрын
Thank you so much, there are some mistakes but it's okay, the concept is very well explained! thank you a lot & keep going, we hope you doing a videos about CNN, RNN, MNN (modular neural networks) and deep learning with tensorflow
@AhmedGadd3 жыл бұрын
Thank you! 😃 I will consider doing that!
@MohamedMedhat-ic5ng2 жыл бұрын
ربنا يباركلك ويجازيك خير يا هندسة
@ariouathanane4 ай бұрын
magnifique vidéo
@Nina7k2 жыл бұрын
yaatik alf saha from Algeris
@MrMKA2012 Жыл бұрын
ماشاء الله جزاك الله خيرا
@ahmedmohamedhassan92052 жыл бұрын
جميل جداً وشرح مبسط شكراً ليك
@ghain50752 жыл бұрын
جزاك الله خيراً
@ahmedelgindy434 Жыл бұрын
شرح ممتاز جدا
@the_talent20235 жыл бұрын
استمر شرحك فعلا رائع
@AhmedGadd5 жыл бұрын
شكراً جزيلاً لحضرتك
@salimahassouni16193 жыл бұрын
Vielen Lieben dank👌
@AhmedGadd3 жыл бұрын
Thank you :)
@noor-hb9tg3 жыл бұрын
شكرا جزيلا و جزاك الله الف خير , عندي سؤال مش عارفة على اي اساس نستخدم اي نوع من ال Activiation Function, وليش استخدمت sigmoid مش غيره من انواع Activiation Function في هذا المثال؟
@lamaalramadan66356 жыл бұрын
شرح رائع ...جزاك الله كل خير
@AhmedGadd4 жыл бұрын
أشكر حضرتك
@محمدكيمنكض5 жыл бұрын
جزاك الله خير
@AhmedGadd4 жыл бұрын
أشكرك أخي وأتمني لكم التوفيق
@عامرصالح-و2ط3 жыл бұрын
عاشت ايدك استاذ
@AhmedGadd3 жыл бұрын
تحياتي
@abdel-rahmanelshikh3016 жыл бұрын
جزاك الله كل خير
@AhmedGadd4 жыл бұрын
شكراً لحضرتك
@bassama23062 жыл бұрын
السلام عليكم لماذا ال e مرفوعة لأس 1.85 و ليس 0.85 في الدقيقة 23.48 اعتذر في ححال كان السؤال غير مناسب
@saadtah27796 жыл бұрын
Very good explanation
@AhmedGadd4 жыл бұрын
Thanks :) ❤
@ibrahimhadeed4710 ай бұрын
بارك الله بيك استاذ وشكرا على جهودك الجبارة لكن لدي استفسار هل لاحظت البارشيل لاخر وزنين 3 و4 من اشتقيت يمكن الاشتقاق كان خطأ لان اشتقيت x وبقيت الوزن مع العلم احنا عنشتق بالنسبة للوزن وشكرأ جزيلا على شرحك الاكثر من ممتاز
@AhmedGadd10 ай бұрын
شكراً جزيلاً فعلاً في أخطاء في بعض الحسابات. أتمني الفكرة بشكل عام تكون واضحة.
@Zohali3 жыл бұрын
Thank you very much , you are amazing
@AhmedGadd3 жыл бұрын
Happy to help! Thank you.
@mohammedalaamri34474 жыл бұрын
Well explained
@AhmedGadd4 жыл бұрын
Thanks
@safiasafia99507 жыл бұрын
جزاك الله خيرا جيد جيد........
@AhmedGadd7 жыл бұрын
جزانا وإياكم
@mazenarafah51595 жыл бұрын
عزيزي أحمد ، بارك الله في جهودك، اعتقد في الدقيقة 23:48 القيمة الصحيحة هي 0.865 * (0.865-1) = 0.116775، و ليس 0.23 خصوصا ان جميع الحسابات التالية تعتمد على هذه القيمة
@AhmedGadd5 жыл бұрын
شكراً لك فعلاً تم إرسال لي علي أخطاء في الحسابات في المثال الأخير
@abdulhassanshalalalhilaly88603 жыл бұрын
جزاك الله خير على هذا العمل الرائع ... شرح مفصل اتمنى ان ترسل البوربونت
@AhmedGadd3 жыл бұрын
ال powerpoint مش موجود للأسف. رابط ملف ال pdf في الوصف. هو ده: www.slideshare.net/AhmedGadFCIT/backpropagation-understanding-how-to-update-anns-weights-stepbystep
@abdelhamedahmed15295 жыл бұрын
at the minute 28:49 how the last calculated derivative be W3 , i think it should be X1 any clarification please
@AhmedGadd5 жыл бұрын
Yes, you are right. Thanks for informing me. There are some mistakes as mentioned in some other comments.
@mohammedashraf81082 жыл бұрын
You miscalculated Partial derivative for W5 comparing to the real result we got in here 24:18
@محمدكيمنكض5 жыл бұрын
السلام عليكم آسف على الازعاج هل ممكن تنزل فيديو تشرح فيه مثال عملي للتقدير باستخدام kernel
@smohamed35934 жыл бұрын
can you answer the following question please: explain why the following nonlinear activation functions fit the requirements pf sigmoid function. sketch this function and illustrate the difference between them
@AhmedGadd4 жыл бұрын
Yes sure. I see that the question is not complete. If you cannot write it here, please send it to my email: ahmed.f.gad@gmail.com
@ahmadtarawneh29904 жыл бұрын
Nice job!
@AhmedGadd4 жыл бұрын
Thanks!
@remaabushahma23275 жыл бұрын
جزاك الله خيرا وفتح لك ابواب العلم والخير.. شرحك رائع بس ولو سمحت عندي سؤال قيمة الاوزان w1 w2 التي نضعها من وين نجيبها يعني هل نحن نفرضها ام هناك قاعدة معينة
@AhmedGadd5 жыл бұрын
شكراً جزيلاً وجزانا جميعا خير الأوزان بيتم إفتراضها بشكل عشوائي.
@bruce-candraw3 жыл бұрын
29:31 excuse me sir. Could there be possible correction that p h2in/ p W4 is actually X2. Please forgive me if I am wrong.
@zoro51913 жыл бұрын
السلام عليكم هلا تملك كود الخوارزمية بلغة الجافا او c++او c#
@AhmedGadd3 жыл бұрын
وعليكم السلام، لا مش عندي. بس بالبايثون.
@ramyraad26477 жыл бұрын
28:47 يرجى التأكد من الاشتقاق بالنسبة لل w1 وليس ل x1
@AhmedGadd7 жыл бұрын
في الثانية 28:47 أنا مش لاقي W1 خالص. بس علي العموم أنا بعمل التفاضل بالنسبة للأوزان.
@ramyraad26477 жыл бұрын
اسف ,, اقصد w3 و x3 الاشتقاق بالنسبه لل w ولكن الذي قمت بعمله في الفديو هو الاشتقاق بالنسبة ل x
@ramyraad26477 жыл бұрын
ناتج الاشتقاق و حسب اعتقادي يجب ان يكون هو قيمة x1 .
@AhmedGadd7 жыл бұрын
فعلاً دي غلطة. أنا عملت هنا التفاضل بالنسبة للمدخل وليس للوزن. المفروض الناتج يكون X3 وليس W3 شكراً جزيلاً للملاحظة.
@ramyraad26477 жыл бұрын
عموما , مجهود رائع وجميل من حظرتك واتمنى الاستمرار في تقديم الفديوات.. ولك مني جزيل شكري وامتناني .
@safiasafia99507 жыл бұрын
نريد دروس عن منطق المضبب مثل دروس الرائعة عن الشبكات العصبنية .
@engesraa83926 жыл бұрын
شكرا :)
@AhmedGadd6 жыл бұрын
تشرفت
@najwameftah35813 жыл бұрын
how to bulid face recognition using neural network please help me
@hemoemo45432 жыл бұрын
سلام عليكم, شرحك ممتاز جدا, سؤال ليش ما عملت Update ل Biases؟
@AhmedGadd2 жыл бұрын
ده جزء كنت المفروض أضيفة. الطبيعي هو تحديث ال bias
@ibrahimelkhalil4795 жыл бұрын
Thank you very much ,please could you specify what the derivative magnitude is !! 30:12
@AhmedGadd5 жыл бұрын
Differentiation is the action of computing a derivative. The derivative of a function y = f(x) of a variable x is a measure of the rate at which the value y of the function changes with respect to the change of the variable x. It is called the derivative of f with respect to x. Source: en.wikipedia.org/wiki/Derivative
@ibrahimelkhalil4795 жыл бұрын
@@AhmedGadd I got it , thank very much
@Darkev774 жыл бұрын
نشكرك جدا علئ شرحك الرائع يا دكتور, و أسأل الله أن يجزيك عنا خير الجزاء. بس حبيت انوه انه فيه خطأ حسابي في 23:49 dout_out/dout_in = 0.117
@AhmedGadd4 жыл бұрын
شكراً لحضرتك علي التنوية .. بالفعل في بعض الأخطاء الحسابية الي في آخرين بلغوا عنها. لكن الخطوات والمعادلات صحيحة والتعويض فقط هو إلي فيه بعض الأخطاء.
@Darkev774 жыл бұрын
@@AhmedGadd فعلا, مشكور جدا يا دكتور علئ العمل الجبار و الله يوفقك! و هل من الممكن دكتورنا انا نرسلك ايميل؟
@AhmedGadd4 жыл бұрын
@@Darkev77 أكيد ممكن
@Darkev774 жыл бұрын
@@AhmedGadd السلام عليكم دكتورنا. سامحنا علئ الازعاج لكن أرسلتلك ايميل ماعرف اذا وصلك أو لا!
@raniaelrifai21056 жыл бұрын
مع كل الاحترام والتقدير
@AhmedGadd4 жыл бұрын
تحياتي لحضرتك
@amlomar5 жыл бұрын
السلام عليكم ممكن شرح لل Convolutional neural network(CNN) شرحك متميز جدا ما شاء الله
@AhmedGadd5 жыл бұрын
عامل فيديو بيشرح الفرق بين fully connected network & Convolutional Neural Network وشارح ال CNN في كتابي www.amazon.com/Practical-Computer-Vision-Applications-Learning/dp/1484241665
@donfeto76366 жыл бұрын
Updating weights in sigmod function at 4:20 it's Wnew=Wold+n(t-o)o(o-1)x !!?
@AhmedGadd6 жыл бұрын
Your equation is not clear for me but the used equation at 4:20 is correct.
@donfeto76366 жыл бұрын
@@AhmedGadd Derive gradient decent rules to train: one sigmoid function E/wi = -d(td-od) od (1-od) xi
@AhmedGadd6 жыл бұрын
At 4:20, I did not use the gradient rules yet. I just hinted that using the learning rate only to update the weights is not accurate and we should use the gradient descent for that task.
@NabilMO_O5 жыл бұрын
ليش نضف مدخل ال b اللي هو ال bias كاحد مدخلات الشبكة العصبية ....
@AhmedGadd5 жыл бұрын
الإجابة وضحتها في tutorial بعنوان From Y=X to Building a Complete Artificial Neural Network heartbeat.fritz.ai/from-y-x-to-building-a-complete-artificial-neural-network-327da18894af ببساطه في حالات الأوزان فقط لا يمكن لها إن تحقق نتائج دقيقة ولذلك يتم إستخدام ال bias
@baan49306 жыл бұрын
السلام عليكم استاذ احمد شكرا على هذا التوضيح اريد الحصول على تحاليل سلسلة زمنية شهرية بطرقة الشبكات العصبونية كيف يتم ادخال البيانات وتحديد المخرجات في الماتلاب
@AhmedGadd6 жыл бұрын
وعليكم السلام، ممكن تبحث عن أمر nntool. ده بيتيح عمل شبكات عصبية بأنواع مختلفة وفيها إدخال البيانات بسيط. ده فيديو عملته لبناء شبكة للتصنيف لكنها مكانتش علي سلسلة زمنية: kzbin.info/www/bejne/opepnoF9e7F1os0
@baan49306 жыл бұрын
@@AhmedGadd شكرا لك استاذ احمد لقد شاهدت الفديو لكن بالنسبة للسلاسل الزمنية يختلف اذا بالإمكان من حضرتك مساعدة اكثر حيث انا احتاج التنبؤ بالسلاسل الزمنية اذا لديك وقت وتستطيع مساعدتي في ذلك وشكرا لك .
@MohamedMahmoud-ul4ip5 жыл бұрын
Amazing
@AhmedGadd4 жыл бұрын
Really thanks :)
@tarifiamegos83295 жыл бұрын
الله يجزيك الخير يارب على هالشرح. بس كانو مو شارح بفيديوهاتك ايمتا منضيف طبقات مخفية وعدد العصبونات كيف منحددو واذا كان عندي مسألة كبيرة كيف فيني اعرف عدد العصبونات وعدد الطبقات اللي لازم احطها بحيث تكون مناسبة المسألة واذا ممكن ترد علي وتقلي بكون ممنون الك. .....الرجاء الرد
@AhmedGadd5 жыл бұрын
السؤال ده مش من السهل إجابته بس أنا كتبت حاجة عنه. DataCamp Tutorial "Deduce the Number of Layers and Neurons for ANN": www.datacamp.com/community/tutorials/layers-neurons-artificial-neural-networks وبردو كتبت عنه في كتابي الي منشور بسنة 2018 "Practical Computer Vision Applications Using Deep Learning with CNNs" موجود بأمازون هنا: amazon.com/Practical-Computer-Vision-Applications-Learning/dp/1484241665/
@tarifiamegos83295 жыл бұрын
@@AhmedGadd شكرا كتير لالك
@osamahabdullah37157 жыл бұрын
plz share your main reference btw, it's awesome explaination thanks alot
@AhmedGadd7 жыл бұрын
This is the book that covers most of what I said in a simple way: Rashid, Tariq. Make your own neural network. CreateSpace Independent Publishing Platform, 2016.
@osamahabdullah37157 жыл бұрын
thnaks dear, appreciated
@osamahabdullah37157 жыл бұрын
thnaks dear, appreciated
@osamahabdullah37157 жыл бұрын
I do appreciated, is there any chance to make a video about convolutional neural network please
@AhmedGadd7 жыл бұрын
I will try :)
@sumayyakamal88573 жыл бұрын
A question, the error symbol δ "local gradient" is literally which of these dc/dw, dc/da or da/dw? Thank you.
@neamaessa40374 жыл бұрын
لو سمحت كيف احصل على كل فيديوهاتك
@AhmedGadd4 жыл бұрын
لو تقصد تحميلها فممكن تبحث علي جوجل عن طريقة لتحميل فيديوهات اليوتيوب
@donfeto76366 жыл бұрын
بعد ازنك السوال ده in the back propagation algorithm what are delta rule for multi-hidden layers? اجابته ايه ا
@AhmedGadd6 жыл бұрын
أعتقد دي الإجابة new_weight = old_weight - learning_rate*gradient
@muhammadessam70626 жыл бұрын
يا باشمهندس ما الفرق بين ال backpropagation و ال recurrent ANN .. على حد علمي ان ال multilayer perceptron network تندرج تحت feedforward architecture .. فكيف بيحصل backward propagation مع ان الداتا مفترض تمشي في one direction? أرجو حل هذا الالتباس
@AhmedGadd6 жыл бұрын
في البداية علشان تخلي الشبكة تربط مدخل واحد بس بالخرج المناظر ليه بتدي للشبكة المدخل والخرج بتاعه في ال pass forward .. لكن تخيل إن الشبكة مقدرتش تربط بين المدخل والخرج بتاعه .. فلازم يحصل تغيير في الأوزان المستخدمه .. التغيير ده بيتم في ال backward pass بعملية إسمها backpropagation. فيبقي ال forward علشان نخلي الشبكة تتعرف علي المدخلات والمخرجات المناظرة ليها .. ال backward في حالة إن الشبكة فشلت في الربط فبعمل تغيير فيها من خلال عملية ال backpropagation. ممكن تستعين بالمقالات ده: www.linkedin.com/pulse/backpropagation-understanding-how-update-artificial-neural-ahmed-gad www.slideshare.net/AhmedGadFCIT/backpropagation-understanding-how-to-update-artificial-neural-networks-weights-step-by-step بالتوفيق.
@sam19r5 жыл бұрын
لمن نجي نعمل dH2in\dw3 المفروض يكون الناتج x3 مو w3 صحيح؟ ونفس الشي لdH2in\dw4 يعطيني x4
@AhmedGadd5 жыл бұрын
بالفعل في بعض الأخطاء زي دي تم التنوية عنها مسبقاً في التعليقات وبعتذر عنها لكثرة الحسابات
@MultiAllaeddine5 жыл бұрын
شكرا جزيلا على الشرح الرائع لم أفهم بهذه القوة حتى من مصادر إنجليزية من فضلك إذا ممكن ملف باور بوينت لأن في سلايد شير يمكن تحميل بي دي أف فقط
@AhmedGadd5 жыл бұрын
شكراً جزيلاً حالياً تم مشاركة الملفات بنسخة PDF وهذه النسخة فيها كل التفاصيل
@طارقماضى-الصراطالسوى5 жыл бұрын
هناك خطأ فى الشبكة التى بها خلايا خفيه فعند حساب القيمه الخامسه من W2 و W4 قمت بوضع x^1-1 والمفروض انها W^1-1 راجع المعادلات رجاءً
@AhmedGadd5 жыл бұрын
بالفعل في بعض الأخطاء الحسابيه الي تم التنوية عنها بالسابق وشكراً للتنوية مرة أخرى
@malekisraa94195 жыл бұрын
السلام هل هذا القانون ساري مع تغير fonction d'activation لاني اختلاف في القوانين
@AhmedGadd5 жыл бұрын
لا يتغير بتغير الدالة الدوال المختلفة ليها اشتقاق مختلف
@ridharehouma90876 жыл бұрын
السلام عليكم ارجو منك المساعدة اريد ان انشئ neural network with two input and one input كل قيمة من المددخل 1 تتلاقى مع كل قيمة من المدخل 2 لتنتج قيمة في المخرج ويكون المخرج على شكل مصفوفة
@AhmedGadd6 жыл бұрын
ممكن توضيح أكثر .. المثال فيه مدخلين وخرج .. الخرج هيطلع لما المدخلين يتلاقوا؟ هل المصد يكونوا متساويين؟
@djimi98032 жыл бұрын
0.03 ????? Desired كيف عرفت قيمة الديزايرد
@berom35617 жыл бұрын
وكمان ازاى اعملfeature extraction and feature selection to skin cancer by using codes of matlab
@AhmedGadd7 жыл бұрын
تم الرد.
@haydergfg67027 жыл бұрын
thank you so nice what about forecasting to eco product or account to bank for some years
@haydergfg67027 жыл бұрын
forecasting in neural e network
@AhmedGadd7 жыл бұрын
Thanks. Just collect the data, create the suitable NN structure, train it; and finally make predictions. Welcome for any further discussion.
@haydergfg67027 жыл бұрын
i create my data ok but how i can forecasting by using mat lab nn pleas
@AhmedGadd7 жыл бұрын
Hayder Gfg Simple. I will give you materials for creating NN using MATLAB. Just give me time.
@haydergfg67027 жыл бұрын
Thx alot dear I wait you
@gfhre7576 жыл бұрын
هذا المثال single layer ممكن مثال اعقد شوي؟ هذا بسيط جدا
@AhmedGadd6 жыл бұрын
المثال مبسط علشان الهدف توضيح فكرة الشبكات العصبية. ده مثال آخر فيه طبقة خفية kzbin.info/www/bejne/e5u6dXmqYpehb80 ولو أمثلة أكتر ممكن تشوف الكتاب ده www.amazon.com/Practical-Computer-Vision-Applications-Learning/dp/1484241665/
@gfhre7576 жыл бұрын
شكرا جزيلا
@DrFadiassad5 жыл бұрын
many thanks for the great effort and the nice explanation. Is the value of dE/dW5 right? I think there's a mistake in dOut_out/dOut_in
@AhmedGadd5 жыл бұрын
Thanks you :) Could you please tell me the exact min/sec for your comment? Some people told me about some mistakes like that previously due to the existence of many derivatives.
@DrFadiassad5 жыл бұрын
@@AhmedGadd It is 23:49.
@AhmedGadd5 жыл бұрын
Thanks. Could you can tell me which value you think it is not correct? I reviewed the modified presentation and found everything is right. I will be thankful if you followed the chain of calculations and tell me where is the exact error. I think the error might be just wrong substitution of values.
@DrFadiassad5 жыл бұрын
@@AhmedGadd 1/(1+exp(-1.858))=0.8651, but 1/1.56= 0.641
@AhmedGadd5 жыл бұрын
Yes you are right. The correct value is 0.641 I think someone told me about that previously and I forgot to reflect it in the presentation. I will do that. Thanks too much.