ترانسفورمر | المحوّل | Transformer | Attention is all you need |

  Рет қаралды 18,358

Zaher Joukhadar - أوراق علمية

Zaher Joukhadar - أوراق علمية

Күн бұрын

Пікірлер: 80
@user-hosam_aldeen
@user-hosam_aldeen Жыл бұрын
المواضيع و الجزئيات التى تتناولها تحتاج فعلاً و بحاجة ماسة الى هذا النوع من الشرح التحليلى التسلسلى كثيف التفاصيل ولم نجد قناة أخرى تبذل 1/10من الجهد و الاتقان الذى تبذله انت .. كلنا نحييك ❤❤❤❤❤
@HebahYasin
@HebahYasin 2 күн бұрын
الله يبارك بعلمك ويجزيك الجنة
@user-hosam_aldeen
@user-hosam_aldeen Жыл бұрын
ارجو التوسع فى شرح كل ما يتعلق الذكاء الاصطناعي و كل مستجداته و عمل قائمة خاصة على قناتك تحتوى فيديوهات شرح الذكاء الاصطناعي من اوله لآخره حتى تكون مرجعاً وافياً لطلاب العلم .. شكراً جزيلاً
@SciAwraq
@SciAwraq Жыл бұрын
ان شاء الله تعالى
@bmmask5806
@bmmask5806 9 ай бұрын
والله اليومين هذي احاول افهمها من الاجانب و عجزت محد وضحها لي زي ما وضحتها انت جزاك الله الف خير ما قصرت ❤️💐
@user-hosam_aldeen
@user-hosam_aldeen Жыл бұрын
لو يوجد تقييم لشرحك بالنجوم لاعطيتك الخمس نجوم كاملة بل لاعطيتك نجوم السماء كلها 😂❤
@areejmralmadhon4590
@areejmralmadhon4590 Жыл бұрын
الامتنان لهذا الجهد القيّم، ونرجو أن تستمر.
@SciAwraq
@SciAwraq Жыл бұрын
شكراً جزيلاً ارجو نشر الصفحة بين الاصدقاء لتعم الفائدة
@user-ve2xt8cj9t
@user-ve2xt8cj9t 8 ай бұрын
من أفضل الشروحات في اليوتيوب على الإطلاق - الله يبارك لك
@Ammar_hani_21
@Ammar_hani_21 Ай бұрын
بارك الله فيك و جزاك الله كل خير
@meditatio0n
@meditatio0n 2 жыл бұрын
الشرح واضح جدا الله يسعد قلبك وروحك بحثت كثير عن هالموضوع بالعربي للاسف الشرح كان مختصر وبسيط لكن انت اسهبت الله ينور طريقك تكفى استمر نحتاج محتوى بهالقوه
@SciAwraq
@SciAwraq Жыл бұрын
شكراً جزيلاً على الكلام الطيب و التشجيع
@mohammedhsaini4074
@mohammedhsaini4074 6 ай бұрын
كل الامتنان لهذا الجهد استاذ ❤
@user-hosam_aldeen
@user-hosam_aldeen Жыл бұрын
طريقة شرحك تسمى الشرح التحليلى فائق الدقة و بالتالى فقناتك مميزة عن آلاف القنوات الأخرى فى هذا المجال و تستحق جائزة و ليس مجرد تعليق جيد .. توسع أكثر و استمر ونحن سندعمك بكل قوة ❤❤❤
@SciAwraq
@SciAwraq Жыл бұрын
شكراً جزيلاً على كلامك الطيب, اعتز بدعمك و اسعد بانك تتطلع للمزيد من المحتوى الهادف.
@EsmailAtta
@EsmailAtta 10 ай бұрын
رهيييييب شكرا لك على هذا الشرح, حرفيا قبل مافتح الفيديو هذا كنت ماعرف شيء عن الترانسفورمرز. الان تعلمت من شرحك اشياء كثييييره. ❤
@user-hosam_aldeen
@user-hosam_aldeen Жыл бұрын
ارجو عمل سلسلة فيديوهات تشرح عمليات و خوارزميات ضغط الفيديو بانواعها ووضعها فى قائمة عرض خاصة أيضاً لانه لا احد يستطيع ان يشرحها بالتفصيل التحليلى الرائع هذا مثلك .. ❤❤❤
@nothing-iv1ln
@nothing-iv1ln Жыл бұрын
ماشاء الله شرح رائع ،ياريت لو تشرح vision transformers
@SciAwraq
@SciAwraq Жыл бұрын
ان شاء الله سأخصص فيديو عن الترانفورمر بمجال الرؤية الحاسوبيه مع انه شبيه جداً بالترانسفورمر الكلاسيكي و لم يقم بإضافة علمية كبيرة
@s.b378
@s.b378 7 ай бұрын
الامتنان لهذا الجهد القيّم، ونرجو أن تستمر.
@aureliasam2092
@aureliasam2092 3 ай бұрын
اخ زاهر أنا أحييك من ألمانيا و أشكرك ع هالمجهود الرائع و الشرح البسيط خاصة انني مبتدأ جدا بهذا المجال احتجت انه اشوف الفيديو اكتر من مرة لأفهم المحنوى. انا طالب في جامعة المانية و عنا ما في دكاترة بيشرحو بهي الطريقة. انا بدي اطلب منك رجاء تكمل شرح المواضيع المرتبطة بهذا المجال بأسلوبك الرائع.... مواضيع متل الN gram language model, text classification, naive bayes, recall and prescision.
@SciAwraq
@SciAwraq 3 ай бұрын
شكراً جزيلاً, المواضيع التي ذكرتها ان شاء الله اتكلم عنها ان اتاح الوقت, خاصة انها قد لا تحتاج لشرح مطول
@Seif285
@Seif285 Ай бұрын
شكرا جزيلا ❤
@zilaleizaldin1834
@zilaleizaldin1834 7 ай бұрын
شكرا جزيلا لك. أنا أدرس ماجستير في جامعة إلينوي ودايما أبحث باللغة الانجليزية عن الموضوع الذي لا أفهمه. بالصدفة وجدت هذا الفيديو من المقترحات فأحببت أن أشاهده وأرى هل سأفهم الموضوع وقد أحببته كثيرا .. طريقتك سلسة ومفيدة جدا. شكرا لك.
@SciAwraq
@SciAwraq 3 ай бұрын
التواصل عن طريق اللكند ان
@mandreams3
@mandreams3 3 ай бұрын
شكرا ❤
@magedmamdouh6745
@magedmamdouh6745 Жыл бұрын
بارك الله فى حضرتك وزادك من علمه وفضله اللهم امين
@MohamedAli-dk6cb
@MohamedAli-dk6cb 7 ай бұрын
جزاك الله خيراً ع هالمجهود الرائع.. استمر
@eqtidarma4726
@eqtidarma4726 Жыл бұрын
الشكر الجزبل لحضرتك على الشرح الرائع
@SciAwraq
@SciAwraq Жыл бұрын
شكراً جزيلاً على التعليق و الاشتراك
@khadijandm3989
@khadijandm3989 4 ай бұрын
جزاك الله خيرا.
@msbaydazahid698
@msbaydazahid698 Жыл бұрын
شكرًا شكرا من اعماق القلب على هذا الشرح الراقي، بحثت كثيرا عن شرح ال transfom بالعربي واخيرا وجدته بقناتك 🫶🏻…ربنا يحفظك وينورلك طريقك 🤲🏻 إستمر فمحتواك🆙 رائع
@mehdialaoui8888
@mehdialaoui8888 8 ай бұрын
جازاك الله كل خير على هذا الشرح الممتازو المفصل
@SciAwraq
@SciAwraq 3 ай бұрын
جزاك الله خيراً
@olfadaikhi2969
@olfadaikhi2969 Жыл бұрын
شرح اكثر من رائع شكرااا جزيلا دكتر 🥰🥰🥰😊😊😊😊😊😊😊😊
@SciAwraq
@SciAwraq Жыл бұрын
شكراً جزيلاً لوضعك التعليق, هذه التعليقات حافز قوي لي حتى اقدم فيديوهات جديدة الشكر الجزيل
@beboaltemimiburhan1330
@beboaltemimiburhan1330 Жыл бұрын
ماشاءالله عليك والله انا منبهرة بالشرح 👏👏
@SciAwraq
@SciAwraq Жыл бұрын
شكراً جزيلاً على الكلام الطيب, و اتمنى نشر القناة بين الاصدقاء للإفادة
@ahmadabousetta
@ahmadabousetta 8 ай бұрын
جزاك الله خيرا. شرح ممتاز.
@yshakaa
@yshakaa Жыл бұрын
ابدعت جداً ! الشرح رائع .. يعطيك العافية و بانتظار المزيد
@SciAwraq
@SciAwraq Жыл бұрын
شكراً جزيلاً على الكلام الطيب
@abdelrhmanneme6303
@abdelrhmanneme6303 Жыл бұрын
ماشاء الله الشرح ممتاز و مفيد جدا فى توضيح تفاصيل كتير ❤️❤️❤️
@MrMalw-c5y
@MrMalw-c5y 3 ай бұрын
رائع !!
@lifesecrets5609
@lifesecrets5609 Жыл бұрын
merci Monsieur pour cette explecation , vraiment tu m'aide bien
@mohammadkatby
@mohammadkatby Жыл бұрын
شكراً د. زاهر على الشرح والتوضيح، الله يجعلها بميزان حسناتك هل ممكن تعمل فيديو منفصل على ال attention أو ال Multi head attention وكيف إنه ال Query, Key, and Values بيلعبو دور اساسي بتمثيل العلاقات بين كلامات الجملة نفسها قبل العلاقات بين الجملتين؟
@SciAwraq
@SciAwraq Жыл бұрын
اهلا ابو الروض نعم ان شاء الله رح اعمل فيديو منفصل صغير عن الاتنشن
@misrelkhlegacademy8837
@misrelkhlegacademy8837 Жыл бұрын
وانا كمان محتاج ده
@fareidfareid6484
@fareidfareid6484 5 ай бұрын
شكرا جزيلا لحضرتك ❤❤❤
@MT-kd5cd
@MT-kd5cd 11 ай бұрын
Thank you very much for such clear explanation of the paper 🌹
@ahmedchaoukichami9345
@ahmedchaoukichami9345 Жыл бұрын
مشكور ماجور على الشرح الوافي لو فيه شرح vit بارك الله فيكم
@SciAwraq
@SciAwraq Жыл бұрын
نعم, تم طلبه اكثر من مرة و سأقوم بالعمل عليه ان شاء الله في المستقبل.
@noni460
@noni460 8 ай бұрын
جزاك الله كل خير.. شكرا جزيلا
@TahaNakhleh
@TahaNakhleh Жыл бұрын
محتوى قيم .. الله يعطيك العافية
@MontherAlhamdoosh
@MontherAlhamdoosh Жыл бұрын
ماشاء الله شرح ممتاز...
@SciAwraq
@SciAwraq Жыл бұрын
شهادة اعتز بها ابو اسامة, و شكراً جزيلاً
@ramikhrais4831
@ramikhrais4831 Жыл бұрын
خطأ BERT هي embedding model و gpt-3 هي generative model كل وحدة وظيفتها بتختلف
@SciAwraq
@SciAwraq Жыл бұрын
نعم كلامك صحيح, انا قصدت ان الخوارزميتين يتشابهون من ناحية ان كلاهما يستخدم الترانسفورمر, الجي بي تي تستخدم النصف يلي هو فاك المرمز من الترانسفورمر, و البيرت تستخدم النصف يلي هو المرمز من الترانسفورمر جي بي تي وبيرت هما نموذجان قائمان على المحولات يُستخدمان في معالجة اللغة الطبيعية، لكن يوجد بينهما بعض الاختلافات الأساسية في الهيكل والاستخدام: ١. الهدف: جي بي تي هو نموذج توليدي يهدف إلى إنشاء نصوص استنادًا إلى سياق معين، بينما بيرت هو نموذج تمييزي يهدف إلى فهم العلاقات بين أجزاء مختلفة من النص وتوقع الكلمات المفقودة أو الإجابة على الأسئلة استنادًا إلى النص المدخل. ٢. هدف التدريب: يتم تدريب جي بي تي باستخدام مهمة نمذجة اللغة أحادية الاتجاه (من اليسار إلى اليمين)، حيث يتنبأ بالكلمة التالية في الجملة استنادًا إلى السياق السابق. يتم تدريب بيرت باستخدام مهمة نمذجة اللغة القناعية ثنائية الاتجاه، حيث يتنبأ بكلمة مقنعة (مخفية) في الجملة استنادًا إلى السياق من الجانبين الأيسر والأيمن. ٣. السياق ثنائي الاتجاه: يأخذ بيرت في الاعتبار السياق من اليسار واليمين في جميع الطبقات، مما يسمح له بفهم أفضل لمعاني الكلمات في الجملة. بينما يعتمد جي بي تي على السياق غير المتبادل. ٤. التجانس: يمكن تكييف بيرت بسهولة لمهام معينة، مثل الإجابة على الأسئلة أو تحليل المشاعر. أما جي بي تي فيمكن تكييفه أيضًا ولكن قد يتطلب المزيد من التعديلات الخاصة بالمهمة. ٥. الاستخدامات: يستخدم جي بي تي في مهام إنشاء النصوص وتوليد العناوين، بينما يستخدم بيرت في مهام تتطلب فهم العلاقات بين الكلمات في الجملة. باختصار، تكمن الاختلافات الرئيسية بين جي بي تي وبيرت في أهدافهما وطرق التدريب وفهم السياق وقدرات التجانس والاستخدامات. يركز جي بي تي على إنشاء النصوص، بينما يتفوق بيرت في المهام التي تتطلب فهم عميق للعلاقات بين الكلمات في الجملة.
@abcd-learning6085
@abcd-learning6085 Жыл бұрын
thank you for this explanation
@ranialaiche5404
@ranialaiche5404 Жыл бұрын
الشرح جميل بارك الله فيك لكن فيك تشرح tranformer في مجال الصور .؟؟؟
@SciAwraq
@SciAwraq Жыл бұрын
نعم, قمت بشرح الفيجين ترانسفورمر بأحد التعليقات لكن سأخصص فيديو مخصص عنه
@mohab5005
@mohab5005 Жыл бұрын
مبدع
@SciAwraq
@SciAwraq Жыл бұрын
شكراً جزيلاً
@omaralkhasawneh1968
@omaralkhasawneh1968 Жыл бұрын
شيء جميل جداً
@ahmedcherifmazari6974
@ahmedcherifmazari6974 Жыл бұрын
Very helpful, thanks for sharing
@husseinalmansory7370
@husseinalmansory7370 Жыл бұрын
ما شاء الله شرح واضح الله يجزاك خير
@ghazisabri1377
@ghazisabri1377 Жыл бұрын
شرح رائع . مشكور استاذ
@SciAwraq
@SciAwraq Жыл бұрын
شكراً جزيلاً ارجو نشر الصفحة بين الاصدقاء لتعم الفائدة
@nisan858
@nisan858 Жыл бұрын
شكرًا جزيلاً، استمر لو سمحت. 🌷
@SciAwraq
@SciAwraq Жыл бұрын
شكراً جزيلاً ارجو نشر الصفحة بين الاصدقاء لتعم الفائدة
@najmidev
@najmidev Жыл бұрын
شكرا لك
@Unknown-ck7fi
@Unknown-ck7fi Жыл бұрын
روعة
@waelkraiem1260
@waelkraiem1260 Жыл бұрын
merciiii ❤❤
@khaleddawoud363
@khaleddawoud363 10 ай бұрын
شرح مميز واكثر من رائع >> استمر وبالتوفيق لك. لايك واشتراك
@khalilld728
@khalilld728 Жыл бұрын
شكرا جزيلا على الشرح الواضح، لكن عندي سؤال فيما يخص Values, ال Values لازم نحصل عليهم من tokens يعني from our input. لكن في الفيديو قلت ان Values هم ضرب KEYS*Wi يعني خارج Dot-product between keys and query مضروب مرة اخرى في Keys. ممكن فهمت غلط او هذا قصدك. وشكرا مرة اخرى 🙂
@AtikaBencherif
@AtikaBencherif Жыл бұрын
شكرااا شكرااا كثيرا على شرح هل من ممكن الحصول على الورقة التي شرحت منها من فضلك
@SciAwraq
@SciAwraq Жыл бұрын
نعم اختي, الورقة هي : arxiv.org/pdf/1706.03762.pdf
@AtikaBencherif
@AtikaBencherif Жыл бұрын
@@SciAwraq بارك الله فيك كل توفيق الك ونفعنا الله بك
@ranialaiche5404
@ranialaiche5404 Жыл бұрын
فهمت أنو الكلمة لازم تتحول ل فيكتور قبل ماتدخل على encoder . لكن الصورة كيف؟ وفي head ettention معنتها أنو مدى اهمية كل كلمة بالنسبة للكلمات الأخرى في نفس الجملة . والصورة كيف . أرجو ان تجيب . من فضلك 🥺
@SciAwraq
@SciAwraq Жыл бұрын
في الصور الامر مشابه جداً للكلمات، يتم تقسيم كل صورة إلى صور مربعة صغيرة بقياس ١٦*١٦ بكسل ثم يتم بسط كل صورة مربعة صغيرة إلى فيكتور بطول ٢٥٦ بكسل حيث يتم اخذ كل سطر بسكلات من الصورة المربعة وضعه بجانب السطر السابق حتى ينتج لدينا فيكتور بطول ٢٥٦ و قيمة كل خانة بالفيكتور هي القيمة الرقمية للبكسل. يمكن النظر إلى الفيكتور (وهو بالحقيقة مربع صغير بالصورة الكبيرة) بنفس الطريق التي يتم النظر بها إلى فيكتور الكلمات في الترامسفورمر الكلاسيكي. في النهاية الاتنشن يتعلم علاقات هذه المربعات الصغيرة مع بعضها البعض و ترتيبها ضمن الصورة الكاملة هذا التعلم يُكسب التراسفورمر القدرة على فهم ماهية الاشياء التي تحتويها الصورة الام وعلاقات الاشياء المرئية بين بعضها البعض. أرجو ان تكون الاجابة واضحة
@ranialaiche5404
@ranialaiche5404 Жыл бұрын
@@SciAwraq فهمت جدا . شكراا . لكن هذا لنعرف ماهية الصورة .لكن في حالة بدنا نقيم جودة الصورة . لأنو هذا هو موضوع مذكرتي . ( multi scale qualité image transformers) . اذاا ما أزعجتك أخي جاوبني . شكرااا كتييير مسبقا
شرح "تدريب" الشبكات العصبية الاصطناعية
21:34
Zaher Joukhadar - أوراق علمية
Рет қаралды 24 М.
Transformers, explained: Understand the model behind GPT, BERT, and T5
9:11
Car Bubble vs Lamborghini
00:33
Stokes Twins
Рет қаралды 39 МЛН
Из какого города смотришь? 😃
00:34
МЯТНАЯ ФАНТА
Рет қаралды 1,4 МЛН
Elza love to eat chiken🍗⚡ #dog #pets
00:17
ElzaDog
Рет қаралды 25 МЛН
The math behind Attention: Keys, Queries, and Values matrices
36:16
Serrano.Academy
Рет қаралды 259 М.
Attention in transformers, visually explained | Chapter 6, Deep Learning
26:10
Transformer Neural Networks, ChatGPT's foundation, Clearly Explained!!!
36:15
StatQuest with Josh Starmer
Рет қаралды 735 М.
Pytorch Transformers from Scratch (Attention is all you need)
57:10
Aladdin Persson
Рет қаралды 315 М.
Transformers in Vision: From Zero to Hero
1:08:38
AICamp
Рет қаралды 40 М.
Car Bubble vs Lamborghini
00:33
Stokes Twins
Рет қаралды 39 МЛН