المواضيع و الجزئيات التى تتناولها تحتاج فعلاً و بحاجة ماسة الى هذا النوع من الشرح التحليلى التسلسلى كثيف التفاصيل ولم نجد قناة أخرى تبذل 1/10من الجهد و الاتقان الذى تبذله انت .. كلنا نحييك ❤❤❤❤❤
@HebahYasin2 күн бұрын
الله يبارك بعلمك ويجزيك الجنة
@user-hosam_aldeen Жыл бұрын
ارجو التوسع فى شرح كل ما يتعلق الذكاء الاصطناعي و كل مستجداته و عمل قائمة خاصة على قناتك تحتوى فيديوهات شرح الذكاء الاصطناعي من اوله لآخره حتى تكون مرجعاً وافياً لطلاب العلم .. شكراً جزيلاً
@SciAwraq Жыл бұрын
ان شاء الله تعالى
@bmmask58069 ай бұрын
والله اليومين هذي احاول افهمها من الاجانب و عجزت محد وضحها لي زي ما وضحتها انت جزاك الله الف خير ما قصرت ❤️💐
@user-hosam_aldeen Жыл бұрын
لو يوجد تقييم لشرحك بالنجوم لاعطيتك الخمس نجوم كاملة بل لاعطيتك نجوم السماء كلها 😂❤
@areejmralmadhon4590 Жыл бұрын
الامتنان لهذا الجهد القيّم، ونرجو أن تستمر.
@SciAwraq Жыл бұрын
شكراً جزيلاً ارجو نشر الصفحة بين الاصدقاء لتعم الفائدة
@user-ve2xt8cj9t8 ай бұрын
من أفضل الشروحات في اليوتيوب على الإطلاق - الله يبارك لك
@Ammar_hani_21Ай бұрын
بارك الله فيك و جزاك الله كل خير
@meditatio0n2 жыл бұрын
الشرح واضح جدا الله يسعد قلبك وروحك بحثت كثير عن هالموضوع بالعربي للاسف الشرح كان مختصر وبسيط لكن انت اسهبت الله ينور طريقك تكفى استمر نحتاج محتوى بهالقوه
@SciAwraq Жыл бұрын
شكراً جزيلاً على الكلام الطيب و التشجيع
@mohammedhsaini40746 ай бұрын
كل الامتنان لهذا الجهد استاذ ❤
@user-hosam_aldeen Жыл бұрын
طريقة شرحك تسمى الشرح التحليلى فائق الدقة و بالتالى فقناتك مميزة عن آلاف القنوات الأخرى فى هذا المجال و تستحق جائزة و ليس مجرد تعليق جيد .. توسع أكثر و استمر ونحن سندعمك بكل قوة ❤❤❤
@SciAwraq Жыл бұрын
شكراً جزيلاً على كلامك الطيب, اعتز بدعمك و اسعد بانك تتطلع للمزيد من المحتوى الهادف.
@EsmailAtta10 ай бұрын
رهيييييب شكرا لك على هذا الشرح, حرفيا قبل مافتح الفيديو هذا كنت ماعرف شيء عن الترانسفورمرز. الان تعلمت من شرحك اشياء كثييييره. ❤
@user-hosam_aldeen Жыл бұрын
ارجو عمل سلسلة فيديوهات تشرح عمليات و خوارزميات ضغط الفيديو بانواعها ووضعها فى قائمة عرض خاصة أيضاً لانه لا احد يستطيع ان يشرحها بالتفصيل التحليلى الرائع هذا مثلك .. ❤❤❤
@nothing-iv1ln Жыл бұрын
ماشاء الله شرح رائع ،ياريت لو تشرح vision transformers
@SciAwraq Жыл бұрын
ان شاء الله سأخصص فيديو عن الترانفورمر بمجال الرؤية الحاسوبيه مع انه شبيه جداً بالترانسفورمر الكلاسيكي و لم يقم بإضافة علمية كبيرة
@s.b3787 ай бұрын
الامتنان لهذا الجهد القيّم، ونرجو أن تستمر.
@aureliasam20923 ай бұрын
اخ زاهر أنا أحييك من ألمانيا و أشكرك ع هالمجهود الرائع و الشرح البسيط خاصة انني مبتدأ جدا بهذا المجال احتجت انه اشوف الفيديو اكتر من مرة لأفهم المحنوى. انا طالب في جامعة المانية و عنا ما في دكاترة بيشرحو بهي الطريقة. انا بدي اطلب منك رجاء تكمل شرح المواضيع المرتبطة بهذا المجال بأسلوبك الرائع.... مواضيع متل الN gram language model, text classification, naive bayes, recall and prescision.
@SciAwraq3 ай бұрын
شكراً جزيلاً, المواضيع التي ذكرتها ان شاء الله اتكلم عنها ان اتاح الوقت, خاصة انها قد لا تحتاج لشرح مطول
@Seif285Ай бұрын
شكرا جزيلا ❤
@zilaleizaldin18347 ай бұрын
شكرا جزيلا لك. أنا أدرس ماجستير في جامعة إلينوي ودايما أبحث باللغة الانجليزية عن الموضوع الذي لا أفهمه. بالصدفة وجدت هذا الفيديو من المقترحات فأحببت أن أشاهده وأرى هل سأفهم الموضوع وقد أحببته كثيرا .. طريقتك سلسة ومفيدة جدا. شكرا لك.
@SciAwraq3 ай бұрын
التواصل عن طريق اللكند ان
@mandreams33 ай бұрын
شكرا ❤
@magedmamdouh6745 Жыл бұрын
بارك الله فى حضرتك وزادك من علمه وفضله اللهم امين
@MohamedAli-dk6cb7 ай бұрын
جزاك الله خيراً ع هالمجهود الرائع.. استمر
@eqtidarma4726 Жыл бұрын
الشكر الجزبل لحضرتك على الشرح الرائع
@SciAwraq Жыл бұрын
شكراً جزيلاً على التعليق و الاشتراك
@khadijandm39894 ай бұрын
جزاك الله خيرا.
@msbaydazahid698 Жыл бұрын
شكرًا شكرا من اعماق القلب على هذا الشرح الراقي، بحثت كثيرا عن شرح ال transfom بالعربي واخيرا وجدته بقناتك 🫶🏻…ربنا يحفظك وينورلك طريقك 🤲🏻 إستمر فمحتواك🆙 رائع
@mehdialaoui88888 ай бұрын
جازاك الله كل خير على هذا الشرح الممتازو المفصل
@SciAwraq3 ай бұрын
جزاك الله خيراً
@olfadaikhi2969 Жыл бұрын
شرح اكثر من رائع شكرااا جزيلا دكتر 🥰🥰🥰😊😊😊😊😊😊😊😊
@SciAwraq Жыл бұрын
شكراً جزيلاً لوضعك التعليق, هذه التعليقات حافز قوي لي حتى اقدم فيديوهات جديدة الشكر الجزيل
@beboaltemimiburhan1330 Жыл бұрын
ماشاءالله عليك والله انا منبهرة بالشرح 👏👏
@SciAwraq Жыл бұрын
شكراً جزيلاً على الكلام الطيب, و اتمنى نشر القناة بين الاصدقاء للإفادة
@ahmadabousetta8 ай бұрын
جزاك الله خيرا. شرح ممتاز.
@yshakaa Жыл бұрын
ابدعت جداً ! الشرح رائع .. يعطيك العافية و بانتظار المزيد
@SciAwraq Жыл бұрын
شكراً جزيلاً على الكلام الطيب
@abdelrhmanneme6303 Жыл бұрын
ماشاء الله الشرح ممتاز و مفيد جدا فى توضيح تفاصيل كتير ❤️❤️❤️
@MrMalw-c5y3 ай бұрын
رائع !!
@lifesecrets5609 Жыл бұрын
merci Monsieur pour cette explecation , vraiment tu m'aide bien
@mohammadkatby Жыл бұрын
شكراً د. زاهر على الشرح والتوضيح، الله يجعلها بميزان حسناتك هل ممكن تعمل فيديو منفصل على ال attention أو ال Multi head attention وكيف إنه ال Query, Key, and Values بيلعبو دور اساسي بتمثيل العلاقات بين كلامات الجملة نفسها قبل العلاقات بين الجملتين؟
@SciAwraq Жыл бұрын
اهلا ابو الروض نعم ان شاء الله رح اعمل فيديو منفصل صغير عن الاتنشن
@misrelkhlegacademy8837 Жыл бұрын
وانا كمان محتاج ده
@fareidfareid64845 ай бұрын
شكرا جزيلا لحضرتك ❤❤❤
@MT-kd5cd11 ай бұрын
Thank you very much for such clear explanation of the paper 🌹
@ahmedchaoukichami9345 Жыл бұрын
مشكور ماجور على الشرح الوافي لو فيه شرح vit بارك الله فيكم
@SciAwraq Жыл бұрын
نعم, تم طلبه اكثر من مرة و سأقوم بالعمل عليه ان شاء الله في المستقبل.
@noni4608 ай бұрын
جزاك الله كل خير.. شكرا جزيلا
@TahaNakhleh Жыл бұрын
محتوى قيم .. الله يعطيك العافية
@MontherAlhamdoosh Жыл бұрын
ماشاء الله شرح ممتاز...
@SciAwraq Жыл бұрын
شهادة اعتز بها ابو اسامة, و شكراً جزيلاً
@ramikhrais4831 Жыл бұрын
خطأ BERT هي embedding model و gpt-3 هي generative model كل وحدة وظيفتها بتختلف
@SciAwraq Жыл бұрын
نعم كلامك صحيح, انا قصدت ان الخوارزميتين يتشابهون من ناحية ان كلاهما يستخدم الترانسفورمر, الجي بي تي تستخدم النصف يلي هو فاك المرمز من الترانسفورمر, و البيرت تستخدم النصف يلي هو المرمز من الترانسفورمر جي بي تي وبيرت هما نموذجان قائمان على المحولات يُستخدمان في معالجة اللغة الطبيعية، لكن يوجد بينهما بعض الاختلافات الأساسية في الهيكل والاستخدام: ١. الهدف: جي بي تي هو نموذج توليدي يهدف إلى إنشاء نصوص استنادًا إلى سياق معين، بينما بيرت هو نموذج تمييزي يهدف إلى فهم العلاقات بين أجزاء مختلفة من النص وتوقع الكلمات المفقودة أو الإجابة على الأسئلة استنادًا إلى النص المدخل. ٢. هدف التدريب: يتم تدريب جي بي تي باستخدام مهمة نمذجة اللغة أحادية الاتجاه (من اليسار إلى اليمين)، حيث يتنبأ بالكلمة التالية في الجملة استنادًا إلى السياق السابق. يتم تدريب بيرت باستخدام مهمة نمذجة اللغة القناعية ثنائية الاتجاه، حيث يتنبأ بكلمة مقنعة (مخفية) في الجملة استنادًا إلى السياق من الجانبين الأيسر والأيمن. ٣. السياق ثنائي الاتجاه: يأخذ بيرت في الاعتبار السياق من اليسار واليمين في جميع الطبقات، مما يسمح له بفهم أفضل لمعاني الكلمات في الجملة. بينما يعتمد جي بي تي على السياق غير المتبادل. ٤. التجانس: يمكن تكييف بيرت بسهولة لمهام معينة، مثل الإجابة على الأسئلة أو تحليل المشاعر. أما جي بي تي فيمكن تكييفه أيضًا ولكن قد يتطلب المزيد من التعديلات الخاصة بالمهمة. ٥. الاستخدامات: يستخدم جي بي تي في مهام إنشاء النصوص وتوليد العناوين، بينما يستخدم بيرت في مهام تتطلب فهم العلاقات بين الكلمات في الجملة. باختصار، تكمن الاختلافات الرئيسية بين جي بي تي وبيرت في أهدافهما وطرق التدريب وفهم السياق وقدرات التجانس والاستخدامات. يركز جي بي تي على إنشاء النصوص، بينما يتفوق بيرت في المهام التي تتطلب فهم عميق للعلاقات بين الكلمات في الجملة.
@abcd-learning6085 Жыл бұрын
thank you for this explanation
@ranialaiche5404 Жыл бұрын
الشرح جميل بارك الله فيك لكن فيك تشرح tranformer في مجال الصور .؟؟؟
@SciAwraq Жыл бұрын
نعم, قمت بشرح الفيجين ترانسفورمر بأحد التعليقات لكن سأخصص فيديو مخصص عنه
@mohab5005 Жыл бұрын
مبدع
@SciAwraq Жыл бұрын
شكراً جزيلاً
@omaralkhasawneh1968 Жыл бұрын
شيء جميل جداً
@ahmedcherifmazari6974 Жыл бұрын
Very helpful, thanks for sharing
@husseinalmansory7370 Жыл бұрын
ما شاء الله شرح واضح الله يجزاك خير
@ghazisabri1377 Жыл бұрын
شرح رائع . مشكور استاذ
@SciAwraq Жыл бұрын
شكراً جزيلاً ارجو نشر الصفحة بين الاصدقاء لتعم الفائدة
@nisan858 Жыл бұрын
شكرًا جزيلاً، استمر لو سمحت. 🌷
@SciAwraq Жыл бұрын
شكراً جزيلاً ارجو نشر الصفحة بين الاصدقاء لتعم الفائدة
@najmidev Жыл бұрын
شكرا لك
@Unknown-ck7fi Жыл бұрын
روعة
@waelkraiem1260 Жыл бұрын
merciiii ❤❤
@khaleddawoud36310 ай бұрын
شرح مميز واكثر من رائع >> استمر وبالتوفيق لك. لايك واشتراك
@khalilld728 Жыл бұрын
شكرا جزيلا على الشرح الواضح، لكن عندي سؤال فيما يخص Values, ال Values لازم نحصل عليهم من tokens يعني from our input. لكن في الفيديو قلت ان Values هم ضرب KEYS*Wi يعني خارج Dot-product between keys and query مضروب مرة اخرى في Keys. ممكن فهمت غلط او هذا قصدك. وشكرا مرة اخرى 🙂
@AtikaBencherif Жыл бұрын
شكرااا شكرااا كثيرا على شرح هل من ممكن الحصول على الورقة التي شرحت منها من فضلك
@SciAwraq Жыл бұрын
نعم اختي, الورقة هي : arxiv.org/pdf/1706.03762.pdf
@AtikaBencherif Жыл бұрын
@@SciAwraq بارك الله فيك كل توفيق الك ونفعنا الله بك
@ranialaiche5404 Жыл бұрын
فهمت أنو الكلمة لازم تتحول ل فيكتور قبل ماتدخل على encoder . لكن الصورة كيف؟ وفي head ettention معنتها أنو مدى اهمية كل كلمة بالنسبة للكلمات الأخرى في نفس الجملة . والصورة كيف . أرجو ان تجيب . من فضلك 🥺
@SciAwraq Жыл бұрын
في الصور الامر مشابه جداً للكلمات، يتم تقسيم كل صورة إلى صور مربعة صغيرة بقياس ١٦*١٦ بكسل ثم يتم بسط كل صورة مربعة صغيرة إلى فيكتور بطول ٢٥٦ بكسل حيث يتم اخذ كل سطر بسكلات من الصورة المربعة وضعه بجانب السطر السابق حتى ينتج لدينا فيكتور بطول ٢٥٦ و قيمة كل خانة بالفيكتور هي القيمة الرقمية للبكسل. يمكن النظر إلى الفيكتور (وهو بالحقيقة مربع صغير بالصورة الكبيرة) بنفس الطريق التي يتم النظر بها إلى فيكتور الكلمات في الترامسفورمر الكلاسيكي. في النهاية الاتنشن يتعلم علاقات هذه المربعات الصغيرة مع بعضها البعض و ترتيبها ضمن الصورة الكاملة هذا التعلم يُكسب التراسفورمر القدرة على فهم ماهية الاشياء التي تحتويها الصورة الام وعلاقات الاشياء المرئية بين بعضها البعض. أرجو ان تكون الاجابة واضحة
@ranialaiche5404 Жыл бұрын
@@SciAwraq فهمت جدا . شكراا . لكن هذا لنعرف ماهية الصورة .لكن في حالة بدنا نقيم جودة الصورة . لأنو هذا هو موضوع مذكرتي . ( multi scale qualité image transformers) . اذاا ما أزعجتك أخي جاوبني . شكرااا كتييير مسبقا