Transformers - Attention is All you Need شرح بالعربي Podcast 6th

  Рет қаралды 5,164

Tech with Kareem

Tech with Kareem

Күн бұрын

Пікірлер: 3
@AtikaBencherif
@AtikaBencherif Жыл бұрын
بارك الله فيك ع شرح من فضلك ممكن مطبوعة لي شرحت منها 😢
@mostafadarahem274
@mostafadarahem274 10 ай бұрын
ان مش عارف كوبايه ايه الي مكمله السيشن كلها دي 😀 يديك الصحه😂
@ranialaiche5404
@ranialaiche5404 Жыл бұрын
شرح رائع . باارك الله فيك . لكن عندي سؤال شو الفرق بين head attention 1 و head attention 2 حتى ل 8 . شوو بيتغير ؟ هل الأوزان تبع k و Qو v ولا شوو؟.. جاوبني من فضلك لذا ما في ازعاج
MLOps-Machine Learning بالعربي  Meeting no.8th
21:20
Tech with Kareem
Рет қаралды 1,5 М.
Self-Attention Generative Adversarial Network (SAGAN)
12:11
Yustus Oktian
Рет қаралды 1,2 М.
Из какого города смотришь? 😃
00:34
МЯТНАЯ ФАНТА
Рет қаралды 1,7 МЛН
When u fight over the armrest
00:41
Adam W
Рет қаралды 25 МЛН
Comprendre les Transformers et les mécanismes d'attention
44:21
Thibault Neveu
Рет қаралды 36 М.
Transformer Neural Networks - EXPLAINED! (Attention is all you need)
13:05
ترانسفورمر | المحوّل | Transformer | Attention is all you need |
1:26:27
Zaher Joukhadar - أوراق علمية
Рет қаралды 18 М.
Self-Attention Using Scaled Dot-Product Approach
16:09
Machine Learning Studio
Рет қаралды 16 М.
AI Language Models & Transformers - Computerphile
20:39
Computerphile
Рет қаралды 330 М.
The math behind Attention: Keys, Queries, and Values matrices
36:16
Serrano.Academy
Рет қаралды 259 М.
Transformers, explained: Understand the model behind GPT, BERT, and T5
9:11
Attention in transformers, visually explained | Chapter 6, Deep Learning
26:10
Self Attention And Multi Head Attention  | شرح بالعربي
34:30
Ahmad Alseirafi
Рет қаралды 1,2 М.