DeepSeek-V3: A 671B Parameter Mixture-of-Experts Language Model

  Рет қаралды 238

AI Papers Podcast Daily

AI Papers Podcast Daily

Күн бұрын

Пікірлер: 2
@yekoo61
@yekoo61 7 күн бұрын
A podcast on spotify would be easier to listen to, would be great if u can upload this in 👍🏻
@WadeSolowoniuk-nq9zl
@WadeSolowoniuk-nq9zl 2 күн бұрын
Lol, ai’s talking to the void
Large Concept Models: Language Modeling in a Sentence Representation Space
14:32
Llama: The Open-Source AI Model that's Changing How We Think About AI
8:46
Гениальное изобретение из обычного стаканчика!
00:31
Лютая физика | Олимпиадная физика
Рет қаралды 4,8 МЛН
Enceinte et en Bazard: Les Chroniques du Nettoyage ! 🚽✨
00:21
Two More French
Рет қаралды 42 МЛН
Quando eu quero Sushi (sem desperdiçar) 🍣
00:26
Los Wagners
Рет қаралды 15 МЛН
Pirates of the RAG: Adaptively Attacking LLMs to Leak Knowledge Bases
13:08
AI Papers Podcast Daily
Рет қаралды 192
Mistral 8x7B Part 1- So What is a Mixture of Experts Model?
12:33
Sam Witteveen
Рет қаралды 43 М.
DeepSeek V3 is *SHOCKINGLY* good for an OPEN SOURCE AI Model
31:55
Qwen2.5 Technical Report
42:12
AI Papers Podcast Daily
Рет қаралды 32
From DETR to SAM2: Reviewing the TOP Vision AI Advances of 2024
29:46
LLM (Parameter Efficient) Fine Tuning - Explained!
23:07
CodeEmporium
Рет қаралды 3 М.
A Visual Guide to Mixture of Experts (MoE) in LLMs
19:44
Maarten Grootendorst
Рет қаралды 3,2 М.
SONAR: Multilingual & Multimodal Sentence Embeddings
13:43
AI Papers Podcast Daily
Рет қаралды 55
Гениальное изобретение из обычного стаканчика!
00:31
Лютая физика | Олимпиадная физика
Рет қаралды 4,8 МЛН