Nvidia's new AI can build LLMs cheaper! Upcycling MoE explained by Ethan He

  Рет қаралды 599

Tech Cindy

Tech Cindy

Күн бұрын

Пікірлер: 1
@TechCindy
@TechCindy 20 күн бұрын
📚 Paper discussed: "Upscaling Large Language Models into Mixture of Experts": arxiv.org/abs/2410.07524 Available in NVIDIA's Megatron-Core repository: github.com/NVIDIA/Megatron-LM/tree/main/megatron/core/transformer/moe
NVIDIA Nemotron 70b Local AI Testing - The BEST Open Source LLM?
21:47
Digital Spaceport
Рет қаралды 15 М.
What is Mixture of Experts?
7:58
IBM Technology
Рет қаралды 10 М.
ROSÉ & Bruno Mars - APT. (Official Music Video)
02:54
ROSÉ
Рет қаралды 331 МЛН
Family Love #funny #sigma
00:16
CRAZY GREAPA
Рет қаралды 47 МЛН
ЛУЧШИЙ ФОКУС + секрет! #shorts
00:12
Роман Magic
Рет қаралды 31 МЛН
HELP!!!
00:46
Natan por Aí
Рет қаралды 56 МЛН
No more bad outputs with structured generation: Remi Louf
15:32
AI Engineer
Рет қаралды 9 М.
Large Language Models (LLMs) - Everything You NEED To Know
25:20
Matthew Berman
Рет қаралды 118 М.
AI, Machine Learning, Deep Learning and Generative AI Explained
10:01
IBM Technology
Рет қаралды 507 М.
Trump is About to Change Everything For Tech Startups
59:15
How to Learn AI and Get Certified by NVIDIA
6:54
Sahil & Sarra
Рет қаралды 202 М.
ROSÉ & Bruno Mars - APT. (Official Music Video)
02:54
ROSÉ
Рет қаралды 331 МЛН