MedAI #88: Distilling Step-by-Step! Outperforming LLMs with Smaller Model Sizes | Cheng-Yu Hsieh

  Рет қаралды 5,141

Stanford MedAI

Stanford MedAI

Күн бұрын

Пікірлер: 2
@thomasseze433
@thomasseze433 Жыл бұрын
Thank you for posting this, and thank you to Cheng-Yu to take the time to explain this
@djethereal99
@djethereal99 7 ай бұрын
Interesting idea
GIANT Gummy Worm #shorts
0:42
Mr DegrEE
Рет қаралды 152 МЛН
I'VE MADE A CUTE FLYING LOLLIPOP FOR MY KID #SHORTS
0:48
A Plus School
Рет қаралды 20 МЛН
Жездуха 42-серия
29:26
Million Show
Рет қаралды 2,6 МЛН
Their Boat Engine Fell Off
0:13
Newsflare
Рет қаралды 15 МЛН
Attention in transformers, visually explained | DL6
26:10
3Blue1Brown
Рет қаралды 2 МЛН
Knowledge Distillation: A Good Teacher is Patient and Consistent
12:35
Better not Bigger: Distilling LLMs into Specialized Models
16:49
Snorkel AI
Рет қаралды 4,9 М.
MedAI #72: Large Language Models Encode Clinical Knowledge | Karan Singhal
1:02:00
Yuan Peng - "Mortality Variation Across U.S. States and Counties"
48:34
Berkeley Population Sciences
Рет қаралды 47
Andrew Ng: Opportunities in AI - 2023
36:55
Stanford Online
Рет қаралды 1,9 МЛН
[1hr Talk] Intro to Large Language Models
59:48
Andrej Karpathy
Рет қаралды 2,4 МЛН
GIANT Gummy Worm #shorts
0:42
Mr DegrEE
Рет қаралды 152 МЛН