LLM. Валентин Мамедов | Под Капотом

  Рет қаралды 2,912

DeepSchool

DeepSchool

Күн бұрын

Пікірлер: 11
@Ульрих-я1ж
@Ульрих-я1ж 22 күн бұрын
Эта вторая моделька, которая цензурирует, обходится на раз-два. Сначала учишь основную модель шифровать информацию, потом общаешься шифровками и модель-сторож ничего не понимает. Подкаст очень интересный 👍🏻 спасибо 🫶🏻
@muchomores7793
@muchomores7793 3 ай бұрын
Ценнейшая информация, с удовольствием посмотрел. Жду продолжения!!
@deep_school
@deep_school 3 ай бұрын
Спасибо! Готовим вторую часть :)
@Indyxx87
@Indyxx87 4 ай бұрын
Подкаст огонь, с удовольствием послушал. Записывайте обязательно еще, хоть и мало просмотров, но инфа крайне ценная. Спасибо!
@deep_school
@deep_school 3 ай бұрын
Спасибо! Очень приятно такое читать!)
@RaveZH
@RaveZH 2 ай бұрын
Пацаны, видос прикольный. Мне интересно. Вот бы перевод в сабах, ну, штоп не паузить каждую секунду и не идти в переводчик. Ну, или ссылку скиньте на нейронку, которая бы вас переводила в потоке на общедоступный великий и могучий😊
@AndrewDre-n7e
@AndrewDre-n7e 2 ай бұрын
Спасибо, очень интересно! Такой вопрос, можно ли загрузить в нейронку 20 документов с ГОСТами и суммировать информацию по конкретной ситуации? Куда копать?
@Indyxx87
@Indyxx87 Ай бұрын
в RAG
@therealv1etcong
@therealv1etcong 3 ай бұрын
27:00 это с каких это пор в fp16 или bf16 нельзя тренировать модели? А третью лламу в какой точности учили?
@ВалентинМамедов-ы3ф
@ВалентинМамедов-ы3ф 3 ай бұрын
Спасибо за вопрос! Там в основном используют mixed precision «Чистая» тренировка в фп16/бф16 в целом норм для небольшого тюна. Но претрейны получаются значительно слабее, чем с использованием смешанной точности
@makmakmakk
@makmakmakk 3 ай бұрын
Симп Валентин
Twin Telepathy Challenge!
00:23
Stokes Twins
Рет қаралды 79 МЛН
Открытая лекция по Efficient Attention
41:59
Введение в большие языковые модели (LLM)
45:28
Прикладной Data Science: как стать ML-инженером
1:26:26
Яндекс Практикум
Рет қаралды 7 М.