Fine-Tuning в ChatGPT. Как дообучить LLM (простым языком и на примере)

  Рет қаралды 8,015

Singularity is Coming

Singularity is Coming

Күн бұрын

Пікірлер: 31
@xeno7828
@xeno7828 5 ай бұрын
Ну наконец то нашелся вменяемый канал который по пальцам объясняет новичкам что и как устроено !)
@yarafilms
@yarafilms Жыл бұрын
Прям мега полезно! Как раз искал понятные материал, буду пробовать! Спасибо! ;)
@codeforlemontea
@codeforlemontea 2 ай бұрын
Спасибо, братик. Просто и доступно!
@ДревнийГоблин
@ДревнийГоблин 2 күн бұрын
Спасибо. Видео полезно не столько с практической точки зрения (не урок все-таки подразумевался, как я думаю). Но позволяет направить мысль в нужном направлении. Спасибо. З.Ы. Как мне кажется 10 в степени 1 это 10, не сотня. Эту картинку видел в книге "Foundation Models for Natural Language Processing", глава 3.6.3 Creating Few-Shot Prompts. График приведен со ссылкой на первоисточник: " T. B. Brown et al. “Language Models Are Few-Shot Learners”. 2020. arXiv: 2005.14165." Кстати, в первой книге стоит просто "10", без ненужных в этом случае степеней.
@TheAmadur
@TheAmadur 9 ай бұрын
Это топовый видос. Очень помог, спасибо
@secondlifetools6060
@secondlifetools6060 6 ай бұрын
это охрененно полезная инфа! продолжай пожалуйста.
@yason24ru
@yason24ru Жыл бұрын
Крутой видос. Спасибо большое
@dmitriyneledva4693
@dmitriyneledva4693 Жыл бұрын
очень крутое видео!
@АлександрЧечетов
@АлександрЧечетов 5 ай бұрын
10 в нулевой степени это 1 10 в первой степени это 10 А видос крутой
@IvanLesnov
@IvanLesnov 25 күн бұрын
Как файнтюнить офлайн модель ?
@moresevas
@moresevas Жыл бұрын
Отличный видос! Хотелось бы обсудить вот что: всегда ли возможны другие режимы, кроме zero-shot? Например, работаем через API чтобы оценивать ответы студентов на тест по физике, допустим из 20 заданий. Каким образом мы можем проапгрейдить zero-shot(s), если от раза к разу у нас разные 20 заданий по разным темам физики?
@Singularity_is_Coming
@Singularity_is_Coming Жыл бұрын
в файн тюнинге зеро-шот под такую задачу идеально зайдет, нужно побольше примеров из разных тем и LLM будет справляться с разными темами без проблем. для файтюнинга я бы делал 1 запрос = 1 задание и собрал датасет хотя бы на 200-300 задач с ответами. а как улучшить уже сам zero-shot промпт рассказал в новом видео: kzbin.info/www/bejne/eGiUl5eQhb-Hba8
@kiryllshynharow9058
@kiryllshynharow9058 Жыл бұрын
2:39 Чтоооо? 10^1 это ну уж точно не сотня. Математически это 10, но судя о масштабе по подписи "Number of Examples in Context (K)" по горизонтальной оси отложены тысячи примеров
@Singularity_is_Coming
@Singularity_is_Coming Жыл бұрын
спасибо за комментарий, верно заметили! там 10 примеров а не 100
@OlafAndvarafors
@OlafAndvarafors 4 ай бұрын
@@Singularity_is_Comingтам не 10 примеров, а 10 000.
@povezlo46
@povezlo46 9 ай бұрын
Спасибо за полезный урок, Денис. Однозначно подписка. А что там по деньгам получилось? во сколько обошлось тебе обучить эту модель писать в стиле Нориса?
@Singularity_is_Coming
@Singularity_is_Coming 9 ай бұрын
Поскольку база небольшая, вышло недорого, что-то около 1$
@АлексейДорошев-з7в
@АлексейДорошев-з7в Жыл бұрын
Спасибо
@DizroAI
@DizroAI 11 ай бұрын
У меня есть небольшая база данных, и я пытаюсь разработать процесс обработки больших новостных текстов. Какую модель лучше всего использовать в этом случае, и как ее правильно настроить? На вход модели будет подаваться обширный новостной контент, а требуется получить отформатированный и сокращенный вариант текста.
@Singularity_is_Coming
@Singularity_is_Coming 11 ай бұрын
лучше всего конечно GPT-4, но нужно смотреть насколько существенная разница в качестве, т.к. разница в цене существенная - ~5-10 раз
@Roman-hv3ss
@Roman-hv3ss 7 ай бұрын
Огонь! С огромным интересом посмотрел. Подписка. А можно таким образом дообучить локальные нейронки?
@Singularity_is_Coming
@Singularity_is_Coming 7 ай бұрын
Да, можно и локальные конечно, но ресурсов нужно много для этого, если модели большие
@MrStepanok
@MrStepanok 5 ай бұрын
Привет! Подскажи пожалуйста, что это может быть. Я сделал файнтюнинг модели, причем прям на сайте, там сейчас появились для этого инструменты (возможно они были и раньше) но моя модель не отображается в playground. Что это может быть?
@Singularity_is_Coming
@Singularity_is_Coming 5 ай бұрын
Должна появиться через время. А по API она доступна? В любом случае это скорее вопрос в поддержку, похоже на баг.
@MrStepanok
@MrStepanok 5 ай бұрын
@@Singularity_is_Coming Разобрался! Я тренировал через организацию, и в ней вообще ничего кроме gpt3.5turbo выбрать было нельзя. Перетренил в обычном аккаунте и сразу все ок ок. Спасибо!!!
@ilyashturm8043
@ilyashturm8043 3 ай бұрын
А зачем это так делать если в chat gpt уже все эти функции есть?
@IlyaPanfilov
@IlyaPanfilov Жыл бұрын
Зачем спалил ключ на 12:29) или это пасхалка?
@Singularity_is_Coming
@Singularity_is_Coming Жыл бұрын
пасхалка, а вообще то тестовый ключ был для видео)
@mr.grixakrushkas5667
@mr.grixakrushkas5667 Жыл бұрын
Это лора чтоль, или есть отличия?
@wms_ll
@wms_ll 10 ай бұрын
Привет, какой у тебя Git?
@ВекНовый-х4л
@ВекНовый-х4л Жыл бұрын
+
Family Love #funny #sigma
00:16
CRAZY GREAPA
Рет қаралды 59 МЛН
Real Man relocate to Remote Controlled Car 👨🏻➡️🚙🕹️ #builderc
00:24
Motorbike Smashes Into Porsche! 😱
00:15
Caters Clips
Рет қаралды 23 МЛН
Fine-Tuning GPT Models with Python
23:14
NeuralNine
Рет қаралды 14 М.
Интервью с промпт инженером
21:38
Singularity is Coming
Рет қаралды 2,5 М.
ChatGPT: от новичка до PRO за полчаса
38:21
DiazBarnz
Рет қаралды 387 М.
Family Love #funny #sigma
00:16
CRAZY GREAPA
Рет қаралды 59 МЛН