Посмотрим на новую языковую модуль Llama 3 для разработчиков. Обучение разработке: purpleschool.ru/ #ai #shorts
Пікірлер: 24
@PurpleSchoolАй бұрын
Курсы по разработке: purpleschool.ru/
@ericborder5996Ай бұрын
А какие требования к железу?
@rikishihiradate2922Ай бұрын
Тоже хотел спросить. Слышал, что инстанс GPT-3 требует минимум 40 Гб видеопамяти.
@mkgs210Ай бұрын
Смотря какая версия ламы 8B или 70B. Размер стоит умножать на 2 и мы примерно получим необходимое количество оперативки. Но также есть возможность запускать квантованые версии моделей 4 или 8 bit, что уменьшит потребление памяти. Для русского языка оригинальная модель настроена плохо, пока что лучше всего работает тюн suzume
@PurpleSchoolАй бұрын
Память хотя бы 16 для версии 8b для комфортной работы. Но с русским языком работает не очень
@no_drama808Ай бұрын
Вы про оперативную память говорите, или про видеопамять? Если 16 Гб видеопамяти, то это видео вообще не имеет смысла (:
@kephec6233Ай бұрын
Это бред. Какие данные страшно потерять программеру при работе с моделью? А бесплатный Gemini это вообще тупое убожество, которое даже для кулинарии и рецептов использовать страшно, потому что вообще пишет оно что попало.
@user-hruserАй бұрын
Полностью локально? А данные для ответа где она берет
@PurpleSchoolАй бұрын
При запуске скачивается модель размером 5GB
@wowlikonАй бұрын
Ответ генерируется на основе данных, на которых обучалась нейросеть
@Shorttrip1Ай бұрын
А что если процессор поддерживает только AVX ?
@luppi2865Ай бұрын
Будет работать
@SiberFrostАй бұрын
Бро, отличные видео, мне очень нравятся Хотел дать совет со стороны, возможно будет лучше если ты будешь погромче и поуверенней говорить Сейчас прям слишком мягко звучишь, как будто с детьми общаешься, чуть ли не сюсюкаешься Не принимай на свой счет, просто со стороны говорю как это звучит
@KinoGuruHDАй бұрын
На самом деле фигня полная, мб только у меня так но макбуке м1 про (достаточно хорошее железо) отвечает он очень медленно и часто хуже чем github copilot, хотя как будто модель сильнее. Хотел попробовать старшую модель ламы которая весит больше, так она вообще не стала мне отвечать ))) Жду кстати devin
@user-rl8fy6xe1tАй бұрын
на 4090 старшая модель летает и норм отвечает, железо норм нужно прост
@KinoGuruHDАй бұрын
@@user-rl8fy6xe1t видишь как, лагает даже 4090, тогда вообще грустно так как когда работаешь ждать некогда, так поиграться если только
@user-nt5ee3uo4tАй бұрын
Зачем ты им рассказал
@PurpleSchoolАй бұрын
Кому им и почему не рассказывать?)
@truedivanАй бұрын
@@PurpleSchoolони это все остальные😂
@siddxartxaАй бұрын
Не ЭЛ лама 3, а просто лама 3... Лама по английски пишется с 2 L.
@PurpleSchoolАй бұрын
Лама по английски пишется Lama
@agilkerimovАй бұрын
А Lloyd наверное Эл Лойд 😂😂😂
@D11ND1Ай бұрын
что если это испанский. и перевод такой как "позвони", или "позови", или "набери", или "я здесь, только свистни". и произносится тогда как "яма".