OLLAMA - ТВОЙ ЛИЧНЫЙ, ЛОКАЛЬНЫЙ, БЕСПЛАТНЫЙ CHATGPT.

  Рет қаралды 8,641

samohosting

samohosting

Күн бұрын

Пікірлер: 63
@AmoFess
@AmoFess 2 ай бұрын
Огромное спасибо за подробное руководство по локальной установке Ollama. С нетерпением жду видео про русскоязычные модели
@samohosting
@samohosting 2 ай бұрын
Приветствую на канале! Спасибо за лайк\комментарий\подписку\донат и любую другую поддержку проекта! Удачного самохостинга!
@mogway791
@mogway791 2 ай бұрын
Глянул список видосов с канала, 2 из 3х мне нужны. Жирный лайк братиша!
@samohosting
@samohosting 2 ай бұрын
Приветствую на канале! Спасибо за лайк\подписку\комментарий\донат и любую другую поддержку проекта! Удачного самохостинга!
@pavelmityagin8655
@pavelmityagin8655 2 ай бұрын
Автору респект за видео и продолжение работы на ютубе несмотря на все трудности, сознательно создаваемые ему в России.
@samohosting
@samohosting 2 ай бұрын
Приветствую на канале! Спасибо за лайк\подписку\комментарий\донат и любую другую поддержку проекта! Удачного самохостинга!
@MAKAROV.REALTY
@MAKAROV.REALTY 2 ай бұрын
у тебе хорошая подробная подача материала и темы мне лично все интересны, начиная с некстклауда и до ллм локальных
@samohosting
@samohosting 2 ай бұрын
Приветствую на канале! Рад, что удалось помочь Вам в начинаниях домашнего сервера. Спасибо за лайк\подписку\комментарий\донат и любую другую поддержку проекта! Удачного самохостинга!
@glavbux-d8i
@glavbux-d8i 2 ай бұрын
Спасибо за видео. Хотелось бы чтобы показал видео с установкой локального AI для работы со своими базами знаний на не требовательном компьютере.
@samohosting
@samohosting 2 ай бұрын
Приветствую на канале! В список пожеланий по роликам добавил, пока без обещаний сроков. Спасибо за лайк\подписку\комментарий\донат и любую другую поддержку проекта! Удачного самохостинга!
@1234mifa
@1234mifa 2 ай бұрын
Насчёт поддерживаемого языка, я ставил лламу 8б и 70б, и она хорошо по русски говорила. Были редкие случаи когда она вставляла английские слова но это редкий случай
@samohosting
@samohosting 2 ай бұрын
Приветствую на канале! Мой посыл скорее не про "возможность четко и без акцента ответить", а про качество сути ответа(содержимого), оно может быть удовлетворительным и содержательным, но во многих сегментах оно будет сильно хуже, чем на английском. Более подробно про особенности этой тематики можно почитать например тут habr.com/ru/articles/787894/ Удачного самохостинга!
@mcseem9587
@mcseem9587 18 күн бұрын
класс
@samohosting
@samohosting 18 күн бұрын
Приветствую! Cпасибо за лайк\комментарий\подписку\донат и любую другую поддержку проекта! Удачного самохостинга!
@MAKAROV.REALTY
@MAKAROV.REALTY 2 ай бұрын
Дружище канал супер, продолжай!!!!
@samohosting
@samohosting 2 ай бұрын
Приветствую на канале! Спасибо на добром слове, начало положено, бросать вещи не в моих правилах. И спасибо за лайк\подписку\комментарий\донат и любую другую поддержку проекта! Удачного самохостинга!
@vitalitian2099
@vitalitian2099 7 күн бұрын
умничка
@samohosting
@samohosting 4 күн бұрын
Приветствую на канале. Спасибо за лайк, подписку, комментарий и любую другую поддержку проекта. И само собой удачного самохостинга!
@sergkaskalov3983
@sergkaskalov3983 2 ай бұрын
Спасибо! Лайк и подписка!
@samohosting
@samohosting 2 ай бұрын
Приветствую на канале! Спасибо за лайк\комментарий\подписку\донат и любую другую поддержку проекта! Удачного самохостинга!
@Red_FOX_Tashkent
@Red_FOX_Tashkent 2 ай бұрын
Спасибо большое)))
@samohosting
@samohosting 2 ай бұрын
На здоровье и приятного просмотра. Удачного самохостинга!
@Andrey_AKA_Zumz
@Andrey_AKA_Zumz 2 ай бұрын
Отличный ролик! Единственное, чего не хватает по теме устаноаки и запуска - нужно бы сравнить скорость генерации в докере напрямую в системе со скоростью того же докера но в proxmox, в которой поднят LXC в котором поднят докер. Насколько велик оверхед. И соответственно, в следующих роликах эту тему продолжить на видеокарту. Т.е. какой оверхед на ИИ накладывает Proxmox с пробросом видеокарты на виртуалку с ИИ по сравнению с установкой нативно (докер на нативной установке ОС на железо).
@samohosting
@samohosting 2 ай бұрын
Приветствую на канале! Спасибо за комментарий! С учетом того, что мы для настоящей работы с LLM будем использовать GPU переданное "насквозь", я не вижу предпосылок к ощутимым потерям в производительности. Но идея понятна. Как будет время - обязательно сравним голое железо, против виртуализированной системы в докере. Удачного самохостинга!
@homebeglov6483
@homebeglov6483 2 ай бұрын
сперва лайк
@samohosting
@samohosting 2 ай бұрын
Приветствую на канале! Спасибо за комментарий по теме и лайк\подписку\донат и любую другую поддержку проекта! Удачного самохостинга!
@pro100denchik
@pro100denchik 2 ай бұрын
А вот это неожиданно, приятный подгон от @samohosting
@samohosting
@samohosting 2 ай бұрын
Приветствую! Рад, что тематика интересна. Подписывайтесь еще и в телеграм. Там я публикую еще и анонсы того, что в проработке, будет без "сюрпризов" выход роликов. Удачного самохостинга!
@ИльяГалкин-и4м
@ИльяГалкин-и4м Ай бұрын
Попробуйте модель t-lite, она дообучена на русских текстах.
@samohosting
@samohosting Ай бұрын
Приветствую! Уверен сообществу комментарий будет полезен, спасибо! И спасибо за лайк\комментарий\подписку\донат и любую другую поддержку проекта! Удачного самохостинга!
@Trollukovich
@Trollukovich Ай бұрын
Добрый день. Спасибо за труды. Правильно ли я понял, развернуть ламу на дешевой vps - плохая идея, нужна видеокарта?
@samohosting
@samohosting Ай бұрын
Приветствую ! Аренда впс без видео карты - скорее всего Вам ничего не даст. Аренда впс с мощным CPU быстро вытянет весь домашний бюджет... Спасибо за лайк\комментарий\подписку\донат и любую другую поддержку проекта! Удачного самохостинга!
@Trollukovich
@Trollukovich Ай бұрын
@@samohosting спасибо за ответ 🤝
@Mr_x_One
@Mr_x_One Ай бұрын
Интересно. Есть ли способ скаченную модель до обучить на локальных файлах pdf или doc?
@samohosting
@samohosting Ай бұрын
Приветствую! Да, будет видео и про это. Cпасибо за лайк\комментарий\подписку\донат и любую другую поддержку проекта! Удачного самохостинга!
@GalayZloy
@GalayZloy 25 күн бұрын
Тоже интересует эта тема​@@samohosting
@rappoportdev
@rappoportdev 2 ай бұрын
Замечательное видео! Но появился вопрос. Дак в чем же эта OLLAMA лучше ChatGPT от openai? ChatGPT хотя бы понимает русский язык, и не нужно вот это переключаться, искать нормальные модели, использовать разные модели под разные задачи. И для чего же нужна эта OLLAMA? А Copilot, как развернуть, в чем отличие от OLLAMA? Очень интересная тематика у видео! Продолжайте
@rustamakhmetyanov4404
@rustamakhmetyanov4404 2 ай бұрын
Они платные
@samohosting
@samohosting 2 ай бұрын
Приветствую на канале! Два основных фактора(зачем): 1. Ваши данные остаются только у Вас, не уходят никому. 2. Как Вам уже подсказали подписчики - Вы не платите за подписку использования. Я не готов привести цифры, но почти уверен, что на русском у ChatGPT тоже огромная просадка. То, что он Вам в состоянии отвечать и переводить ответы - не означает, что она была на кирилице и русском языке оттренирована в таком же объеме, что и на английском. Copilot обычно используется, как помошник в написании кода, существуют плагины\дополниения к vscode например. которые позволят подключить локальную модель. И AI будет пытаться Вам подсказать\завершить код, как второй пилот самолета. Удачного самохостинга!
@VladislavVasilkov
@VladislavVasilkov 2 ай бұрын
Видео хорошее, но не хватает четвертой части. Мне было бы интересно узнать про хранение модели в озу (ксионы с барахолки + бу регистровая память) и запуск ее на проце с использованием видео карты в качестве помощи (еще лучше если двух видео карт). Так как для меня мелкие модели не интересны, а купить я могу только бытовую видео карту. и ту не слишком продвинутую из 30той линейки. Не о каком хранении модели в ОЗУ видео карты речи не идет... Вот и думаю о домашнем сервере из БУ комплектующих. Но для раздумий не хватает хотя бы примерного представления на сколько оно получится задумчивой....
@samohosting
@samohosting 2 ай бұрын
Приветствую на канале! Как и в любом хобби - чтобы что-то пробовать, это что-то должно у нас с Вами быть. У меня пока под рукой нет оборудования, о котором Вы говорите. Но ход мысли разделяю, ресурс не про production среду, там никто ничего не собирает - есть куча сервисов для аренды GPU, если есть потребность в мощностях - правильно идти и арендовать. А для дома - мы несомненно должны держать прицел на доступное массам оборудование, а не топовое железо с выставки. Удачного самохостинга!
@VladislavVasilkov
@VladislavVasilkov 2 ай бұрын
@@samohosting 😍 А сервер вы на чем собирали? Не на калькуляторе же. При наличии озу больше 32Гб идею можно проверить с более мелкой моделью. Разместив модель в ОЗУ и настроив видео карту в помощь. Так что скорее всего у ВАС есть железо для проверки под рукой. АМД или Нвидеа тут не принципиально. достаточно взять мелкую модель и сравнить - вот вся модель в видео памяти, а вот в оперативной. Скорость тут такая, а тут такая.
@VladislavVasilkov
@VladislavVasilkov 2 ай бұрын
@@samohosting В ютубе вышло видео "Cheap mini runs a 70B LLM" там поставили 96Gb Ram и запускали 70B на интеловской встройке, гоняя модель в RAM. В принципе я получил ответы на большинство вопросов... Но мне бы интересно знать, по доступное БУ серверное железо (ксионы или вторые эпики)... и что в него воткнуть в качестве доступной видео карты (интел или 3070m, и те и те продаются по доступной цене). На этом пути явно есть подводные камни и мне не хватает опыта что бы их предвидеть.
@RasetsuOne
@RasetsuOne 2 ай бұрын
2-4 года OpenAI сможет сделать тебе допустим инсту или тикток которую заблокировали и добавит все видео и всех пользователей вот это уже интереснее намного!
@samohosting
@samohosting 2 ай бұрын
Приветствую на канале! Спасибо за лайк\подписку\комментарий\донат и любую другую поддержку проекта! Удачного самохостинга!
@igor.volkov
@igor.volkov 2 ай бұрын
А серверы ты где такие возьмёшь?))
@user-san-chous
@user-san-chous Ай бұрын
​@@igor.volkovон локально будет запускать))
@myratovmyratov4708
@myratovmyratov4708 2 ай бұрын
интересно но пока слишком сыровато. годика чрез 2 дмаю можно будет завести себе виртуального помошника
@samohosting
@samohosting 2 ай бұрын
Приветствую на канале! Сильно зависит от того, для каких целей. Если как co-pilot в програмировании, то уже даже на текущем этапе развития - вполне полезный инструмент. Удачного самохостинга!
@MrKatunins
@MrKatunins 2 ай бұрын
Вот блин. Раскатал на серваке у себя (настоящем) - выкатил 12 ядер, 32гб. Отвечает очень медленно. Вот что значит видеокарта
@samohosting
@samohosting 2 ай бұрын
Приветствую на канале! К сожалению - чудес не бывает, это действительно ресурсоемкая задача. Удачного самохостинга!
@Андрей-ы1ш1ч
@Андрей-ы1ш1ч Ай бұрын
Объясните мне пожалуйста, никак не пойму: в чём смысл этого локального AI? Насколько я понимаю всякие ChatGPT и прочие Copilot'ы при запросе к ним ищут инфу в своих терабайтных базах данных (а разные Preplexity ещё и сразу в интернете) и генерируют тебе ответ. А если эта OLLAMA локальная, в интернет не выходит, то откуда она будет брать инфу для решениях твоих задач?
@samohosting
@samohosting Ай бұрын
Приветствую на канале ! Модели, которые мы скачиваем(LLM) это и есть тот набор знаний, о которых Вы говорите. Модели могут быть от нескольких 100mb до 500GB(из того, что мне попадалось на глаза, но я не уверен предел ли это по размеру модели в октрытом програмном коде или есть больше) Но даже 500GB - это сверх, объем, который запустить дома - крайне дорогое удовольствие. Существуют механизмы сжатия и переобучения, которые направлены на снижение размера с сохранением качества знаний. Благодаря этому, мы получаем относительно не большие модели, но с большим объемом знаний. Кроме этого работают и над скоростными показателями и над качеством ответов и логикой мышления язоковых моделей. Существуют узко направленные модели, которые например мало знают про физику и не смогут решать задачи физ. теха, но отлично смогут Вам помогать писать программный код. Спасибо за лайк\комментарий\подписку\донат и любую другую поддержку проекта! Удачного самохостинга!
@Андрей-ы1ш1ч
@Андрей-ы1ш1ч Ай бұрын
@@samohosting а например той же OLLAM'е можно "подсунуть" учебник в формате PDF например по тому же Python или физике, чтобы она его обработала, впитала из него знания и потом задавать ей задачи чтобы она их решала. Исходя из объема знаний учебника/справочника.
@Mr_x_One
@Mr_x_One Ай бұрын
@@Андрей-ы1ш1ч Тоже послушаю
@AmoFess
@AmoFess 2 ай бұрын
Расскажи как установить на линукс-сервер без видео-карты, плз
@samohosting
@samohosting 2 ай бұрын
Вам должно быть достаточно использовать официальный скрипт установщик 1 командой Введите команду в терминале сервера: curl -fsSL ollama.com/install.sh | sh Почитать код скрипта можно тут github.com/ollama/ollama/blob/main/scripts/install.sh Инструкция для linux установки в ручном режиме тут github.com/ollama/ollama/blob/main/docs/linux.md
@diogen4212
@diogen4212 Ай бұрын
о пробросе видеокарт в виртуалки побольше бы инфы..
@samohosting
@samohosting Ай бұрын
Приветствую на канале! Я стараюсь рассказывать о том, что делал сам и показываю на своем примере. У меня нет дискретных GPU. А встройка АМД - настоятельно не рекомендуется для таких задач, слишком много боли =) В прошлом году с обновлениями rocm стало лучше, но пока.. все еще не рекомендуется. А пересказывать ролики, как передать NVIDIA \ INTEL GPU, ну так они уже есть, подробные. В планы след. года входит сборка под AI бюджетного решения с дискретной картой, там уже и смогу поговорить на эти темы. Спасибо за лайк\комментарий\подписку\донат и любую другую поддержку проекта! Удачного самохостинга!
@visghost
@visghost 2 ай бұрын
у меня tinyllama пишет загрузка отменена
@samohosting
@samohosting 2 ай бұрын
Приветсвую на канале! Стоит посмотреть логи и наличие достаточно места, может просто напросто не хватает для скачивания пространства..
Run your own AI (but private)
22:13
NetworkChuck
Рет қаралды 1,7 МЛН
Новости ИИ #7 Бесплатная замена Chatgpt. Нейросети 2024
19:45
Twin Telepathy Challenge!
00:23
Stokes Twins
Рет қаралды 80 МЛН
How To Choose Mac N Cheese Date Night.. 🧀
00:58
Jojo Sim
Рет қаралды 85 МЛН
Молодой боец приземлил легенду!
01:02
МИНУС БАЛЛ
Рет қаралды 1,7 МЛН
Запуск Llama 405b на своем сервере. vLLM, docker.
17:24
Виталий Кулиев
Рет қаралды 14 М.
Как работать с ChatGPT в 5 раз эффективнее: 2 секрета от Профи
12:38
Viacheslav Molodetskyi – Бізнесмен & Маркетолог
Рет қаралды 4 М.
Как остановят YouTube | ТСПУ и DPI | Cоздатель GoodbyeDPI
27:30
Твой новый домашний сервер в 2024 году!
23:36
Mikhail Mikhaylov
Рет қаралды 32 М.
Twin Telepathy Challenge!
00:23
Stokes Twins
Рет қаралды 80 МЛН