⭐⭐⭐ ПОЛЕЗНЫЕ ССЫЛКИ ИЗ РОЛИКА - mnlp.cc/mini?domain=how2ai&id=8
@tsusimaАй бұрын
ссылка не рабочая ((
@dolotube2 ай бұрын
Если приходится задействовать гугл-консоль, Pinecone или еще кого-то на сороне, то это уже как бы выходит за рамки локального решения.
@Вячеслав-б8е9щ2 ай бұрын
Ничего не понятно, но очень интересно....
@RUSSIAZOV-12 ай бұрын
Он просто скипает в гайде самые важные аспекты при настройки платформы, просто на кайфе чел
@МаксимМедведев-ф9мАй бұрын
перспективное решение. особенно для малого бизнеса работающего с большой товарной номенклатурой или иными вариантами больших массивов инфы
@Kurchaviy-sz5uw2 ай бұрын
Только что хотел найти подобное видео, и мне в реках выдало этот видос, видимо ютуб прочитал мои мысли, спасибо за видео!
@Роберт6282 ай бұрын
ЛУЧШЕ скачать LM Studio. Выглядит красивее. Есть встроенный поиск и установка моделей(в поиске есть функция поиска моделий подходящих под пк). Всё сразу из коробки. Никаких команд для установки не нужно надо только скачать с официального сайта установщик, а он в свою очередь всё сам сделает. Можно прикреплять файлы и изображения. Даже русский язык интерфейса есть. Просто зачем эта куча заморочки которая показана в видео?
@romanbolgar2 ай бұрын
Спасибо за наводку поищу. С критикой полностью согласен. Жаль не нашёл на Ютубе Пока нормальных видео. В трендах выдаёт вот такой бред. Такие люди наверное хотят показать какие они крутые программисты. Напоминает операцию на глазах через анус. Открываем консоль терминал и чтобы было ещё круче машинный код.
@irvicon2 ай бұрын
на 100% согласен с вами. Единственное ограничение у локальных LLM - мощность железа / пробовал за последние полгода несколько раз на своем задохлике 4-х ядерном 5 летнем без видеокарты = жалкое зрелище 😄 / особенно после супер реактивного и бесплатного GROQ / кстати они добавили модель для распознавания изображения LLAVA
@Роберт6282 ай бұрын
@@romanbolgar Ещё есть GPT4ALL. Программа по проще, но всё равно удобная. Есть встроенный поиск моделей, но без автоматического подбора под пк, но при этом около каждой модели написаны рекомендуемые системные требования. Пока нет русского языка интерфейса. А так в целом тоже хорошая программа.
@airlow67842 ай бұрын
Абсолютно согласен + бонусом получается гавно, которое либо хреново говорит на русском и не даёт те ответы, которые ты хочешь или вообще не говорит на русском...... Зачем такая заморочь ?
@Deepneuron2 ай бұрын
Владельцы мака легких решений не ищут 😂
@360millimetr2 ай бұрын
Ничего не понятно, но очень интересно😊
@vasil_mullin21 күн бұрын
Спасибо, интересно!
@valeryreshalkyn70412 ай бұрын
Круто, Начал смотреть второе твоё вдиео, очень рад что у нас появился новый техноблогер про ноукод. Благодарен за то что ты делаешь. Контент пушка! продолжай пилить =) Кому непонятно смотрите повторно =)
@Manipulyator_33Ай бұрын
Бро, по больше видео о n8n
@Mrandis77728 күн бұрын
прекрасТно - лайк подписка бро
@imhandsome73392 ай бұрын
Три недели назад был ролик про установку ламмы локально через докер и прочие приложения Ролик классный, но покажите, пожалуйста, как установить ламму через vs code
@timurgaranin2 ай бұрын
Спасибо. Интересно. Пользоваться я этим, конечно же, не буду. Ибо так заморачиваться, когда есть тот же make, смысла нет.
@n.rzhevskii52462 ай бұрын
Зашёл посмотреть локальное решение всё-таки. Было бы интересно посмотреть про всю локальную обвязку
@jsonslim2 ай бұрын
n8n вообще не локальный, у него бесплатный период около недели. Но n8n конечно бомбический, это лучшее что я пробовал за долгое время
@jsonslim2 ай бұрын
подождите..... его локально можно юзать?! Щиеееет
@Samed21Ай бұрын
Сними пожалуйста видео с Маке, как это делать
@DInfinity32 ай бұрын
Мега полезно!
@rollerkolya2 ай бұрын
Локалочки - будущее )
@dazzline780027 күн бұрын
ЛоКалОчки вот такие
@dazzline780027 күн бұрын
ЛоКалОчки вот такие
@АлександрР-щ4ь2 ай бұрын
спасибо
@AlexanderLetetski26 күн бұрын
почему так мало подписчиков у этих усов? дельное дело говоришь
@geekokАй бұрын
А для людей с пейсами можно снять видео, в котором будет инструкция как все необходимые сервисы AI развернуть на своём локальном сервере, чтобы ни кому и ни за какие API не платить?😁
@Viktor_eto2 ай бұрын
Топ ❤
@marialanti2 ай бұрын
Класс, надо будет на выходных поиграться )
@sgruzdev2 ай бұрын
А чем такое решение лучше LM studio? Я пока в нем вижу кучу минусов и ни одного плюса. Зависимость от внешних сервисов с регистрацией, необходимость в докере, который сожрет дополнительные ресурсы компа, излишняя замороченность в установке и настройке.
@Hank-k9w2 ай бұрын
круто классно Но "научим работать с файлами" 0:10 эм где ?
@---Nikita--Ай бұрын
Пролистал видео и комменты. Твой коммент всё объяснил видео закрываем. Спасибо.
@ibrakigno93142 ай бұрын
Правильно ди я понимаю, что можно таким образом создать агента, который будет оперировать только пуллом информации, которую вы в него загрузите. К примеру, отвечаит на вопросы по конкретной книге, дейсвительно черпая содержание ответов из материала, а не с потолка?
@ProdAdvice2 ай бұрын
Все так. Это можно и в любом сервисе от опенаи до перплексити сделать
@vifvrTtb0vmFtbyrM_Q2 ай бұрын
Это так называемое rag-система. проще всего это ollama + gpt4all. полностью локальные системы. все делается через интерфейс мышкой. gpt4all умеет читать pdf и другие типы текстовых файлов. встроенная векторная бд. В общем намного проще. А в видео показана система для создания ии агентов. Пример простой но суть ии агентов в том что их может быть много. Они общаются между собой, у каждого агента своя роль. Кто то ищет, кто-то отвечает, кто-то проверяет, кто-то оформляет. Короче для вашего запроса n8n оверкилл. Начните с gpt4all.
@ЕвгенийФедулов-с6р2 ай бұрын
А можно подключить SSD и использовать его как файл подкачки, чтобы запускать гораздо более мощные модели!🎉🎉🎉
@yarmindev2 ай бұрын
Как это сделать?
@vifvrTtb0vmFtbyrM_Q2 ай бұрын
только вот скорость инференса снизится в десятки раз. готовы ждать очередное слово около минуты ?
@ЕвгенийФедулов-с6р2 ай бұрын
@@vifvrTtb0vmFtbyrM_Q посмотри видео по этому вопросу: всё нормально работает
@DmitryRomanov2 ай бұрын
@user-mt7jb8kx8u ссылка видео обрадует много людей 😁🙏
@vifvrTtb0vmFtbyrM_Q2 ай бұрын
@@ЕвгенийФедулов-с6р 1. Инференс производится ядрами GPU. 2. Ядра GPU могут работать только с VRAM (доступ 10 - 100 нс, на скорости 200 - 1000 ГБ/сек) 3. Данные в VRAM попадают из RAM (доступ 50 -200 нс, на скорости 20-100 ГБ/сек). 4. Данные из SWAP попадают в RAM, только тогда, когда CPU обращается к странице памяти, а она помечена как выгруженная (доступ 100 000 нс, на скорости 16ГБ/сек для NVME PCIe Gen4). Грубо говоря, чтобы произошел инференс когда часть модели находится в файле подкачки, то вместо 10 нс может потребоваться подождать каких-то 110 000 нс. Разница на 4 порядка. И даже не важно будет использоваться Resizable BAR, Unified Memory в CUDA, DirectStorage, Memory Paging в Vulkan/OpenGL или AMD Smart Access Memory. Все эти методы ограничены самими технологиями доступа к памяти.
@iteleportation2 ай бұрын
Спасибо, это конечно все здорово, но ванклик интереснее, то есть чтобы установить локально ИИ, просто скачав и установив один файл, если такие сервисы есть, пожалуйста дайте знать))❤
У меня с трудом загрузилась LM , потом сразу предложило обновление и на этом все , ни каких моделей мне не даёт, может из за скорости энтернета это может быть такое
@AndrewQuardex2 ай бұрын
принцип чтения из бд понятен, а как обновлять в базе информацию?
@nto-i7h2 ай бұрын
Всё это в любой момент посыпется, как карточный домик из-за сложной технологической цепочки внешних API сервисов. Жаль, а я думал и правда локальная будет реализация, а оказалось просто кликбейт
@niyazleushkin2 ай бұрын
Можно все развернуть локально, но увы, автор не потрудился этим заняться. Гугл драйв нужен лишь, чтобы внешние сервисы могли векторизировать данные, а это в целом делается довольно просто и локально, при помощи отдельных запущенных моделей. Так же и с эмбедингами. Как мы это сделали, мы получили векторную базу, можно при помощи эластика или других инструментов обращаться к нашей базе. А дальше это промпт инженеринг и actions. Все. Делается сложнее и больнее. Сразу скажу, в таком случае и при большом объеме данных, вы сильно потеряете в производительности и минимум 16GB VRAM будет съедено, от чего требуется от 32GB VRAM. Модель туповата, а более требовательные запустить будет трудно, разве у вас не мак c 128GB unified memory. Сейчас в процессе обучения llama3.1 8b, в целом это хорошо, если вам нужно впихнуть конкретные знания, что не меняются со временем, ибо это процесс не легкий и крайне затратный по ресурсам. Ну и не для новичков конечно же. Если уж вам будет очень интересно всем, могу написать статью на хабр или же снять ролик, но ничего не обещаю
@btcpapa2 ай бұрын
Оаусф 😂
@Arrrr-gj6kk27 күн бұрын
14:38 хахах типичный мак юзер, которому 8гб оперативки хватает на всё: своп там задыхается аж на еще 8гб строчкой ниже, тем временем типичный мак юзер: ну израсходовано у меня всего лишь 7.4гб из 8, значит все отлично еще дофига оперативки свободной 😀
@dgvgfg23 күн бұрын
Хрень если честно. Даже мне скучно стало, Я 95% роликов на ютуб просматриваю ДО КОНЦА. У меня своего рода есть лайфхак. Я смотрю в ускорении 2.5х, ну или 2.75х... и даже тут не захотел всё смотрел скипнул на середине... ну из ролика видно что тут разные клауды (облака), БД в облаке это нефига не локалка. С таким успехом можно сказать что чатГПТ локально работает =))) И ещё нагружаем 8 Гб оперативки. Не поймите меня неправильно у меня 64 Гб. 8 ядер - 16 потоков мне нравятся нейронки, но то что показано нефига не локальная фигня
@Mr_x_OneАй бұрын
Может ли кто то подсказать тут. Поставил на локальный сервак Ollama с phi3. С консоли задавая вопросы текущей модели или через API получаю довольно быстро ответы. Но как можно дообучть уже поставленную модель, кто подскажет с помощью файлов DOC или PDF (именно локальную базу так как документы могут хранить конф. информацию) ? Я например поставил AnythingLLM но это не то, что нужно. Так как надо обращаться через AnythingLLM а не напрямую к Ollama
@daniilsinitca103126 күн бұрын
Нашел ответ на вопрос?
@Mr_x_One26 күн бұрын
@daniilsinitca1031 к сожалению пока не удалось
@havemoney2 ай бұрын
А есть идейка, делай 2-й канал, Лайв канал, туда стримы и вот Игоряша может на тестах что то залить, или когда что то информативное, долгое. Отсюда кто то прийдет туда и тот канал тебе подкинет сюда людей. Извини если оставил тебя без отпуска )
@havemoney2 ай бұрын
Поиграть на укулеле тоже можно )
@topodin2 ай бұрын
Посмотрел целиком. Сам пример общения с пдф файлом через такие костыли выглядит как открыванте пива жопой и совсем не понятно, какие преимущества такой способ дает.. в каком месте это лучше и более фкнкционально чем использовать для этого иное любое готовое решение.
@ilyastar91662 ай бұрын
У меня при установке через терминал была ошибка: " npm error enoent ENOENT: no such file or directory, lstat 'C:\Users\user_name\AppData\Roaming pm' " Решение: перешёл по пути 'C:\Users\user_name\AppData\Roaming' и создал там папку npm Затем снова ввёл команду и всё установилось Нужно, чтобы показывались скрытые файлы и папки, иначе не найдёте эту директорию
@aktansteam2 ай бұрын
Я нашел сходство, ваше имя и фамилия очень схожи с таким ютубером Quantum games, его зовут Даниил Гаврилов😅
@АлексейТарасов-д6д3 күн бұрын
у тебя вечно, "тут" не получается но там, вот только делал час/вчера делал было все удачно ) может тут и есть ньюансы? осталось написать автоматизацию приема ответов на собственные коментарии в других каналах
@АлексейТарасов-д6д3 күн бұрын
это возможно? где бы я не написал, получать ответы!?
@nicivanov51352 ай бұрын
Просто опишу как это должно быть в идальном мире. 1) Скачал архивы. 2 ) выключил интернет. 3) Запустил инсталер. 4) После установки отрывается чат на русском языке (опция выбрать язык). 5) Если надо включил интернет, дал любую ссылку парсер сам сделал токены. Внес в предварительную базу. Почему не сразу в свою базу потому, что мусора в сети много. 6) Если комуто нужен конструтор для подключения сервисов API и.т.д. оплатили скачали архив все оно дальше само спросит нужно это подключить ок. 😊
@isevrujka83252 ай бұрын
А не с гуглом работать будет? И какие аналоги есть ( гугл дока(?
@demianaqusАй бұрын
Заместо Pinecone что то локальное можно использовать?
@ProdAdviceАй бұрын
quadrant
@demianaqusАй бұрын
@@ProdAdvice спасибо!🤝 Вчера после того как задал вопрос заплексил сам и тоже остановился на нем😄
@MrKips-wg2gr2 ай бұрын
А можно было ссылки и тут в закрепе оставить ... и вроде ребята писали уже, себя можно по меньше сделать? пол экрана лицо...
@RedpaX2 ай бұрын
в N8N я так понял нельзя привязать синтез речи по API. чисто агенты текстовые.
@ProdAdvice2 ай бұрын
Можно запросто
@YuriyLvov2 ай бұрын
Anthropic так и не смог подтянуть. У кого вышло?
@MrTASGER2 ай бұрын
Опа, "зiбров" в молодости
@СергейДобров-п8цАй бұрын
Привет,я хочу создать ассистента но не уверен что он сможет делать то что я от него хочу можно консультацию ?
@luckybeard91592 ай бұрын
а для чего это все? не очень понимаю, типо настраиваешь своего ии бота, а кто его использовать будет и дальше что? я просто все пытаюсь понять как на этом всем можно какойто бизнес построить и пока что вижу видос а в голове шипящий телик :DDD
@DmitryPesegov2 ай бұрын
Настрой локально, оберни в докер, залей в облако как сервис. Если ты про то как свою игрушку превратить в сервис в инете конечно. Еще можешь сделать агентов чисто локальных в заведениях там всяких.
@luckybeard91592 ай бұрын
@@DmitryPesegov и с этого можно както денежку лутать?)
@DmitryPesegov2 ай бұрын
@@luckybeard9159это уже предпринимательский вопрос. Кому-то дано кому-то не очень😅
@yyanncedraАй бұрын
@@luckybeard9159 Мы делали бота по базе знаний для SaaS проекта. База знаний былы у них раньше в Zen теперь еще и бот отвечает на вопросы
@5t4rb0y2 ай бұрын
Есть ии где по референсам рисует?
@AndrewQuardex2 ай бұрын
17:28 он показывает 3.8 B
@ivangrunevАй бұрын
Локально - означает, что решение не требует доступа в интернет.
@mynextchapters2 ай бұрын
у кого засада с подключением гугл аутентификации на канале н8н есть более внятный мануал
@dmgl-n4s2 ай бұрын
Google Cloud работает из России?
@ibrakigno9314Ай бұрын
Нет)
@mykola20242 ай бұрын
а зкчем всё это ???
@Elsag_GeliNakh2 ай бұрын
Ебень не мог просто в описани выложить ссылку на гитхаб, без ебучего телеграмм)
@RUSSIAZOV-12 ай бұрын
Зачем ты вообще свое лицо в гайды вставляешь, просили же убрать
@user-lx2yc5mr2tАй бұрын
На быдло
@romanbolgar2 ай бұрын
Боже как всё просто. Чем дальше тем проще. Это какой-то квест. Это не установка. Наверное дядя не застал в те времена когда были старые добрые экзешники. Там достаточно было одного клика чтобы программа установить. А здесь зайти туда зайти на Google Диск там включить там подключить Там взять ключ... Я думаю 20 минут не предел. Дальше наверное установку ещё больше упростят до часа. Мир Идиократии во всей красе. Не устану повторять сапожники без сапог. Собрать в экзешник программисты не могут. Вот уж действительно ловкот
@Artem_CelАй бұрын
Так вам дали кучу сервисов готовых, ботов в тг и приложениях типа ноушена, пользуйтесь))
@malloquinАй бұрын
Удали этот кринж
@romanbolgarАй бұрын
@@Artem_Cel не надо мне такую кучу. Ещё и квест найти это в телеграме. Раньше давали просто ссылку на скачивание экзешника. И всё! Программа могла нормально работать при запуске без всяких танцев с бубнами
@romanbolgarАй бұрын
@@malloquin В смысле?
@andreyzhuravlev7861Ай бұрын
А без этого ссаного телеграмма никак??????????
@МаксимСергиенко-г2э2 ай бұрын
создавай ИИ агентом и просирай бабки на API запросы