🦙🤖 COMO ejecutar LLAMA3 en LOCAL y hacer que HABLE y ESCUCHE

  Рет қаралды 8,300

Charly and the Machines

Charly and the Machines

Күн бұрын

Пікірлер: 55
@ai.charly
@ai.charly 4 ай бұрын
Otros vídeos que podrían interesarte: 🦙COMO AGREGAR DOCUMENTOS A LLAMA 3 8B en LOCAL - RAG con CHROMA - 100% PRIVADO Y GRATIS ✅REPO kzbin.info/www/bejne/rJu0cquAbLSJrtk Cómo ejecutar OpenWebUI en local con Llama3-8b en local y Ollama 💻🤖 kzbin.info/www/bejne/roKvq56ua7WKftEsi=LIbXA-49lL83M9sr TUTOR DE IDIOMAS EN LOCAL kzbin.info/www/bejne/qZjCiaKGp9ydf5Isi=geqA3ercAce002hD
@leonardox222
@leonardox222 28 күн бұрын
buen video, ya tienes un suscriptor mas :)
@M3taDarko
@M3taDarko 8 күн бұрын
buenisimo 🔥🔥
@ai.charly
@ai.charly 8 күн бұрын
@@M3taDarko gracias por tu comentario, me alegra que te haya gustado 👌🏻
@accipiter_nisus
@accipiter_nisus 4 ай бұрын
Enhorabuena. Buena explicacion y precisa. Suerte y exito en tu canal
@ai.charly
@ai.charly 4 ай бұрын
¡Muchas gracias por tu comentario! Poco a poco estoy intentando mejorar la calidad de los vídeos, no hago guiones así que a veces me equivoco en las palabras pero bueno, con la edición a veces corrijo. Qué bueno que te haya gustado.
@williamscondori4479
@williamscondori4479 13 күн бұрын
muy importante poner las especificaciones tecicas de tu ordenador de pruebas , mas que todo de tu gpu, por lo demas muy buen bideo.
@AlejandroGonzalez-px6qz
@AlejandroGonzalez-px6qz 4 ай бұрын
Sos lo más grande que hay amigo. Impresionante y recomendable
@ai.charly
@ai.charly 4 ай бұрын
Muchísimas gracias por tu comentario, Alejandro, ¡me alegra que te haya parecido útil la información!
@martinVas-se6gs
@martinVas-se6gs 4 ай бұрын
Excelente, gracias. Seria super crear uno para consultar información local de la empresa.
@ai.charly
@ai.charly 4 ай бұрын
¡Por supuesto! Si tu empresa tiene documentos y quieres aprovechar las capacidades de una IA usarlos, es ideal. Ahora, de las IAs que he probado, llama-3 8b NO es la mejor, es buena si tiene la información necesaria, pero tiende a alucinar y no siempre sigue al pie de la letra las instrucciones. Te recomendaría que vieras el último vídeo que subí, tiene un repo que te puede ser de mucha utilidad
@ProgramarEsFacil
@ProgramarEsFacil 4 ай бұрын
Excelente espero que tu canal crezca+++, excelente contenido
@ai.charly
@ai.charly 4 ай бұрын
Muchas gracias por tu comentario, cuando alguien comenta me anima a seguir haciendo vídeos
@everjavierberriocastro9044
@everjavierberriocastro9044 3 ай бұрын
Muchas gracias!
@ggmtddbo
@ggmtddbo 3 ай бұрын
Muy buen canal! Me suscribí 😊
@joselimo4156
@joselimo4156 22 күн бұрын
Amigo gracias por la explicación, una consulta se puede usar LM Studio en vez de ollama? Para realizar e asistente de voz
@ai.charly
@ai.charly 22 күн бұрын
@@joselimo4156 Claro que sí, es cuestión de ver la documentación.
@ai.charly
@ai.charly 22 күн бұрын
@@joselimo4156 Y mientras respondía el mensaje lo hice, y la respuesta es: Use models through the in-app Chat UI or an OpenAI compatible local server
@ai.charly
@ai.charly 22 күн бұрын
@@joselimo4156 Admito que no he probabo LM Studio, aunque trabajo con dos máquinas y una de ellas lo tiene, al tener una API tipo OpenAI hace que el paso de cambio pueda ser tan pequeño como un endpoint.
@alexmaestre1056
@alexmaestre1056 4 ай бұрын
Le faltan tres ceros a tu número de suscriptores. Eres un crack.
@ai.charly
@ai.charly 4 ай бұрын
¡En el futuro puede ser! Ahora estoy siendo más constante y eso trae sus frutos, ¡gracias por tu comentario! Espero que te siga gustando la información
@leonardox222
@leonardox222 28 күн бұрын
me gustaría que hubiese una herramienta (opensource) que transcriba videos de youtube o cualquier fuente (o descargue las transcripciones existentes en los subtítulos con AutoSubSync) para resumirlos con chatgpt u otra ia, pero todo integrado, que solo tenga que pasarle la url o la ruta local del video y poder preguntarle con prompts para pedirle que me haga un resumen o cualquier pregunta relacionada, eso ahorraría muchisimo tiempo a muchísima gente, para no tener que ver aburridas conferencias o reuniones completas, te animas? :)
@ai.charly
@ai.charly 28 күн бұрын
@@leonardox222 de hecho ya tengo una herramienta similar que hice para traducir los vídeos que hago y agregarles las transcripciones, sería de colocarle una nueva feature y hacer el vídeo. Excelente idea amigo 👌🏻 siéntate y prepárate y cuando lo suba lo verás. Aunque habría que usar Whisper timestamped en local
@leonardox222
@leonardox222 28 күн бұрын
@@ai.charly genial!!! 😀, lo espero ancioso, muchas gracias!! Lo compartiré con todos mis contactos
@markYs1686
@markYs1686 4 ай бұрын
hermano una consulta este modelo hay una forma de que se pueda conectar a internet ? osea por medo de una api mandarlo una pregunta y el modelo busque en internet y te muestre los datos resumidos ?
@ai.charly
@ai.charly 4 ай бұрын
¡Claro que sí! Si este comentario llega a 5 likes, subo un tutorial de cómo modificarlo
@diegoserlini6798
@diegoserlini6798 4 ай бұрын
Muy buenos tus videos!!!. Como puedo hacer para crear un chat que lea datos de un archivo de Excel y responda sobre ese contenido?. Es posible descargar los modelos y agregarlos en mis proyectos?. Continua con tus videos y ayudando a los que estamos comenzando. Exitos!!!
@ai.charly
@ai.charly 4 ай бұрын
Ya tengo una app que es capaz de leer archivos y responder sobre ellos, te explico cómo hacerlo: Si lo haces con Python, ten en cuenta que es cuestión de usar librerías como csv para extraer el texto del archivo csv que puedes exportar de Excel, pasárselo al modelo en el mensaje del usuario y claro, adaptar el prompt según lo que deseas conseguir. Limitaciones: Ten en cuenta que los modelos actuales de IA no son buenos para matemáticas, así que el csv es un archivo útil si quieres usar la IA para análisis y entender de qué van los datos o quizás llenar espacios que faltan, pero no matemáticas. Y sí, también es posible descargar los modelos para usarlos en tus proyectos, con ollama puedes hacerlo, aunque yo te recomendaría no tenerlos en los mismo proyectos porque dependiendo de dónde lo tienes desplegado puede tener problemas de performance, lo modelos pequeños puedes correr en CPU, pero para modelos más grandes ya necesitas mayor capacidad de cómputo. En estos días voy a desplegar una instancia de Llama en Azure, cuando lo haga hago un vídeo de cómo lo hice. ¡Muchas gracias por tu comentario!
@diegoserlini6798
@diegoserlini6798 4 ай бұрын
@@ai.charly Muchas gracias por la respuesta, empecé a ver tus videos desde el principio y tienes una forma de explicar las cosas de manera muy simple. Podrias hacer un video mostrando como empezar con un proyecto simple, pero como lo harías de forma "profesional"?. Muchas gracias espero tus proximos videos!!
@ai.charly
@ai.charly 4 ай бұрын
Acabo de subir un vídeo hace rato de un repo con Chroma y Llama, además que tiene un pequeño script con internet aún en desarrollo, cuando esté listo subo un vídeo sobre eso. kzbin.info/www/bejne/rJu0cquAbLSJrtksi=TF_6vYy41p97VWCS
@accipiter_nisus
@accipiter_nisus 4 ай бұрын
@@ai.charly Seria interesante ese video. El despliegue en azure es en servidor gratuito de pruebas o de pago? Lo haces sobre cpu solo, o se contrata gpu tambien?
@ai.charly
@ai.charly 4 ай бұрын
De hecho quiero hacer un vídeo en detalle sobre eso, los precios de Azure para máquina potentes me parecen exorbitantes y la verdad la interfaz es HORRIBLE, peor que Google Cloud, entonces estoy viendo cuál es la mejor alternativa para desplegar modelos grandes no tan grandes, y modelos muy grandes en el futuro.
@steventura6183
@steventura6183 4 ай бұрын
Es posible conectarlo a whastapp o telegram, ademas de que tenga historial o memoria de cada persona con la que hablas integrado con un prompt? . gracias
@ai.charly
@ai.charly 4 ай бұрын
Sí se podría, subí otro vídeo en el que le agrego Chroma y un pequeño servidor de Fastapi que se puede customizar para usar la API de Telegram (que es mucho más developer friendly que la de WhatsApp). Con respecto a la memoria, con pasar los últimos 4 mensajes suele ser suficiente, y si ya quieres una memoria más a largo plazo podría usar una base de datos vectorial y que se vayan pasando en como extra contexto en cada iteración
@hunikho
@hunikho 4 ай бұрын
El video está genial, pero tengo una pregunta, en caso de que ya no quiero tenerlo en local, como le hago para desinstalar el modelo?
@ai.charly
@ai.charly 4 ай бұрын
Desinstalar el modelo es igual de fácil, ¿le gustaría ver un tutorial de cómo hacerlo?
@sp9368
@sp9368 4 ай бұрын
No entendí nada, pero buen vídeo bro!
@ai.charly
@ai.charly 4 ай бұрын
¡Muchísimas gracias! Ya estaba casi desanimándome pero tres comentarios en un vídeo es para mí un gran logro. Ya voy a empezar a colocar: "Se vienen cosas" jajajaj, pero es la verdad, intentaré hacer cada vez cosas que me parezcan más interesantes para mostrarle a la gente, no importa si no entienden, lo importante es saber que estamos en una época de contínuos cambios a nivel tecnológico que son interesantes de apreciar. ¡Feliz día!
@sp9368
@sp9368 4 ай бұрын
@@ai.charly Todo lleva su proceso, no te desanimes si no ves muchos comentarios. Siempre sé fiel a lo que sea que te guste y desees compartir, las personas que sepan apreciar ese contenido y que tengan la misma pasión llegarán. Tal vez no haya entendido, pero estos vídeos siempre abren una puerta a la gente curiosa como yo y quién sabe, tal vez algún día podría dedicarme a esto. ¡Felíz día para ti también! Y mucha suerte con tu canal. Saludos.
@franyerrivas8728
@franyerrivas8728 3 ай бұрын
hay una forma de conectar llama 3 a internet o sea que trabaje con datos actuales ?
@ai.charly
@ai.charly 3 ай бұрын
¡Por supuesto! Hay muchas formas de hacerlo, podrías usar requests en Python, o podrías usar SerpAPI para obtener resultados de Google a una query
@ithanhunt3250
@ithanhunt3250 4 ай бұрын
*NO SE NESECITA **#TARGETA** DE VIDEO EXTERNA PARA CORRER LLAMA NI OLLAMA, YO TENGO CORRIENDO EN MI PC, CON TARGETA DE VIDEO INTERNA OSEA CON SOLO CPU LO ESTOY CORRIENDO, Y TENGO EL MODELO PHI3 Y LLAMA 3 Q SON LOS MEJORES ACTUALMENTE Y FUNCIONAN REGULARMENTE NO RAPIDO PERO FUNCIONAN Y SOLO TENGO 4GB DE MEMORIA RAM*
@ai.charly
@ai.charly 4 ай бұрын
Realmente los modelos pequeños corren bastante bien en CPU, tan solo necesitas más poder si vas a usar modelos muy grandes
@pepugughd4553
@pepugughd4553 4 ай бұрын
Lama 3 funciona incluso en Android usando lama cpp en termux.
@ithanhunt3250
@ithanhunt3250 4 ай бұрын
*AHORA HACE UN VIDEO DE COMO CREAR IMAGENES CON STABLE DIFFUSION SIN USAR LA INTERFACE COMFYUI, OSEA DIRECTAMENTE DESDE LA LINEA DE COMANDOS, HACIENDO Q LAS IMAGENES GENERADAS LA GUARDE EN UNA CARPETA SIN MOSTRARLAS SOLO CREARLAS CON EL PROMPT Q UNO LE DE Y LISTO*
@ai.charly
@ai.charly 4 ай бұрын
Puedes usar la API de stable diffusion, es la forma más fácil, o intentar correrlo en local, un pequeño script de Python para recibir el input y listo
@RocíoVugdelija
@RocíoVugdelija Ай бұрын
Hola, gracias por el video! Tengo entendido que OpenAi no es gratuita, verdad?
@ai.charly
@ai.charly Ай бұрын
Correcto, con OpenAI tendrás que tener créditos para poder usar la API, y los créditos son básicamente convertidos a USD, entonces puedes empezar por un monto pequeño y ver cómo te va, según tu uso tampoco es demasiado caro. Hoy en día la tendencia es bajarle el precio a los modelos, y eso implica que a la larga muchas personas podrán incluso preferir trabajar con una API de terceros por su rápida respuesta y no tener la necesidad de ejecutar sus modelos en local.
@ai.charly
@ai.charly Ай бұрын
¡Muchas gracias por tu comentario!
@jackgaleras
@jackgaleras 4 ай бұрын
LM STUDIO? GPT4ALL
@ai.charly
@ai.charly 4 ай бұрын
Para allá vamos, hay que analizar cuáles son los mejores
@akhathos1618
@akhathos1618 2 ай бұрын
Muy poco didáctico, contenido atropellado. Tienes grandes conocimientos en computación, pero pocos o nada como docente. No me gustó, lo siento.
@ai.charly
@ai.charly 2 ай бұрын
@@akhathos1618 está muy bien, no tiene que gustarle a todos, imagino que buscas algo más desde cero. ¡Gracias por tu comentario!
@CesarFernando6363
@CesarFernando6363 4 ай бұрын
Muy complicado, un ejemplo y deja de dar tantas vueltas ..malo
@accipiter_nisus
@accipiter_nisus 4 ай бұрын
Hay temas y videos que el problema no es del que transmite que lo hace con esfuerzo. Valoralo. Esfuerzate. Tal vez no eres la persona adecuada para verlo.
This Llama 3 is powerful and uncensored, let’s run it
14:58
David Ondrej
Рет қаралды 143 М.
SHAPALAQ 6 серия / 3 часть #aminkavitaminka #aminak #aminokka #расулшоу
00:59
Аминка Витаминка
Рет қаралды 1,1 МЛН
Шок. Никокадо Авокадо похудел на 110 кг
00:44
Inside Out 2: BABY JOY VS SHIN SONIC 3
00:19
AnythingAlexia
Рет қаралды 6 МЛН
АЗАРТНИК 4 |СЕЗОН 3 Серия
30:50
Inter Production
Рет қаралды 987 М.
"okay, but I want Llama 3 for my specific use case" - Here's how
24:20
LLAMA 3 + Ollama + API
13:43
DavidBU
Рет қаралды 4,8 М.
Ollama's Newest Release and Model Breakdown
9:00
Matt Williams
Рет қаралды 16 М.
How I get Tweet data for FREE in 2024 as a data scientist
19:28
AI Spectrum
Рет қаралды 7 М.
DHH - Ruby on Rails, 37signals, and the future of web development
1:09:57
Testing out OLLAMA - Your own ChatGPT locally! [ENGLISH SUBTITLES]
14:40
The Most Legendary Programmers Of All Time
11:49
Aaron Jack
Рет қаралды 563 М.
SHAPALAQ 6 серия / 3 часть #aminkavitaminka #aminak #aminokka #расулшоу
00:59
Аминка Витаминка
Рет қаралды 1,1 МЛН