Cómo Correr el Modelo Llama 3.1 de Meta en Local con Python

  Рет қаралды 8,224

Código Espinoza - Automátiza tu Vida

Código Espinoza - Automátiza tu Vida

Күн бұрын

Пікірлер: 79
@JORDAN7514
@JORDAN7514 3 ай бұрын
Este canal vale oro!
@CodigoEspinoza
@CodigoEspinoza 3 ай бұрын
jaja gracias!!
@Deus-lo-Vuilt
@Deus-lo-Vuilt 2 ай бұрын
Fue entretenido probar todo , funcionando super bien :3
@CodigoEspinoza
@CodigoEspinoza 2 ай бұрын
Excelente!
@Deus-lo-Vuilt
@Deus-lo-Vuilt 2 ай бұрын
Genial , esperaba algo así , poder usar crear apps usando un modelo de llama local ❤
@CodigoEspinoza
@CodigoEspinoza 2 ай бұрын
Súper!
@Deus-lo-Vuilt
@Deus-lo-Vuilt 2 ай бұрын
@@CodigoEspinoza está genial está serie , ando viendo lo de montar ollama para poder avanzar algunos proyectos de la lista , no sé si tienes pensado a futuro sacar más usando llama 🦙🔥, saludos de Concepción , Chile 🏛️
@reinerromero7265
@reinerromero7265 28 күн бұрын
😄 Muy interesante. Muchas gracias.
@DatossobrelaFaunayFlora
@DatossobrelaFaunayFlora 3 ай бұрын
Hola, me gusta mucho tu video, soy fácil de comprende mucha gracia por en esfuerzo.
@CodigoEspinoza
@CodigoEspinoza 3 ай бұрын
Gracias a ti por este comentario
@lucassalinas321
@lucassalinas321 3 ай бұрын
contenido de calidad mi broder, enseña a crear el chat con memoria, seria bruta!!!
@CodigoEspinoza
@CodigoEspinoza 3 ай бұрын
Perfecto se viene pronto entonces!!!
@AdrianLopez-vh2dl
@AdrianLopez-vh2dl 3 ай бұрын
Amigo ya estoy instalandolo, todavia tengo que leer la documentacion del modelo para saber que permisos hay, pero el hecho de que sea de codigo abierto me encanta. Voy a usarlo en mis futuros proyectos. Saludos y espero el video con la capacidad de recordar!
@CodigoEspinoza
@CodigoEspinoza 3 ай бұрын
Súper gracias por comentar :D
@AlexHernandez-ms3wo
@AlexHernandez-ms3wo 18 күн бұрын
Hola que proyectos tienes en mente?
@LuisCalvoSaez
@LuisCalvoSaez 3 ай бұрын
Hola, se podria editar un modelo y quedarte solo la parte que te interesa? por ejemplo dejar solo dos idiomas
@pedrodavid5752
@pedrodavid5752 3 ай бұрын
Muchísimas gracias por tu contenido hermano, me es de muchísima ayuda, podrías hacer algún video haciendo lo mismo con llama3 pero con streamlit?
@CodigoEspinoza
@CodigoEspinoza 3 ай бұрын
algo así tu dices xD? kzbin.info/www/bejne/aKbMi4iuo5eom7M
@pedrodavid5752
@pedrodavid5752 3 ай бұрын
@@CodigoEspinoza jajajajaja no lo había visto, gracias hermano
@CodigoEspinoza
@CodigoEspinoza 3 ай бұрын
@@pedrodavid5752 de nada!
@gabrielcastro7741
@gabrielcastro7741 3 ай бұрын
Gracias mi rey
@CodigoEspinoza
@CodigoEspinoza 3 ай бұрын
Gracias a ti
@arielsoto4166
@arielsoto4166 3 ай бұрын
Muy bien explicado gracias
@CodigoEspinoza
@CodigoEspinoza 3 ай бұрын
Hola, muchas gracias!!!
@MrSospechoso35
@MrSospechoso35 3 ай бұрын
hola, que app usas para abrir la consola y que tal fucniona?
@CodigoEspinoza
@CodigoEspinoza 3 ай бұрын
Pycharm y me va muy bien
@keidyli
@keidyli 2 ай бұрын
❤Hola profe Iván. Tiene algún video de creación de chatbot con la API de WhatsApp y facebook? Gracias ☺️
@CodigoEspinoza
@CodigoEspinoza 2 ай бұрын
Aún no pero lo tengo en carpeta!
@Deruko.
@Deruko. 15 күн бұрын
vengo del futuro con ollama 3.2, parece ser que el modelo de 405b ya no esta disponible...una lastima, hubiera sido cool ver que hacia
@CodigoEspinoza
@CodigoEspinoza 15 күн бұрын
Igual es muy dificil correr ese modelo en local, hay que tener una máquina muuuuy potente
@CodigoEspinoza
@CodigoEspinoza 13 күн бұрын
revisaste la compatibilidad de versiones?
@williamscondori4479
@williamscondori4479 Ай бұрын
te falto explicar los requisitos minimos de hardware
@alexr9934
@alexr9934 2 ай бұрын
Descargué Gemma en mi laptop que no es ni de cerca la mejor y funciona medianamente aceptable Ollama . Ya me di cuenta que tidi depende de la tarjeta gráfica 😅
@CodigoEspinoza
@CodigoEspinoza 2 ай бұрын
Jajaja si depende mucho de la tarjeta gráfica
@lucasderito
@lucasderito 3 ай бұрын
Hola..como estas... probaste q tal funciona para pedirle q te devuelva un json? Sabes q tal puede funcionar para eso? Muy buen video
@CodigoEspinoza
@CodigoEspinoza 3 ай бұрын
no he probado pero me imagin o que funciona bien solo que tendrias que copiar y pegar el contenido del json
@lucasderito
@lucasderito 3 ай бұрын
@@CodigoEspinoza y esa devolución la podre pegar en algún gráfico de x ejemplo matplotlib? Q opinas?..o q por ejemplo detecte palabras y las compare con algún diccionario..
@CodigoEspinoza
@CodigoEspinoza 3 ай бұрын
@@lucasderito yo creo q si peor para esas cosas más estructuradas podrías usar langchain
@lucasderito
@lucasderito 3 ай бұрын
@@CodigoEspinoza muchas gracias..queria saber eso q tan escalable puede ser ..como tambien asi sumarle streamlit y poder desplegar algo en real..espero se entienda la idea...pq asi es buenísimo como herramienta local pero se podria combinar con lo q te digo..voy a probar y despues cuento
@CodigoEspinoza
@CodigoEspinoza 3 ай бұрын
@@lucasderito súper y si cuéntame cómo te resulta
@DatossobrelaFaunayFlora
@DatossobrelaFaunayFlora 3 ай бұрын
oye podría hace un video explicado los básico de fine tuner para este modelo otro.
@CodigoEspinoza
@CodigoEspinoza 3 ай бұрын
Siii tengo pendiente haceer un vídeo asi!!
@marcelotorres9145
@marcelotorres9145 3 ай бұрын
Puedes hacer el chat pero con memoria? Te voy agradecer... 👏👏👏💪💪💪
@CodigoEspinoza
@CodigoEspinoza 3 ай бұрын
Ya está ¡Crea tu Propio Chat con Memoria Usando LLaMA 3.1 y Streamlit! 🚀 kzbin.info/www/bejne/ppXQkqiOoL2hpck
@gabrielmartin3107
@gabrielmartin3107 2 ай бұрын
Se podría hacerle una calculadora en python ? para que el modelo de lenguaje pueda usarla, es que al ser solo modelo de lenguaje calcula cosas muy mal y alucina bastante en matemáticas. O lo mismo la gran equivocación es pedirle a un modelo de lenguaje cálculos matemáticos, no se, tu que opinas.
@CodigoEspinoza
@CodigoEspinoza 2 ай бұрын
claro te recomiendo mirar el ultimo video que subí, ahí hicew algo similar
@GonzaloVeglio
@GonzaloVeglio 3 ай бұрын
como podria crear el codigo en mi pc pero que al momento de ejecutarse busque el Ollama y el modelo Llama 3 de otro equipo en el que esta intalado?
@Nicoadriazola
@Nicoadriazola 3 ай бұрын
¿Tienes algún Mail de contacto?
@sheanlyshorts
@sheanlyshorts 3 ай бұрын
y lo puedo entrenar yo mismo ? como se hace
@CodigoEspinoza
@CodigoEspinoza 3 ай бұрын
Si hay formas de hacer fine tunning, espero poder preparar un video pronto al respecto
@saramilenadiazperez381
@saramilenadiazperez381 3 ай бұрын
Corrí el modelo en mi local, sin embargo se demora mucho en responder a una solicitud (4-10 minutos). ¿Sabes como se podría mejorar?
@CodigoEspinoza
@CodigoEspinoza 3 ай бұрын
Generalmente es por la tarjeta de video q tienes, lamentablemente estos modelos requieren harta tarjeta de video
@OscarMejia-z6e
@OscarMejia-z6e 3 ай бұрын
no entiendo porque a mi me demora un monton de tiempo para enviarme una respuesta, y a veces no las envia, estoy utilizando la latest y tengo 12gb de ram, que tristeza :c
@kantyDarius
@kantyDarius 3 ай бұрын
Tienes una gráfica con 12 GB de ram?
@OscarMejia-z6e
@OscarMejia-z6e 3 ай бұрын
@@kantyDarius No, la mia es de 4
@CodigoEspinoza
@CodigoEspinoza 3 ай бұрын
es por eso
@POGRetroModernGaming
@POGRetroModernGaming 3 ай бұрын
Yo tengo 32 de ram y me pasa lo mismo
@OscarMejia-z6e
@OscarMejia-z6e 3 ай бұрын
@@POGRetroModernGaming al parecer hay que tener una tarjeta gráfica poderosa para que funcione ;)
@Jaibytes
@Jaibytes 3 ай бұрын
Cuántos gigas ocupa ?
@CodigoEspinoza
@CodigoEspinoza 3 ай бұрын
Si no me equivoco al Menos 12gb de memoria de tarjeta gráfica
@CodigoEspinoza
@CodigoEspinoza 3 ай бұрын
Difícil, pero subí otro video con una alternativa no local peor gratuita
@josephfoster9927
@josephfoster9927 3 ай бұрын
Cuales son los requisitos computacionales para poder correrlo en local
@josephfoster9927
@josephfoster9927 3 ай бұрын
Se necesita VRAM
@CodigoEspinoza
@CodigoEspinoza 3 ай бұрын
basicamente: Note: You should have at least 8 GB of RAM available to run the 7B models, 16 GB to run the 13B models, and 32 GB to run the 33B models.
@enekomalo7190
@enekomalo7190 3 ай бұрын
Hola, alguno ha podido ejecutar el modelo en local sin acceso a internet? a mi me da siempre errror de conexion httpx.ConnectError: [Errno 11001] getaddrinfo failed
@jodter1
@jodter1 3 ай бұрын
para hacer q guarde el chat q se tiene, solo guardo en una variable la conversaciones y ya ? cual es el limite de texto ?
@CodigoEspinoza
@CodigoEspinoza 3 ай бұрын
Si puedes hacerlo con una variable de memoria teengo algunos videos que explican eso tb acá een el canal, sobre el limite estoy buscando no eestoy seguroi aún, apenas sepa el limite de token lo pongo
@jodter1
@jodter1 3 ай бұрын
@@CodigoEspinoza voy a experimentar. gracias por tu contenido de calidad.
@CodigoEspinoza
@CodigoEspinoza 3 ай бұрын
@@jodter1 gracias por el apoyo :) y éxito!
@ArgenNews
@ArgenNews 3 ай бұрын
Pero estás usando el Q6, el Q8 sería mejor todavía.
@javaboy6581
@javaboy6581 3 ай бұрын
Muy buen video, no se que sentido tiene correr los LLM locales si con chatgpt tenemos de sobra y es mucho mas avanzado, es preferible pagar la membresia y nos da todo GPT propios, etc. Usar los LLM locales que no le llegan ni a la suela y configurarlos es perder el tiempo a lo tonto a mi modo de ver, yo lo he hecho y los resultados son muy pobres. Hacerles fine tunning y rag con lo que lleva de tiempo y luego ves los resultados y se te cae el alma a los pies. Me quedo con chatgpt de calle.
@CodigoEspinoza
@CodigoEspinoza 3 ай бұрын
Hola graciasp or eel comentario, pero si tiene sentido en algunos proyectos que neceesites un modelo quee no cobre por su API y que puedas solucionar tareas repetitivas que se generarán siempre y pueden aumentare los tokens considerableemente, por ejemplo crear un npc para un juego que responda con lenguaje natural
@javaboy6581
@javaboy6581 3 ай бұрын
@@CodigoEspinoza Gracias a ti por contestar, un abrazo
¡Crea tu Propio Chat con Memoria Usando LLaMA 3.1 y Streamlit! 🚀
15:20
Código Espinoza - Automátiza tu Vida
Рет қаралды 2,9 М.
Family Love #funny #sigma
00:16
CRAZY GREAPA
Рет қаралды 35 МЛН
Миллионер | 2 - серия
16:04
Million Show
Рет қаралды 1,9 МЛН
Try Not To Laugh 😅 the Best of BoxtoxTv 👌
00:18
boxtoxtv
Рет қаралды 7 МЛН
Triple kill😹
00:18
GG Animation
Рет қаралды 17 МЛН
Fully local RAG agents with Llama 3.1
20:04
LangChain
Рет қаралды 54 М.
Кодинг С НУЛЯ при помощи нейросетей - Cursor + Claude 3,5 Sonnet
15:35
Продуктивный Совет
Рет қаралды 23 М.
КАК НАЧАТЬ ПОНИМАТЬ LINUX (2024)
21:10
PLAFON - Канал о линуксе
Рет қаралды 207 М.
Create your own Alexa / Siri | Python | AVM
42:25
AVM
Рет қаралды 188 М.
Real time RAG App using Llama 3.2 and Open Source Stack on CPU
29:33
Family Love #funny #sigma
00:16
CRAZY GREAPA
Рет қаралды 35 МЛН