Fue entretenido probar todo , funcionando super bien :3
@CodigoEspinoza2 ай бұрын
Excelente!
@Deus-lo-Vuilt2 ай бұрын
Genial , esperaba algo así , poder usar crear apps usando un modelo de llama local ❤
@CodigoEspinoza2 ай бұрын
Súper!
@Deus-lo-Vuilt2 ай бұрын
@@CodigoEspinoza está genial está serie , ando viendo lo de montar ollama para poder avanzar algunos proyectos de la lista , no sé si tienes pensado a futuro sacar más usando llama 🦙🔥, saludos de Concepción , Chile 🏛️
@reinerromero726528 күн бұрын
😄 Muy interesante. Muchas gracias.
@DatossobrelaFaunayFlora3 ай бұрын
Hola, me gusta mucho tu video, soy fácil de comprende mucha gracia por en esfuerzo.
@CodigoEspinoza3 ай бұрын
Gracias a ti por este comentario
@lucassalinas3213 ай бұрын
contenido de calidad mi broder, enseña a crear el chat con memoria, seria bruta!!!
@CodigoEspinoza3 ай бұрын
Perfecto se viene pronto entonces!!!
@AdrianLopez-vh2dl3 ай бұрын
Amigo ya estoy instalandolo, todavia tengo que leer la documentacion del modelo para saber que permisos hay, pero el hecho de que sea de codigo abierto me encanta. Voy a usarlo en mis futuros proyectos. Saludos y espero el video con la capacidad de recordar!
@CodigoEspinoza3 ай бұрын
Súper gracias por comentar :D
@AlexHernandez-ms3wo18 күн бұрын
Hola que proyectos tienes en mente?
@LuisCalvoSaez3 ай бұрын
Hola, se podria editar un modelo y quedarte solo la parte que te interesa? por ejemplo dejar solo dos idiomas
@pedrodavid57523 ай бұрын
Muchísimas gracias por tu contenido hermano, me es de muchísima ayuda, podrías hacer algún video haciendo lo mismo con llama3 pero con streamlit?
@CodigoEspinoza3 ай бұрын
algo así tu dices xD? kzbin.info/www/bejne/aKbMi4iuo5eom7M
@pedrodavid57523 ай бұрын
@@CodigoEspinoza jajajajaja no lo había visto, gracias hermano
@CodigoEspinoza3 ай бұрын
@@pedrodavid5752 de nada!
@gabrielcastro77413 ай бұрын
Gracias mi rey
@CodigoEspinoza3 ай бұрын
Gracias a ti
@arielsoto41663 ай бұрын
Muy bien explicado gracias
@CodigoEspinoza3 ай бұрын
Hola, muchas gracias!!!
@MrSospechoso353 ай бұрын
hola, que app usas para abrir la consola y que tal fucniona?
@CodigoEspinoza3 ай бұрын
Pycharm y me va muy bien
@keidyli2 ай бұрын
❤Hola profe Iván. Tiene algún video de creación de chatbot con la API de WhatsApp y facebook? Gracias ☺️
@CodigoEspinoza2 ай бұрын
Aún no pero lo tengo en carpeta!
@Deruko.15 күн бұрын
vengo del futuro con ollama 3.2, parece ser que el modelo de 405b ya no esta disponible...una lastima, hubiera sido cool ver que hacia
@CodigoEspinoza15 күн бұрын
Igual es muy dificil correr ese modelo en local, hay que tener una máquina muuuuy potente
@CodigoEspinoza13 күн бұрын
revisaste la compatibilidad de versiones?
@williamscondori4479Ай бұрын
te falto explicar los requisitos minimos de hardware
@alexr99342 ай бұрын
Descargué Gemma en mi laptop que no es ni de cerca la mejor y funciona medianamente aceptable Ollama . Ya me di cuenta que tidi depende de la tarjeta gráfica 😅
@CodigoEspinoza2 ай бұрын
Jajaja si depende mucho de la tarjeta gráfica
@lucasderito3 ай бұрын
Hola..como estas... probaste q tal funciona para pedirle q te devuelva un json? Sabes q tal puede funcionar para eso? Muy buen video
@CodigoEspinoza3 ай бұрын
no he probado pero me imagin o que funciona bien solo que tendrias que copiar y pegar el contenido del json
@lucasderito3 ай бұрын
@@CodigoEspinoza y esa devolución la podre pegar en algún gráfico de x ejemplo matplotlib? Q opinas?..o q por ejemplo detecte palabras y las compare con algún diccionario..
@CodigoEspinoza3 ай бұрын
@@lucasderito yo creo q si peor para esas cosas más estructuradas podrías usar langchain
@lucasderito3 ай бұрын
@@CodigoEspinoza muchas gracias..queria saber eso q tan escalable puede ser ..como tambien asi sumarle streamlit y poder desplegar algo en real..espero se entienda la idea...pq asi es buenísimo como herramienta local pero se podria combinar con lo q te digo..voy a probar y despues cuento
@CodigoEspinoza3 ай бұрын
@@lucasderito súper y si cuéntame cómo te resulta
@DatossobrelaFaunayFlora3 ай бұрын
oye podría hace un video explicado los básico de fine tuner para este modelo otro.
@CodigoEspinoza3 ай бұрын
Siii tengo pendiente haceer un vídeo asi!!
@marcelotorres91453 ай бұрын
Puedes hacer el chat pero con memoria? Te voy agradecer... 👏👏👏💪💪💪
@CodigoEspinoza3 ай бұрын
Ya está ¡Crea tu Propio Chat con Memoria Usando LLaMA 3.1 y Streamlit! 🚀 kzbin.info/www/bejne/ppXQkqiOoL2hpck
@gabrielmartin31072 ай бұрын
Se podría hacerle una calculadora en python ? para que el modelo de lenguaje pueda usarla, es que al ser solo modelo de lenguaje calcula cosas muy mal y alucina bastante en matemáticas. O lo mismo la gran equivocación es pedirle a un modelo de lenguaje cálculos matemáticos, no se, tu que opinas.
@CodigoEspinoza2 ай бұрын
claro te recomiendo mirar el ultimo video que subí, ahí hicew algo similar
@GonzaloVeglio3 ай бұрын
como podria crear el codigo en mi pc pero que al momento de ejecutarse busque el Ollama y el modelo Llama 3 de otro equipo en el que esta intalado?
@Nicoadriazola3 ай бұрын
¿Tienes algún Mail de contacto?
@sheanlyshorts3 ай бұрын
y lo puedo entrenar yo mismo ? como se hace
@CodigoEspinoza3 ай бұрын
Si hay formas de hacer fine tunning, espero poder preparar un video pronto al respecto
@saramilenadiazperez3813 ай бұрын
Corrí el modelo en mi local, sin embargo se demora mucho en responder a una solicitud (4-10 minutos). ¿Sabes como se podría mejorar?
@CodigoEspinoza3 ай бұрын
Generalmente es por la tarjeta de video q tienes, lamentablemente estos modelos requieren harta tarjeta de video
@OscarMejia-z6e3 ай бұрын
no entiendo porque a mi me demora un monton de tiempo para enviarme una respuesta, y a veces no las envia, estoy utilizando la latest y tengo 12gb de ram, que tristeza :c
@kantyDarius3 ай бұрын
Tienes una gráfica con 12 GB de ram?
@OscarMejia-z6e3 ай бұрын
@@kantyDarius No, la mia es de 4
@CodigoEspinoza3 ай бұрын
es por eso
@POGRetroModernGaming3 ай бұрын
Yo tengo 32 de ram y me pasa lo mismo
@OscarMejia-z6e3 ай бұрын
@@POGRetroModernGaming al parecer hay que tener una tarjeta gráfica poderosa para que funcione ;)
@Jaibytes3 ай бұрын
Cuántos gigas ocupa ?
@CodigoEspinoza3 ай бұрын
Si no me equivoco al Menos 12gb de memoria de tarjeta gráfica
@CodigoEspinoza3 ай бұрын
Difícil, pero subí otro video con una alternativa no local peor gratuita
@josephfoster99273 ай бұрын
Cuales son los requisitos computacionales para poder correrlo en local
@josephfoster99273 ай бұрын
Se necesita VRAM
@CodigoEspinoza3 ай бұрын
basicamente: Note: You should have at least 8 GB of RAM available to run the 7B models, 16 GB to run the 13B models, and 32 GB to run the 33B models.
@enekomalo71903 ай бұрын
Hola, alguno ha podido ejecutar el modelo en local sin acceso a internet? a mi me da siempre errror de conexion httpx.ConnectError: [Errno 11001] getaddrinfo failed
@jodter13 ай бұрын
para hacer q guarde el chat q se tiene, solo guardo en una variable la conversaciones y ya ? cual es el limite de texto ?
@CodigoEspinoza3 ай бұрын
Si puedes hacerlo con una variable de memoria teengo algunos videos que explican eso tb acá een el canal, sobre el limite estoy buscando no eestoy seguroi aún, apenas sepa el limite de token lo pongo
@jodter13 ай бұрын
@@CodigoEspinoza voy a experimentar. gracias por tu contenido de calidad.
@CodigoEspinoza3 ай бұрын
@@jodter1 gracias por el apoyo :) y éxito!
@ArgenNews3 ай бұрын
Pero estás usando el Q6, el Q8 sería mejor todavía.
@javaboy65813 ай бұрын
Muy buen video, no se que sentido tiene correr los LLM locales si con chatgpt tenemos de sobra y es mucho mas avanzado, es preferible pagar la membresia y nos da todo GPT propios, etc. Usar los LLM locales que no le llegan ni a la suela y configurarlos es perder el tiempo a lo tonto a mi modo de ver, yo lo he hecho y los resultados son muy pobres. Hacerles fine tunning y rag con lo que lleva de tiempo y luego ves los resultados y se te cae el alma a los pies. Me quedo con chatgpt de calle.
@CodigoEspinoza3 ай бұрын
Hola graciasp or eel comentario, pero si tiene sentido en algunos proyectos que neceesites un modelo quee no cobre por su API y que puedas solucionar tareas repetitivas que se generarán siempre y pueden aumentare los tokens considerableemente, por ejemplo crear un npc para un juego que responda con lenguaje natural
@javaboy65813 ай бұрын
@@CodigoEspinoza Gracias a ti por contestar, un abrazo