Prueba ya Llama 3 - Tres formas de correrlo en tu equipo y tres formas gratis via web

  Рет қаралды 6,558

La Hora Maker

La Hora Maker

Күн бұрын

En este video te explico tres formas en las que puedes ejecutar Llama 3 ¡ya mismo! Probaremos con nuestros programas favoritos Ollama y LM Studio pero también con LlamaFile, una variante portatil creada por Mozilla. También exploraremos tres servicios con los que puedes probar sin coste este modelo, incluso en su version de 70B de parámetros, sin tener una GPU local potente.
Llama 3 es un modelo liberado por Meta con licencia que permite el uso comercial para la mayoría de casos y que se ha entrenado con un inmenso corpus de conocimiento. Las evaluaciones inciales lo situán por encima de ChatGPT-3.5 y el modelo más grande tiene rendimientos similares a otros modelos comerciales, cuyos pesos no están disponibles en abierto.

Пікірлер: 52
@juanjesusligero391
@juanjesusligero391 4 ай бұрын
¡Gran vídeo, como siempre! ^^ Sobre el testeo de nuevos modelos, a mí me suele gustar preguntarle cosas muy muy específicas de mi campo (así sé cómo de útil me va a ser probablemente), pero para que interese a todos yo diría que lo suyo es que te hagas una pequeña batería de preguntas variadas. Por ejemplo, podrías hacer una pregunta de lógica, otra de programación (algo sencillito), otra de matemáticas, otra de literatura/poesía, otra de conocimientos generales, y una última que podría ser muy muy específica de un campo concreto y podrías ir variando de un vídeo a otro para darle vidilla. Lo mismo sería interesante que para esa última pregunta les pidieras a los espectadores que escriban preguntas que les interesa de este tipo, así te las podrías apuntar e ir usando de forma aleatoria en sucesivos vídeos.
@ivanr4658
@ivanr4658 4 ай бұрын
Esperando impaciente
@En60Segundos.
@En60Segundos. 4 ай бұрын
Ya lo probé ayer y esta bastante bien, ahora falta esperar el modelo grande, va a estar brutal
@jossejosse952
@jossejosse952 4 ай бұрын
Acaba de salir phi3 7b y 14b y al parecer según Microsoft es superior al famoso llama 3 8b y llama 3 70b
@LaHoraMaker
@LaHoraMaker 4 ай бұрын
Si, lo único que un modelo de 400B a ver donde lo vamos a poder ejecutar!
@elgazeta
@elgazeta 4 ай бұрын
Buenas, por mi está bien la pregunta actual sobre movimiento maker y pandemia. En general el prompt q uso es algo así como: "inventa una operación matemática completamente nueva e implementala en python"
@JuanCastillo-lp2kl
@JuanCastillo-lp2kl 4 ай бұрын
Buenas noches muchas gracias por la información. Yo apenas estoy entendiendo esto sobre los modelos de llama 3 y demás. No soy muy bueno programando y mi computadora no es muy sofisticada; pero como usuario nuevo no quiero quedarme atrás. Tomando en cuenta mi situacion, me gustaria aprender lo siguiente: descargar un modelo pequeño en mi laptop y aplicarlo en mi escuela, por ejemplo: que analice una lista de asistencia y calificaciones de mis alumnos y pueda obtener sobre quien mas falta, el promedio, etc. Otra aplicacion es que analice expedientes de alumnos y pueda detectar algunos comportamientos de conducta etc. No se si se pueda; pero me gustaria saberlo y finalmente si puedo desplegarlo como una app o pagina web . Muchas gracias por leer el comentario . Quiza existan mas usuarios como yo que no entendemos y buscamos aplicaciones sencillas en nuestro entorno laboral
@vitaminservice_
@vitaminservice_ 4 ай бұрын
Genial como siempre.
@corleone2009
@corleone2009 4 ай бұрын
Muchísimas gracias 😊
@LaHoraMaker
@LaHoraMaker 4 ай бұрын
Gracias por comentar!
@santiagocastillo1719
@santiagocastillo1719 4 ай бұрын
Muchas gracias por el esfuerzo de divulgación. Sobre la pregunta, solo como sugerencia a bote pronto, podríamos preguntar sobre si la sonda espacial Voyager I todavía envía datos útiles a la Tierra (hace unos meses, creo que 5, empezó a enviar datos no legibles debido a la corrupción de un chip).
@nabilfarja8616
@nabilfarja8616 4 ай бұрын
Posta no se como no tenes mas subs
@Maisonier
@Maisonier 4 ай бұрын
Pero que buen canal en español! like y suscribir. Sería genial algún vídeo de cómo usar crewai con llama 3 cuando tengas tiempo o si es mejor autogen2.0 ¿o qué otras herramientas hay? gracias por compartir conocimiento.
@PHRAKENDARK
@PHRAKENDARK 4 ай бұрын
Sería bueno que hicieras como maneja el lenguaje de Marcado del promt de cada modelo. Para promt dinámicos
@danson3038
@danson3038 4 ай бұрын
Cesar, que nos recomiendas para plugin Vscode con modelo dual local & openai?
@AlejandroHidalgoL
@AlejandroHidalgoL 4 ай бұрын
No vengo del mundo de los datos ni menos de la IA y estoy encantado con tus videos. Muchas gracias. Una consulta que tengo sobre el uso de estos modelos es cómo puedo pasarle una base de datos externa a para luego hacerle consultas relacionadas... por ejemplo la nómina de notas de un instituto y consultar sobre alumnos con peores rendimientos o profesores con peor performance. no sé si esto sea posible a través del uso de IA o para el caso mejor usar usar otras estrategias clásicas de análisis de datos. Muchas gracias por la respuesta.
@angieo3934
@angieo3934 4 ай бұрын
Se puede hacer como un bot Q&A con información de pdf, podrías hacerla con base de datos de vectores y explicar la generación de embeddings o hacer embeddings con esos nuevos modelos? :D
@erikamoonreeves6462
@erikamoonreeves6462 4 ай бұрын
Te paso un like... ..
@sebastian3122
@sebastian3122 3 ай бұрын
Gracias por tus vídeos, acabo de aterrizar en este mundo. De momento, a mí la llama estándar me suelta más mentiras que verdades, debe haber comido alguna hierba alucinógena.
@LaHoraMaker
@LaHoraMaker 3 ай бұрын
El modelo de 70B funciona bastante mejor que el de 8B en cuanto a devolver información fidedigna. Pero para procesar textos, hacer resumenes y demás el pequeño me ha funcionado bastante bien.
@jribesc
@jribesc 4 ай бұрын
Gracias !!!!
@JaviArte
@JaviArte Ай бұрын
Un apunte. El LM Studio funciona muy bien, pero no puede ejecutar modelos si tienes una CPU antigua :( (aunque elijas que corra en la GPU)
@En60Segundos.
@En60Segundos. 4 ай бұрын
Saludos makers
@LaHoraMaker
@LaHoraMaker 4 ай бұрын
¡Saludos!
@dashremix
@dashremix 4 ай бұрын
Hola!. Como estas? Seria bueno que hicieras una evaluación de Phi3 en local
@TheQuiyax
@TheQuiyax Ай бұрын
Hola! Me gustaría poder aclarar que es tener un Hardware potente o medianamente potente, se me dificulta establecer en que rango esta mi computador para ejecutar un modelo u otro.
@dragontvfics
@dragontvfics 4 ай бұрын
buen día, cual modelo me recomiendas para escribir relatos/cuentos/novelas?
@Jesulex82
@Jesulex82 28 күн бұрын
Cuanndo descargo el modelo para LMstudio siempre me da un fallo ¿Me das algún consejo?
@a0z9
@a0z9 4 ай бұрын
Si el mediano necesita unac3090, cuando salga el modelo grande no entra ni por la puerta. El prompt definitivo sería: ¿ podría el movimiento maker contribuir al avance de la IA con la creación de neuronas artificiales mediante el diseño y la fabricación de circuitos electrónicos que imiten las funciones básicas de las neuronas biológicas, como la capacidad de recibir y enviar señales eléctricas ,utilizando tecnologías como la electrónica bioinspirada o la computación neurológica.?¿Qué opinas sobre esta aproximación?
@LaHoraMaker
@LaHoraMaker 4 ай бұрын
Le podemos preguntar estas preguntas a los próximos modelos a ver si nos llevan hacia el futuro :D
@moebiusSurfing
@moebiusSurfing 4 ай бұрын
Hola, sabes si se podría entrenar llama para escribir con el estilo de un autor/escritor puntual?
@josepolonia7723
@josepolonia7723 4 ай бұрын
una pregunta hermano las tarjetas NVIDIA Tesla K80 24GB GDDR5 se pueden utilizar para correr modelos?
@LaHoraMaker
@LaHoraMaker 4 ай бұрын
Hola Jose, hasta donde se estar tarjetas son como 2 tarjetas de 12Gb unidas. El soporte de drivers para estar tarjetas tampoco soporta muchas de las nuevas funcionalidades, así que creo que no son las más recomendables si estás buscando tarjetas nuevas.
@christianesteveorts9935
@christianesteveorts9935 4 ай бұрын
Saludos makers. Una pregunta, al instalar Lm studio en una máquina virtual Windows 11 o 10 me da un error relacionado con JavaScript. Alguien ha conseguido empaquetar Lm studio en un máquina v?
@Salionca
@Salionca 4 ай бұрын
Modo oscuro, por favor. Gracias.
@LaHoraMaker
@LaHoraMaker 4 ай бұрын
Pues es una buena idea, lo mismo así hay menos contraste entre la parte de la terminal y la parte del navegador.
@trocarful
@trocarful 4 ай бұрын
Un video sobre devin, please!!
@javilobaton
@javilobaton 4 ай бұрын
Estoy trabajando en un proyecto que tengo que traducir al español un montón d libros. Me gustaría ver qué modelo y qué aplicación puede ayudarme a hacerlo localmente. Graciasss
@LaHoraMaker
@LaHoraMaker 4 ай бұрын
Hola Javi, yo le daría un vistazo a los modelos específicos para la traducción disponibles HuggingFace: huggingface.co/models?pipeline_tag=translation&sort=trending En el caso de traducción de inglés a español, tienes los modelos de Helsinki-NLP, que tienen muy buena pinta: huggingface.co/Helsinki-NLP/opus-mt-tc-big-en-es
@javilobaton
@javilobaton 4 ай бұрын
@@LaHoraMaker gracias
@inteligenciafutura
@inteligenciafutura 4 ай бұрын
sabes como entrenarlo?
@kannder83
@kannder83 3 ай бұрын
HOla, alguna recomendación de cloud/vm para correr ollama? algo diferente a AWS o GCP? de antemano gracias 😁
@LaHoraMaker
@LaHoraMaker 3 ай бұрын
Quizás lo más sencillo sea un servicio como Together o Groq (via API), pero si quieres correr Ollama en una VM lo más práctico es usar Runpod. Lo único que hay que acordarse al levantar la máquina de exponer el puerto del 11434 o hacer la inferencia en local vía ssh.
@kannder83
@kannder83 3 ай бұрын
@@LaHoraMaker muchas gracias!
@javiercc2845
@javiercc2845 4 ай бұрын
Buenas tardes. Que modelo gratuito recomiendas para trabajar en español y en local con tus propios documentos?
@nichonauta
@nichonauta 4 ай бұрын
Stable LM 2 1.6B es muy pequeño, rápido, y está pensado para varios idiomas incluído español. Para trabajos complejos quizá no sea lo mejor, pero para todo lo demás en español funciona perfecto.
@javiercc2845
@javiercc2845 4 ай бұрын
@@nichonauta gracias! Voy a probarlo a ver como se compara con gpt3.5
@pablobandeira5461
@pablobandeira5461 4 ай бұрын
Hola! como estas?, para correr un modelo que pesa 26gb (lama3:70b-instruct-q2_K), lo puedo correr con una 3090 de 24gb y ram de 16gb? o necesito que la ram y la vram sean equivalentes a lo que pesa el llm?
@LaHoraMaker
@LaHoraMaker 4 ай бұрын
En programas como LM Studio, le puedes indicar el número de capas que quieres que se ejecuten en la GPU, el resto lo cargará en la memoeria del equipo. Así que si tienes memoria suficiente debería cargarlo sin problema. Ahora bien, para una tarjeta de 24 Gb, creo que te va a funcionar mejor algo tipo Mixtral 8x7B Q3, que son 20,5 Gb. Ya me dirás a ver que tal te funciona!
@danson3038
@danson3038 4 ай бұрын
No escatimes en RAM. Es mucho más asequible, se recomienda mínimo 2x vram. Los modelos híbridos CPU+vram terminan consumiendo más xram total que la propia del modelo. Si subimos el contexto del modelo ya ni hablamos.
@user-ov4mi2nn3o
@user-ov4mi2nn3o 4 ай бұрын
Traducr videos de youtube en local
@Raikage_IA
@Raikage_IA 4 ай бұрын
hola, la hora maker, veras tengo una pregunta y no se si puedas ayudamre , yo me dedico a hacer hentai contenido erotico para adultos con imagenes en stable difussion y constante mente necesito creacion de dialogos mi duda habra algun modelo que me ayude ya que los que e usado no me responden bien o me dicen que no pueden resoonder cosas tipo NSFW
Servidor IA para tu Intranet 100% local usando Ollama y Open WebUI
21:20
I Took a LUNCHBAR OFF A Poster 🤯 #shorts
00:17
Wian
Рет қаралды 15 МЛН
АЗАРТНИК 4 |СЕЗОН 1 Серия
40:47
Inter Production
Рет қаралды 1,2 МЛН
The Joker kisses Harley Quinn underwater!#Harley Quinn #joker
00:49
Harley Quinn with the Joker
Рет қаралды 42 МЛН
Transforma ChatGPT en AutoGPT con un solo Mensaje
8:18
Academia IA Lab
Рет қаралды 207 М.
LLAMA 3 + Ollama + API
13:43
DavidBU
Рет қаралды 4,2 М.
Create your own CUSTOMIZED Llama 3 model using Ollama
12:55
AI DevBytes
Рет қаралды 19 М.
Testing out OLLAMA - Your own ChatGPT locally! [ENGLISH SUBTITLES]
14:40
I Took a LUNCHBAR OFF A Poster 🤯 #shorts
00:17
Wian
Рет қаралды 15 МЛН