Muy buen contenido! Estaba intentando aprender por mi cuenta sobre LLM y vienen genial. Muchas gracias
@alexFocus89 ай бұрын
Muchas gracias por el comentario 😁 me alegro que te sea util
@insecureup9 ай бұрын
Muy interesante, ahora lo que estaría genial es un video tutorial haciendo LLM transfer learning o fine-tuning. Hay una app que creo que hace fine-tuning se llama Ollama. El tema de la habilidades emergentes de estos modelos también es muy interesante sobre todo si existen pruebas para averiguar cuales a adquirido.
@alexFocus89 ай бұрын
Tengo un video en el canal de como hacer fine tunning a Llama, mirare para hacer un video de ollama aunque creo que por ahora solo esta para linux y mac y hay mucha gente que tiene windows, gracias por el comentario 😁
@carlosalaniz39519 ай бұрын
Este modelo podría responder en base a documentos que podamos cargar tipo modelo RAG que ocupaste en Llama?
@alexFocus89 ай бұрын
Si, justo estoy preparando un video de eso 😁 el lunes lo tendrás en el canal
@carlosalaniz39519 ай бұрын
@@alexFocus8 Genial gracias
@videosmarcodemonte9 ай бұрын
excelente canal 😀
@alexFocus89 ай бұрын
Muchas gracias!!
@chemaalonso79319 ай бұрын
Donde puedo aprender desde 0 todo esto de la IA modelos, fine tunning etc?
@alexFocus89 ай бұрын
El lunes subiré un video explicando que libros puedes leer para aprender todo 👍 tambien hay videos y cursos por internet que ayudan mucho, o ya algo mas completo puedes hacer un master.
@ojalaquesirva1269 ай бұрын
👍🏻
@vladmartinez23359 ай бұрын
Hola, alguien sabe si este modelo tiene filtros para evitar crear contenido explicito ?
@alexFocus89 ай бұрын
Es totalmente libre, puedes preguntarle lo que quieras sin filtros ni bloqueos
@y_thedreamer959 ай бұрын
Cuanta vram se necesita para correrlo full local ? 24gb?
@alexFocus89 ай бұрын
Con la optimización del repo teniendo 24 Gb debería ser suficiente, de todas formas no he hecho pruebas en local, solo en colab y con una A100 en cloud.
@cristianparra55468 ай бұрын
100-140gb vram
@jackgaleras6 ай бұрын
LLama 3?
@alexFocus86 ай бұрын
Si, tengo que hacer video que ha superado a mistral
@inteligenciafutura9 ай бұрын
Porque todos hablan mierda siempre que aseguran que alguno supera a gpt solo fallan de forma idiota
@alexFocus89 ай бұрын
Lo has probado? Yo la verdad que ha sido de las primeras veces que pienso que realmente lo supera en varias cosas
@inteligenciafutura9 ай бұрын
@@alexFocus8 cuando le preguntas por código falla horrible igual que llama 2 y otros, lo mismo paso con bard , no se acerca a gpt y los otros disponibles en hungerface son fatales
@jackgaleras6 ай бұрын
siii, todos fallan@@inteligenciafutura
@OscarBenitez-sp7rk9 ай бұрын
A ver podrias hablar acerca del equipo minimo en la q se puede usa,yo el año pasado baje llama 1 d 7b en un dinosauro de 4g i procesador de 1.5 g i no me respondia no se si seria por mi equipo
@alexFocus89 ай бұрын
Es posible, estos modelos necesitan muchos recursos. Investigare si hay alguno pequeño que vaya bien (por ejemplo GPT2 se podia ejecutar en cualquier CPU pero no tiene sentido nada de lo que dice)