Gracias por estar siempre al día. Tu canal lo veo como una especie de llamada teléfonica o teams en el que un amigo nos vas poniendo "en directo" al día en la actualidad.
@interaccionexinter4 сағат бұрын
ahora hacele un queque.
@pedroandresgonzales402Күн бұрын
Feliz navidad 🎄!!
@Leo-tu6lgКүн бұрын
Estimado te animas hablar de smollm que es una familia de modelos pequeños con 135M, 360M y 1.7B de parametros? Probe el mas pequeño en ingles y es una maravilla para su tamaño, responde mejor que cualquier otro de 1 o 2 billones de parametros. El de 360m es multilenguaje y el de 1.7b dicen que es una convinacion perfecta entre tamaño y respuestas. Pruebalo tu mismo y saca tus propias conclusiones. Muchas gracias amigo y muy feliz navidad!!! 😊
@GabrielFranciaGКүн бұрын
Ah se oye bien: "democratizar la IA", no ahodar la brecha digital, y evitar la "pobreza ocacionada por GPU". Sí, gracias la aportación. Saludos.
@telacutiКүн бұрын
Lo puedo instalar con ollama y utilizarlo en openwebui?
@a0z9Күн бұрын
Que pasó con con los modelos pequeños de microsoft?
@geografiaeducativa2727Күн бұрын
No haces mención de quien esta detras de este LLM.
@jorgejimenezalvarez5156Күн бұрын
¿Por qué siempre haces alusión a la potencia de nuestros equipos? ¿Podrías hacer un vídeo explicando esto? Podríamos concretar si necesitamos cambiar de pc o no tiene sentido. Un saludo, Feliz navidad!
@zurrechten346Күн бұрын
Los modelos de LLM necesitan cargarse en la VRAM que es la memoria de video de la GPU. Mientras mas potente el modelo, mas grande es, por lo tanto necesitas un equipo mas potente y con mas VRAM. Los modelos que puede cargar la gente normal como nosotros son los de 7b a 14b y suelen pesar entre 7GB y hasta 40GB. Esto mas o menos.
@alexanderdiazpeКүн бұрын
Podrias explicarnos como ejecutar ese modelo en un celular sin necesidad de internet