Una pregunta sobre el canal. Disculpad mi desconocimiento, pero he encontrado el podcast y los videos de youtube. Con respecto a los podcast, en mi app de podcasts, el ultimo es de noviembre de 2023. Y los videos parece que hay uno al mes. La pagina web también parece un poco desactualizada. Salen cosas de 2019. No lo comento cómo crítica, sino para cerciorarme de que estoy accediendo a los sitios adecuados.
@LaHoraMaker8 сағат бұрын
Hola Isma, gracias por la observación. Ciertamente la web está con contenidos del año del año de maricastaña. Estoy migrando a un nuevo proveedor ahora mismo, incluyendo los contenidos antiguos. En cuanto al podcast, últimamente estoy más centrado en el formato video, porque las LLM se prestan más a demostraciones visuales. Pero lo tengo en cuenta también para revisar qué contenidos pueden funcionar bien sólo como audio. Muchas gracias por el comentario, que ayudará a mejorar en general. Ahora bien... en diciembre vamos a cambiar el ritmo con las publicaciones. ¡Os mantengo informados!
@ismadub60227 сағат бұрын
@@LaHoraMaker Genial, gracias. De hecho estaba informandome del tema de poder usar un m4 para temas de inferencia y al saltar tu video me sorpredió mucho por la profundidad del análisis. Me quedé con ganas de más, de hecho voy a ver el resto de videos del canal. Gracias de nuevo por el contenido y el esfuerzo realizado.
@E69HUA14 сағат бұрын
Espectacular la comparativa!!. Sigue así!!
@LaHoraMaker10 сағат бұрын
Muchas gracias por el comentario, me alegro que te resultara interesante.
@Conta-Data21 сағат бұрын
No me funciona habre el navegador y se queda navegando hasta que el "Extracto de facturas" y queda : Running load_models(). quien me puede ayudar?
@LaHoraMaker10 сағат бұрын
Hola! Este error se puede deber a que no está pudiendo descargar el modelo desde HuggingFace o bien, que no tienes espacio disponible en disco duro para descargarlo. ¿Podrías revisar si es este el problema?
@Conta-Data10 сағат бұрын
@@LaHoraMaker gracias por responder me quedaba en espacio de disco duro unos 30 gb, pero limpie toda la pc, yo uso anaconda para los entornos sera que tuvo un conflicto, y el entorno que use para el proyecto use pip fuera de la carpeta de anaconda. Saludos
@diegoraserodelafuente9019Күн бұрын
No conoces el truco de la computación infinita?
@LaHoraMaker10 сағат бұрын
¿Tiene que ver con los nuevos transistores de 1nm?
@ismadub6022Күн бұрын
Muy bueno el vídeo. Entiendo que dado que no se menciona, la variante del procesador m4 pro, hay dos una con más nucleos de CPU y GPU que otra, no se nota mucho en el rendimiento.
@LaHoraMaker10 сағат бұрын
Hola Isma, mi intuición es que la diferencia de rendimiento será equivalente al número de cores con un 10-15% de diferencia.
@IsmaelPérez-z1o2 күн бұрын
Qué diferencia habría en usar ChatGPT u otra IA de pago mensual? Por qué 3000 euros en un equipo te da para pagar muchos meses de suscripción, lo puedes usar en distintos dispositivos y no se queda obsoleto nunca
@ismadub6022Күн бұрын
Yo creo que principalmente dos temas: Primero la privacidad, ya que todo lo que preguntas o los documentos que le pasas se quedan localmente y segundo es que puedes probar localmente varios modelos y ver cual te gusta más
@JaredTrujillo-i5u2 күн бұрын
no me deja cargar nada en preset:(
@rafaelcanavategonzalez17292 күн бұрын
Como veis esta opción?kzbin.info/www/bejne/mnm3p6OLobx5mM0
@LaHoraMaker7 сағат бұрын
Tengo que revisarlo en más detalle. He visto configuraciones con Threadripper y Xeon con componentes más antiguos, otras con tarjetas P40 como la que enlazas. Si tienes un caso de uso concreto, por ejemplo, generación de datos sintéticos, donde prima la calidad frente a la velocidad, puede tener sentido... Voy a darle un ojo y lo comento en un futuro video. Gracias por la sugerencia.
@vlogdavidalejandro2 күн бұрын
Vendo un MacBook M3 max 36 de ram si alguien le interesa, solo en España ( razón de venta compre otro )
@daviddqt14 сағат бұрын
Precio? 14 o 16
@LaHoraMaker8 сағат бұрын
¿Qué tal funciona con LLMs? ¿Alguna prueba con Ollama u otro software de inferencia para saber que tal funciona para este tipo de tareas?
@vlogdavidalejandro6 сағат бұрын
@@LaHoraMaker pues te puedo mostrar en un vídeo corriendo llama local
@vlogdavidalejandro5 сағат бұрын
@@daviddqt 14 lo puse en wallapop por 2900 pero evidente no lo venderé en els acepto ofertas
@juanjesusligero3912 күн бұрын
¡Un vídeo genial! Han sido casi dos horas, pero se me han pasado volando, toda la información súper interesante y muy bien estructurada y explicada. ¡Gracias por compartir! :)
@revandarth26802 күн бұрын
Maestrazo, ¿algún consejo que puedas darme?, quiero levantar un servidor de Ollama con el modelo de Llama 3.1 en su versión de 70B, ando buscando opciones y esto es lo que he encontrado: - Conseguir una RTX 3090 y una P40 para un total de 48 GB (24 + 24), según usuarios de reddit debe funcionar a la velocidad de la 3090 y es una opción "económica" - Conseguir 2 RTX 3090 y usar el Link para que trabajen en paralelo - Usar AirLLM para reducir mucho el consumo de VRAM (no lo he probado, no sé qué tan lento quede) - Conseguir una RTX A6000 (muy caro a mí criterio) ¿Alguna sugerencia que puedas compartirme sobre esto?
@danielfernandez8853 күн бұрын
Muchas gracias Cesar, aunque te he visto en diferido, me ha parecido un trabajo de recopilación impresionante y claro.
@jribesc3 күн бұрын
Gracias !!!!
@Tecnual3 күн бұрын
Como funcionaría una Nvidia Tesla p40 de 24gb? Recomendarías una de estas tarjetas para empezar a hacer cosillas con modelos de generación de imágenes?
@Antonnyk3 күн бұрын
Muy completo, gracias!
@agapitox3 күн бұрын
Me ha gustado mucho!!! vas a colgar la presentación en algún sitio? estaría bien tener los enlaces. Justo acabo de pedir un mini m4 32gb con descuento de educación.
@MrOtelotestaverde3 күн бұрын
Gracias por la charla de ayer. Me pareció súper interesante. Quería consultar una cosa que me están pidiendo en el trabajo y que no sé muy bien si se tienen en cuenta en estos cálculos. Si queremos montar un servidor para alojar una IA de consulta, con RAG sobre la documentación de la empresa y que sea consultado por varios usuarios por openweb UI, ¿hay que multiplicar los cálculos por cada persona que esté lanzando consultas al modelo? Por ejemplo: una 4060 por persona???? Gracias por el contenido que generas
@alejoxciro3 күн бұрын
Cesar gracias por el análisis, muy completo. Dejo los siguientes datos como referencia que obtuve en un Laptop Lenovo de aprox. $900 con Ryzen 7 (7435HS) 16GB RAM + RTX 4060 8GB VRAM en caso de que sean útiles para alguien. LM Studio en Win11 con el modelo Qwen2.5-Coder-14B-Instruct-Q4-GGUF: (GPU Offload de 42/48 capas): +13 Token/s y con Gemma-2-9B-it-SimPO-Q5-GGUF: +16 Token/s (GPU Offload de 40/42 capas). Flash Attention = True. De los múltiples LLMs, estos dos han brindado los resultados más consistentes y de valor en mis proyectos, con aplicación de RAG, con esta configuración basica y limitada de hardware de la cual esperaba menor desempeño. Con LLMs más pequeños de 7 Billones de Parámetros usando Cuantización de 6 bit y carga completa en GPU la velocidad sube a +32 T/s pero la calidad de las respuestas desmejora.
@uskola3 күн бұрын
Gracias por el video, estaba atento a ver que oferta sale de blackfriday para pasar a mejor vida mi 1660 super, y ya pues a por la 4060 A ver si alguno ve a buen precio la 4060TI de 16GB que recomiendas y la pone como comentario.
@jaimemunoz30254 күн бұрын
uno de los mejores canales de difusión de IA
@antoniojosevillalbadavid47854 күн бұрын
Muy buen análisis
@deal19824 күн бұрын
Muchísimas gracias
@xavierquerol90874 күн бұрын
Muy interesante, gracias!
@alejandroreyesfalcon15094 күн бұрын
Es usted un todoterreno. Si un tema le apasiona, lo investiga a fondo. Gracias.
@davidvalencia62564 күн бұрын
Es mejor usar una APU de amd y comprarse 128 gb de ram
@Carlos_GS4 күн бұрын
Que buen resumen! Justo hace unos días me compré una 3060 12Gb, los precios mas baratos estaban efectivamente en Amazon y mirar también PCcomponentes reacondicionadas (la mía 229€ estaba en estado "como nuevo" y 3 años de garantía). Tus videos son geniales, muy didácticos y útiles para mantenernos actualizados sobre estas herramientas. Muchas gracias!! :-)
@deivis19704 күн бұрын
Buen análisis. El video debería estar pineado en la portada de google 😊. Un abrazo.
@Senorkawai6 күн бұрын
Gracias! me sirvió 👍👍
@LaHoraMaker4 күн бұрын
Excelente!
@nelson33916 күн бұрын
Excelente vídeo, es una de las mejores explicaciones que he visto. Gracias!
@LaHoraMaker4 күн бұрын
Gracias por comentar. Me alegra que te haya gustado.
@henrymesias15297 күн бұрын
Excelente Contendió, se te agradese por la informacion
@LaHoraMaker4 күн бұрын
Gracias por comentar. Me alegra que te haya gustado.
@manuelesparcia77777 күн бұрын
Empezaré hacer mis pequeños pinitos con un Macbook Pro M4 con 10 núcleos de GPU y 10 de CPU y con 24 GB RAM y 512 GB de disco SSD, aunque tengo varios discos externos de 1 y 2 T. con USB TIPO c. Espero que con este equipo tenga suficiente para hacer algunas cosillas interesantes y curiosas
@LaHoraMaker4 күн бұрын
Seguro que si! Dale un ojo al último video donde explico la gama M4 y lo que se puede hacer con las distitnas configuraciones de RAM: kzbin.infonOMympDjEMs
@danson303810 күн бұрын
Cesar, para LLM, qué opinaris de Apple Mac Studio M1 Max 10-Core CPU, 64GB RAM, 1TB SSD, 32-Core GPU vs nuevos m4.
@LaHoraMaker4 күн бұрын
El último video que acabo de publicar trata específicamente esto: kzbin.infonOMympDjEMs
@jaimemunoz302510 күн бұрын
el mejor divulgador de IA
@dumvsu11 күн бұрын
Muchas gracias, por lo que he entendido de otros videos tuyos, es importante en un RAG elegir bien el método de Chucking: por longitud fija, Chucking por delimitadores naturales, Chucking con superposición, Chucking por contenido semántico y etc.. Alguna forma de modificar esto u otra plataforma?
@minotauro_ctf_vulnhub_reso908211 күн бұрын
como se le pueden compartir una carpeta con archivos accesibles para que aprenda
@rafaelgardner895413 күн бұрын
Que modelos son sin censura y sin restricciones?
@eduardrm767213 күн бұрын
Puedes hacer este video actualizado a final de 2024 o inicios de 2025? Muchas gracias me ha gustado mucho el vídeo.
@celta391113 күн бұрын
Tengo un problema, le IA siempre responde lo mismo "Hola" solo eso.
@marcobravov14 күн бұрын
He visto (nuevamente) este video con pitido y todo (que no sentí porque escucho algo de musica tmb) y es muy bueno. Gracias, por el contenido.
@XFaramir14 күн бұрын
Esperando la 2da parte ! Gracias
@Angelggm8614 күн бұрын
Hola, muy buenos videos, tengo una pregunta he estado probando tu programa y me va muy bien, el único problema es que tengo un ordenador muy básico con 64gb de memoria y una tarjeta grafica muy basica geforce 3080, que requisitos mínimo necesito para poder procesar una factura en un tiempo muy razonable...?? Gracias por tu repuesta!!
@jesuscano225714 күн бұрын
🎯 Key points for quick navigation: 00:00 *🔧 Local AI setup* 00:14 *👥 Multiuser functionality* 00:42 *💻 Modest hardware requirements* 03:28 *📱 Device connectivity* 03:42 *🌐 Web interface use* 05:19 *⚙️ Simple installation* 12:31 *🛠️ Centralized configuration* 15:58 *🌍 Enable external access* Made with HARPA AI
@MrOtelotestaverde15 күн бұрын
Hola!! Hace unas semanas curioseando encontré este canal y me puse a probar alguna cosilla para el trabajo. Me gustaría evolucionar y adquirir algún equipo para montar algo en mi casa. He visto los mini ordenadores de BEELINK con la posibilidad de enchufar una gráfica externa pero no me convence el que tenga ya instalada una fuente de alimentación de 600w. Luego he pensado en gastar algo más de dinero en un nuevo Mac mini con el chip M4 PRO. Quiero algo que pueda tener en casa y que no consuma mucha energía. Qué me podéis recomendar? En qué invierto el dinero? Gracias de antemano
@moebiusSurfing15 күн бұрын
Gracias! Qué pre procesado y modelos para LM Studio recomiendas para chatear/RAG sobre un archivo CSV?
@Jesulex8216 күн бұрын
¿PODRIAS DIFERENCIAR EL ADN DEL ARN? BUENO SOLO NECESITAS SABER EL COMPUESTO DE UNA DE ESAS CADENAS PARA DESCATAR LAS OTRAS... AHORA SI TENGO UN EMOCIGOTO X Y UN HETEROCIGOTICO Z... SI DE CADA X TENGO 3 GRANOS NARANJAS Y DE CADA Z 3 ¿COMO PODEMOS SABER QUE CARACTERISTICA FENOTIPICA EXPRESARAN AL COMBINARLOS Y QUE PORCENTAJE TIENEN?
@Jesulex8216 күн бұрын
ME ENCANTA ESAS PALABRAS NO?... ES COMO DECIR MAS FACIL QUE EL MECANISMO DE UN BOTIJO ¿SABES LO COMPLICADO QUE ES EL PUTO MECANISMO DE UN BOTIJO? PUES VERAS... CUANDO EL SOL LE DA EL AGUA SE EVAPORA Y LA SUDA POR LAS PAREDES DE ARCILLA APARTE DEL ORIFICIO REDONDO.. POR LO CUAL AL EVAPORAR EL AGUA ESA EVAPIRACION SE LLEVA LOS GRADOS DE CALOR POR ESO SIEMPRE ESTA FRESQUITA. ¿TE CUENTO ALGO SOBRE LA HIDROLISIS? ¿LEYES DE LA GENETICA? CON ESAS PALABRAS QUE TANTO NOS GUSTAN.. ADP... REACCION EXERGONICA ATP REACCION ENDERGONICA ETC ETC. ¿VES? AHORA CALCULA CON LOS DATOS EXPUESTOS.. EN UNA MEMBRANA CITOPLASMATICA CUANTO GLUCOGENO SE PROCESA EN LAS CRESTAS MITOCONDRIALES PARA PRODUCIR LA RESPIRACION CELULAR.. VENGA CHAMPION.
@ecorodri2618 күн бұрын
Que llm en lugar de ollama son compatibles?
@TadeoServin19 күн бұрын
LM studio no me muestra los modelos, Qué hago?
@zirus834619 күн бұрын
cómo puedo tener esto en mi pc?
@zirus834620 күн бұрын
La verdad yo no entendí nada, en que parte se muestra el resultado final?