Interesantes capítulos a la espera del siguiente para ver como nos conectamos vía python. Gracias.
@marcelodanielkowalczuk30348 күн бұрын
En un faceswap genero un video pero cuando quiero descargarlo el botòn de descarga ya no està. Còmo puedo acceder al archivo creado? Gracias.
@chonk3d607Ай бұрын
bueniiisiiimo muchisimas gracias!
@h_7_7942 ай бұрын
Una pregunta. Que Ordenador tienes? He instalado ollama en mi máquina y va muy muy lento. Mi intención es ejecutar LLMs de 8B de parámetros, que es más importante tener CPU o GPU?
@RI-AI-Python-EspanolАй бұрын
Para ejecutar LLMs con 8B de parámetros, usa una GPU si es posible. Algunas razones: - Escalabilidad: Las GPUs están diseñadas para manejar cálculos paralelos masivos, lo que las hace ideales para modelos a gran escala como LLMs. - Rapidez: Una tarjeta gráfica dedicada puede acelerar significativamente los tiempos de cálculo en comparación con el uso solo del CPU. - Memoria: Si tu modelo requiere cantidades significativas de memoria, una GPU con suficiente VRAM (e. g., 12 GB o más) puede ser beneficiosa. Si no tienes una GPU compatible, aún podrías ejecutar modelos más pequeños o tareas específicas en tu CPU. Sin embargo, para modelos más grandes como los que tienen 8B parámetros, una GPU podría ser necesaria para alcanzar tiempos de cálculo razonables y un rendimiento adecuado. Nota : Podemos usar Colab para ejecutar los modelos usando GPU. Lo vamos a ver en uno de los videos que van a salir en las proóximas semanas. Pondré aquí el link/enlace cuando esté disponible. :)
@RI-AI-Python-EspanolАй бұрын
Al tratar de ejecutar LLMs como los de 8B parámetros(8,000,000,000), tanto el CPU como la GPU pueden ser útiles, pero de manera diferente. CPU: Ventajas: - Puede ser suficiente para modelos más pequeños o tareas específicas como tokenización, por ejemplo. - No requiere hardware adicional. Desventajas: - Probablemente será mucho más lento que una tarjeta gráfica dedicada para cálculos a gran escala. - Puede consumir más memoria e impactar en el rendimiento. GPU: Ventajas: - Puede acelerar significativamente los cálculos para modelos grandes como LLMs, gracias al procesamiento paralelo de los GPUs. - Puede liberar recursos del CPU para otras tareas o mejorar el rendimiento general de tu ordenador. Desventajas: - Requiere una tarjeta gráfica compatible (e. g., NVIDIA, AMD) con suficiente VRAM(Video Random Access Memory) y soporte para CUDA/OpenCL. - Es posible que requiera configuración adicional y ajustes. Para ejecutar LLMs con 8B de parámetros, usa una GPU si es posible. Algunas razones: - Escalabilidad: Las GPUs están diseñadas para manejar cálculos paralelos masivos, lo que las hace ideales para modelos a gran escala como LLMs. - Rapidez: Una tarjeta gráfica dedicada puede acelerar significativamente los tiempos de cálculo en comparación con el uso solo del CPU. - Memoria: Si tu modelo requiere cantidades significativas de memoria, una GPU con suficiente VRAM (e. g., 12 GB o más) puede ser beneficiosa. Si no tienes una GPU compatible, aún podrías ejecutar modelos más pequeños o tareas específicas en tu CPU. Sin embargo, para modelos más grandes como los que tienen 8B parámetros, una GPU podría ser necesaria para alcanzar tiempos de cálculo razonables y un rendimiento adecuado. Incluso con una GPU, debes considerar otros factores: - Tamaño del modelo: Los modelos más grandes requieren más memoria y recursos computacionales. - Tamaño de lote: Lotes más pequeños pueden llevar a tiempos de entrenamiento más lentos, mientras que lotes más grandes pueden no caber en memoria. - Optimizer: La elección del optimizer (e. g., Adam,...) puede afectar el rendimiento. Al trabajar con grandes LLMs, es fundamental equilibrar los trade-offs entre el uso de CPU y GPU, el tamaño del modelo y otros factores para alcanzar tiempos de entrenamiento eficientes.
@TheSyphonfilterarg27 күн бұрын
Faltaría filtrar modelos desde SD 1.5 hasta FLUX. se entiende.