Ejecuta LLAMA 2 en Google Colab (Código incluido)🔥El tutorial DEFINITIVO

  Рет қаралды 3,822

AlexFocus

AlexFocus

Күн бұрын

Пікірлер: 25
@CERO6
@CERO6 Жыл бұрын
Me ha gustado mucho el vídeo🔥
@paulodmanace4812
@paulodmanace4812 Жыл бұрын
Hola otro muy buen video. Como podria ejecutarlo localmente con ollama con esos parametros, calculo que usando docker en windows.
@alexFocus8
@alexFocus8 Жыл бұрын
Muchas gracias por el comentario! Con docker es una opción, lo importante es tener una GPU con suficiente memoria.
@marcoantoniovillanuevajaur5082
@marcoantoniovillanuevajaur5082 8 ай бұрын
hola, eres genial. Quisiera usarlo para un chat de ayuda para niños que sufren de bullying. cómo estructuro la data y cómo lo entreno?
@RafaVeraDataEng
@RafaVeraDataEng Жыл бұрын
genial! Muchas gracias por compartir. ¿Cómo podría ejecutar todo este proceso en in IDE como visual studio code? supongo que los requerimientos para el procesado serán altos verdad? ¿crees que podría adaptar tu código a realización de queries en NLP contra mi postgres?
@alexFocus8
@alexFocus8 Жыл бұрын
Si, para poder ejecutarlo necesitarías una GPU con al menos 8 Gb de RAM y recomendado unos 12 Gb, tienes algunas de NVIDIA como la 3080. También instalar CUDA, pytorch y algunas librerías más. Lar graficas son caras y montarlo todo es un poco complejo, pero si que se puede hacer, y lo de usarlo para generar queries es muy buena idea, de hecho hay proyectos open source para esto mismo, te animo a intentarlo y si te tira bien en colab montarlo en un IDE e integrarlo.
@ivanjoelrovner4073
@ivanjoelrovner4073 9 ай бұрын
Es posible consumir esta ejecuccion de llama 2 desde collab como una api? Es decir para integrarlo en otros sistemas. Gracias
@alexFocus8
@alexFocus8 9 ай бұрын
Desde colab no, porque se reinicia. Tendrias que tirar de google cloud o similares y son de pago
@jodter1
@jodter1 9 ай бұрын
ya, pero como lo hago de en codigo, en un editor de codigo si hacerlo en google es facil, pero como lo ejecuto en mi pc usando codigo en mi ide?
@alexFocus8
@alexFocus8 8 ай бұрын
Suelo usar Colab para ahorrar problemas de instalación, si queres ejecutar código en tu propio equipo, necesitas configurar un entorno de desarrollo. Puedes utilizar herramientas como Jupyter Notebook, Anaconda, o simplemente un IDE como PyCharm o Visual Studio Code. Aquí tienes algunos pasos generales para comenzar: Instala Python: Asegúrate de tener Python instalado en tu computadora. Puedes descargarlo desde python.org. Instala un entorno virtual: Es una buena práctica crear un entorno virtual para tu proyecto. Puedes hacerlo con virtualenv o conda. Instala las bibliotecas necesarias: Usa pip o conda para instalar las bibliotecas de inteligencia artificial y ciencia de datos que necesitas, como TensorFlow, PyTorch, pandas, scikit-learn, etc. Escribe tu código: Utiliza tu editor de código preferido (como PyCharm, VS Code, etc.) para escribir tu código en un archivo Python (.py) o en un notebook Jupyter (.ipynb). Ejecuta tu código: Una vez que hayas escrito tu código, puedes ejecutarlo desde tu IDE o desde la línea de comandos, dependiendo de cómo hayas configurado tu entorno.
@oriolpi1268
@oriolpi1268 Жыл бұрын
Hola Alex, gracias por el código, Como se podría pasar un texto largo como prompt ? Al estar limitado a 256 tokens no lo puedo hacer.
@alexFocus8
@alexFocus8 Жыл бұрын
De nada :D pues para eso hace falta usar modelos más grandes y por lo tanto más memoria, podrías usar google colab pro o otras soluciones como databricks, pero para esos tamaños tiene que ser de pago.
@blackguitarluz
@blackguitarluz 10 ай бұрын
ese colab es de uso libre ? puedo hacer una copia del colab y adaptarlo?
@alexFocus8
@alexFocus8 10 ай бұрын
Claro! Puedes bajartelo y usarlo para lo que quieras 👍
@cristianmorilla8631
@cristianmorilla8631 Жыл бұрын
Hola como estas? muchas gracias por tu video, te hago una consulta modifique el max_tokens y en n_batch pero mi total_tokens sigue siendo 512, me llama mucho la atencion que me limite, tengo idea y modifique bastante el codigo pero al tener una propt de 500 elementos al respuesta del modelo solo es de 12 tokens no me sirve. Si sabes la respuesta te lo agradeceria un saliudo!
@alexFocus8
@alexFocus8 Жыл бұрын
Muchas gracias por el comentario Cristian, pues es raro, he hecho pruebas de hasta 2048 tokens y me ha fincionado. El parametro clave para modificarlo es el max_tokens que comentas, puede que el problema sea la memoria de la GPU.
@cristianmorilla8631
@cristianmorilla8631 Жыл бұрын
@@alexFocus8 Muchas gracias, es muy raro pq estoy usando una a100, pero bueno no se que pasa. Esperare alguna otra version mas nueva, realice pruuebas con 512 elementos y me sorprender la variabilidad de las respuestas. Ya hice una api con chatgpt y queria una alternativa free pero muy variable las repuestas incluso con una tempratura muy baja, pero bueno la verdad muchas gracias excelte contenido, un abrazo grande!
@sebastiansabogal897
@sebastiansabogal897 Жыл бұрын
Si tengo un set de datos en una base de datos podría enseñarle a como sacar informes por ejemplo
@alexFocus8
@alexFocus8 Жыл бұрын
Podrias probar a crear un prompt en el que le pases los datos acompañado de una pequeña descripción de lo que esperas que devuelva, y con unos cuantos ejemplos hacer el fine tunning. De todas formas investigaré si se puede hacer de otra forma 👍👍
@quesofundido9270
@quesofundido9270 Жыл бұрын
Buen vido! Muchas gracias. ¿Sabrías cómo hacer para tener un chat de varias preguntas relacionadas? Para recibir respuestas y luego preguntar sobre las mismas. Saludos
@alexFocus8
@alexFocus8 Жыл бұрын
Muchas gracias! El truco es guardar la conversación y pasársela como contexto, con la librería Langchain es facil de montar.
@Crup-ip2sz
@Crup-ip2sz Жыл бұрын
Como puedo alimentar informacion, ejemplo la constitución de un determinado pais
@alexFocus8
@alexFocus8 Жыл бұрын
Con un modelo tipo RAG, puedes usar llama index por ejemplo
@Ghost_god325
@Ghost_god325 Жыл бұрын
Buen video
@alexFocus8
@alexFocus8 Жыл бұрын
Muchas gracias!!
СИНИЙ ИНЕЙ УЖЕ ВЫШЕЛ!❄️
01:01
DO$HIK
Рет қаралды 3,3 МЛН
Гениальное изобретение из обычного стаканчика!
00:31
Лютая физика | Олимпиадная физика
Рет қаралды 4,8 МЛН
Tutorial WHISPER JAX pasa AUDIOS a TEXTO 70X más RÁPIDO!!!
9:21
Crea tu Propio Modelo en Ollama usando Open-source 'Large Language Models' (LLMs).
7:17
Bitcoin y S&P 500: ¿104.000 y 6.055 antes de fin de año?
7:45
Jose Luis Cava
Рет қаралды 51 М.
10 MEJORES ACCIONES para Invertir en 2025
10:45
Rankia
Рет қаралды 14 М.
FRANCIA AL BORDE DE UNA CRISIS DE DEUDA
23:10
Daniel Lacalle
Рет қаралды 43 М.
СИНИЙ ИНЕЙ УЖЕ ВЫШЕЛ!❄️
01:01
DO$HIK
Рет қаралды 3,3 МЛН