LangChain y Ollama para interactuar con tus documentos ¡RAG GRATIS!

  Рет қаралды 9,203

Carlos Alarcón - AI

Carlos Alarcón - AI

Күн бұрын

Пікірлер: 99
@EnzoFrancisco-gf5zg
@EnzoFrancisco-gf5zg 8 ай бұрын
Pucha eres genial.
@alarcon7a
@alarcon7a 8 ай бұрын
Muchísimas gracias por el apoyo
@nahuelzubiarrain7530
@nahuelzubiarrain7530 8 ай бұрын
Muchas gracias! Muy buen video y muy útil. Sos un grande Carlos 🙌🏼
@javaboy6581
@javaboy6581 8 ай бұрын
Qué bueno Carlos, cumpliste y sacaste el vídeo! Estoy deseando probarlo. Bendiciones y existos asegurados para tu canal
@alarcon7a
@alarcon7a 8 ай бұрын
Muchas gracias, 🚀
@juandavidfrancofranco641
@juandavidfrancofranco641 8 ай бұрын
Fascinante, hace meses había pensado que en algun momento iba aparecer algo así. Gracias totales.
@alarcon7a
@alarcon7a 8 ай бұрын
El futuro es ahora hehe .. no olvides compartir
@guus7893
@guus7893 8 ай бұрын
Excelente Carlos! Además de especializarte en estas habilidades explicas muy bien!
@alarcon7a
@alarcon7a 8 ай бұрын
Muchas gracias !!!
@CarlosOrzabal
@CarlosOrzabal 6 ай бұрын
*Excelente el trabajo que estás haciendo Carlos.* Se nota el alto conocimiento que tenés. Aprovecho para hacerte algunas preguntas. Estuve mirando tu playlist pero no encontré una guía para comenzar desde cero con esto, porque me interesa el tema. - Podrías decirme los videos de tu canal aconsejables para comenzar? - Para este proyectos es necesario tener GPU o con CPU también se podría hacer (no importa que demore)? - Y esto tiene que ver con la pregunta anterior, instalar este proyecto en un VPS normal, sin GPU, sería factible. *Felicitaciones nuevamente por el gran trabajo de docencia que estás haciendo.* Nuevo suscriptor. Saludos.
@alarcon7a
@alarcon7a 6 ай бұрын
Muchas gracias !!! Espero poder sacar un curso completo pronto, con CPU este proyecto es posible🚀
@roberth.mendoza
@roberth.mendoza 8 ай бұрын
Excelente video y gracias por compartir con la comunidad. Muchos exitos!!!
@alarcon7a
@alarcon7a 8 ай бұрын
Siempre un gusto, muchas gracias
@lautaroballesteros3763
@lautaroballesteros3763 2 күн бұрын
Increible video Carlos !!! , justo lo que necesitaba para mi proyecto. Existe alguna referencia o documentacion para informarme sobre la arquitectura que utilizas.
@alarcon7a
@alarcon7a Күн бұрын
La arquitectura la explico en el video, recuerda que los modelos son de código abierto, puedes ver la arquitectura dentro de ellos…. Además adjunto documentación en la descripción
@thinayushiko9049
@thinayushiko9049 8 ай бұрын
Gran video! gracias. Ahora en mi trabajo esta empezando a sonar mucho este tema de LLM, estoy aprendiendo para poder entrar a ese proyecto, pero en este caso hablan de bases de datos de grafos, especificamente neo4J, todos los videos y cursos q he visto han sido con bases de datos vectoriales, archivos txt y pdf, asi que estoy algo perdida de como esto seria hablando de bases de datos de grafos. Por favor si puedes hacer videos sobre esto seria lo maximo! Gracias.
@alarcon7a
@alarcon7a 8 ай бұрын
Si los hay, buena idea, haré un tutorial de ello 👌
@thecarlostheory
@thecarlostheory 5 ай бұрын
Muchísimas gracias. Funciona! Mira que me he mirado cantidad de tutoriales de este tipo... ninguno funcionaba o no era local, necesitabas internet... Muchas gracias por compartir tu conocimiento. Eso sí... a la hora de hacer el RAG de un dcumento se queda la info guarada, incluso después de haber finalizado la ejecución del programa... Yo lo he solucionado del siguiente modo: Cada vez que termino la sesión, borro todos los archivos de las carpetas _pycache_ y chroma_db_dir... No sé si hago lo correcto, pero el caso es que funciona.
@alarcon7a
@alarcon7a 5 ай бұрын
Si borras el chroma tienes que volver a hacer embedings, la idea es que siempre persistan
@thecarlostheory
@thecarlostheory 5 ай бұрын
@@alarcon7a pero no tendría sentido borrarlos si el archivo pdf es distinto al anterior?
@alarcon7a
@alarcon7a 5 ай бұрын
@@thecarlostheory si no los vas a requerir más, si, los puedes borrar
@gustavomarquez2269
@gustavomarquez2269 8 ай бұрын
Mucha gracias, muy valiosa informacion !
@alarcon7a
@alarcon7a 8 ай бұрын
Gracias por el apoyo
@giocrisrai42
@giocrisrai42 8 ай бұрын
Excelente muchas gracias por compartir este tipo de contenido
@alarcon7a
@alarcon7a 8 ай бұрын
Siempre un gusto
@Pekarnick
@Pekarnick 8 ай бұрын
Excelente explicación detallada, 24 minutos que bien valen la pena. Muchísimas gracias!!! Sería muy complicado agregar grado para que sea utilizado desde un servidor central, en digamos una empresa, a fin de ser utilizado por varias terminales?
@alarcon7a
@alarcon7a 8 ай бұрын
Muchas gracias … El servidor debe tener habilitado el puerto de salida y solo con eso ya es el mismo proceso 🔥
@ginomenor4124
@ginomenor4124 22 күн бұрын
Me encanta el video y como explicas. Muchísimas gracias. Quería hacer una pregunta: Crees que el modelo podría generar documentos de diferentes tipos, en base a los datos que guardemos en chroma? Es decir, si le alimentamos de muchos tipos de documentos y los guarda, luego te podría generar documentos precisos? aprendería? Eso persistiria mientras dejemos los archivos, no?
@alarcon7a
@alarcon7a 21 күн бұрын
Así es, aunque es recomendable ahí trabajar colecciones distintas
@Hector.Pulido
@Hector.Pulido 6 ай бұрын
Me sirvió perfecto, solo le hice un par de cambios y ya lo tuve en prod en 2 dias 💪
@alarcon7a
@alarcon7a 6 ай бұрын
Esoooo 🔥🔥🔥
@Stefan-Novikov-RB
@Stefan-Novikov-RB Ай бұрын
alguna idea de como hacer una api con la parte del retriever, prompt y respuesta? para hacerle peticiones desde un chatbot
@Hector.Pulido
@Hector.Pulido Ай бұрын
@@Stefan-Novikov-RB fast API y listo
@abelardocoloradodiaz4115
@abelardocoloradodiaz4115 15 күн бұрын
Hola, que servicio usaste para desplegar a producción y que tan rápidas son las respuestas?
@Hector.Pulido
@Hector.Pulido 15 күн бұрын
@@abelardocoloradodiaz4115 un ec2 y pa alante, habian formas mas complejas, pero eso fue lo mas rapido
@Vic_op
@Vic_op 8 ай бұрын
Muy bueno Carlos. Muchas gracias.
@gustavoadolfolirasalazar580
@gustavoadolfolirasalazar580 7 ай бұрын
mucha gracias por el tutorial buenísimo.
@alarcon7a
@alarcon7a 7 ай бұрын
Que bueno que te sea útil
@danielmora3003
@danielmora3003 8 ай бұрын
Que genial este tipo de Videos ! 🤗
@alarcon7a
@alarcon7a 8 ай бұрын
Espero les puedan sacar provecho
@felp070
@felp070 8 ай бұрын
Muchas gracias, buen video nuevo sub me sirve esto para mi proyecto
@alarcon7a
@alarcon7a 8 ай бұрын
Genial !!! 🚀
@javaboy6581
@javaboy6581 Ай бұрын
Hola Carlos, vas a hacer alguna actualización a este magnifico vídeo! Primero que todo, Feliz Año! Quedó desactualizado el local_rag.ipynb lanza errores de deprecation. Un abrazo! I love RAG
@alarcon7a
@alarcon7a Ай бұрын
Le actualizare, muchas gracias
@vitinett
@vitinett 8 ай бұрын
Muy buen video, lo hubieras podido hacer con llamaindex?? Que diferencias tiene usar llamaindex o langchain
@alarcon7a
@alarcon7a 8 ай бұрын
Llama index está más dirigido a rag, y si pide hacerlo con llama index también
@juandiegomatute4333
@juandiegomatute4333 3 ай бұрын
Hola, pregunta esto se podria llevar a un ambiente web? Donde los usuarios suban su pdf y pregunten informacion o algo similar? Lo pregunto porque se trabaja con Ollama local entonces me gustaria saber si exite una manera de llevarlo a un ambiente mas productivo
@alarcon7a
@alarcon7a 3 ай бұрын
Así es , hay servicios de Google o azure o cualquier nube, solo debes llevar el mismo código a estas infraestructuras y dar acceso vía API o algo por el estilo
@jorgesalasbonilla9957
@jorgesalasbonilla9957 4 ай бұрын
Estaba leyendo en otra conversación sobre la base de datos que genera Chroma. Siginifica que conforme la AI vaya cargando más PDFs, su acervo de información es mayor? Otra pregunta: Cuál es el tamaño adecuado para un archivo PDF, tanto en megas como en cantidad de páginas? Saludos desde Costa Rica
@alarcon7a
@alarcon7a 4 ай бұрын
Así es, entre más información a la base vectorial más robusto, y no importa tanto el tamaño de los pdf sino el tamaño de las ventanas de contexto
@Alejandro_Rosa
@Alejandro_Rosa 5 ай бұрын
Hola profe 🙏🏻
@alarcon7a
@alarcon7a 5 ай бұрын
Hello !!!
3 ай бұрын
estoy trancado ern eta parte, ya que no me carga el enbeding hay que tener algo previo instalado o accesible?? embed_model = FastEmbedEmbeddings(model_name="sentence-transformers/all-MiniLM-L6-v2")
@alarcon7a
@alarcon7a 3 ай бұрын
Debería funcionar, el descarga automáticamente el embedding, que error te sale ?
3 ай бұрын
@@alarcon7a reice todo el entorno y me corrio bien, gracias por las rapidas respuestas. A veces nada es mejor que reiniciar y verlo de a poco
@eduardogamarra9070
@eduardogamarra9070 8 ай бұрын
muy bueno, y eso lo podrias conectar a un chatbot para que lo puedan usar otras personas?
@alarcon7a
@alarcon7a 8 ай бұрын
Podrías dejarlo en algún servicio cloud y acceder como una API rest
@ggmtddbo
@ggmtddbo 7 ай бұрын
Gracias!
@alarcon7a
@alarcon7a 7 ай бұрын
Un gusto
@gerardoesquivia
@gerardoesquivia 8 ай бұрын
Muchas gracias
@halexysvelasques7123
@halexysvelasques7123 4 ай бұрын
Estaba siguiendo el tutorial y al momento de hacer el vectostore con chromadb.from_documents me da un error "AttributeError: 'NoneType' object has no attribute 'embed'", lo mismo pasa en el notebook de colab
@alarcon7a
@alarcon7a 4 ай бұрын
Ihhh parece que actualizaron alguna librería… lo voy a validar
@JohnMarin001
@JohnMarin001 4 ай бұрын
Se soluciona agregando esta linea " embed_model._model = embed_model.model_dump().get("_model") " despues de declarar el modelo.
@alarcon7a
@alarcon7a 4 ай бұрын
@@JohnMarin001 lo voy a subir al repo, o tú pides soclitisr el cambio también
@mariacamilaortizcastaneda8435
@mariacamilaortizcastaneda8435 4 ай бұрын
@@JohnMarin001 Confirmo que funciona, muchas gracias!
@JohnMarin001
@JohnMarin001 4 ай бұрын
@@alarcon7a lo haré, gracias por la información. Excelente video. 👌
@JuankM1050
@JuankM1050 8 ай бұрын
Perdon mi ignorancia pero esto esta corriendo totalmente de forma local ? Recuerdo ver video sobre como crear los embeddings y almacenarlos por ejemplo pinecone y todo eso tenia un costo en plata y computacional. o hay que tener un pc de la nasa para hacer tales cosas. ?
@alarcon7a
@alarcon7a 8 ай бұрын
En este punto los embedddings quedan almacenados en local en el ditectirio de Chroma, no hay que tener tan buena maquina para ello
@gonzaloosuna
@gonzaloosuna 8 ай бұрын
Carlos sugiero hacer un video sobre las caracteristicas recomendadas de una computadora para desarrollar este tipo de aplicaciones. Gracias por tus aportaciones.
@alarcon7a
@alarcon7a 8 ай бұрын
Tienes razon, hay que resolver muchas dudas con ese tema
@EveFelizzola
@EveFelizzola 8 ай бұрын
De acuerdo!
@felp070
@felp070 8 ай бұрын
Puedes hacer un tutorial sobre schema Json y function calling
@alarcon7a
@alarcon7a 8 ай бұрын
Seguro 🚀
@pabloartero1155
@pabloartero1155 8 ай бұрын
Qué hardware necesito para hacer esto?
@alarcon7a
@alarcon7a 8 ай бұрын
Con una tarjeta de 6GB de video corre bien … con otro hardware menor corre bien pero tarda un poco
@guus7893
@guus7893 8 ай бұрын
@@alarcon7a sería interesante conocer el hardware para el modelo de llama3 70b de parametros, lo soportará una placa de 8GB? o tal vez se necesitan 2 o 3? Por lo que he investigado llama3 8b seria el equivalente a gpt-3.5-turbo y llama3 70b el equivalente a gpt-4-turbo y ahí está la "papa", poder tener un modelo con la capacidad de gpt-4-turbo de forma gratuita (asumiendo el costo de mantenimiento de hardware) ya que lo he probado con un contrato de 8 paginas y 20 preguntas y ha consumido 3 dolares, mientras que el mismo experimento pero con gpt-3.5-turbo consumio 8 centavos de dolar (todo utilizando la API de OpenAI). La diferencia en las respuestas es notable entre un modelo y otro, vale la pena pero es muy costoso, por eso seria interesante conocer el hardware requerido para llama3 70b de parametros.
@Pablo-Ramirez
@Pablo-Ramirez 8 ай бұрын
Hola muchas gracias por tu video. Intente replicar tu Código en Colab pero me da un error, que permisos tengo que tener para poder ejecutar desde mi local: ConnectionRefusedError: [Errno 111] Connection refused The above exception was the direct cause of the following exception: NewConnectionError Traceback (most recent call last) NewConnectionError: : Failed to establish a new connection: [Errno 111] Connection refused
@alarcon7a
@alarcon7a 8 ай бұрын
Antes tienes que descargar y subir el servicio de Ollama, acá te enseño cómo kzbin.info/www/bejne/maXLhKx6e7R8l8ksi=13a6J4cLw4b8kT7b
@Pablo-Ramirez
@Pablo-Ramirez 8 ай бұрын
@@alarcon7a Hola gracias por tu respuesta, si ya tengo corriendo Ollama locamente y al llamar al puerto indica que esta activa . El problema es con Google Colab que no ve el sitio local. Seguí las instrucciones de Colaboración y no hay caso
@alarcon7a
@alarcon7a 8 ай бұрын
@@Pablo-Ramirez ohhh si, para esto hay que correrlo en local y no desde un servicio cloud cómo Google colab
@Pablo-Ramirez
@Pablo-Ramirez 8 ай бұрын
@@alarcon7a sabes te agradezco mucho tus respuestas. En ese caso puedo puedo ejecutar el local_rag.ipynb desde un Visual Studio Code? Que requisitos requiero. Me interesa mucho este tema. Por eso te molesto tanto. Gracias.
@alarcon7a
@alarcon7a 8 ай бұрын
@@Pablo-Ramirez si, con una gráfica de 4 GB funciona
@cristiancamilogomezgalvis2070
@cristiancamilogomezgalvis2070 8 ай бұрын
Recomendación, el volumen de la voz esta un poco baja.
@alarcon7a
@alarcon7a 8 ай бұрын
Muchas gracias, busco corregirlo 👍
@creed4788
@creed4788 8 ай бұрын
¿Esto sirve para windows?
@alarcon7a
@alarcon7a 8 ай бұрын
Si, en verdad solo hace falta Python y Ollama en Windows que lo explique en un video anterior
@jjen9595
@jjen9595 8 ай бұрын
Una pregunta, esto funciona con imagenes? Por ejemplo subes un pdf de perros, y le pregunto, que tipo de perro son pequeños, entonces el llm me responde con un texto y una imagen indicando el perro, claro, la informacion esta en el pdf. Lo pregunto antes que te vallas jaja
@alarcon7a
@alarcon7a 8 ай бұрын
El ejemplo que hice solo analiza el texto, pero es posible hacer una extracción de la descripción de la imagen con IA
@jjen9595
@jjen9595 8 ай бұрын
​@@alarcon7ammmm sí, es para un trabajo, pero lo veo un poco complicado, mejor empiezo por tu vídeo y de ahí veo jaja, encontré un vídeo de lo que quiero, pero está en inglés y es como es indio no funciona bien la tradición y peor aún yo que no se mucho, mejor empiezo por abajo xd
@cosmicfissure924
@cosmicfissure924 8 ай бұрын
Hable de Chat whit RTX
@alarcon7a
@alarcon7a 8 ай бұрын
Interesante!!
@juanhervas8055
@juanhervas8055 8 ай бұрын
Uff demasiado complicado
@alarcon7a
@alarcon7a 8 ай бұрын
Se vienen unos tutoriales desde cero
@DennyRosales
@DennyRosales 3 ай бұрын
Yo logré correr el script, hubo algunos cambios en las librerías y por eso al principio cuesta un poco
Lo que necesitas saber de IA como Developer: Modelos vs Ollama vs LangChain
16:57
CodelyTV - Redescubre la programación
Рет қаралды 26 М.
Python RAG Tutorial (with Local LLMs): AI For Your PDFs
21:33
pixegami
Рет қаралды 373 М.
Quando eu quero Sushi (sem desperdiçar) 🍣
00:26
Los Wagners
Рет қаралды 15 МЛН
小丑教训坏蛋 #小丑 #天使 #shorts
00:49
好人小丑
Рет қаралды 54 МЛН
RAG Tutorial with Ollama and ChromaDB!
18:42
sanjay jayaram
Рет қаралды 3,4 М.
LlamaIndex 101 GRATIS: Tutorial RAG
25:35
Carlos Alarcón - AI
Рет қаралды 10 М.
Servidor IA para tu Intranet 100% local usando Ollama y Open WebUI
21:20
AI Is Making You An Illiterate Programmer
27:22
ThePrimeTime
Рет қаралды 246 М.
Chatea con tus documentos y videos, RAG Local, y más con Llama 3.2
24:38
LANGCHAIN 🤯 Chateando con un PDF
13:04
SensIO
Рет қаралды 20 М.