LangChain: GPT4 ahora no olvidará nada

  Рет қаралды 11,733

AMP Tech

AMP Tech

Күн бұрын

Пікірлер: 52
@ozzy1987mr
@ozzy1987mr Жыл бұрын
Vas super bien con la explicacion y el contenido... brutal la intro!! esperando la siguiente entrega
@AMPTech
@AMPTech Жыл бұрын
Muchas gracias! Quise jugar un rato y ponerme creativo con la intro, gracias por el comentario:)
@leonardopatinorodriguez8239
@leonardopatinorodriguez8239 Жыл бұрын
Muy bien explicado, Excelente video.
@IAVIC
@IAVIC Жыл бұрын
Ole y ole , que bueno
@PedroPerez-u9u
@PedroPerez-u9u Жыл бұрын
Increible la serie de videos, Estoy a la espera de ver temas restantes un saludo
@cristiancontreras352
@cristiancontreras352 Жыл бұрын
Excelente video como siempre, deberías continuar este mismo y colocar lo en producción
@AMPTech
@AMPTech Жыл бұрын
Muy buena idea!
@alfredolawler2205
@alfredolawler2205 8 ай бұрын
Muy bien explicado Alex!
@ennioagc
@ennioagc Жыл бұрын
Gracias por el vídeo
@jaumaras
@jaumaras Жыл бұрын
muy útiles tus videos, gracias
@GualaDRAKE
@GualaDRAKE Жыл бұрын
Hola ola! Muy buen inicio el de la malla de respaldo de la silla, primero pensé que era un efecto de edición :D :D :D Ahora poner atención al video ;)
@AMPTech
@AMPTech Жыл бұрын
Muchas gracias! Esa toma me tomó mas intentos de lo que be gustaría admitir jajaja
@GualaDRAKE
@GualaDRAKE Жыл бұрын
@@AMPTech 🤣👌👏👏👏👏🤘
@fernandopuig178
@fernandopuig178 Жыл бұрын
Otro video interesante y útil, gracias ‼️
@astronomiahoy264
@astronomiahoy264 Жыл бұрын
Excelente información
@AMPTech
@AMPTech Жыл бұрын
Muchas gracias por el comentario!
@fandonfandon5777
@fandonfandon5777 Жыл бұрын
Felicidades por esta serie de videos y la calidad y claridad de tus explicaciones! ¿Podrías incluir en esta serie de videos desarrollos con Langchain y modelos open source tipo Falcon, etc.? Muchas gracias!
@GLINCE123
@GLINCE123 Жыл бұрын
Excelente video
@hernandocastroarana6206
@hernandocastroarana6206 Жыл бұрын
Excelente video. Sería excelente hacer algo sobre Llama Index (GPT Index).
@alejandroromero3352
@alejandroromero3352 Жыл бұрын
Hola, muy buen video! Solamente creo que te faltó hablar de la Vector store-backed memory
@AMPTech
@AMPTech Жыл бұрын
Hola! Si es que ese tema lo quiero meter específicamente en un video. Pensé que meter el concepto de bases de datos vectoriales en este videos podria llegar a generar confusión en algunas personas. Pero sin duda hare video mencionándolo!
@danilogarcia6317
@danilogarcia6317 Жыл бұрын
@@AMPTech Lo esperamos con ansias :)
@andresparra6208
@andresparra6208 Жыл бұрын
Hola, podrías hacer un video instalando el controlador para un ventilador en la jetson nano?... Gracias 😊
@ezequielugazbenites3500
@ezequielugazbenites3500 Жыл бұрын
Que capo!!
@haroldmunoz1775
@haroldmunoz1775 Жыл бұрын
hola Alex. Me encantó tu video y es un tema super relevante. No se si sea del caso he escuchado que se puede almacenar los embedding en bases de datos externas o los grafos en NEO4J. Genial otro video reforzando el tema. Mil gracias
@jonathanramirezmontes9373
@jonathanramirezmontes9373 Жыл бұрын
Están increibles tus vídeos, he visto todo lo que has hecho relcionado con OpenAI, Crees que en algún momento puedas tocar el tema de algunas herramientas open source (HuggingFace) que se acerquen a las funcionalidades de que tiene OpenAI?
@capablancastyle
@capablancastyle Жыл бұрын
Hola, gracias por el video, quisiera saber si exploraras el modelo falcón 9b o 40, pues veo que con esa licencia se puede usar plenamente! De antemano, gracias!
@gerrcass1
@gerrcass1 Жыл бұрын
Hola, gracias por compartir. Dado que ChatGPT, el que usamos oficial via web, si mantiene memoria de cada conversacion, ¿cual de estos métodos usa para mantener el contexto en cada chat?. A mi particularmente me parece mas razonable el de resumen, pero el contexto o memoria es una caracteristica muy importante para un asistente virtual, ¿hay alguna buena práctica o método dominante para este propósito?
@alfredolawler2205
@alfredolawler2205 8 ай бұрын
Una pregunta Alex: porque usas como parametro, cuando instancias el modelo LLM, stop: " Human"? Gracias!
@cristinab8733
@cristinab8733 Жыл бұрын
¡Muy buen vídeo! Aunque LangChain proporcione esta capa de "memoria", ¿tendría sentido usarla si necesito que recuerde solo la conversación de la semana pasada por ejemplo? Esto es para implementar un chatbot con ChatGPT
@yorius96
@yorius96 Жыл бұрын
Muy buen video, creo que está muy bien explicado. Aunque no me quedó claro qué pasa con la ventana de contexto si se utiliza el primer método (en el que se guarda todo en el historial). ¿En la medida que el historial crece, se gastan los 4.000 tokens de ventana de contexto?¿Deja de funcionar al superar el rate limit? porque me imagino que esto se puede evitar fijando un k como en el segundo método (si solo guardo 3 o 4 mensajes, la ventana de contexto se va liberando, evitando llegar al limite), pero qué pasa cuando guardo el historial completo?. Otra cosa que me generó dudas es que cuando se usa el método del resumen (el tercero) ¿se hace sobre los imputs que ya se fueron resumiendo?¿o el resumen se hace sobre el historial completo (con todos los mensaje completos y sin resumir)?. De nuevo, buena explicación y gracias por tu trabajo.
@AMPTech
@AMPTech Жыл бұрын
El resumen se hace sobre los inputs y los resumenes ya hechos. Sobre la ventana de contexto, cuando el historico sobrepasa los 4mil tokens va a dejar de funcionar, por eso el modo de mantener una ventana del historico es el que mas recomendaria entre esos dos (el de historico completo o el de la ventana del historico)
@yorius96
@yorius96 Жыл бұрын
@@AMPTech Muchas gracias :)
@orlandomanuelospinohernand9869
@orlandomanuelospinohernand9869 Жыл бұрын
Gracias! Consulta como y cuando cual utilizar?
@AMPTech
@AMPTech Жыл бұрын
La que mas he usado yo es la segunda con la ventana. Esa es muy buena solución para la mayoría de los casos. La que genera los resumenes te funciona si sabes que las interacciones que tendrás con tu chatbot rápido van a exceder el limite de tokens que tenga el modelo.
@joakinic
@joakinic Жыл бұрын
Hola, al ser parte de LangChain, esto debería funcionar de igual forma para modelos locales como Ollama?
@alexanderacevedo962
@alexanderacevedo962 Жыл бұрын
al principio hay algo que no entendi muy bien al momento que dijiste de los problemas , la memoria en si va con el tamaño por la cantidad de token o usando esta funcionalidad de la librería langchain no me da limites para el tamaño del historial?
@AMPTech
@AMPTech Жыл бұрын
langchain guarda todo el historico, pero el limite de tokens del modelo como tal sigue siendo el mismo.
@ennioagc
@ennioagc Жыл бұрын
Se pueden implementar varios tipos de memoria a la vez?
@valentinaliendro3593
@valentinaliendro3593 Жыл бұрын
La memoria se puede implementar usando tanto GPT 4 como en 3.5 turbo?
@alexanderacevedo962
@alexanderacevedo962 Жыл бұрын
como podiera hacer para que el mismo modela sea autoadministable con las tareas que debe hacer , con respecto al rol de personalizacion que le doy , que me recomiendas?
@AMPTech
@AMPTech Жыл бұрын
Echale un ojo a AutoGPT, este tipo de implementaciones todavia tienen sus fallas (y se han inflado mucho las expectativas de estos) pero para algunas tareas un poco básicas pueden funcionar. Al igual que hacer agentes con Langchain, justo en este momento estaba creando el archivo para empezar a planear ese video! jajaja
@italonicolas100
@italonicolas100 Жыл бұрын
Tengo un error cuando ingreso el código "llm = ChatOpenAI(stop=" Human") memoria = ConversationKGMemory(llm=llm) chatbot_kgm = ConversationChain(llm=llm, memory=memoria, verbose=True)" Me entrega el siguiente warning -> "WARNING! stop is not default parameter. stop was transferred to model_kwargs. Please confirm that stop is what you intended." He actualizado la librería y no se que hacer D:
@ernestosantiesteban6333
@ernestosantiesteban6333 Жыл бұрын
No sería mas eficiente hacer un embedings de toda la conversación y que se agregue al contexto del prompt actual como en los programas de chatear con pdfs? Por cierto muy buen video.
@AMPTech
@AMPTech Жыл бұрын
Ese es otro tipo de memoria que tocare en otro video. En el que justo haces retrieval de los embeddings y después lo procesas con un llm.
@nicolasmielnizuk8319
@nicolasmielnizuk8319 Жыл бұрын
Hola Amigo, que es Gnoss gpt
@yonautercreations8284
@yonautercreations8284 Жыл бұрын
A mi me crea una duda, si estoy enviando vía api, la tarificación es por token, no? Osea que si continuamente le meto al promt todo el historial, estaré incrementando el coste a lo bestia. Podrías comentar esta parte? Ya que no es lo mismo pagar la suscripción a 20 dólares, que pagar por token y tener excesos, si?
@AMPTech
@AMPTech Жыл бұрын
Si, el usar memoria en estos modelos incrementa el costo pues estas enviando cada vez mas tokens. Esto es distinto a la suscripcion de 20 dolares que mencionas ya que esa suscripcion es para poder usar chatgpt en su mejor version (con GPT4), pero esta API que menciono es para poder integrar todos los modelos que tienen a tu código (a diferencia de tener que utilizar su interfaz gráfica para poderlo utilizar) Saludos!
@orlandodeabreu9167
@orlandodeabreu9167 Жыл бұрын
¿Puede enviarse a Chat GPT el historial de una conversación antigua?
@AMPTech
@AMPTech Жыл бұрын
Si, se puede almacenar el historico en una variable y hacer un pickle file. Despues ese file lo cargas y por default ya tendrá el historial de las conversaciones pasadas.
@Arieloreyes
@Arieloreyes Жыл бұрын
Muy buen video, pero no pudimos ver la visualización de los grafos, importaste nx pero no hiciste nada con eso. Saludos.
@hernansanchezavila1423
@hernansanchezavila1423 Жыл бұрын
Excelente video, como es tu email. Por favor, Gracias. Necesito contactarte
LangChain 3: Cadenas con GPT4
21:47
AMP Tech
Рет қаралды 6 М.
Langchain 1: Modelos y Prompts
32:31
AMP Tech
Рет қаралды 20 М.
黑天使被操控了#short #angel #clown
00:40
Super Beauty team
Рет қаралды 61 МЛН
Une nouvelle voiture pour Noël 🥹
00:28
Nicocapone
Рет қаралды 9 МЛН
LangChain Explained in 13 Minutes | QuickStart Tutorial for Beginners
12:44
LangChain4j - use the power of LLMs in Java!
20:46
Microsoft for Java Developers
Рет қаралды 8 М.
Aprende sobre Embeddings de OpenAI
22:08
AMP Tech
Рет қаралды 51 М.
Tutorial de bases de datos Vectoriales, LangChain y ChatGPT
22:28
NullSafe Architect
Рет қаралды 13 М.
Dale memoria a ChatGPT
13:43
Julio Andres Dev
Рет қаралды 15 М.
Transformers (how LLMs work) explained visually | DL5
27:14
3Blue1Brown
Рет қаралды 4,3 МЛН
DID YOU NOTICE ANY LAPSES IN THE VIDEO or NOT? / MARGO_FLURY
0:34
MARGO FLURY | Маргарита Дьяченкова
Рет қаралды 12 МЛН
Самые простые строительные леса
0:54
Канал ИДЕЙ
Рет қаралды 1 МЛН
Таким раствором работать одно удовольствие
1:00
Профессия созидатели
Рет қаралды 954 М.
Что такое дагестанский кирпичный завод!
0:53
АВТОБРОДЯГИ - ПУТЕШЕСТВИЯ НА МАШИНЕ
Рет қаралды 746 М.
Do YOU Understand WHAT JUST HAPPENED!? 😂 #shorts
0:57
LankyBox World
Рет қаралды 1,6 МЛН