🎯 Key points for quick navigation: 00:01 *🎤 Bienvenida y explicación de la plataforma* - Introducción al webinar y a la plataforma de transmisión utilizada. - Explicación de las funcionalidades del chat y la sección de preguntas y respuestas. - Recomendaciones técnicas para una mejor experiencia. 02:05 *💡 Introducción a la plataforma N Analytics* - Descripción de la plataforma N Analytics como herramienta sin necesidad de programación. - Explicación del flujo de trabajo con nodos y la creación de aplicaciones de datos interactivas. - Uso de componentes y visualizaciones para estructurar flujos de trabajo complejos. 06:10 *🤖 Modelos de Lenguaje Grande (LLM)* - Explicación básica de los modelos de lenguaje grande (LLM) y su uso para procesar texto. - Ejemplos de uso: extracción de temas, análisis de sentimientos, preguntas y respuestas. - Detalles sobre los nodos de OpenAI y Azure OpenAI disponibles en la plataforma N Analytics. 09:35 *📝 Demostración de una app de datos con LLM* - Demostración de cómo construir una aplicación de datos utilizando nodos de OpenAI. - Creación de un poema utilizando una descripción de tarea y entrada de usuario. - Procesamiento de múltiples entradas de usuario para generar respuestas personalizadas. 15:34 *💬 Modelos de chat y su integración* - Explicación de los modelos de chat y cómo se diferencian de los LLM tradicionales. - Uso de la memoria en conversaciones mediante la integración de un modelo de chat. - Ejemplo de aplicación para responder preguntas sobre premios y actores, con limitaciones en la memoria del modelo. 19:54 *🔄 Integración de datos recientes con LLM* - Introducción al concepto de "retrieval augmented generation" para usar datos recientes. - Explicación del uso de búsqueda semántica y modelos de embeddings para mejorar la precisión de las respuestas. - Ejemplo de cómo utilizar modelos de embeddings para mejorar la búsqueda de documentos semánticamente similares. 25:25 *📚 Modelos de Embedding y Almacenamiento de Vectores* - Explicación de cómo integrar modelos de embedding y búsqueda semántica en la plataforma N. - Soporte para modelos de OpenAI, Azure OpenAI y Hugging Face, y el uso de almacenes de vectores como Chroma y FAISS. - Integración de la función "retriever" para realizar búsquedas semánticas y obtener documentos similares a una consulta. 26:36 *🔄 Generación Aumentada por Recuperación (RAG)* - Demostración de cómo utilizar la generación aumentada por recuperación con un almacén de vectores. - Creación de un almacén de vectores a partir de datos recientes de Wikipedia. - Implementación de la búsqueda semántica para recuperar documentos similares y combinarlos con preguntas del usuario. 31:03 *🤖 Ajuste de Prompts y Comportamiento del Modelo* - Personalización del comportamiento del modelo mediante mensajes del sistema para definir la personalidad y las respuestas del modelo. - Ajustes para mostrar solo la respuesta relevante al usuario y ocultar el contexto de la búsqueda. - Optimización del flujo de trabajo para que el modelo utilice correctamente el contexto proporcionado. 34:47 *🔒 Privacidad y Seguridad de los Modelos* - Comparación entre OpenAI, Azure OpenAI y Hugging Face en términos de privacidad y retención de datos. - Detalles sobre la seguridad de los modelos y las opciones para evitar la retención de datos en Azure OpenAI. - Consideraciones sobre la política de privacidad de cada plataforma y el uso de datos. 39:01 *🛠️ Modelos de Lenguaje Offline y Capacidades de Entrenamiento* - Discusión sobre el uso de modelos offline y la calidad de los resultados con modelos locales. - Explicación de las diferencias entre usar OpenAI, Azure y modelos locales, especialmente en términos de velocidad y rendimiento. - Posibilidades de ajustar y entrenar modelos para tareas específicas a través de fine-tuning en OpenAI y otros modelos de código abierto. 52:16 *🔧 Ajuste de Modelos y Fine-Tuning* - Explicación de cómo los modelos generales de OpenAI se ajustan para tareas específicas mediante fine-tuning. - La transición hacia modelos más generales y la capacidad de los usuarios para ajustar los modelos según sus necesidades. - Expectativas sobre el uso de estas funcionalidades en la plataforma N Analytics. 53:23 *🧑💻 Integración de AI en la Plataforma N* - Comparación entre la extensión AI y el asistente AI de N Analytics. - Uso de la biblioteca Python L Chain para integrar AI en flujos de trabajo visuales. - Ventajas de la programación visual para orquestar y probar nuevas características de AI. 55:25 *🌐 Uso de API REST para Integración Externa* - Explicación de cómo construir interfaces de usuario externas (como aplicaciones web) usando una API REST de la plataforma N. - Posibilidad de conectar aplicaciones móviles o sitios web con flujos de trabajo creados en N. - Ejemplo de un caso en el que un cliente utilizó esta integración para un backend de procesamiento. 57:01 *💬 Análisis de Datos Textuales y Comentarios de Clientes* - Aplicación de la extensión AI para analizar datos textuales como comentarios de clientes o órdenes de reparación. - Ejemplo de un cliente que usó la extensión para analizar datos de foros con buenos resultados. - Importancia de descomponer las tareas en subtareas y utilizar AI de manera complementaria con métodos convencionales. Made with HARPA AI
@laiken4465 Жыл бұрын
00:00 intro 01:55 agenda 03:25 Recap: KNIME Analytics Platform and Data Apps 06:01 Large Language Models 09:27 Demo 1: simple data app 15:32 Chat Models 17:15 Demo 2: Chat App 20:59 How do I blen LLMs with my own data? 26:32 Demo 3: RAG 35:37 Q&A 59:54 Drop a review
@noustelo11 ай бұрын
with all the madness going on at the moment in the world of AI (e.g sora, text to video, robotics etc) its harder and harder to be surprised or indeed impressed. This is super impressive! I am working on KNIME at the moment and hopefully will do what I want it to do....Keep up the good work!
@khushboopatel5013 Жыл бұрын
Hey. I am using KNIME to build decision tree classifier. I have two datasets, training and unknown which I have connected to Decision Tree Learner and Decision Tree Predictor respectively. However, the scorer shows an error of 'There were missing values in the reference or in the prediction class column'. There are no missing values in the dataset, I have treated them all. Could you help me make sense of this? Thanks!
@samfootrockst Жыл бұрын
For the test data does it need classifier or class to be provided? Is that missing.