🟣 Chatbot Inteligente no N8N com Langchain e Uzapi: autotic.com.br/chatbot-inteligente-no-n8n-com-langchain-e-uzapi 🟠 Curso Intensivo de N8N: autotic.com.br/curso-intensivo-de-n8n 🟢 Teste Grátis nossa API de WhatsApp (Uzapi): uzapi.com.br 👥 Grupo de N8N no WhatsApp: chat.whatsapp.com/EST1hV8aITs33IdS0BoNOY
@BlasphemerMedia2 ай бұрын
Maravilha, seu fluxo é muito mais simples que outros que vi por ai. Ótimo conteúdo!
@Autotic2 ай бұрын
@@BlasphemerMedia Opa, obrigado meu amigo! TMJ
@giovanijunior64012 ай бұрын
Qual programa professor voce usa para gravar seus videos. Que trnha esses efeitos de cliques, de aproximar a tela.
@Autotic2 ай бұрын
Oi Giovani! Usamos o FocusSee.
@andrepaivaceАй бұрын
Tem esse módulo no Curso Intensivo de N8N, com detalhes de implementação?
@AutoticАй бұрын
Sim! autotic.com.br/curso-intensivo-de-n8n
@pixelpunkart2 ай бұрын
mostra pra gnt como funciona nos nós do redis, ou o workflow ajudaria tb! abracos
@Autotic2 ай бұрын
@@pixelpunkart Basicamente nos Nodes do Redis usamos as operações push e get (para salvar e retornar as mensagens) na lista de mensagem do respectivo contato. No curso Intensivão N8N, ensinamos como usar cada operação do node do Redis e ao final, montamos esse workflow do zero, mostrando passo a passo.
@pixelpunkart2 ай бұрын
@@Autotic que massa, sou aluno e vou dar uma olhada agora, MUITO obrigado, seus videos me salvam mto
@pixelpunkart2 ай бұрын
oi bom dia, nao achei essa parte no intensivao, nada sobre redis na verdade, sera q conseguiria me ajudar?
@Autotic2 ай бұрын
@@pixelpunkart As aulas estão sendo disponibilizadas hoje. Confere depois o módulo 75 do curso.
@julioherculano6831Ай бұрын
onde você disponibiliza esse fluxo??
@AutoticАй бұрын
No curso Intensivão N8N autotic.com.br/curso-intensivo-de-n8n
@luanstrek2 ай бұрын
esse contexto só funciona com o redis?
@Autotic2 ай бұрын
Não! Funciona também com RabbitMQ.
@JeanFernandes2 ай бұрын
Acho mais simples criar a mensagem no agente gpt e só criar a run após X segundos de silêncio
@Autotic2 ай бұрын
@@JeanFernandes Também é uma boa alternativa. Porém o que é fácil para nós, pode não ser fácil para os outros. A proposta do Redis é justamente dispor essa função ao agente criado diretamente no N8N, sem necessidade de montar requisições HTTP para o uso de agentes externos.
@Mintcloud-mn2wh20 сағат бұрын
tu eh doido kkkkk
@ricardojlrufino2 ай бұрын
Legal, estou pensando em nun fluxo diferente .. assim o usuario tem que esperer um tempo muito grande, sem contar o tempo do LLM. A ideia é fazer o tratamento depois do LLM , caso tenha chegado uma nova mensagem, descarta o resultado do LLM e gera uma resposta nova.
@Autotic2 ай бұрын
@@ricardojlrufino Além de ser mais trabalhosa, essa sua lógica consumiria mais tokens da LLM. A forma mais eficaz é como ensinamos no vídeo. A demora foi devido à uma lentidão temporária do nosso N8N e o fato da LLM ter gerado uma resposta bem grande pela base de conhecimentos. Não havendo lentidão no seu N8N e instruir seu agente a dar respostas curtas. A resposta é bem mais rápida (se não usar RAG fica mais rápida ainda).
@ricardojlrufino2 ай бұрын
Mas por exemplo, o usuário fala. Oi. E tem que esperar 30 segundos ?? Pra uma automação , acho que talvez fique muito.. pra cada interação ter esse delay. Pode afetar a experiência do usuário. Mas acho que vai de cada caso...
@Autotic2 ай бұрын
@@ricardojlrufino Você não entendeu a lógica da automação. 30 segundos de espera se aplica apenas a primeira mensagem. As demais vão sendo acumuladas no Redis enquanto o Bot aguarda esse tempo de espera. A segunda mensagem em diante não acrescenta + 30 segundos por conta do IF. Assista novamente o video para você entender.
@esdrika3602 ай бұрын
Você não precisa colocar 30, pode colocar 5. É o tempo da pessoa falar, Oi enviar e perguntar na outra linha. Isso você altera de acordo com sua necessidade.
@Autotic2 ай бұрын
@@esdrika360 5 segundos é muito pouco. 30 segundos é o mínimo ideal para a pessoas escrever 2 ou mais mensagens com calma. Vale lembrar que nem todo contato digita rápido.