O mais completo que ja vi sobre api do openai... obrigada... produza mais... vc explica muito bem.
@brunoartbr7 ай бұрын
Muito obrigado pelo feedback!! 🙏 Quero trazer mais videos sobre ferramentas como Wordpress, N8N e Typebot para o canal.
@alissondaniel43388 ай бұрын
mt bom!
@brunoartbr8 ай бұрын
Vlw meu amigo. Obrigado pelo feedback!
@karolcomunica7 ай бұрын
Muito bom... Tem como fazer um tutorial sobre n8n?
@brunoartbr7 ай бұрын
Quero fazer mais videos sobre N8N sim. Qual a maior dificuldade sobre o N8N esta tendo no memento?
@heitorgoncalves68147 ай бұрын
tem como ele ler o conteúdo de uma imagem ? exemplo vcu envia uma imagem com texto e ler os textos desta imagem ?
@brunoartbr7 ай бұрын
Vi painel do chatgpt da sim, já rodei alguns comandos por la para transcrever textos das imagens e roda muito bem. Via API ainda não fiz esses testes, mas acredito que de com o modelo 4 ou superior.
@tudoautomatizado6 ай бұрын
Ele não salva o "histórico de conversas" no caso de uma mesma conversa, como se fosse uma sessão, para armazenar informações do inicio da conversa, pra usar durante o fluxo?
@brunoartbr6 ай бұрын
Nunca precisei criar um fluxo que precise de histórico. Pois os fluxos que uso são de via única, recebe e faz, depois finaliza. Já pensei nisso de histórico, mas acho que o n8n não seria para isso. Para criar conversas com a IA tem outras formas como Typebot, Chatwoot, Botpress. Tem muitas outras ferramentas de workflow baseadas em conversa. O N8N na minha visão não é para conversa, e sim para tarefas. Você pode usar ele, assim como uso por exemplo, dentro do typebot, para executar coisas e devolver para o app de conversação, mas ai fica com o app de conversa realizar o dialogo, enquanto o N8N faz seu trabalho e encerra.
@brunoartbr6 ай бұрын
Se precisar da conversa durante o fluxo, é só chamar outro Node da OpenIA, e passar o histórico para o assistente, e pedir a resposta com base no Node anterior.
@cr7raposo4 ай бұрын
vc pode integrar com o langchain para vc manter o histórico das conversas, vc pode fazer uma forma mais simplificada. Pelo menos qdo eu comecei a codificar, eu criava listas no início . tipo: cada interação minha e da I.A era armazenada em uma lista , toda requisição essa lista era enviada para o modelo, assim ele tinha o contexto das mensagens anteriores. O problema q não é mto eficiente, pois vc está consumindo mais tokens. Integrar o langchai vc pode implementar o buffer de memoria , tem um buffer memory que faz o resumo do contexto, isso vc pode limitar o o tamanho do contexto , talvez pra 8 mil tokens , isso deve dar menos de 20 mensagens (posso estr enganado) então vc vai conseguir gerenciar bem os custos e manter um pequeno contexto nas conversas , mas como vc irá impor um limite no buffer, ele irá substituir contextos mais antigos por mais recentes. Isso evita tbm que vc extrapole o limite de tokens do modelo. Se por acaso for importante pra vc, vc pode tentar manter um histórico em banco de dados ou arquivo json , mas daí vai depender de vc conseguir fazer a consulta de mensagens antigas de forma eficiente, sem que envie todo o histórico pro modelo. A implicação aqui tbm é que o histórico vai crescendo, mas por arquivos json serem bstante leves , vc pode usar bibliotecas como fuzzy que faz buscas por similaridades e ranqueia , daí vc faz um filtro desse raqueamento e passa pra llm , a conversa como é intuitiva , mesmo que ela receba uns 3 ou 4 parágrafos de conversas antigas que vcs tiveram, ela irá saber filtrar qual resposta te dar de acordo com as informações que recebeu. Ao menos foi assim que consegui resolver meu problema de manter um contexto e memórias antigas, sem depender de utilizar rag tbm pq ao consumir os embedings sai bastante caro.
@cr7raposo4 ай бұрын
O chatgpt 4p mini custa o msm q o 3.5 turbo. Pq vc usa o 3.5?
@brunoartbr4 ай бұрын
Quando gravei não tinha disponível o 4mini. E para meu uso em API, é mínimo, o 3.5 esta suprindo normalmente, mas vou ver de testar o 4mini em API futuramente.