Muito top, estou fazendo a instalação para testar. Otimo video
@wallacecamargo10432 ай бұрын
Boaaa!! fico feliz que estejas conseguindo meu amigo!! grande abraço e sucesso nos projetos!!
@orafaelgf3 ай бұрын
otimo video. open-web-ui é uma ferramenta extraordinaria. da pra fazer muitaaaa coisa nela. integracao com qualquer llm via api, rag, pipeline, database, enfim... muita coisa legal mesmo. é facil de instalar, configurar e super indicado pra usar em producao, principalmente em empresas por conta de lgpd.
@wallacecamargo10433 ай бұрын
Verdade meu amigo!! estou testando aqui e gostei bastante!! o desafio agora é integrar na minha stack e fazer perguntas do tipo "qual a minha maior tabela?" e ela ser capaz de fazer uma query e me devolver essa resposta.
@esdrasjc3 ай бұрын
Assim como modelo web, ele tem limite de requisicoes por dia?
@wallacecamargo10433 ай бұрын
Nao!! você pode usar ilimitadamente sem custos!! é inacreditável, mas é verdade!! não tem custo e vc nao precisa pagar pela API.
@ryccelemartins2922Ай бұрын
eu seguir os passos porem o meu não veio com modelo nenhum
@wallacecamargo104312 күн бұрын
Tens razão, se seguir passo a passo exatamente como está no vídeo, não vai funcionar, mas eu deixei essa nota no repositório do projeto. Será necessário entrar no container do Ollama e instalar lá dentro o modelo llama3.2. No repositório tem o passo a passo: github.com/wlcamargo/ia_local_ollama3
@wallacecamargo104312 күн бұрын
Pegue o id do container do ollama com o comando docker ps depois adicione o id aqui abaixo: docker exec -it /bin/bash Quando entrar no container, voce executa o seguinte comando: ollama run llama3.2 Depois disso vai conseguir enxergar o modelo através do "Chat GPT" local