Você se tornou o meu novo modelo de referência, comprei seu curso e a sua metodologia, didática e entrega são incomparáveis! Obrigado
@AsimovAcademy6 ай бұрын
Muito obrigado, Caio!! Conta conosco pro que precisar!!
@Basura-yi1ey6 ай бұрын
Excelente canal. Não pare
@danielguimaraes83656 ай бұрын
Excelente vídeo !!!
@cleyton19865 ай бұрын
Cara... Sensacional seu canal... Parabéns pelos conteúdos +1 Inscrito
@AsimovAcademy5 ай бұрын
Agradecemos, Cleyton. Seja muito bem vindo!
@gabrieldasilva306 ай бұрын
Ótimo vídeo. Eu estava pensando em comprar uma placa de vídeo super cara pra rodar o modelo 405b, mas percebi que não seria o suficiente.
@AsimovAcademy6 ай бұрын
Mas ainda sim, acho que investir em uma placa boa (com 16b+) para exploração de modelos menores é uma ótima opção!
@fabioa80596 ай бұрын
É melhor usar a api do gpt
@LikeaRoshanTM6 ай бұрын
Você não faz ideia do quanto estava ansioso para ver esse vídeo seu, ainda não vi mas já agradeço kkk. Agora bora ver
@humbertocortezia6 ай бұрын
Eu estava tentando configurar essa versão 405b agora a tarde na real, to com 2 GPU A40 de 48gb cada 350gb de ram e usando o openweb ui para o front, mas eu uso o llama3.1 70b de forma até satisfatória, porem ainda acho ela pouca coisa lenta, como alterei a vm hoje de manhã para pegar +1 GPU ainda não aloquei as 2 placas para trabalharem juntas.
@leonardocamposprado6 ай бұрын
em 4:50 fala sobre um servidor interno com 2 placas 3080, gostaria muito de saber a configuração de todos componentes que usou para montar esse servidor e como faça para alocar as memórias das 2 placas de vídeo ao mesmo tempo para rodar o Lhama3.1.
@rafaelavaiano6 ай бұрын
Já testou o Gemini 1.5 Pro Exp disponível no AIStudio? Achei mais interessante que o llama e mistral.
@ticelsoful6 ай бұрын
Mais um excelente conteúdo. Tem como comprar seu curso sem que meu cartão fique com os créditos totais estourados.
@ruig17806 ай бұрын
acho q o hype tah passando... Espero q canais como o seu continuem, pois são muito mais "pé no chão". Cansado dessa galera virando os olhinhos, com qq noticia meia boca de IAs.😂🙂
@erosgkm6 ай бұрын
E a tal da Groq, ainda não foi upado essa nova versão do llama 405B?
@AsimovAcademy6 ай бұрын
Infelizmente não.... e não sei se será, pois a Groq (sei lá como) é totalmente gratuita, mas um modelo de 700gb roubaria muito espaço dos demais. Aguardemos!!
@MrZeronaldo6 ай бұрын
Usa o bedrock da AWS que vai sair “mais barato” que esse cluster. E com bucket S3 e seus dados vc consegue fazer inferência com seus dados
@AsimovAcademy6 ай бұрын
Excelente sugestão!
@jucylenemelo6 ай бұрын
Muito bom
@Fernando-e6w6 ай бұрын
Que estranho, fiz um teste numa 1090 ti 4gb, fazia 25 a 27 tokens por segundo. Vc com duas 3090 fazer só 100 tokens por segundos parece que tem algo errado.
@AsimovAcademy6 ай бұрын
Qual quantização você utilizou?
@klausdellano23416 ай бұрын
Mais uma prova de que a quantidade de parâmetros não significa um ganho significativo semelhante ao tamanho… e pensando em agentes, em cadeia, o resultado final eh tão bom quanto.
@MGJpredador2 ай бұрын
Pera, prova? Pensei que já era um fato consolidado.
@OCarlan6 ай бұрын
Qual programa voce usa pra gravar e colocar sua tela e vc ao mesmo teempo?
@AsimovAcademy6 ай бұрын
Isto é feito na pos produção, dentro do Adobe Premiere
@OCarlan6 ай бұрын
@@AsimovAcademy Obrigado
@humbertocortezia6 ай бұрын
Cara, como eu consigo deixar meu modelo 70b de uma forma bem mais configurado eu sou leigo, uso tudo como default, queria deixar ela mais contextualizada.
@gustavogugu25776 ай бұрын
Nem sempre o maior é o melhor.
@Nyx227-k7d6 ай бұрын
E se usasse uma nvidia quadro?
@Guiburgueir46 ай бұрын
Vai depender de quanta VRAM apenas. Modelos com muita VRAM custam uma moto 0KM ou mais.
@Nyx227-k7d6 ай бұрын
@@Guiburgueir4 me refiro a questão da otimização independente do modelo, pq já testei no meu pc e mesmo modelos pequenos não são super fluidos, e as nvidia quadro são feitas pra cálculos complexos
@AsimovAcademy6 ай бұрын
Este é um site que apresenta testes de velocidade de inferência em diferentes GPUs: github.com/XiongjieDai/GPU-Benchmarks-on-LLM-Inference. Mas em linhas gerais, qualquer GPU é melhor do que nenhuma, dado que seu modelo caiba inteiramente nela. Abraços!
@uzielweb6 ай бұрын
Mas não conseguimos usar aqui no Brasil.
@alandioria84406 ай бұрын
Boa noite. Estou com um projeto em que devo extrair informações de um PDF por exemplo: tipo, resumo, palavras chaves e assim sucessivamente qual modelo você me recomenda? Melhor custo benefício entre qualidade e custo?
@SacanagemSincera6 ай бұрын
gpt-4o-mini
@danieldamacena51976 ай бұрын
tente subir no drive da google e perguntar no gemini. Pode usar o notebooklm também e adicionar o pdf como fonte.
@TrumanShowss6 ай бұрын
Usa o claude ai 3.5 sonnet ou o sapiens chat
@fabioa80596 ай бұрын
Manda o conteúdo pra api do gpt e pede pra resumir
@alandioria84406 ай бұрын
@@danieldamacena5197 sim mas queria saber questão de custos cad requisição em média esta gerando 6k de tpokens
@RafaelCostaPereira-f1i5 ай бұрын
Resumindo, é bom?
@elproffesor22725 ай бұрын
Iso e loucura h100 pra roudar uma IA tudo pra faze uma pergunta pra ela???
@HernaniSamuel6 ай бұрын
O problema é o senhor computador que é necessário pra rodar essa IA 😅 Meu notebook demora 10 minutos para rodar o GEMMA 7B kkkkkk
@siriusleto37586 ай бұрын
Ninguém consegue uma única H100. O Elon Musk já começou com 100.000 placas H100. Milhares trabalham para ele e poucos vão poder comprar uma única H100 também, praticamente todo dinheiro vai para 1 pessoa só.
@miaugamer90366 ай бұрын
Fumou foi?
@srvictorbatista6 ай бұрын
00:54
@cristyanhenrich54276 ай бұрын
Groq?
@siriusleto37586 ай бұрын
Sim, a empresa original, aí Elon Musk copiou o nome porém chamando de Grok e roubou a boa fama da Groq