NOVA IA: LLAMA 3.1 405B! ... e daí?

  Рет қаралды 11,031

Asimov Academy

Asimov Academy

Күн бұрын

Пікірлер: 53
@caiosantana7077
@caiosantana7077 6 ай бұрын
Você se tornou o meu novo modelo de referência, comprei seu curso e a sua metodologia, didática e entrega são incomparáveis! Obrigado
@AsimovAcademy
@AsimovAcademy 6 ай бұрын
Muito obrigado, Caio!! Conta conosco pro que precisar!!
@Basura-yi1ey
@Basura-yi1ey 6 ай бұрын
Excelente canal. Não pare
@danielguimaraes8365
@danielguimaraes8365 6 ай бұрын
Excelente vídeo !!!
@cleyton1986
@cleyton1986 5 ай бұрын
Cara... Sensacional seu canal... Parabéns pelos conteúdos +1 Inscrito
@AsimovAcademy
@AsimovAcademy 5 ай бұрын
Agradecemos, Cleyton. Seja muito bem vindo!
@gabrieldasilva30
@gabrieldasilva30 6 ай бұрын
Ótimo vídeo. Eu estava pensando em comprar uma placa de vídeo super cara pra rodar o modelo 405b, mas percebi que não seria o suficiente.
@AsimovAcademy
@AsimovAcademy 6 ай бұрын
Mas ainda sim, acho que investir em uma placa boa (com 16b+) para exploração de modelos menores é uma ótima opção!
@fabioa8059
@fabioa8059 6 ай бұрын
É melhor usar a api do gpt
@LikeaRoshanTM
@LikeaRoshanTM 6 ай бұрын
Você não faz ideia do quanto estava ansioso para ver esse vídeo seu, ainda não vi mas já agradeço kkk. Agora bora ver
@humbertocortezia
@humbertocortezia 6 ай бұрын
Eu estava tentando configurar essa versão 405b agora a tarde na real, to com 2 GPU A40 de 48gb cada 350gb de ram e usando o openweb ui para o front, mas eu uso o llama3.1 70b de forma até satisfatória, porem ainda acho ela pouca coisa lenta, como alterei a vm hoje de manhã para pegar +1 GPU ainda não aloquei as 2 placas para trabalharem juntas.
@leonardocamposprado
@leonardocamposprado 6 ай бұрын
em 4:50 fala sobre um servidor interno com 2 placas 3080, gostaria muito de saber a configuração de todos componentes que usou para montar esse servidor e como faça para alocar as memórias das 2 placas de vídeo ao mesmo tempo para rodar o Lhama3.1.
@rafaelavaiano
@rafaelavaiano 6 ай бұрын
Já testou o Gemini 1.5 Pro Exp disponível no AIStudio? Achei mais interessante que o llama e mistral.
@ticelsoful
@ticelsoful 6 ай бұрын
Mais um excelente conteúdo. Tem como comprar seu curso sem que meu cartão fique com os créditos totais estourados.
@ruig1780
@ruig1780 6 ай бұрын
acho q o hype tah passando... Espero q canais como o seu continuem, pois são muito mais "pé no chão". Cansado dessa galera virando os olhinhos, com qq noticia meia boca de IAs.😂🙂
@erosgkm
@erosgkm 6 ай бұрын
E a tal da Groq, ainda não foi upado essa nova versão do llama 405B?
@AsimovAcademy
@AsimovAcademy 6 ай бұрын
Infelizmente não.... e não sei se será, pois a Groq (sei lá como) é totalmente gratuita, mas um modelo de 700gb roubaria muito espaço dos demais. Aguardemos!!
@MrZeronaldo
@MrZeronaldo 6 ай бұрын
Usa o bedrock da AWS que vai sair “mais barato” que esse cluster. E com bucket S3 e seus dados vc consegue fazer inferência com seus dados
@AsimovAcademy
@AsimovAcademy 6 ай бұрын
Excelente sugestão!
@jucylenemelo
@jucylenemelo 6 ай бұрын
Muito bom
@Fernando-e6w
@Fernando-e6w 6 ай бұрын
Que estranho, fiz um teste numa 1090 ti 4gb, fazia 25 a 27 tokens por segundo. Vc com duas 3090 fazer só 100 tokens por segundos parece que tem algo errado.
@AsimovAcademy
@AsimovAcademy 6 ай бұрын
Qual quantização você utilizou?
@klausdellano2341
@klausdellano2341 6 ай бұрын
Mais uma prova de que a quantidade de parâmetros não significa um ganho significativo semelhante ao tamanho… e pensando em agentes, em cadeia, o resultado final eh tão bom quanto.
@MGJpredador
@MGJpredador 2 ай бұрын
Pera, prova? Pensei que já era um fato consolidado.
@OCarlan
@OCarlan 6 ай бұрын
Qual programa voce usa pra gravar e colocar sua tela e vc ao mesmo teempo?
@AsimovAcademy
@AsimovAcademy 6 ай бұрын
Isto é feito na pos produção, dentro do Adobe Premiere
@OCarlan
@OCarlan 6 ай бұрын
@@AsimovAcademy Obrigado
@humbertocortezia
@humbertocortezia 6 ай бұрын
Cara, como eu consigo deixar meu modelo 70b de uma forma bem mais configurado eu sou leigo, uso tudo como default, queria deixar ela mais contextualizada.
@gustavogugu2577
@gustavogugu2577 6 ай бұрын
Nem sempre o maior é o melhor.
@Nyx227-k7d
@Nyx227-k7d 6 ай бұрын
E se usasse uma nvidia quadro?
@Guiburgueir4
@Guiburgueir4 6 ай бұрын
Vai depender de quanta VRAM apenas. Modelos com muita VRAM custam uma moto 0KM ou mais.
@Nyx227-k7d
@Nyx227-k7d 6 ай бұрын
@@Guiburgueir4 me refiro a questão da otimização independente do modelo, pq já testei no meu pc e mesmo modelos pequenos não são super fluidos, e as nvidia quadro são feitas pra cálculos complexos
@AsimovAcademy
@AsimovAcademy 6 ай бұрын
Este é um site que apresenta testes de velocidade de inferência em diferentes GPUs: github.com/XiongjieDai/GPU-Benchmarks-on-LLM-Inference. Mas em linhas gerais, qualquer GPU é melhor do que nenhuma, dado que seu modelo caiba inteiramente nela. Abraços!
@uzielweb
@uzielweb 6 ай бұрын
Mas não conseguimos usar aqui no Brasil.
@alandioria8440
@alandioria8440 6 ай бұрын
Boa noite. Estou com um projeto em que devo extrair informações de um PDF por exemplo: tipo, resumo, palavras chaves e assim sucessivamente qual modelo você me recomenda? Melhor custo benefício entre qualidade e custo?
@SacanagemSincera
@SacanagemSincera 6 ай бұрын
gpt-4o-mini
@danieldamacena5197
@danieldamacena5197 6 ай бұрын
tente subir no drive da google e perguntar no gemini. Pode usar o notebooklm também e adicionar o pdf como fonte.
@TrumanShowss
@TrumanShowss 6 ай бұрын
Usa o claude ai 3.5 sonnet ou o sapiens chat
@fabioa8059
@fabioa8059 6 ай бұрын
Manda o conteúdo pra api do gpt e pede pra resumir
@alandioria8440
@alandioria8440 6 ай бұрын
​@@danieldamacena5197 sim mas queria saber questão de custos cad requisição em média esta gerando 6k de tpokens
@RafaelCostaPereira-f1i
@RafaelCostaPereira-f1i 5 ай бұрын
Resumindo, é bom?
@elproffesor2272
@elproffesor2272 5 ай бұрын
Iso e loucura h100 pra roudar uma IA tudo pra faze uma pergunta pra ela???
@HernaniSamuel
@HernaniSamuel 6 ай бұрын
O problema é o senhor computador que é necessário pra rodar essa IA 😅 Meu notebook demora 10 minutos para rodar o GEMMA 7B kkkkkk
@siriusleto3758
@siriusleto3758 6 ай бұрын
Ninguém consegue uma única H100. O Elon Musk já começou com 100.000 placas H100. Milhares trabalham para ele e poucos vão poder comprar uma única H100 também, praticamente todo dinheiro vai para 1 pessoa só.
@miaugamer9036
@miaugamer9036 6 ай бұрын
Fumou foi?
@srvictorbatista
@srvictorbatista 6 ай бұрын
00:54
@cristyanhenrich5427
@cristyanhenrich5427 6 ай бұрын
Groq?
@siriusleto3758
@siriusleto3758 6 ай бұрын
Sim, a empresa original, aí Elon Musk copiou o nome porém chamando de Grok e roubou a boa fama da Groq
Como funciona mercado da IA? A próxima BOLHA está se formando?
17:32
LLaMA 405b Fully Tested - Open-Source WINS!
10:02
Matthew Berman
Рет қаралды 83 М.
Thank you mommy 😊💝 #shorts
0:24
5-Minute Crafts HOUSE
Рет қаралды 33 МЛН
Caleb Pressley Shows TSA How It’s Done
0:28
Barstool Sports
Рет қаралды 60 МЛН
«Жат бауыр» телехикаясы І 30 - бөлім | Соңғы бөлім
52:59
Qazaqstan TV / Қазақстан Ұлттық Арнасы
Рет қаралды 340 М.
Cheap mini runs a 70B LLM 🤯
11:22
Alex Ziskind
Рет қаралды 333 М.
Este MODELO vai colocar o MERCADO de IA de cabeça pra baixo
11:03
Asimov Academy
Рет қаралды 15 М.
Rode IAs na sua PRÓPRIA MÁQUINA
17:13
Asimov Academy
Рет қаралды 36 М.
Do we really need NPUs now?
15:30
TechAltar
Рет қаралды 903 М.
Coloquei o CHATGPT para jogar XADREZ contra o GEMINI
19:33
Asimov Academy
Рет қаралды 620 М.
Como usar a API da IA llama3 em seus projetos?
13:15
Thi Code
Рет қаралды 20 М.
Thank you mommy 😊💝 #shorts
0:24
5-Minute Crafts HOUSE
Рет қаралды 33 МЛН