me impressiono o resultado foi muito bom para um modelo 70b e de uma versão anterior, e a prova de que apenas com ajustes da para ter um modelo inteligente com custo menor para a empresa e seus clientes
@inteligenciamilgrau10 күн бұрын
Exatamente! Deixou claro que estamos no caminho certo!
@canaldosherlock10 күн бұрын
Parabéns pelo vídeo! !a narração de hoje ficou bem animada.. estava até torcendo para o modelo em uma certa hora 😂😂 parecia um jogo de futebol! Kkk E boa observação sobre o "maritaca"!
@inteligenciamilgrau10 күн бұрын
Rsrsrs valeuuuuu, foi emocionante! Uhuuuuu! Agora vai baratear geral!
@GiovanoMontemezzoPanatta9 күн бұрын
Muito bom cara! Parabéns pelo conteúdo
@inteligenciamilgrau9 күн бұрын
Valeuuuuuu Giovano!! Obrigadãooooooooo!!
@fredericocouto10 күн бұрын
Sempre dando o Like e ajudando a Hypar!
@inteligenciamilgrau10 күн бұрын
Uhuuuuuuuuuuuuu, valeuuuuu demais! Obrigadão pela força!
@Felipelima8510 күн бұрын
Impressionante! Modelo pequeno mas muito inteligente.
@inteligenciamilgrau10 күн бұрын
É o melhor exemplo de menos é mais!!
@marcosandre39869 күн бұрын
Muito top MESMO! É o fine tunning do "faça passo a passo" só que MELHOR do que pedir, porque ele já "nasceu" dessa forma
@inteligenciamilgrau9 күн бұрын
Exatamente, achei perfeito! Excelente!
@NicoOlivan10 күн бұрын
bob, poderia fazer um vídeo explicativo sobre como fazer um fine tuning assim?
Cara ,acabei de fazer o teste do ABCDE × 4 com o novo gemini (002) e ele usou uma forma muito criativa para resolver o problema kkk depois testa ele
@inteligenciamilgrau10 күн бұрын
Boaaaaaa, compartilha a solução!! Cada vez que ele resolve vai dar uma resposta diferente, pode não ser a mesma da sua!! Compartilha ela!!
@HellitonSoaresMesquita10 күн бұрын
É a Nvidia provou o ponto mesmo que o Llama só precisa de Fine Tuning. Agora qualquer modelo já começa lá em cima porque com certeza vão derivar a partir desse.
@inteligenciamilgrau10 күн бұрын
Exatamente! E aumenta a qualidade de quem gera esses modelos! Uhuuuuu demais! Valeuuuu
@jaderpereira188910 күн бұрын
muito bom o tamanho dos modelos nao e o mais importante e sim como ele e construido.
@inteligenciamilgrau10 күн бұрын
Perfeito!! Exatamente isso!! Abriu os olhos de toda comunidade para essa verdade!!! Demaissss!
@saba_muito10 күн бұрын
Imagino um dia um modelo 1B nível GPT-4 ou até o1
@inteligenciamilgrau10 күн бұрын
Meu sonho!!! Tem um assistente top de boas rodando em casa suave!! Demaissssss!!
@regiao_autonoma10 күн бұрын
dá vontade de testar toas perguntas de logica de revistas antigas
@inteligenciamilgrau10 күн бұрын
Uhuuuuu demorou! Se descobrir alguma boa manda que se bugar a mente do chat eu incluo no teste
@franciscofernandes346310 күн бұрын
Essa AI é bem filosófica e eloquente
@inteligenciamilgrau10 күн бұрын
Muito bom isso! Também gostei da eloquência!! Valeuuuuuuuuuuuu
@kamitetsu10 күн бұрын
Realmente me impressionou também! Fiz alguns testes aqui hoje e essa IA se saiu melhor que o CHATGPT 4o em todos eles. Dimensionamento de carga e cabos de elétricos sem muitos parâmetros, ou seja, só com base nas estimativas do próprio modelo, textos comuns para divulgações no whatsapp, e até no teste do "strawberry", entre outros textos mais simples. Muito obrigado pela indicação, gostei muito!
@inteligenciamilgrau10 күн бұрын
Excelente! Muito bom saber! Isso é incrível demais! Valeuuuu
@drn1designer90810 күн бұрын
bom dia . Testes de sempre
@inteligenciamilgrau10 күн бұрын
Obrigadão! Valeuuuu
@diogocamilo198110 күн бұрын
Fiz a pergunta pra IA do "Calço a bota ou boto a calça" ela errou Porém ao explicar o significado de trocadilho, de forma impressionante ela não erra mais.
@inteligenciamilgrau10 күн бұрын
Boaaaaaaaa! rsrsrs Não pode ensinar o truque que elas são ligeiras! rsrsrs
@leosmi110 күн бұрын
Bob, tenta mostrar as perguntas pros modelos traduzidas para o inglês, talvez o modelo só tenha muito viés de linguagem.
@inteligenciamilgrau10 күн бұрын
Eu tenho certeza que em inglês as coisas serão diferentes! Mas os caras da Nvidia tem que ver esse vídeo um dia e saber que tem Brasileiro testando em português! rsrsrs Senão eles não saem do umbigo!! Valeuuuuuuuuuuuu
@leosmi19 күн бұрын
@@inteligenciamilgrau kkkkkkkkkk isso é verdade mesmo, os caras geralmente tão nem ai pra gente. "Michael, Michael. Eles não ligam pra gente"
@maumartelli10 күн бұрын
META trabalhando nos modelos: 39 anos; Maritaca trabalhando no fine-tuning: 2 ou 3 semanas. Expectativa: que todo mundo aproveite com felicidade! Realidade: brasileiros cheios de mimimi... Vamos é aproveitar galera!!!
@inteligenciamilgrau10 күн бұрын
Exatamente!! rsrs Mas eu vejo que é mais que isso, é conseguir reconhecer que ficou top o tuning dos caras! Porque a pessoa acha que é ruim só pelo fato de ser tuning to llama! rsrs Ela nem raciocina o que está acontecendo!! A galera do Maritalk fez um excelente dataset, fez as publicações da documentação técnica dos benchmarks, fez tudo que tinha que faz avaliando o modelo em português! Como tem que ser feito!! E é isso, não é mágica, é só trabalho mesmo! rsrs É isso que fazem no mundo todo! rsrs Mas estamos incentivando essa galera do Brasilzão a fazer IA e logo isso muda!! Uhuuuuuuuuuu
@NidallRaad10 күн бұрын
Show! Como faz pro usar ele? Tem o link?
@inteligenciamilgrau9 күн бұрын
Faaaala Nidall! Segue o link: build.nvidia.com/nvidia/llama-3_1-nemotron-70b-instruct
@x1989Minaro10 күн бұрын
Finalmente AGI! 😂😂😂😂
@inteligenciamilgrau10 күн бұрын
😬😬😬
@luandias499610 күн бұрын
Bob, procurando no google fui jogado para o nemotron-4-340b-instruct, esse é beeeeem interessante. No hugging face tem o nvidia/nemotron-3-8b-base-4k, será que esse está no nível do Juninho? 🤣
@inteligenciamilgrau10 күн бұрын
Kkkkkkkkk Juninho na versão Nemotron é brabo Kkkkkkkkk
@Singularitiva10 күн бұрын
Muito Interessante, será que é criativo?
@inteligenciamilgrau10 күн бұрын
Minha intuição diz que ele é meio metódico rsrsrs não sei como será a criatividade rsrsrs
@RogerTB10 күн бұрын
Eu acho que as que ele errou foi por falta de tokens... Vamos acompanhar esse modelo, bem legal!
@inteligenciamilgrau10 күн бұрын
Esse é um ponto interessante!! Não tinha parado para ver por essa ótica!! E faz sentido!! Onde a coisa se prolongou demais, deu ruim!! Valeuuuuuuuuuuuuuuuuu
@RogerTB10 күн бұрын
@@inteligenciamilgrau já dá pra testar o 340b
@alissonsoares4110 күн бұрын
Assisti a um vídeo onde o gemini resolve o teste do copo com o dado.
@inteligenciamilgrau10 күн бұрын
Boaaaaaa Alisson!! No geral os modelos todos uma hora acertam!! Principalmente se mudar a forma de perguntar ou fazendo ajustes, porém eles ora acertam, ora erram!! Esse aí acerta sempre e pode ser que eventualmente erre!! Essa é a diferença!! Valeuuuuuuuuuuuuuuuuuuu
@reinaldoalves471510 күн бұрын
Você pediu para ele continuar o código do tetris, mas colou só um pedaço 🤷🏻♂️ por isso rodou rs
@inteligenciamilgrau10 күн бұрын
Faaala Reinaldo!! Ele gerou a primeira parte, aí pedi para continuar ele gerou de novo a primeira parte, aí pedi para ele continuar de onde parou, ele continuou, aí colei as duas partes bem no ponto do corte certinho! E deu erro de tamanho de indice!! Esse é o típico erro chato de resolver no python, porque alguma lista que ele montou está estourando e como ele monta dinamicamente, só dá pra descobrir que deu algo errado rodando!! Ele ia levar um tempo até conseguir resolver!! Quando insisti ele mandou algumas alterações para fazer, eu fiz, porém continuou o erro de indice! rsrs Paciência!! O modelo quando é forte em programação acerta de primeira, quando é médio, funciona porém faltando alguma funcionalidade, e quando dá erro, aí é porque ele é bom em outra coisa!! Valeuuuuuuuuuu
@luisferreira92010 күн бұрын
Sempre uso o enigma: Se Célia tem um Celta e Olga tem um Opala quem é a dona do Fusca. Paula, Amanda, Fernanda ou Rita? essa LLM acertou de primeira !
@inteligenciamilgrau10 күн бұрын
Boaaaa!! E o interessante é que ele é muito consistente!!
@xioxiduskall10 күн бұрын
pra codar ninguém bate o Claude
@inteligenciamilgrau10 күн бұрын
E outra coisa que notei também, é que os modelos tunados para reasoning não programam melhor! Eles mais se atrapalham que acertam!! Foi a mesma coisa com o o1!! rsrs Valeuuuuuuuuu
@Gabriel-vp6sb10 күн бұрын
GPT-4o tem 100T de parâmetros é?
@inteligenciamilgrau10 күн бұрын
Faaaala Gabriel, a openai não informa os tamanhos dos modelos dela! Só tem lenda urbana sobre os tamanhos deles! Uhuuuuu, valeuuuu
@saba_muito10 күн бұрын
Dizem q o 4 tem 1 trilhão. Acho que o 4o seria algo parecido
@Renerdbz10 күн бұрын
O GPT 4 a estimativa é de 1.7 trilhões, mas como o GPT-4o é mais rapido e barato, provavelmente é bem menor, talvez uns 400 B
@saba_muito10 күн бұрын
@@Renerdbz ata, boa
@inteligenciamilgrau10 күн бұрын
Só reforçando que na internet tem muita gente postando que eles "deduziram" baseado no "comportamento" do modelo, mas que não tem nenhuma fonte oficial da OpenAI dizendo isso!! Pelo contrário, o Sam Altman já disse mais de uma vez que os modelos se adaptam a dificuldade da pergunta! E por isso conseguem ser mais baratos!! Uhuuuuuu, bóra mudar o mundo!!
@OExploradorDoSaber10 күн бұрын
Como posso testar?
@inteligenciamilgrau10 күн бұрын
Faaaala Explorador, segue o link: build.nvidia.com/nvidia/llama-3_1-nemotron-70b-instruct
@leandroaraujo203010 күн бұрын
O código do Tetrix ele errou porque estava usando ç, aparentemente ele não está bem configurado para tradução.
@inteligenciamilgrau10 күн бұрын
Faaaaala Leandro!! Python aguenta cedilha!! rsrs É sempre bom evitar usar, mas isso aqui funciona, pode testar: def print_paçoca(): print("Paçoca") print_paçoca()
@JonasDiferencialКүн бұрын
Roda numa rtx 2060??😅
@inteligenciamilgrauКүн бұрын
Faaaala Jonas!! Certamente não!! Em uma 3090 roda lento! rsrs
@JonasDiferencialКүн бұрын
@@inteligenciamilgrau 4060?? Rsrs
@inteligenciamilgrauКүн бұрын
@@JonasDiferencial Precisa do máximo possível de memória vram da GPU!! Ele roda bem as A100 da Nvidia!! Ou em uma Titan Ada!! Mas não sei se vale o investimento!! rsrs Melhor pagar um servidor na nuvem!
@JonasDiferencialКүн бұрын
@@inteligenciamilgrau me desculpa mais aí eu fico com chatgpt 😅
@Renerdbz10 күн бұрын
Eu não quero uma IA que resolva provas, eu quero uma que saiba se sou eu ou outra pessoa falando com ela, que consiga verificar minhas câmeras de segurança e me informar se tem um conhecido chegando ou se tem um estranho bisbilhotando, que consiga controlar certas coisas da casa sem precisar de programação prévia
@frankxotatm626310 күн бұрын
KKKKKKKKKK
@cr7raposo10 күн бұрын
e eu quero uma exterminadora do futuro. Bem vindo ao clube
@vastoaspecto10 күн бұрын
"Eu quero uma IA que me espione" Kkkkkkkkkk
@inteligenciamilgrau10 күн бұрын
kkkkkkkkkkkkkkkkkkkk daqui vai sair uma startup chamada SkyNet
@cr7raposo10 күн бұрын
o chatgpt 4o acertou, mas utilizou python a pergunta do ABCDE
@inteligenciamilgrau10 күн бұрын
Excelente! Eu estou muito satisfeito com a família 4o! Atualmente eles estão bem avançados! Fazendo pensamento em cadeia de vez em quando! Muito bom!
@FlavioAugustoToldo10 күн бұрын
não sei não, acho que a Nvidia acabou usando seus videos pra dar um finetunning na AI dela... acho que ela está roubando
@inteligenciamilgrau10 күн бұрын
Kkkkkkkkk boaaaaa, é só ver o comentário de quem testou! Uhuuuuu, valeuuuu
@NoF00T10 күн бұрын
O que é fine tuning?
@matheussantana863810 күн бұрын
É você dar um ensinamento direcionado a um modelo. Tipo um ser humano (aluno) aprender a contar 1+1+1+1+1+1+1+1+1=9 e um outro ser humano (professor) ensinar a esse "aluno" que 3x3=9 (acelera o processo, o deixando mais inteligênte). Ou um exemplo mais claro: Várias pessoas não precisam provar um fruto envenenado pra saber que aquele fruto mata, basta alguém com o conhecimento prévio ensina-los. Ou seja, a IA não precisa ficar "provando" esses frutos envenenados pra aprender que são venenosos e matam, alguns humanos já ensinaram isso pra ela, o que acelera o aprendizado dela. Resumindo, fine tuning é um ensinamento refinado/direcionado.
@inteligenciamilgrau10 күн бұрын
É isso aí! Se traduzir é um "ajuste fino"! Como se um modelo que aprendeu algo, mas não aprendeu tudo, você vai lá e complementa!! Tem alguns vídeos aqui no canal sobre isso: No Chatgpt: kzbin.info/www/bejne/eXeYd6mirbiIbqM No Llama: kzbin.info/www/bejne/nXbTaH2ChqeHjpI
@cabecadepedrabr10 күн бұрын
Engraçado, todo dia aparece uma ia alegando ser melhor do que o gpt da openai. E nunca nem chega perto da versão mini. kkkk
@Singularitiva10 күн бұрын
Claude é melhor que GPT. E vc nem assistiu o video todo né?
@nordkis483410 күн бұрын
@@Singularitiva em algumas coisas
@inteligenciamilgrau10 күн бұрын
O mini saiu vesgo da surra que tomou desse! rsrs Não tem comparação! Mas pra chat o mini é melhor conforme explico no vídeo! Valeuuuuuuuuuuuuuuuuuuuuuu
@alexsanders888110 күн бұрын
3.1 não... :(
@inteligenciamilgrau10 күн бұрын
LLM bullying 🤣🤣🤔
@marcelocosta26129 күн бұрын
Caramba, nem acredito!! Ele acertou a charada do dado!! Uau!! Incrível!! Interessante que ele responde de uma forma muito parecida com a do o1, analisando passo a passo até fornecer a resposta. Impressionante, Bob! Será que esse modelo estará disponível no Perplexity Labs?
@inteligenciamilgrau9 күн бұрын
Boa pergunta! Ou no groq rsrsrs, ainda não vi ninguém disponibilizando!
@marcelocosta26129 күн бұрын
@@inteligenciamilgrau ah então pelo visto o pessoal ainda está só começando a falar deste modelo... Então é novidade que ainda está saindo do forno rsrs