O seu canal se tornou um dos melhores, senão o melhor sobre o assunto, gosto muito do trabalho que você tem feito, obrigado por isso e continue compartilhando, por favor
@RogerTBАй бұрын
Bob não cobra pra falar como a ia funciona (Como alguns, que so querem vender cursos), top demais!
@inteligenciamilgrauАй бұрын
Uhuuuuuu, fico muito feliz em ver que o trabalho está sendo reconhecido!! Obrigadão demais!! Se depender de mim, conforme o canal ganhar mais força, vamos fazer um Centro de Pesquisa e Desenvolvimento de IA Brasileiro só com os inscritos! rsrs
@RogerTBАй бұрын
@@inteligenciamilgrau tem tudo pra dar certo, grande abraço!
@Ewerton1230Ай бұрын
O seu canal é um dos melhores se não o melhor sobre I.A, parabéns pelo trabalho e por essas informações
@inteligenciamilgrauАй бұрын
Obrigadão Ewerton!! Estou muito feliz de perceber que está dando certo e o canal crescendo!! Obrigadão por participar!! Valeuuuuuuuuuuuuuuuuu
@FabiCriativaАй бұрын
🙌 finalmente vou conseguir ter minha LLM local 😅
@inteligenciamilgrauАй бұрын
Agora com um modelo 1B roda fácil em qualquer lugar!! Uhuuuuuu
@WilliamRamanoАй бұрын
pra voce ter ideia eu to usando esses modelos pequenos num pc antigão sem placa de video com apenas 4 gigas de Ram e alocada mais 14 em ssd, eu implementei no meu server local de wow azerothcore, e to conversando com os NPCs e NPCbots, agora to quase colocando voz sintetica pra eles falarem tambem, porem não sei programar muito bem, uso o chat gpt gratis pra fazer as gambiarras, estou cada dia mais impressionado para o mundo de possibilidades que estamos vivendo, gostei muito do seu canal, se puder fala sobre o kobold, abraço XD
@inteligenciamilgrauАй бұрын
Cara que demais usar nos NPCs!! Que jogos está usando eles? Está fazendo os jogos ou adicionando em um que já existe?
@WilliamRamanoАй бұрын
@@inteligenciamilgrau eu add no world of warcraft, eu rodo um server local dele no meu pc
@inteligenciamilgrauАй бұрын
Demaisssssssss!! Curti muito!! Boaa!
@WilliamRamanoАй бұрын
@@inteligenciamilgrau mano eu consegui colocar uma voz sintetica usando o balcon , ta ficando muito loko, vou tentar usar mais vozes, ou pelo menos uma masculina , pq ta estranho os Taurens falando com a voz da Leticia kkkkk
@juninhovitАй бұрын
Como outro amigo ai mencionou seu canal pra mim e a principal referencia sobre novidades de IAs valeu !!! Estava aqui pensando imagina um modelo deste ai pequeno treinado para quando um vendedor incluir um pedido no sistema o mesmo analisa o pedido com base nas ultimas compras do cliente e também nas promoções atuais e oferecer algo se houver relevância com disparo WhatsApp ou uma ligação automática no celular do vendedor. no meu caso sou Dev. na indústria e os vendedores são externo.
@inteligenciamilgrauАй бұрын
Boaaaaa Juninho!! Obrigadão pelo incentivo!! Eu vejo que para automações os modelos pequenos ainda tem dificuldades! O que vejo é que eles estão melhorando!! E vamos ver se em breve alguém descobre um modelo minúsculo e super inteligente!! Valeuuuuuuuuuu
@AAAhlienАй бұрын
Sempre trazendo novidades , valeeu!
@inteligenciamilgrauАй бұрын
Valeuuuuuu, as novidades não param!! Uhuuuuuuuu
@matheussantana8638Ай бұрын
Inteligência Mil Grau, como faz pra treinar esses modelos? Ir conversando com eles e adicionando informações até eles acertarem o que você quer? Como funcionaria na prática e como eles "decorariam" isso?
@inteligenciamilgrauАй бұрын
Faaaaala Matheus!! Tem pelos menos 3 formas de dar informações para o modelo, fazendo um ajuste fino (fine tuning) do modelo, que seria retreinar ele!! Fazendo um RAG, que seria passar um arquivo com informações que guiam as respostas ou enviando informações nas configurações dos prompts!! Só na primeira que o modelo aprende de forma definitiva, porém é mais demorado e tem um custo mais alto! Nos outros dois, é uma memória que vai ficar no chat apenas!! Raramente se faz um ajuste fino, o mais comum é você carregar dados importantes de acordo com a conversa que está fazendo!! Valeuuuuuuuuuuuuuuuuuu
@marcelocosta2612Ай бұрын
Sensacional, Bob! Ansioso para os testes de performance que você fará com esses modelos, pois vai ser bom ver como são realmente o desempenho deles. Eu testei o Phi-3 no meu PC e ele levou 5 min apenas para me dizer "Bom dia! Em que posso ajudá-lo?", o que me fez perder as esperanças de conseguir rodar localmente. Espero que o modelo de 3b seja razoavelmente bom para eu poder usar!
@inteligenciamilgrauАй бұрын
Rsrsr na primeira pergunta que a gente faz, ele carrega o modelo na memória!! E isso significa que demora mais mesmo para responder!! Da segunda pra frente ele vai rapidão!! Veja se não foi isso!! Fiz o teste dos piquininhos hoje!! Já está online!!
@marcelocosta2612Ай бұрын
@@inteligenciamilgrau que show, Bob! Eu não sabia disso. Achei que se ele demorou tanto apenas para dizer bom dia, ele levaria 1 hr para fazer uma dissertação. Eu vou baixar então ele novamente no Ollama e testar junto com o Llama de 3b! Valeu pela dica, Mestre!
@inteligenciamilgrauАй бұрын
O teste inicial você faz assim!! "Qual a capital do Brasil! Responda com só uma palavra" !!! kkkkkkkk pra evitar o textão na primeira resposta e demorar ainda mais pra carregar!
@marcelocosta2612Ай бұрын
@@inteligenciamilgrau entendi, Mestre! Vou fazer isso quando eu testar eles nessa semana! Valeu demais!! Tudo de melhor pra você!!
@leosmi1Ай бұрын
A meta é uma das poucas que colabora com o mundo opensource.
@vastoaspectoАй бұрын
Não se engane, isso é só para melhorar a imagem da empresa que anda muito abalada com a queda do Facebook e do Metaverso.
@inteligenciamilgrauАй бұрын
Concordo demais!! As outras empresas liberaram só modelos antigos ou pequenos!! Agora sobre o Metaverso, se você assistir o Meta Connect vai perceber que ele continua vivo firme e forte na cabeça do Zuckerberg!! Eles lançaram óculos mais baratos, estão fazendo o RayBan com realidade aumentada e só vai!! rsrs Eu achei que ele tinha desistido, mas ele não desisitiu não!
@matheussantana8638Ай бұрын
@@inteligenciamilgrau Ele vai mesclar IA com o Metaverso + um Plus que é a Realidade Aumentada, isso tudo de forma "acessível", quando comparado com a concorrência.
@leosmi1Ай бұрын
@@vastoaspecto Também concordo que a meta não é flor que se cheire, mas ainda assim.
@otavioaugusto8171Ай бұрын
Aqui vale um debate. Acho que Edge nesse caso são os celulares. Não tem como um dispositivo de IOT carregar um modelo na memória. Mesmo os celulares, acho difícil um dispositivo médio rodas um modelo de 1b sem chorar
@inteligenciamilgrauАй бұрын
Faaaala Otávio! Muito bom seu comentário! Pensa na edge de forma geral, tem bastante device que roda uma llm de 1giga, mas certamente não são todos! Valeuuuu
@secretsmeАй бұрын
Primeiro parabéns pelo conteúdo. Vc sabe se dá pra usar ou se vai ter aquela função nessas interfaces gráficas como open web ou outras de ele identificar o conteúdo da tela e poder usar igual como apresentado pela Open AÍ quando o chat gpt ajudou a jogar minecraft? Acho muito dahora, trás algo relacionado pra gente.
@inteligenciamilgrauАй бұрын
A ideia é exatamente essa!! Conseguir enviar uma imagem, seja uma foto ou uma captura de tela, e receber uma descrição!! E com isso resolver questões de matemática, descrever uma imagem de um jogo e por aí vai!! O open webui aceita imagens em anexo sim!! Obrigadãoo!! Valeuuuuuuu
@secretsmeАй бұрын
@@inteligenciamilgrau mas isso o chat Gpt simples já faz que é aceitar imagem. Eu digo ele entender em tempo real o jogo ou a tela e poder ir conversando sobre o que se passa e nós podemos receber ajuda e etc entende. Vc conseguiria montar algo do tipo? Se isso for possível daria por exemplo pra fazer aquele esquema da IA jogar, pois ela enxergaria e entenderia tudo o que se passa no jogo, ao contrário de como é hj onde ela lida com código.
@inteligenciamilgrauАй бұрын
@@secretsme A novidade do Llama não é fazer algo novo que os outros não fazem, mas dar o modelo de graça para você fazer o que quiser com ele! rsrs Essa é a questão! Sobre usar uma LLM em tempo real para visão, atualmente não é possível!! Os modelos atuais e as placas de vídeo ainda não suportam processar em tempo real!! O que daria pra fazer é colocar o modelo 1b misturado com o Yolo e ele ir analisando os objetos detectados e dando palpite! Que aí ficaria relativamente rápido! Seria uma implementação interessante!! Tem vídeo do yolov8 no canal!! Dá uma olhada!
@andal333333Ай бұрын
Mostra pra gente como usar o modelo de visão deles, não achei no ollama
@inteligenciamilgrauАй бұрын
Faaaala Rafael!! Ainda não vi uma aplicação liberada com visão!! O Ollama colocou os modelos pequenos só de texto!! Era pra ter no site oficial da Meta AI que ainda não liberaram no Brasil!! Vamos acompanhando que uma hora libera!! Valeuuuuuuuuuuuuu
@edualves15Ай бұрын
Também estou aguardando sair no ollama pra testar o modo visão. Já fiz várias aplicações locais que funcionam muito bem com o llama3.1-8b. Uso uma RTX 3060 12gb.
@andal333333Ай бұрын
@@edualves15 se quiser testar um modelo multimodal enquanto o llama 3.2 vision nao vai pro ollama, recomendo o minicpm-v
@andal333333Ай бұрын
@@inteligenciamilgrau valeu cara, seu canal é massa demais, vou aguardar o video em, sucesso!
@RogerTBАй бұрын
Achei que ja teria os testes kkkk
@inteligenciamilgrauАй бұрын
kkkkkk calma que vai ter! rsrsrs Como eram 4 tamanhos de modelo, estou vendo como fazer! rsrs
@MaxJM74Ай бұрын
👏
@inteligenciamilgrauАй бұрын
Valeuuuuu Max!!
@impirotec5786Ай бұрын
n concigo de nenhum jeito apagar alguma llm do meu ollama via terminal. Nenhum comando apaga.
@inteligenciamilgrauАй бұрын
Eu vi um cara dizendo que depois que vc dá um "ollama rm modelo" , ele vai apagar só quando rodar o ollama de novo!! Mas se vc quiser apagar manualmente e estiver no windows, os modelos estão aqui: %userprofile%/.ollama/models/blobs
@impirotec5786Ай бұрын
vou tentar depois aí vouto aqui para te falar se deu serto
@danm1748Ай бұрын
o groq é gratis ?
@inteligenciamilgrauАй бұрын
Tem um plano grátis tanto para interface web quanto para api! Recomendo!
@motoclass7252Ай бұрын
@@inteligenciamilgrauqual?
@Sarmoung-BibliotecaАй бұрын
ollama run llama3.2
@inteligenciamilgrauАй бұрын
Ollama rules!! Valeuuuuuuuuuuu
@andrecampanhaesАй бұрын
Como eu instalo esses modelos no meu celular android amigo?
@inteligenciamilgrauАй бұрын
Faaala Andre!! Como o modelo recém saiu, vou aguardar para ver se surge alguma aplicação!! Se o meta Ai já estivesse no Brasil era mais simples!! Vamos acompanhando!! Valeuuuuuuuu
@jaderpereira1889Ай бұрын
O lhama eu acho muito vamos ver este com visao.
@inteligenciamilgrauАй бұрын
Exatamente!! O primeiro modelo aberto com visão! Demais isso!!
@joaogomes9969Ай бұрын
Quanto de memoria para rodar o 3.2 11B?
@inteligenciamilgrauАй бұрын
Ainda não fiz o teste, mas acredito que com sorte rodar com 8gb de Vram, mas o que realmente estou imaginando é que pra rodar bem vai ser preciso uns 12 de vram mesmo!!! Menos que isso vai ser lento!! Mas ainda não fiz o teste!!
@mavihpoliicarpo121526 күн бұрын
Gente tô boiando isso apareceu no meu ZAP como alguém me explica