Parabéns pelo excelente vídeo! Vai ser de grande ajuda para começar a implementar práticas de Data Quality nos meus projetos!
@jefersonvalentim78093 күн бұрын
Fui o primeiro a dar o like ein
@PauloRibeiro-he3lz4 күн бұрын
Show o video !!! Se no futuro fazer um vídeo demonstrando o custo seria interessante !
@nathansamsoniuk7 күн бұрын
Ouro dms, obrigado pelo vídeo!!
@PauloRibeiro-he3lz12 күн бұрын
Parabéns pelo conteúdo!
@wallacecamargo104311 күн бұрын
Muito obrigado pelo feedback meu amigo!! fico feliz que o conteúdo tenhas sido útil!! grande abraço e sucesso nos projetos!!! #gratidao
@rodrigopennacchi245112 күн бұрын
Muito bom o conteúdo, obrigado por compartilhar, Wallace. Você sabe se é possível adicionar o timestamp da alteração? Estou pensando em criar um ETL, fazer uma carga de dados completa para outro banco e depois ir pegando as alterações incrementalmente de acordo com a data da última alteração.
@wallacecamargo104312 күн бұрын
Muito obrigado pelo feedback meu amigo!! Sim, é possível você adicionar uma coluna de "timestamp" que no SQLServer pode ser uma coluna de "Datetime" e toda alteração vai guardar a data/hora/minuto/segundo da alteração. E quando for realizar o ETL, configurar na query de extração para buscar somente dados na origem que tem o datetime maior que a tabela gerenciada pelo cdc.
@wagnergarcia201115 күн бұрын
Muito obrigado!
@wallacecamargo104312 күн бұрын
Muito obrigado pelo feedback meu amigo!!! Fico feliz que o conteúdo tenhas sido útil!!! #gratidao
@marcosfariamsfctcea16 күн бұрын
Wallace, valeu pela dica. Agora eu tenho o problema que seria o seguinte. Tenho uma tabela em uma base de dados SQL SERVER com uma lista de e-mails. Como eu posso fazer o Pentaho PDI enviar automaticamente um e-mail para cada um dos usuários cadastrados nessa lista. Seria mais ou menos uma mala direta?
@wallacecamargo104312 күн бұрын
Para rodar em uma lista, você precisa configurar um loop que vai enviar dinamicamente para cada objeto da lista. Eu acredito que fazer envio de emails em uma lista com Python seja infinitamente mais fácil, mas também é possível com Pentaho. Dá uma olhada nesse vídeo que eu gravei e veja se ele ajuda: kzbin.info/www/bejne/r32yqGWKbZKBsKM
@get751917 күн бұрын
Boa Tarde Wallace, tenho uma dúvida, preciso baixar alguns arquivos de clientes, mas preciso sempre logar na sua conta gov, e depois ir no perfil pra baixar os dados, é possivel algo tao especifico assim? se sim, como?
@wallacecamargo104312 күн бұрын
Sim, é possível. Para fazer isso, será necessário você utilizar uma simulação de login na pagina. Uma lib em Python bastante conhecida é o PyAutogui que consegue simular o compartamento o humando, tais como: clique do mouse, digitação do teclado e dessa maneira, logar na página, fazer download do que precisa e depois fechar a página. Procure por conteúdos de RPA com Python ou então pela lib PyAutogui.
@maycon862623 күн бұрын
Muito bom, parabéns! Estava perdido em relação aos conceitos básicos. Já sou inscrito.
@wallacecamargo104312 күн бұрын
Muito obrigado pelo feedback meu amigo!!! Fico feliz que o conteúdo tenhas sido útil!!! #gratidao
@irarrefonairda25 күн бұрын
Show! Parabéns pelo tutorial e obrigado! 🙏
@wallacecamargo104312 күн бұрын
Muito obrigado pelo feedback meu amigo!!! Fico feliz que o conteúdo tenhas sido útil!!! #gratidao
@gilcwb3526 күн бұрын
subi um cloud run com backend java 1 a 3 maquinas, 512memoria, quando estou a memoria nao subiu a segunda maquina, smplesmente encerrrou a requisicao
@wallacecamargo104312 күн бұрын
Olá meu amigo! o recurso parece suficiente para uma aplicação de teste. Tente analisar os logs e entender o ocorrido.
@ryccelemartins2922Ай бұрын
eu seguir os passos porem o meu não veio com modelo nenhum
@wallacecamargo104312 күн бұрын
Tens razão, se seguir passo a passo exatamente como está no vídeo, não vai funcionar, mas eu deixei essa nota no repositório do projeto. Será necessário entrar no container do Ollama e instalar lá dentro o modelo llama3.2. No repositório tem o passo a passo: github.com/wlcamargo/ia_local_ollama3
@wallacecamargo104312 күн бұрын
Pegue o id do container do ollama com o comando docker ps depois adicione o id aqui abaixo: docker exec -it <id-container> /bin/bash Quando entrar no container, voce executa o seguinte comando: ollama run llama3.2 Depois disso vai conseguir enxergar o modelo através do "Chat GPT" local
@lucasduran4643Ай бұрын
GENIO
@wallacecamargo104312 күн бұрын
Muito obrigado pelo feedback meu amigo!!! Fico feliz que o conteúdo tenhas sido útil!!! #gratidao
@guilhermeevangelista42Ай бұрын
Obrigador pela ajuda, pouquíssimos vídeos sobre.
@wallacecamargo104312 күн бұрын
Muito obrigado pelo feedback meu amigo!!! Fico feliz que o conteúdo tenhas sido útil!!! #gratidao
@SoftlinkBrasilАй бұрын
Faltou o link do respositorio
@wallacecamargo104312 күн бұрын
O link do repositório está na descrição do vídeo!! github.com/wlcamargo/docker_sqlserver
@miguelgoncalves8540Ай бұрын
Top demais
@wallacecamargo104312 күн бұрын
Muito obrigado pelo feedback meu amigo!!! Fico feliz que o conteúdo tenhas sido útil!!! #gratidao
@JoaoFernandes-sm8clАй бұрын
Fantástico! Nao conhecia a ferramenta ainda
@wallacecamargo104312 күн бұрын
Muito obrigado pelo feedback meu amigo!!! Fico feliz que o conteúdo tenhas sido útil!!! #gratidao
@marcosgomes25Ай бұрын
Ótimo vídeo, parabens pelo conteúdo.
@wallacecamargo1043Ай бұрын
Muito obrigado por dispensar vosso tempo em vir deixar um feedback meu amigo!!! fico feliz de ter contribuído de alguma forma!! grande abraço e sucesso nos projetos!!
@viniscera-97Ай бұрын
Genial! Que vídeo excelente, meu amigo, parabéns e muito obrigado!
@wallacecamargo1043Ай бұрын
Muito obrigado por dispensar vosso tempo em vir deixar um feedback meu amigo!!! fico feliz de ter contribuído de alguma forma!! grande abraço e sucesso nos projetos!!
@rhandelpaulics6804Ай бұрын
Opa boa tarde Wallace tudo bem? Cara queria tirar uma dúvida já vi vários vídeos sobre o loki mas até agora não identifiquei ninguém explicando e não encontrei também documentação sobre. Você já configurou paginação dentro de um dashboard utilizado apenas para log? Ou até mesmo um infinite scroll no dashboard? Obrigado.
@wallacecamargo1043Ай бұрын
Olá, meu amigo!! Sim, eu tenho um dashboard no grafana que fica mostrando os logs apenas com erros. Eu apliquei um filtro nos erros e só eles ficam aparecendo. E sim, vc consegue ver todos os logs no dashboard criado com um infine scroll automático. Não sei porque não apareceu isso para você. Dá uma olhada nesse vídeo como base para ver se ajuda: kzbin.info/www/bejne/rpjQYpaop713fNU Grande abraço e sucesso nos projetos!!
@LeonardoAndrade-m6hАй бұрын
Valeu mestre dos magos!! Gosto muito de suas explicações, são bem clara e objetivas. Gostaria se fosse possivel você fazer um ETL nas camadas RAW, Trusded e redefine alocando o final dos dados nos cubos no Big Query. Se for possivel eu lhe agradeço muito. Obrigado pelas explicações e entendimento , você é fera !!!
@wallacecamargo1043Ай бұрын
Muito obrigado por dispensar vosso tempo em vir deixar um feedback meu amigo!!! fico feliz de ter contribuído de alguma forma!! Uma boa sugestão de vídeo, agradeço pela ideia e vou gravar algo à respeito com certeza!! Quando gravar, vou mencionar você. grande abraço e sucesso nos projetos!!
@brosolemАй бұрын
Como faço para agendar de baixar todos os dias? No mesmo site, o mesmo arquivo.
@wallacecamargo1043Ай бұрын
Olá, meu amigo!! Existem várias formas de fazer isso. Se você estiver no windows, você pode criar um arquivo Python e agendar pelo agendador de tarefas. No Linux você pode agendar pelo cron. Se precisar de algo mais robusto, é necessário utilizar uma ferramenta de orquestração, tais como: Airflow, Dagster, etc... Vou anotar tua ideia e gravar um vídeo sobre. Assim que gravar eu menciono você. Grande abraço e sucesso nos projetos!!
@minwellАй бұрын
Não sou deficiente visual, mas venho aqui demonstrar minha gratidão por ter se preocupado em fazer uma introdução tão rica de detalhes visando esse público. Parabéns pelo conteúdo!!!
@wallacecamargo1043Ай бұрын
Muito obrigado por dispensar vosso tempo em vir deixar um feedback meu amigo!!! Desde que eu vi uma palestra na Python Brasil e todos os palestrantes fizeram isso, eu amei a atitude a passei a adotar em todos os vídeos. Agora que virou um hábito, pretendo continuar com ele. Grande abraço e sucesso nos projetos!!!
@ValderesZimmerАй бұрын
eu ia comentar justamente isso
@idioteclariАй бұрын
Excelente video!
@wallacecamargo1043Ай бұрын
Muito obrigado por dispensar vosso tempo em vir deixar um feedback!!! fico feliz de ter contribuído de alguma forma!!
@mateuslamouniercabral3785Ай бұрын
Tem algum video que voce configura o odbc para essa aplicação ?
@wallacecamargo1043Ай бұрын
Olá Mateus!! Para instalar o odbc, basta instalar o driver. No caso eu utilizei o pip e fiz o comando: pip install pyodbc
@rafaelhgbotelho2 ай бұрын
Obrigado pela menção, meu amigo! 👊🏻
@wallacecamargo1043Ай бұрын
Eu que agradeço por dispensar vosso tempo em vir deixar um comentário!! Seus vídeos são top!!! Eu repliquei o que aprendi e o mínimo que posso fazer é mencionar a fonte, senão seria um crime da minha parte hehehe..
@danfmsouza2 ай бұрын
Esse tal de Rafael Botelho parece ser brabo mesmo hein?
@wallacecamargo1043Ай бұрын
O cara é brabo sim!! Com os vídeos dele eu aprendi muita coisa!!!
@arrudaconsulting2 ай бұрын
Excelente vídeo Wallace!!! Baita conteúdo!!
@wallacecamargo1043Ай бұрын
Valeu meu brother!! TMJ
@orafaelgf2 ай бұрын
boa wallace, otimo video. se puder, numa proxima oportunidade, mostra como vc criou o delta lake, a ingestão e catalogo no hive. abs e sucesso.
@wallacecamargo1043Ай бұрын
Valeu meu amigo!! grato pelo feedback!! temos um ebook gratuito que ensina o passo a passo para instalação do ambiente e ainda um script pyspark de exemplo: ebook.sparkanos.com.br/
@AnubisNogueira2 ай бұрын
valeu man
@wallacecamargo1043Ай бұрын
Grato por dispensar vosso tempo em vir deixar um feedback positivo meu amigo!!!
@douglasgongora80942 ай бұрын
Muito top, estou fazendo a instalação para testar. Otimo video
@wallacecamargo10432 ай бұрын
Boaaa!! fico feliz que estejas conseguindo meu amigo!! grande abraço e sucesso nos projetos!!
@brunodecastro17662 ай бұрын
Show de bola. Parabéns pelo vídeo.
@wallacecamargo10432 ай бұрын
Valeu meu amigo!! muito grato pelo feedback!! grande abraço e sucesso nos projetos!!
@electrieye43952 ай бұрын
brabo demais, vlw de mais
@wallacecamargo10432 ай бұрын
Muito grato pelo feedback!! grande abraço e sucesso nos projetos!!
@classicosemharmonia12 ай бұрын
Jedi do python, obrigado pela dica !
@wallacecamargo10432 ай бұрын
Muito grato pela força meu amigo!! grande abraço e sucesso nos projetos!!
@GabriellPsz2 ай бұрын
Show demais Wallace, obrigado pelo conhecimento
@wallacecamargo10432 ай бұрын
Valeu meu amigo!! Muito obrigado pelo feedback!! fico feliz que tenhas curtido o conteúdo!! grande abraço e muito sucesso nos projetos!!
@JoãoMendesPedroMendes-i2d2 ай бұрын
Eu curto bué estes vidios são muitos divertido
@wallacecamargo10432 ай бұрын
hehehe... Fico feliz com o seu feedback meu amigo!!! grande abraço e sucesso nos projetos!!
@PauloRibeiro-he3lz2 ай бұрын
Parabéns pela iniciativa !
@wallacecamargo10432 ай бұрын
Muito grato pelo feedback meu amigo!! grande abraço e sucesso nos projetos!!
@fidelisrenato2 ай бұрын
Esse meu amigo é diferenciado. Não conhecia a ferramenta. Mais ou menos uns 15 atrás eu estava refletindo exatamente sobre isso: se tivesse uma maneira que permitisse os testes locais antes de subir evitaria toda essa bagunça de commits. Se eu vou usar? Com certeza! Parabéns e valeu por compartilhar meu nobre. Top de verdade
@wallacecamargo10432 ай бұрын
Grande Renatão!!! muito grato pela força de sempre meu brother!!! Agradeço mais um vez pela força!!! Fico feliz se o conteúdo for útil e que consigas implementar!!! grande abraço e muito sucesso nos projetos!!!
@fidelisrenato2 ай бұрын
Tmj meu amigo.
@douglasgongora80942 ай бұрын
Aula top, consegui facilmente realizar todo o processo. Parabéns
@wallacecamargo10432 ай бұрын
Boaaa!! fico feliz que tenhas conseguido meu amigo!!! grande abraço e muito sucesso nos projetos!!!
@orafaelgf2 ай бұрын
otimo video wallace, parabens. estou tentando conectar com o power bi (o gateway está em um windows na aws via ec2) e nao consigo de jeito nenhum. nao sei se ja conseguiu, mas caso sim, seria otimo um video. abs.
@wallacecamargo10432 ай бұрын
Falaa meu amigo!! Infelizmente eu nunca trabalhei com AWS. No dia que eu trabalhar, com certeza eu penso em gravar um vídeo nesse sentido para contruibuir com sua dúvida!! grande abraço e sucesso nos projetos!!
@vynguyen96833 ай бұрын
Could I ask you Do you have any github?
@wallacecamargo10432 ай бұрын
Of course! follow the link: github.com/wlcamargo/open_metadata
@ramonnunes34933 ай бұрын
Ótima explicação 👏👏👏👏👏👏
@wallacecamargo10432 ай бұрын
Muito grato pelo feedback meu amigo!!! fico feliz demais que tenhas curtido o conteúdo!! grande abraço e muito sucesso nos projetos!!!
@jamessilva76803 ай бұрын
A música da vontade de dormir.kkkkkk
@wallacecamargo10433 ай бұрын
hahahaahh!!! muito grato pelo feedback sincero!! eu atualmente to gravando sem músicas por conta disso mesmo haaha...
@orafaelgf3 ай бұрын
otimo video walace, parabens. uma duvida: eu ja tenho um container do airflow orquestrando meus pipelines. nesse caso, vou ter outra instancia do airflow gerenciada pelo openmetada (openmetadata_ingestion) para cuidar desses metadados? se sim, nesse caso eu tenho uma pasta de 'dags' tb dentro desse container e la eu posso criar minhas dags igual eu faço no proprio airflow nativamente? ou eu crio a dag pelo proprio airflow nativo usando algun conector do openmetadata? to meio perdido nisso ainda.
@wallacecamargo10433 ай бұрын
Exatamente!! Você pode utilizar o open metadata com o Airflow que você já possui, basta alterar as configurações. Se você quiser usar o Airflow já disponível pelo open metadata, ele tambem tem a pasta dags e você pode agendar suas dags através dele sem problema nennhum. Voce pode fazer um apontamento da pasta dags para tua máquina ou entrar no container do "ingestion" e na pasta dags colocar sua dag que já possui e ela será conhecida e vai ficar junta das dags de metadados.
@orafaelgf3 ай бұрын
otimo video. open-web-ui é uma ferramenta extraordinaria. da pra fazer muitaaaa coisa nela. integracao com qualquer llm via api, rag, pipeline, database, enfim... muita coisa legal mesmo. é facil de instalar, configurar e super indicado pra usar em producao, principalmente em empresas por conta de lgpd.
@wallacecamargo10433 ай бұрын
Verdade meu amigo!! estou testando aqui e gostei bastante!! o desafio agora é integrar na minha stack e fazer perguntas do tipo "qual a minha maior tabela?" e ela ser capaz de fazer uma query e me devolver essa resposta.
@esdrasjc3 ай бұрын
Assim como modelo web, ele tem limite de requisicoes por dia?
@wallacecamargo10433 ай бұрын
Nao!! você pode usar ilimitadamente sem custos!! é inacreditável, mas é verdade!! não tem custo e vc nao precisa pagar pela API.
@Jokarego3 ай бұрын
GENIO!
@wallacecamargo10433 ай бұрын
Muito obrigado meu amigo!!! fico feliz que o conteúdo tenhas ajudado de alguma forma!! grande abraço e sucesso nos projetos!!
@mariahelenahelenavianna-bc3nq3 ай бұрын
Como participar das aulas
@wallacecamargo10433 ай бұрын
Olá, Maria! para participar do nosso treinamento de Docker e ter acesso a comunidade, segue o link: pay.kiwify.com.br/lzHO5th
@MATHEUSOLIVEIRAMENDESPEREIRA3 ай бұрын
Olá, retorna a seguinte mensagem ao obter métricas dos buckets do minIO "An error occurred (MissingParameter) when calling the ListMetrics operation: Invalid STS API version 2010-08-01, expecting 2011-06-15". saberia o que pode estar havendo?
@wallacecamargo10433 ай бұрын
Olá Matheus!! Só com o que disse não consigo entender a real motivação do problema. Mas acredito que seja alguma configuração no teu yml. Está usando uma imagem Docker? As métricas por padrão já ficam disponíveis e atualizadas por padrão, por exemplo, múmero de buckets, número de arquivos nos buckets, dentre outras métricas...
@MatheusOliveira-ew9uk3 ай бұрын
@@wallacecamargo1043 Olá Wallace. Obrigado, sim. Estou usando uma imagem docker, consigo realizar a conexão com minio a partir do openmetadata. E percebi que durante o teste de conexão no seu vídeo apareceu a mesma mensagem. ListBuckets com "Sucess"e GetMetrics com "Attention". Com isso eu consegui listar todos os buckets porém não retornou informações de arquivos contidos neles. No seu laboratório você conseguiu listar os objetos dentro dos buckets ou somente os buckets?
@wallacecamargo10433 ай бұрын
@@MatheusOliveira-ew9uk Olá, Matheus!! Eu estou catalogando apenas os nomes dos Buckets e o lakehouse eu estou virtualizando e catalogando através do Trino. Pelo que eu vi na documentação, tem que criar uma police específica para conseguir catalogar os objetos dentro do bucket docs.open-metadata.org/latest/connectors/storage/s3