A Matemática das Redes Neurais

  Рет қаралды 25,455

Didática Tech

Didática Tech

4 жыл бұрын

Nesse vídeo iremos mostrar a matemática que existe por trás do aprendizado das redes neurais. Curso completo: didatica.tech/curso-redes-neu...
Essa aula está organizada da seguinte forma:
00:05 Pré-requisitos necessários para acompanhar essa aula
02:33 Revisão da aula anterior: • Introdução a Redes Neu...
05:15 Modelando a saída
06:22 Modelando os neurônios com vetores
11:45 Modelando a função custo
17:40 Como os pesos são atualizados a partir da derivada parcial da função de custo (gradiente descendente)
26:10 Como os bias são atualizados com gradiente descendente
29:18 Encontrando as equações dos pesos e bias da segunda camada oculta
37:20 Encontrando as equações dos pesos e bias da primeira camada oculta
44:45 Comparando as equações e interpretando os resultados
44:03 Conclusão e próximos passos (gradiente descendente estocástico)
Basicamente as redes neurais artificiais funcionam com base em cálculo diferencial. Encontraremos as equações referentes às atualizações de cada componente da rede, entendendo como os algoritmos precisam ser programados para realizar as operações que levarão a rede a treinar até atingir boas performances em modelos preditivos. Confira esse material em bit.ly/redeNeural
#redesneuraisartificiais
#deeplearning
#matematicaredesneurais

Пікірлер: 76
@willirittmann1917
@willirittmann1917 4 жыл бұрын
Cara, vou correr para implementar esse calculo. A maioria das explicações não considera o somatório dos pesos ou o somatório das entradas e também não usam uma segunda camada escondida, o que dificulta bastante o entendimento, mas sua explicação elucidou muitas dúvidas, valeu.
@gravmagsuite1788
@gravmagsuite1788 2 жыл бұрын
Implementou considerando os pesos? Fiquei curioso kkkk
@willirittmann1917
@willirittmann1917 Жыл бұрын
Quando implementei o algoritmo o fiz sem library, queria ver como funciona isso por de baixo dos panos, ficou 100%? kk não, mas rolou
@willirittmann1917
@willirittmann1917 Жыл бұрын
@@rilerson Não me lembro, se esse eu fiz em python foi com o Spider, quando fiz em javascript fiz usando o VSC mesmo, mas fiz algoritmos mais simples como genetico
@rilerson
@rilerson Жыл бұрын
@@willirittmann1917 a tendiiii...eu descobri aki pelo chat gpd Rs Tem o kera, e tem o tacsonFlow pra projeto mais , zicaa complexos rs.. esse chat já ajudou eu num tanto que se fosse pagar ele, eu tavo lascado kkkk
@gerson.liberdadefinanceira
@gerson.liberdadefinanceira 8 ай бұрын
Cara eu não entendi Tudo, mas posso dizer que agora minha visão sobre redes neurais está em outro nível, obrigado ❤
@heliorego6695
@heliorego6695 4 жыл бұрын
Show!!! Esperando pelo próximo...
@fritzc.6021
@fritzc.6021 2 жыл бұрын
Esse vídeo está maravilhoso. Grato, professor
@lenonborges8964
@lenonborges8964 4 жыл бұрын
Parabens pela didatica, tava procurando um video com esse detalhamento da matematica por tras das camadas ocultas
@joaomaia2898
@joaomaia2898 4 жыл бұрын
Rapaz, muito mas muito obrigado mesmo pela iniciativa. Sempre quis aprender sobre esse assunto, e vc tem conseguido expor de forma bem compreensível e seus vídeos não ficam massantes como alguns q tentei assistir.
@MatheusHenrique-jz1dc
@MatheusHenrique-jz1dc 2 жыл бұрын
Excelente o vídeo, mais uma vez!!
@cleberdesouzaoliveira6794
@cleberdesouzaoliveira6794 4 жыл бұрын
Parabéns pelo conteúdo! Conheci o canal recentemente e estou gostando muito!!!
@erlonkelvim4772
@erlonkelvim4772 3 жыл бұрын
cara, muito bom, muito obrigado, estava com muita dificuldade de entender isso na faculdade, agr está tudo bem mais claro, ótima didática.
@RafaLuvian
@RafaLuvian 3 жыл бұрын
Parabéns , quanto mais vejo seus vídeos mais quero ver . Eu sempre tive a necessidade de entender como funcionava , mas ninguém sabe explicar qual e porque o uso na prática, mas vc soube como fazer
@gravmagsuite1788
@gravmagsuite1788 4 жыл бұрын
Ótimo vídeo... Vou rever fazendo as contas tb
@pedroartico
@pedroartico 3 жыл бұрын
Parabéns pela aula cara, não tem como não entender o que tu fala, muito bom.
@thiagosouzalink
@thiagosouzalink 4 жыл бұрын
Parabéns pela aula! Poucas vezes vemos todos os detalhes matemáticos por trás das redes neurais.
@weslleycarvalho8703
@weslleycarvalho8703 5 ай бұрын
Você deu um BUM na minha cabeça!! SHOW DE BOLA
@aulalivre5481
@aulalivre5481 Жыл бұрын
Isso é muito avançado pra mim, mas como vou ter que terminar meu projeto não tem jeito vou ter que aprender.
@guypourre2605
@guypourre2605 4 жыл бұрын
Excelente! Revisei os cálculos da engenharia...
3 жыл бұрын
Didática excepcional (2). Obrigado.
@JamesBomdePapo
@JamesBomdePapo 3 жыл бұрын
Sou aluno e estou aprendendo muito.
@guilhermesouza3579
@guilhermesouza3579 4 жыл бұрын
Nossa, excelente explicação! Até uns dias eu era bastante leigo em relação a redes neurais, ainda sou, mas com seus vídeos consegui ter uma noção inicial muito boa. Tenho facilidade em cálculo então consegui acompanhar tranquilo, parabéns!
@wilianc.b.3065
@wilianc.b.3065 2 жыл бұрын
Comprei o curso e só tenho a agradecer!
@marcos2684
@marcos2684 Жыл бұрын
tá gostando? tô pensando em comprar também, ele aprofunda matematicamente assim pra tudo? gosto dessa pegada!
@wilianc.b.3065
@wilianc.b.3065 Жыл бұрын
@@marcos2684 eu assisti o curso inteiro, muito bom. É um equilíbrio bom de teoria e prática e bem extenso.
@gamalucianogen
@gamalucianogen 3 жыл бұрын
Massa. Obrigado, velho!!!
@dopedprogrammer
@dopedprogrammer Жыл бұрын
Muito boa a explicação :)
@michaelrussi9209
@michaelrussi9209 4 жыл бұрын
Excelente!
@gabrielantunes663
@gabrielantunes663 Жыл бұрын
Muito bom o vídeo! É raro achar aulas mostrando a a teoria. Parabéns!!!!
@MarcusViniciusMO
@MarcusViniciusMO 3 жыл бұрын
Caramba, a explicação matemática é grande, mas torna tudo mais concreto! Foda o vídeo!
@fabiovakuda745
@fabiovakuda745 3 жыл бұрын
Sensacional!
@douglasespindola5185
@douglasespindola5185 2 жыл бұрын
Irmão, finalmente me caiu a ficha do vanishing gradient, que ocorre principalmente quando se tem funções sigmóides nas camadas escondidas. Quando se deriva os pesos das primeiras camadas, as derivadas encadeadas se tornam gigantes e, em razão da derivada de uma função logística, por exemplo, assumir valores entre 0 e 0,25, o "produtório" desses termos da derivada tende a zero. Obrigado, mestre! Vc é um professor nato e está tendo um papel fundamental no meu aprendizado. Parabéns pelo ótimo trabalho! Um grande abraço!
@douglasespindola5185
@douglasespindola5185 Жыл бұрын
@@rilerson Oi, amigo. Não uso biblioteca por enquanto. A resposta acima foi mais no sentido de teoria mesmo.
@phideas8925
@phideas8925 4 жыл бұрын
Muito obrigado
@yuripiffer589
@yuripiffer589 4 жыл бұрын
Muito bom!
@marcelocanno108
@marcelocanno108 Жыл бұрын
Muito bom ! O brother sabe ensinar, didática !! Show em todos os vídeos.
@gillesfarias46
@gillesfarias46 2 жыл бұрын
Fiquei com uma pequena dúvida: As camadas ocultas podem ter números diferentes de neurônios e a matriz de pesos, nesse caso, muda de tamanho. Isso significa que na primeira camada oculta, posso ter 10 neurônios e na próxima, 500. Claro, estou colocando um número alto para poder exemplificar. Nesse caso, não seria interessante montar a matriz de neurônios para cada uma das camadas especificamente, ao invés de construir uma matriz de pesos única?
@readyzinho4870
@readyzinho4870 Жыл бұрын
Quanto tempo estudando pra chegar nesse Nivel de matematica?
@leandrocosta1036
@leandrocosta1036 4 жыл бұрын
E-mail de contato , por favor . Gostaria de comprar o curso mais tenho dúvidas
@Pedro-uv2mi
@Pedro-uv2mi 4 жыл бұрын
Poderia me responder uma dúvida de um vídeo anterior? No vídeo "Seu primeiro código de Machine Learning com Python!", gostaria de saber se tem como inserir um novo dado que não está presente na lista do EXCEL, para ver a previsão. Se tem, como fazer ?
4 жыл бұрын
Você pode trabalhar com esse dado como sendo um novo dataset e usar a função predict, como foi mostrado aqui: kzbin.info/www/bejne/en_ImJ6urLZ9q7s
@Pedro-uv2mi
@Pedro-uv2mi 4 жыл бұрын
@ Ok, vlw :)
@geradordenomespesquisar3873
@geradordenomespesquisar3873 4 жыл бұрын
onde vc aprende sobre machine learning?
4 жыл бұрын
Você pode começar por aqui: didatica.tech/o-que-e-machine-learning-aprendizado-de-maquina/
@leonardo3453
@leonardo3453 3 жыл бұрын
Eu não estou conseguindo implementar isso no python porque quando vou calcular a atualização dos pesos a derivada da sigmóide dá um valor muito baixo e depois zera e não altera mais os pesos, alguma ajuda?
3 жыл бұрын
Está ocorrendo vanishing gradient. Você pode fazer um clipping, estabelecendo um valor mínimo que o gradiente vai receber a cada update. Por exemplo, envolver toda a fórmula do gradiente descendente com a função max(formula, 0.01)
@gravmagsuite1788
@gravmagsuite1788 2 жыл бұрын
@ Eu tentei implementar um algoritmo semelhante usando gradiente descendente para ajustar um plano 2d a scattered points e o mesmo aconteceu... essa função max(formula, 0.01) seria para truncar o valor? Tipo, se o valor da formula for menor que esse threshold de 0.01 o valor considerado é o próprio 0.01?
@JamesBomdePapo
@JamesBomdePapo 3 жыл бұрын
Gostaria de saber quando sai o módulo 4?
3 жыл бұрын
Nessa semana!
@RogersGamer
@RogersGamer 3 жыл бұрын
Tenho um duvida, sei oque significa o acc, mas qual a imoortancia do loss? como interpretar isso? pois as vezes vc tem acc 0.85 e loss 0.10 em outro caso vc tem tambem acc 0.85 porem loss 0.95, ou atle mais de 1 de loss e assim por diante! Gostaria de entender a logica desse loss, essa é a minha duvida obrigado!!!
3 жыл бұрын
Loss é o tamanho do erro da função de custo. Dependendo da função e do problema, o valor do loss será diferente. A lógica é que, quanto menor o loss, melhor
@lucasschmidt7947
@lucasschmidt7947 4 жыл бұрын
Você tem alguma rede social? Tenho dúvidas sobre o curso
4 жыл бұрын
Oi Lucas, pode mandar suas dúvidas para didaticatech@gmail.com
@saulomairesse7367
@saulomairesse7367 4 жыл бұрын
No curso completo, vocês trabalham mais detalhadamente ?
4 жыл бұрын
Com exemplos práticos? Sim.
@guilhermesou274
@guilhermesou274 2 жыл бұрын
Pelo que entendi, para entender inteligência artificial e redes neurais é necessário Calculo 2 somente?
2 жыл бұрын
Em alguns momentos vai ser preciso álgebra linear, probabilidade e estatística também
@wellyngtond2
@wellyngtond2 4 жыл бұрын
chegou na matemática avançada já não rolou pra me, um conselho que dou e tenho certeza q é o problema de muitas pessoas quanto a matemática é letras soltas no calculo, para uma didática para iniciantes tenta usar o nome da palavra em si, ex: ao invés de co, w1, usa Camada Oculta e Peso1 algo to tipo, sei que vai ficar grande mas para o raciocino não se preocupar com adivinhar oq é "a,c,w" esta é a melhor forma. vlw
@henriquedeandrade717
@henriquedeandrade717 4 жыл бұрын
Então, a matemática nem tão avançada assim. Se você quer realmente aprender como as coisas funcionam por de baixos do panos não pode ter medo de matemática. As letras que ele usou são boas, "E" de entrada, "S' de saída e "w" de peso (weight). Apenas o "a" que não tem esse tipo de associações, porém é um letra muito usada nesse tipos de explicação.
@CarlosDaniel-cb5fo
@CarlosDaniel-cb5fo 4 жыл бұрын
Faço muito MATLAB
@gravmagsuite1788
@gravmagsuite1788 2 жыл бұрын
Também
@holandonhdunto6808
@holandonhdunto6808 2 жыл бұрын
Como treina uma rede multcamada usando relu sem explodir a rede? A coisa mais chata e essa taxa de aprendizagem.
@gravmagsuite1788
@gravmagsuite1788 4 жыл бұрын
No fim das contas os algoritmos de rede neural são implementados considerando toda essa expansão da regra da cadeia ou alguma aproximação ou simplificação é considerada? Digo isso pq numa rede com 2 camadas ocultas já resultou numa "tripa" desse tamanho, imagina em aplicações reais com redes profundas... A implementação de um algoritmo generalista não deve ser simples...
4 жыл бұрын
É, não é simples =p
@edror91
@edror91 3 жыл бұрын
O cara ensina tudo vai tnc kk
@Veluxme
@Veluxme 4 жыл бұрын
isso seria física? ou matemática normal (kkkk sério nsei sou do 7°ano mas adoro programação)
4 жыл бұрын
Matemática apenas.
@gravmagsuite1788
@gravmagsuite1788 2 жыл бұрын
O que ele usou no vídeo foi basicamente derivada parcial, regra da cadeia, e um pouco de operações matriciais... tudo isso é matemática e se aprende em qualquer curso de exatas que tenha calculo e introdução a álgebra linear... Se você quiser fazer física em alguma universidade, vai ter que fazer as disciplinas que ensinam isso
@todoazuldomarcos
@todoazuldomarcos Жыл бұрын
Explicou pra quem já sabe . . . você 'acha' que explicou.
Жыл бұрын
Assiste o primeiro vídeo. Lá eu explico para quem não tem mta base matemática
@carlosaugustovilasboas5445
@carlosaugustovilasboas5445 3 жыл бұрын
só teoria e nada de pratica. não tem um video no youtube sobre pratica
@leonardofarias7160
@leonardofarias7160 Жыл бұрын
Só teoria, cadê a prática
Жыл бұрын
Temos vários opções. Segue um exemplo: kzbin.info/www/bejne/aYSvf5WFg5Kopqs
@rafaelmagalhaes3238
@rafaelmagalhaes3238 3 жыл бұрын
Sua didática é muito boa, mas sua letra é pior que médico. Tenho que ficar voltando o vídeo para escutar novamente a narrativa sobre o que você está escrevendo, pois não dá para entender direito. Se tirar um print da tela em qualquer momento do vídeo, sem escutar a narrativa, não dá para traduzir as equações. Muito ruim isso. Estava querendo comprar seu curso, mas se for assim, nem quero.
Gradiente Descendente Estocástico (Otimizador das redes neurais)
14:03
O que são Redes Neurais e Deep Learning
13:55
Hashtag Programação
Рет қаралды 14 М.
Does size matter? BEACH EDITION
00:32
Mini Katana
Рет қаралды 20 МЛН
Самый Молодой Актёр Без Оскара 😂
00:13
Глеб Рандалайнен
Рет қаралды 5 МЛН
Clowns abuse children#Short #Officer Rabbit #angel
00:51
兔子警官
Рет қаралды 73 МЛН
Introdução a Redes Neurais e Deep Learning
1:06:32
Didática Tech
Рет қаралды 86 М.
Videoaula ann-03 - Função de Ativação
18:22
Denilson Alves Pereira
Рет қаралды 925
One second to compute the largest Fibonacci number I can
25:55
Sheafification of G
Рет қаралды 70 М.
Redes neurais artificiais #13: Backpropagation  e descida do gradiente
12:13
Machine Learning para humanos
Рет қаралды 1,7 М.
Variational Autoencoders
15:05
Arxiv Insights
Рет қаралды 486 М.
APRENDA REDES NEURAIS EM PYTHON - TEORIA E PRÁTICA
19:01
Inteligência Mil Grau
Рет қаралды 20 М.
Копия iPhone с WildBerries
1:00
Wylsacom
Рет қаралды 485 М.
iPhone socket cleaning #Fixit
0:30
Tamar DB (mt)
Рет қаралды 14 МЛН
S24 Ultra and IPhone 14 Pro Max telephoto shooting comparison #shorts
0:15
Photographer Army
Рет қаралды 8 МЛН
Красиво, но телефон жаль
0:32
Бесполезные Новости
Рет қаралды 1,4 МЛН
iPhone, Galaxy или Pixel? 😎
0:16
serg1us
Рет қаралды 684 М.