ENTENDA REDES NEURAIS RECORRENTES (RNN) | Redes Neurais e Deep Learning 11

  Рет қаралды 3,749

Universo Discreto

Universo Discreto

Күн бұрын

Nesse vídeo eu explico a teoria por trás das Redes Neurais Recorrentes (RNR). Esse tipo de arquitetura é muito usada para processamento de dados sequenciais, como séries temporais, textos, vídeos e sequências de DNA.
Ao longo do vídeo, você vai entender:
➡️ Quais as diferenças entre uma Rede Neural "comum" e as Recorrentes;
➡️ Quais são os tipos de Redes Neurais Recorrentes;
➡️ Por que elas são tão suscetíveis aos problemas de gradientes desaparecendo;
➡️ O funcionamento passo a passo das RNRs convencionais e da mais popular delas, a LSTM;
➡️ A descrição de todos os componentes de uma célula LSTM, como os portões;
🕘Minutagem:
00:00 - Abertura e Recadinhos
03:38 - Resumo resumido de Redes Neurais
08:57 - O que Redes Neurais Recorrentes tem de diferente?
13:24 - Tipos de Redes Neurais Recorrentes
17:15 - O que são as Redes Neurais Recorrentes?
23:55 - Conceitos Importantes
38:34 - Backpropagation das Redes Recorrentes
44:12 - Problemas envolvendo Gradientes
47:25 - Redes Recorrentes e sua "Memória Curta"
52:18 - Redes LSTM e sua "Memória Longa"
56:48 - Visão Geral da Célula LSTM
1:08:34 - Forget Gate ou "Portão de Esquecimento"
1:11:53 - Input Gate ou "Portão de Entrada"
1:16:03 - Output Gate ou "Portão de Saída"
1:18:20 - Para saber mais
1:22:36 - Encerramento
📚Fontes e Links Sugeridos:
◽ • MIT 6.S191 (2021): Rec...
◽colah.github.io/posts/2015-08...
◽ • Minha Primeira Rede Ne...
◽ / lstms-explained-a-comp...
◽ • Illustrated Guide to L...
◽ • Recurrent Neural Netwo...
🎞Playlist de Redes Neurais Artificiais:
◽ • Redes Neurais Artifici...
🎵Músicas usadas:
◽ericskiff.com/music/
◽ • Free Happy Background ...
◽ • Lofi Hip Hop Coding Mu...
🤩Seja membro:
◽ / @universodiscreto
📱Todas as redes:
◽linktr.ee/universodiscreto
💬Grupo no Telegram pros inscritos:
◽t.me/joinchat/FT23REfCj9SWm0w...
🌎Blog do Canal:
◽universodiscreto.com
💵Meu Pix:
◽universodiscretopix@gmail.com
📮Caixa Postal:
Lucas Grassano Lattari
Caixa Postal 74
36180-000
Rio Pomba - MG

Пікірлер: 14
@rosanefalate6458
@rosanefalate6458 Ай бұрын
Parabéns pelo conteúdo!
@tiagosouzasilva6649
@tiagosouzasilva6649 Жыл бұрын
Mais uma vez, Lucas sendo MUITO didático. Vou precisar implementar uma LSTM aqui e aprendi muito com este vídeo. Parabéns!!!
@miltonborges7356
@miltonborges7356 Жыл бұрын
Este video me ajudou muito há um tempo atrás. Voltando para refrescar o conteúdo
@lucastavares7767
@lucastavares7767 2 жыл бұрын
Mega aulão prof Lucas😃👏📚
@livia2774
@livia2774 2 жыл бұрын
seus vídeos sempre com qualidade! Parabéns!
@andreramos3290
@andreramos3290 Жыл бұрын
Excelente. Parabéns!
@mateuslima126
@mateuslima126 2 жыл бұрын
Muito bom!
@paulolima2292
@paulolima2292 Жыл бұрын
Ótima didática.
@Gamer-tm7nu
@Gamer-tm7nu 2 жыл бұрын
Opa, eu tava mesmo procurando um conteúdo de qualidade sobre esse assunto :)
@SickMantv
@SickMantv Жыл бұрын
tem como fazer um video teorico sobre window size e batch size?
@SickMantv
@SickMantv Жыл бұрын
não entendi muito bem a parte do back propagation da rnn normal. Ela não consegue lembrar de memorias longas porque quando propaga para trás as informação antigas tem um peso ttão pequeno que serão ignoradas?
@UniversoDiscreto
@UniversoDiscreto Жыл бұрын
isso! essas memórias são representadas numericamente por valores pequenos (tipo 0,001...) que são multiplicadas por outros valores igualmente pequenos com o tempo. com isso, as informações antigas vão sumindo, em detrimento das mais recentes.
@inovastar
@inovastar 10 ай бұрын
Olá.. que tal uma parceria? fiz um programa em píton para compra/venda de ativos bem assertivo, porém penso que uma rede neural ficaria perfeito. Por isso preciso de uma parceria para adaptar a rede neural neste soft. Caso lhe interesse, pode ser uma muito boa, pois com um RN a coisa é de 87 a 97 % de acertividade...pensa ai e me diga, valeu!
@RickandMorty-dt1md
@RickandMorty-dt1md 7 ай бұрын
analogia: filme o vidente. essa back propagation esta errada, pois é como se você reconhecesse erros pra vários instantes no tempo sem descriminalização. logo oque você estaria visando? não faz sentido propagar tudo junto de uma vez. cada decisão errada já esta sendo realinhada, oque se deseja é corrigir o realinhamento [cada ação tomada], mas pra isso devesse saber o Whh em cada instante de tempo tendo quantidade t. assim ao acabar a t recursão o Why seria reajustado e apos isso o recursao anterior . mas não bem isse o problema. o problema é que a bomba não deve apagar oque o vidente aprendeu em combate, logo a back propagation deve ser de outra forma. devesse fazer a backpropagation em cada instante apos [se iterar gerando uma nova resposta] assim ja se memoriza o aprendizado. alem disso o lance de somar os erros não faz sentido, ja que o contexto do final que seria responsavel em classificar o peso de cada erro a depender da meta. e tomando a analogia do filme, so seria ajustado o peso de uma ação muito no passado pois foi reajustado o y/aMeta, garantido oque o vidente aprendeu sobre combate. não sei sobre Rnn mas podemos fazer uma analogia logica da logica em aprendizado
LSTM
28:11
Rodrigo Guerra
Рет қаралды 4,6 М.
Heartwarming Unity at School Event #shorts
00:19
Fabiosa Stories
Рет қаралды 16 МЛН
Каха и суп
00:39
К-Media
Рет қаралды 6 МЛН
KINDNESS ALWAYS COME BACK
00:59
dednahype
Рет қаралды 162 МЛН
Introdução a Redes Neurais e Deep Learning
1:06:32
Didática Tech
Рет қаралды 86 М.
The moment we stopped understanding AI [AlexNet]
17:38
Welch Labs
Рет қаралды 732 М.
Introdução a Redes Neurais Convolucionais
15:39
Escola de Inteligência Artificial
Рет қаралды 2,9 М.
Redes Neurais Recorrentes (RNN) - LSTM, GRU, Seq2seq e Mecanismos de atenção
2:03:23
Centro de Excelência em IA & Deep Learning Brasil
Рет қаралды 11 М.
Crie uma rede neural com apenas 5 linhas de código Python e Keras!
26:34
O que são Redes Neurais e Deep Learning
13:55
Hashtag Programação
Рет қаралды 14 М.
Função de Ativação em Redes Neurais
21:48
BeeData USP
Рет қаралды 3 М.
Why Neural Networks can learn (almost) anything
10:30
Emergent Garden
Рет қаралды 1,2 МЛН
САМЫЙ ДОРОГОЙ ЧЕХОЛ! В стиле Mac Pro
0:35
😱Хакер взломал зашифрованный ноутбук.
0:54
Последний Оплот Безопасности
Рет қаралды 948 М.
iPhone socket cleaning #Fixit
0:30
Tamar DB (mt)
Рет қаралды 14 МЛН