No video

Fazendo uma Rede Neural do Zero! #2 - Entendendo Como a Rede Aprende

  Рет қаралды 59,672

José Bezerra

José Bezerra

Күн бұрын

Пікірлер: 117
@kleitondiones8967
@kleitondiones8967 2 жыл бұрын
Você se esforçou pra ensinar então eu vou assistir quantas vezes forem necessárias pra eu entender
@leonardopersan6941
@leonardopersan6941 4 жыл бұрын
21:06 O quadrado não é para "hipersensibilizar os erros" é para igualar o sinal de todos os erros tornando todos valores positivos. Ex.: Dois neurônios tem como saída correta 1, porém as saídas são 0,5 e 1,5 E1 = 1-0,5 = -0,5 E2 = 1-1,5 = 0,5 MSE = -0,5+0,5 = 0 E pronto o MSE é 0 quer dizer que o algorítimo é perfeito? E1 = (1-0,5)² = 0,25 E2 = (1-1,5)² = 0,25 MSE = 0,25+0,25 = 0,5 Agora sim o calculo da certo... 23:24 HIPERSENSIBILIZAÇÃO NÃO EXISTE! 0,64 é MENOR do que 0,8 assim como 0,0036 é MENOR do que 0,06
@gabrielrufino9041
@gabrielrufino9041 4 жыл бұрын
Boa!
@teocardoso7237
@teocardoso7237 4 жыл бұрын
Mas para isso bastaria colocar um modulo. 0.64 realmente é menor que 0.8, porém, se você tem dois erros, um de 0.8, e outro 0.79. Nesse momento sem a hipersensibilização, você tem uma diferença entre eles de 0.1, se você multiplica ambos ao quadrado, você pode ver uma diferença de mais de 0.15, ou seja, o erro maior foi muito mais punido do que o erro menor. Você não compara com os valores antes de colocar ao quadrado.
@leonardopersan6941
@leonardopersan6941 4 жыл бұрын
​@@teocardoso7237 Sobre a exponenciação ou módulos está correto e também funcionaria, mas machine learning se baseia na matemática clássica onde exponenciação resolve esse tipo de problema desde de o calculo de as distâncias euclidianas em planos cartesianos e eu suspeito que seja computacionalmente mais "barato". Sobre a hipersensibilização uma diferença de 0,1 ou 0,15, pode até fazer diferença na percepção de uma pessoa, mas para um programa é diferença do mesmo jeito, quer dizer que o meu modelo está melhorando ou piorando, isso nem é sinal de precisão que no caso de sigmoid estamos falando de mais de uma dezena de casas decimais.
@AnalisandoDados
@AnalisandoDados 4 жыл бұрын
@@leonardopersan6941 Entendi seu argumento sobre a hipersensibilização, porém achei que a exponenciação tivesse um custo computacional maior que o módulo, porém fiz alguns testes aqui e de fato a função exponencial tem um custo computacional menor, então faz sentido a sua colocação.
@kairovfm1843
@kairovfm1843 5 ай бұрын
Muito obrigado por ensinar isso, existe muito pouco conteúdo brasileiro na internet ensinando na prática como funciona uma rede neural, a maior parte desse conteúdo é em inglês e a maioria dos conteúdos BR só mostra com analogia não ensinam na prática. Você é fod4! Tmj
@NiloRiver
@NiloRiver 4 жыл бұрын
Computeiro é monstro hein. Primeira vez que encontro um conteúdo em PT-BR com profundidade e qualidade.
@GabrielOliveira-nj9qg
@GabrielOliveira-nj9qg 4 жыл бұрын
Galera, vamos pedir pra outros canais divulgarem ele (Felipe Deschamps, Universo Programado etc), para que tenha motivação de voltar com o conteúdo!
@achilleselon5168
@achilleselon5168 3 жыл бұрын
you prolly dont care but if you're bored like me during the covid times then you can stream all of the new movies on InstaFlixxer. I've been watching with my gf lately =)
@bradykaiser3540
@bradykaiser3540 3 жыл бұрын
@Achilles Elon Yea, I have been watching on Instaflixxer for since november myself :D
@dariodiniz621
@dariodiniz621 5 жыл бұрын
Queria já parabenizar pela explicação mega didática! Os conceitos são passados de maneira que chegam a serem óbvios e fica bem mais facil entender. Gratidão!
@juliakimura2696
@juliakimura2696 3 жыл бұрын
cara tu não tem noção do quanto tu ta me salvando, tenho que entregar um trabalho mas não entendi muito bem com meu professor, mas vindo aqui tudo se esclareceu, espero que seu canal faça sucesso, muito bom o conteúdo.
@ironsand
@ironsand 10 ай бұрын
Muito boas as aulas! Eu conhecia o contexto, mas não tinha colocado a mão na massa. Só uma informação adicional: a função de erro é elevada ao quadrado (como quase tudo nas estatísticas) não é para hipersensibilizar, e sim para que os valores negativos virem positivos. Porque se não colocamos ao quadrado, podemos ter valores de erro negativos, e aí não podemos descobrir qual é o menor (porque nesse caso o menor seria, na verdade, o maior negativo, aí estaríamos premiando o erro). Elevar ao quadrado permite comparar como se fosse o módulo do valor, pois ficam todos positivos. Dá no mesmo que fazer um "if (x < 0) x *= -1".
@jeffersonferreira43
@jeffersonferreira43 5 жыл бұрын
Bem complexo, mas vendo mais algumas vezes e estudando sobre cada conceito passado é totalmente possível compreender 100%...meus parabéns pelo conteúdo.
@dielzito3432
@dielzito3432 4 жыл бұрын
Cara, seu conteúdo é de fato muito bom e você explicou muito bem a grande maioria das coisas, mas esses conceitos de derivada do cálculo 1 e derivada parcial que é do cálculo 2 fica meio complicado da galera entender assim jogado. Eu faço engenharia e me matei pra entender isso minimamente junto com outros conceitos mais profundos em 2 anos de curso kkkkkkkkkkkk
@rafaelg8238
@rafaelg8238 2 жыл бұрын
Cara, até eu que sou burro entendi até aqui. Nem o Andrew Ng tinha me feito entender… kkk.. Que didática sensacional. Parabéns e muito sucesso pra vc.
@AdrielSilvadaSilveira
@AdrielSilvadaSilveira 6 ай бұрын
Caaaraca maninho, que aula, parbéns amigo, que Deus te abençoe e de condições de trazer mais conteúdo nessa linha, muito bom mesmo, muito recompensador e a didática excelente!
@Jeosuan
@Jeosuan 4 жыл бұрын
Ótimo professor. Ensina o fundamento, não só a aplicação. Parabéns!
@WilliamBelini
@WilliamBelini Жыл бұрын
em 6:44, o percentual de ativação da saída por neuronio depende também da oculta. Logo, em 8:27, e01 = Wo11*O1/(Wo11*O1+Wo12*O2)*es1, para ter o erro eo1.
@adrianobereta
@adrianobereta 3 жыл бұрын
Parabéns pelo trabalho! É bom ver jovens como você com interesse por algo relativamente complexo, aprendendo e compartilhando com os demais, já com bastante desenvoltura. Segue em frente, pois tens potencial!
@Alex-Aides
@Alex-Aides 8 ай бұрын
obrigado pelo tutorial, acabei de criar uma rede neural :D
@leonardopersan6941
@leonardopersan6941 4 жыл бұрын
1º Exemplo - Um Neurônio Oculto com Um Neurônio de Saída - 05:06 O Neurônio Oculto é 100% responsável do erro e recebe a regressão do erro, que é o erro do Neurônio de Saída multiplicado pelo peso (OK) 2º Exemplo - Dois Neurônios Ocultos com Um Neurônio de Saída - 06:13 O Neurônio Oculto1 é 20% responsável do erro e recebe 20% do erro do Neurônio de Saída O Neurônio Oculto2 é 80% responsável do erro e recebe 80% do erro do Neurônio de Saída *Onde está a Regressão?* 3º Exemplo - Dois Neurônios Ocultos com Dois Neurônios de Saída - 12:48 Cada Neurônio Oculto recebe a sua proporção do erro, legal, mas onde está a regressão novamente? Ainda no 3º Exemplo - Dois Neurônios Ocultos com Dois Neurônios de Saída - 17:38 Você voltou a regredir o erro multiplicando-o pelo peso, legal, mas perdeu a proporcionalidade, por causa da Constante de Aprendizado que vai "diminuir os passos", mas digamos que um nó tem 10% de responsabilidade em uma saída e você aplica uma Constante de Aprendizado de 11% o passo que esse nó dará provavelmente será maior do que o que deveria
@cassiofbs
@cassiofbs 5 жыл бұрын
Ótimas aulas!!! Consegui fazer minha rede em c, agora só falta botar pra aprender.
@bsdrago
@bsdrago 5 жыл бұрын
Cara, curtindo os videos, mas vc poderia dar alguma enfase maior nos tipos de dados que vc esta usando. por exemplo, eu TIVE (nao foi uma escolha) que fazer o teste dos videos com C#, que é fortemente tipado, e tive problemas em adivinhar o que vc estava fazendo em varios pontos, para poder converter do JS para o C#. Obvio que tenho problemas, mas vou rever o video 1 e tentar corrigir. Mas se puder dar essa enfase, seria bacana. Abs e bom trabalho!
@TheJessejunior
@TheJessejunior 5 жыл бұрын
fala Bruno! vou encarar esse mesmo desafio aí no c#. alguma dica? abs
@bsdrago
@bsdrago 5 жыл бұрын
@@TheJessejunior cara, c# eh complicado, ainda não arrumei o problema do meu co Digo apesar de já ter um candidato ao erro. No meu caso complicou um.pouco mais pq tô usando a unity. Mas assim: 1. Usa float para as dado numérico do vídeo dele. 2. Eu recriei todas as funções do vídeo, mesmo se eu ache desnecessaria, para ficarem iguais. 3. Quando for criar matriz, não use Array multidimensional. [,]. Use Array de Array, esquema [] [] 4. Isso pq ele usa a função map do JS, e o equivalente dela em C# eh o Select. Eu tive problemas do o Select e acabei fazendo uma implementação burra dela, mas voltarei nela assim que der. O Select só funciona em Array simples, por isso o Array de Array, além do codigo ficar semelhante a JS. Acho que eh isso:)
@migatte5141
@migatte5141 5 жыл бұрын
@@bsdrago po to iniciando tbem na unity em c# pra ver se consigo fazer essa bagaça ksksks caso tenha sucesso posso vir aqui
@bsdrago
@bsdrago 5 жыл бұрын
@@migatte5141 eu tive sucesso. Mas teve coisa q tive q chutar kkk
@conradomoraes9917
@conradomoraes9917 5 жыл бұрын
Bruno Drago Dá pra fazer isso aew em Python? Só sei essa linguagem.
@danielgabardo2212
@danielgabardo2212 4 жыл бұрын
super bem explicado!! parabéns!!
@fabioostrowski
@fabioostrowski 5 жыл бұрын
Parabéns pelos vídeos! Sempre quis entender e agora encontrei de forma fácil. Sucesso!
@Dksjsuww8
@Dksjsuww8 Жыл бұрын
Ainda é o segundo vídeo e meu cérebro está derretendo já, mas eu vou aprender isso nem que seja no tapa.
@uallasleles
@uallasleles 5 жыл бұрын
Muito bom, cara! Sensacional o conteúdo, vc explica muito bem. Apesar de ser complexo, vc mantém os assuntos conectados, muito legal a sua preocupação pela compreensão intuitiva! Parabéns!!!!
@kleitonewerton8757
@kleitonewerton8757 4 жыл бұрын
uma das melhores aulas que já vi em minha vida!!!!!!
@endriobarros164
@endriobarros164 3 жыл бұрын
Maravilha...!! conteúdo top.
@MarcosVRPereira
@MarcosVRPereira 3 жыл бұрын
meu cérebro está fritando, rsrsrsrrsrsrsrs. Tá de parabéns, apesar de se emocionar e engatar a primeira e partir pra cima, depois de rever algumas vezes deve entrar algo em minha mente, srsrrsrsrsrsrs
@WilliamBelini
@WilliamBelini Жыл бұрын
na hora de calcular o erro 5:41, o Erro de saida só é R1-S1 pq os dados são de 0 a 1, a maneira geral do calculo é (R1-S1)/S1
@beivlogs
@beivlogs 3 жыл бұрын
que conteúdo sensacional! Bora divulgar esse canal pessoal!!!!
@projetoprimata
@projetoprimata 5 жыл бұрын
só tou assistindo pra me sentir burro mesmo kkk
@ramavicorp
@ramavicorp 7 ай бұрын
ja estou na segunda aula dele sem entender nada kkkkkk
@joaovitordeon3245
@joaovitordeon3245 5 жыл бұрын
faz curso e bota na udemy, eu compro kkkk
@JottaMaster
@JottaMaster 5 жыл бұрын
Não, de graça tá ótimo. Doações é melhor
@SouAndersonDavid
@SouAndersonDavid 5 жыл бұрын
@@JottaMaster ninguém doa nada, e temos sorte de ter isso em português, tem q botar e vender mesmo
@SouAndersonDavid
@SouAndersonDavid 5 жыл бұрын
@@JottaMaster eu nunca paguei nada e aprendi muito de programação indo atrás, seria bom se tudo fosse gratuito, mas custa esforço e tempo produzir um bom material, além de que doação nunca chegaria nem a metade do valor caso fosse pago, e todo mundo precisa pagar as contas
@newtao
@newtao 2 жыл бұрын
Cara, você foi muito foda com esses vídeos. Vou assistir mais uma vez pra ficar mais claro, porém sua explicação foi ótima...se eu fosse pegar essas informações em livros ou cursos, acho que ia ser mais complexo.
@VitorHugo-wi9yj
@VitorHugo-wi9yj 5 жыл бұрын
Muito bom! Esperando pelos próximos vídeos
@NaumJefferson
@NaumJefferson 5 жыл бұрын
Muito bom amigo, excelente didática!
@rodkobl
@rodkobl Жыл бұрын
Olá José, parabèns pelo conteùdo. Estou nesse caninho e foi òtimo aprender contigo. Entretanto, fiquei com uma dùvida. Se, no começo do vìdeo, a ovulta baixou de .5 para .4 e o.erro total foi .6, isso sifnifica que o erro especificamente definido pela camada oculta teria sido .1 em .6. Pq os outros .5 de erro jà vieram da entrada. O erro total entrada + oculta foi de .6. .5 foi da entrada para a oculta e .1 da oculta para saìda. O erro especìfico atribuido a ovulta seria .1/.6=.16... onde tá o erro aqui? Mais uma vez, obrigado pelo conteùdo!
@arturcesardemelo9646
@arturcesardemelo9646 5 жыл бұрын
Tem algum livro bacana pra poder solidicar esses conceitos? Curti muito o video, adorei revisitar os conceitos de regra da cadeia. Parabéns, pernambucano!
@paulohbmetal
@paulohbmetal 5 жыл бұрын
Não ficou claro pq ficou 2E no cálculo do Delta M. Não deveria ter ficado = 2(mx + b - Numero) * (m' * x)? Pelo que entendi ele está igualando E=(mx + b - Numero) porém E=(mx + b - Numero)^2. Alguém sabe explicar?
@leonildeslira6532
@leonildeslira6532 4 жыл бұрын
Muito bom as suas aulas!
@wandersonfelipe5588
@wandersonfelipe5588 2 жыл бұрын
Mano, como eu consigo esse teu material didático? Muito rico, parabéns!!
@luizsilva462
@luizsilva462 4 жыл бұрын
vc é muito bom so aula top
@billyJox
@billyJox 5 жыл бұрын
Cara!! Muito bom, muito didático, valeu!!
@Vitor-tz9ti
@Vitor-tz9ti 5 жыл бұрын
Só tem uma coisa errada que acho que propagaria o erro se esses números do slide fossem do projeto real. 0.5*0.1 = 0.05 e não 0.5
@marconigrf
@marconigrf 5 жыл бұрын
Muito bom!
@wellyngtond2
@wellyngtond2 4 жыл бұрын
ótima explicação para quem é muito bom em matemática, não o julgo pois a culpa é minha por não ligar para isso na escola.
@pauloassuncao140
@pauloassuncao140 3 жыл бұрын
Muito boa a explicação, mas tem uma imprecisão. A função de custo no exemplo usado para explicar o gradiente descendente é de duas variáveis, m e b. Elas são independentes para essa função. Ao fazer a derivada parcial, colocou-se m' e o correto seria somente m. Tirando isso, parabéns pelo vídeo.
@Webschool-io
@Webschool-io 5 жыл бұрын
Aí sim meu rei!!!
@samueln.s
@samueln.s 3 жыл бұрын
18:50 claro eu so n entendi tudo mas obg por esse esclarecimento
@samuelsilvaoliveira1142
@samuelsilvaoliveira1142 4 жыл бұрын
Top!
@vagabundo3355
@vagabundo3355 3 жыл бұрын
COMECEI A APRENDER SOBRE VARIAVEIS ONTEM, E TO PESQUISANDO PARA CRIAR A SKYNET
@kedesdiastorres9608
@kedesdiastorres9608 5 жыл бұрын
Muito bom parabéns
@adrianodemoura
@adrianodemoura 4 жыл бұрын
mas que k7 de agulha ... não entendi bulufas de nada, mas vou continuar assistindo aos vídeos, quem sabe meu eu interior customize algo ? Será que a nasa já encontrou com este rapaz do vídeo ? S enão, eles não sabem o que estão perdendo.
@thiagoa1851
@thiagoa1851 4 жыл бұрын
Muito boa as explicações, falta só referenciar os livros utilizados
@jaimipassos
@jaimipassos 4 жыл бұрын
Muito bom, mesmo.
@pfornellas
@pfornellas 5 жыл бұрын
Muito muito bom!
@marcioalexandre7610
@marcioalexandre7610 4 жыл бұрын
Só a parte final é que ficou bastante confusa, talvez por envolver vários conhecimentos num espaço curto, e aí não deu pra entender nada de como os pesos e bias são ajustados.
@dielzito3432
@dielzito3432 4 жыл бұрын
Na hora de calcular a derivada em relação a m tem um erro porque o E é elevado ao quadrado e no momento que você tira a derivada esse elevado ao quadrado some, ou seja, aquilo deixa de ser igual ao E.
@andrekravcenko8801
@andrekravcenko8801 Жыл бұрын
Pausando o vídeo aos (17:27 - Learning Rate). Ainda estou interiorizando todo esse troço e, talvez esteja me adiantando mas, a pergunta que me surge imediatamente é : Não dá pra ajustar o Learning_rate usando um neurônio próprio ? Assim apenas para agilizar ao invés de jogar uma estimativa ?
@lembreme
@lembreme 5 ай бұрын
Meo Deos. Como eh complicado
@guilhermestuckert4137
@guilhermestuckert4137 2 жыл бұрын
O percentual deve ser multiplicado pelo valor correto e não pelos pesos e depois dividir pela oculta para se obter os pesos corretos.
@marioferraz5211
@marioferraz5211 3 жыл бұрын
0:46 o de baixo da oculta é um oxigênio
@gustavomourao5258
@gustavomourao5258 5 жыл бұрын
Muito bom
@luizpaulolopes6577
@luizpaulolopes6577 3 жыл бұрын
Pq produto Hadamard e não o produto matricial tradicional?
@ferreiiratech
@ferreiiratech 2 жыл бұрын
fazz mais vídeos
@lucasfontes7914
@lucasfontes7914 5 жыл бұрын
Não entendi 42:30 ,é produto rodamart?
@adejar12
@adejar12 5 жыл бұрын
Num basta ser só bonito, tem que ser inteligente ( ͡° ͜ʖ ͡°) kkkkk. Parabéns, ótimo vídeo
@andrekravcenko8801
@andrekravcenko8801 Жыл бұрын
Pausando o vídeo novamente aos (37:31 Gradient Descent) - Me parece que você despejou essa enxurrada de fórmulas apenas pra chegar numa regressão linear ? Não seria mais simples explicar uma regressão linear ??? ( ou estou completamente equivocado ?)
@igorportugalbazilio9813
@igorportugalbazilio9813 4 жыл бұрын
"é basicamente tudo isso", to triste por n ter entendido 80% do que ele disse... :c
@arturdealcantara6285
@arturdealcantara6285 3 жыл бұрын
Pelo menos c entendeu 20% . . . Eu só entendi parte do JS pq programo, o restante dos neurônios me quebrou kkkkk
@renanmaiadias6340
@renanmaiadias6340 3 жыл бұрын
@@arturdealcantara6285 comigo foi ao contrario só entendi os cálculos, a parte dos códigos de programação vou sofre para aprender :(
@adachiluis
@adachiluis 5 жыл бұрын
O cara ainda estava explicando o erro com apenas um neurônio e mesmo assim perdi com WO 😭 nem queria aprender mesmo. 😒
3 жыл бұрын
Como contrato um freela?
@raulnegrao4910
@raulnegrao4910 3 жыл бұрын
Explicou como se fosse pra um jumento... adorei!
@korpzmarcelfranca6825
@korpzmarcelfranca6825 3 жыл бұрын
Os nordestinos são os mais espertos
@henriquelima9810
@henriquelima9810 5 жыл бұрын
por enquanto ta td tranquilo
@dicas_de_matematica_e_exatas
@dicas_de_matematica_e_exatas Жыл бұрын
Abri uma vodca....
@geodidio
@geodidio 5 жыл бұрын
muito bom carioca com puxada nordestina ou vice versa. hahah
@sanderluis3652
@sanderluis3652 4 жыл бұрын
Perfeitooo, pena que entendi 0.1% de primeira kkkk
@jhonymariotto7370
@jhonymariotto7370 3 жыл бұрын
assistindo aula: portugues: 30 min = 2h programação: 50 min = 2 min
@derciferreira7211
@derciferreira7211 5 жыл бұрын
você tem que trocar as cores dessas letras que ta muito claras, não da pra enxergar nada.
@mansioncapital3358
@mansioncapital3358 5 жыл бұрын
acho que foi mais nao perceber nada da matematica
@gustavolach9414
@gustavolach9414 5 жыл бұрын
ola amigo, nao acredito que o "quadrado" para o calculo dos erros seja para hiper sensibilisar os valores que, em geral, estão entre 0 e 1.Portanto nesse caso, x^2 é menor que x. Acho que esta mais ligado ao fato de que um numero ao quadrado é sempre positivo, portanto a soma de diversos erros nunca vai se anular, assim como em um modulo. mas no caso a função x^2 é continua e tem a derivada facil de calcular. parabéns pelo conteúdo.
@evandrojunior1406
@evandrojunior1406 4 жыл бұрын
Eu tinha achado a mesma coisa. "Não queria dar uma de chato, pois está muito boa a explicação. Só achei que a explicação de elevar o erro ao quadrado era para deixar o erro mais evidente. Como o erro é entre 0 e 1 ao elevar ele ao quadrado irá deixar ele menor ainda. Ganhei o prêmio de chato do dia. Se eu tiver equivocado por favor me corrija."
@israelfilho415
@israelfilho415 4 жыл бұрын
Na realidade, essa função de custo em específico foi pensada desse jeito para garantir que o aprendizado aconteça. O que nós temos de significante está no backpropagation, que como o computei do mesmo falou, é um cálculo de derivadas. Mais simples ainda, o backdrop é, o que chamamos de regra da cadeia das derivadas. Bom, o gradiente descendente é uma técnica de otimização, logo ela otimiza algo em relação a algum critério. Nós temos que precisam ser ajustados, temos a saída da rede e temos a saída verdadeira. Ao escolhermos o erro quadrático médio como critério de otimização, nossa função de custo, nós matamos dois coelhos com uma cajadada só. O erro quadrático é uma função diferenciável e possui só um mínimo local, que coincidentemente é global. Ou seja, a técnica do gradiente descendente, respeitando o passo de aprendizado, ao ser aplicado por um período de tempo muito grande na função de custo erro quadrático médio nos garante que sim o erro será minimizado. Por isso a questão do quadrado, só pra facilitar a conta hehehehehehe
@evandrojunior1406
@evandrojunior1406 4 жыл бұрын
Não queria dar uma de chato, pois está muito boa a explicação. Só achei que a explicação de elevar o erro ao quadrado era para deixar o erro mais evidente. Como o erro é entre 0 e 1 ao elevar ele ao quadrado irá deixar ele menor ainda. Ganhei o prêmio de chato do dia. Se eu tiver equivocado por favor me corrija.
@gameteste3179
@gameteste3179 3 жыл бұрын
Okuta pensei que era nome de japones
@matheuslopesmarques9363
@matheuslopesmarques9363 4 жыл бұрын
nem fudendo que fiquei uns 30 minutos olhando pra formula com o video pausado, pra tentar entender, e dps falar q vai desconsiderar ;-;
@nexusprime_here
@nexusprime_here 4 жыл бұрын
Ele parece o Andrew Garfield
@RickCharf
@RickCharf 5 жыл бұрын
Não entendo que conta você fez para chegar no valor do erro oculta no minuto 4:50 . Falar que o erro da oculta é 60% do peso, pois o erro da saída foi 0.6 me aprece equivocado. O erro da saída é 0.6 pois, por acaso, a saída esperada é 1. Em porcentagem, o erro é de 150% a mais da entrada. 150% de 0.8 é 1.2 - O valor exato que somado ao peso resultaria em uma saída correta, igual à esperada: 0.5*(0.8+1.2) = 1. Não sei da onde você tirou esse valor para o erro da oculta. Do jeito que você o define o valor não parece fazer sentido. Talvez faltou uma definição melhor. Não está claro o porquê de o erro da oculta ser Eo = Es * W.
@robertcampos8801
@robertcampos8801 3 жыл бұрын
O correto é: Eo = Es / W
@andrekalil8624
@andrekalil8624 6 ай бұрын
p* que pariu , agora eu entendo melhor a relçação entre ainformatica e matematica
@pedromartinsfalleiros7721
@pedromartinsfalleiros7721 3 жыл бұрын
Queria que ele voltasse a fazer vídeos
@andregustavo2086
@andregustavo2086 3 жыл бұрын
Eu odeio quando ele diz "e você percebe que é bem INTUITIVO"
@tribal7117
@tribal7117 4 жыл бұрын
Agora percebi o quanto eu sou burro.
@joaomoitamanrique6004
@joaomoitamanrique6004 5 жыл бұрын
Como assim uma rede neural pode ficar tão boa que ser torne ruim!
@joaovitordeon3245
@joaovitordeon3245 5 жыл бұрын
ela aprende muito com os dados de treino que fica 'viciada' , e quando bota ela p rodar com outro conjuntos de dados ela n se sai tao bem.
@GercinoJr
@GercinoJr 5 жыл бұрын
Essa taxa de aprendizagem vem para distribuir a correção total (erro detectado na saída) entre todos os pesos da rede... e não apenas na penúltima camada de neurônios.
Fazendo uma Rede Neural do Zero! #1 - FeedForward
48:17
José Bezerra
Рет қаралды 290 М.
Incredible Dog Rescues Kittens from Bus - Inspiring Story #shorts
00:18
Fabiosa Best Lifehacks
Рет қаралды 33 МЛН
مسبح السرير #قصير
00:19
سكتشات وحركات
Рет қаралды 11 МЛН
АЗАРТНИК 4 |СЕЗОН 2 Серия
31:45
Inter Production
Рет қаралды 565 М.
КТО ЛЮБИТ ГРИБЫ?? #shorts
00:24
Паша Осадчий
Рет қаралды 4,3 МЛН
Como uma Rede Neural Aprende? Tutorial para Leigos
14:29
Escola de Inteligência Artificial
Рет қаралды 68 М.
Backpropagation descomplicated
10:28
CANAL SANDECO
Рет қаралды 25 М.
Construa um neurônio artificial do zero. E utilizando o Excel.
29:58
Prof Francisco Calaça
Рет қаралды 29 М.
5.4 - IA - Programando uma rede neural em Python
25:12
Inteligência Artificial
Рет қаралды 30 М.
A Matemática das Redes Neurais
48:27
Didática Tech
Рет қаралды 25 М.
IA Aprende A Jogar "Ping-Pong" Usando Rede Neural
9:45
Programador Sagaz
Рет қаралды 84 М.
Introdução a Redes Neurais e Deep Learning
1:06:32
Didática Tech
Рет қаралды 87 М.
Redes Neurais Artificiais - O que é um gato?
30:21
DevelOP Tech Talks
Рет қаралды 24 М.
Por que a Inteligência Artificial não é um bando de IF-ELSE?
10:22
Universo Programado
Рет қаралды 342 М.
But what is a neural network? | Chapter 1, Deep learning
18:40
3Blue1Brown
Рет қаралды 17 МЛН
Incredible Dog Rescues Kittens from Bus - Inspiring Story #shorts
00:18
Fabiosa Best Lifehacks
Рет қаралды 33 МЛН