Lecture 12   Probabilistic Models pt2
1:00:31
Lecture 12   Probabilistic Models pt1
1:28:45
Lecture 9   Working with Unlabeled Data
1:28:18
Lecture 10   Anomaly Detection
31:34
Lecture 3   Linear Models   pt1
1:16:08
5 ай бұрын
Lecture 3   Linear Models   pt2
1:21:14
5 ай бұрын
Lecture 0   Dates, grades, admin
22:57
Lecture 15 - Semantic Segmentation
53:35
Lecture 15 - Object Detection
1:21:22
Lecture 12 - Transformers
1:34:05
Жыл бұрын
Lecture 11 - NLP
1:14:42
Жыл бұрын
Lecture 9 - Transfer Learning
2:04:02
Lecture 8 - CNN Architectures
1:01:07
Lecture 10 - Recurrent Models
1:15:25
Lecture 4 - Optimization
1:07:10
Жыл бұрын
Lecture 6 - Practical Methods
18:51
Lecture 5 - Regularization
21:06
Жыл бұрын
Пікірлер
@professorfranciscoargolo9057
@professorfranciscoargolo9057 26 күн бұрын
Ótima aula. Obrigado.
@andrelazzaretti
@andrelazzaretti 26 күн бұрын
Muito obrigado!
@rafaelmedeiros203
@rafaelmedeiros203 4 ай бұрын
Professor, no min 34:53 a tensão de linha Vca deveria ser com o ângulo de +150°?
@andrelazzaretti
@andrelazzaretti 4 ай бұрын
Isso, vc está correto. No slide ficou errado.
@jair4819
@jair4819 5 ай бұрын
meus parabéns, alunos do curso de eletrotécnica do Senai Pará agradecem
@andrelazzaretti
@andrelazzaretti 5 ай бұрын
Sucesso a todos aí!
@romulolopes1611
@romulolopes1611 6 ай бұрын
Só pra confirmar: por conta de ambos os componentes negativos (terceiro quadrante), o resultado do ângulo de V2 foi somado com +180º né? Obrigado! Em 20:04
@andrelazzaretti
@andrelazzaretti 6 ай бұрын
Isso!
@romulolopes1611
@romulolopes1611 7 ай бұрын
Em 37:57, pra fazer aquela divisão, você usou aquele método de pegar o valor do denominador e inverter o sinal do número imaginário e multiplicar a fração em cima e embaixo por ele?
@andrelazzaretti
@andrelazzaretti 7 ай бұрын
Pode ser sim, como vc achar mais fácil resolver. Qualquer divisão de número complexo resolve.
@florisvaldocampodoniofilho9164
@florisvaldocampodoniofilho9164 7 ай бұрын
Fenomenal meus parabéns e um forte abraço
@andrelazzaretti
@andrelazzaretti 7 ай бұрын
Muito obrigado!
@felipebarreto5459
@felipebarreto5459 10 ай бұрын
cara tu é DEMAIS tipo, tu salvou o meu cu
@AMOREPROSPERIDADE308
@AMOREPROSPERIDADE308 11 ай бұрын
E se eu tivesse um sistema desequilibrado? Como eu faço para calcular o banco de capacitor?
@andrelazzaretti
@andrelazzaretti 11 ай бұрын
Nesse caso, procure fazer todas as contas (potência, fator de potência, capacitor) por fase.
@AMOREPROSPERIDADE308
@AMOREPROSPERIDADE308 11 ай бұрын
@@andrelazzaretti ok obrigado
@GuilhermeSchmidtdaCosta
@GuilhermeSchmidtdaCosta Жыл бұрын
Aula muito boa! Obrigado!
@andrelazzaretti
@andrelazzaretti Жыл бұрын
Muito obrigado!
@pedrolucaspiresdamasceno1797
@pedrolucaspiresdamasceno1797 Жыл бұрын
Muito boa a aula, parabéns pelo ótimo trabalho.
@andrelazzaretti
@andrelazzaretti Жыл бұрын
Muito obrigado!
@RNTFLRNTN
@RNTFLRNTN Жыл бұрын
Video ajudou de ++++ estudando para fundamentos de eletrotécnica 3° no IFPE campus recife esse video ajudou muitooooooo
@andrelazzaretti
@andrelazzaretti Жыл бұрын
Que bom, sucesso aí!
@joaoluizalmeida1057
@joaoluizalmeida1057 Жыл бұрын
Como você achou V=10/_0 ? não entendi pq o angulo é zero ?
@andrelazzaretti
@andrelazzaretti Жыл бұрын
O ângulo da função da tensão é nulo: 10cos(4t) = 10cos(4t + 0).
@joaoluizalmeida1057
@joaoluizalmeida1057 Жыл бұрын
obrigado @@andrelazzaretti
@joaoluizalmeida1057
@joaoluizalmeida1057 Жыл бұрын
No segundo exemplo não seria somar 90 pra ter +coss ?
@andrelazzaretti
@andrelazzaretti Жыл бұрын
Olá. Na verdade a transformação é cos(A-90) = sen(A). Isso confunde um pouco, mas pense que se você deslocar o cos 90 graus para a direita (que é a mesma coisa que subtrair 90 graus), você obtém o cos. Tente desenhar isso pra observar.
@hellenregina3197
@hellenregina3197 Жыл бұрын
Muito bom professor! Mas fiquei com uma dúvida, ali pelo tempo de 26min, fiz a conversão de polar para retangular, e então Cos (-67,38*) não ficou -0,3846 pra podermos chegar em - 0,2961… o meu deu positivo, então no final não subtraia, mas sim somava … o que o senhor acha ?
@andrelazzaretti
@andrelazzaretti Жыл бұрын
Olá, obrigado. (-50 -j120)/169 = -0,295 -j0,71. Essa foi a conta que foi feito ali. Tome cuidado que esse número complexo está no terceiro quadrante. Na forma polar, ele seria 0.77 < -112.56°.
@auluspinheiro1
@auluspinheiro1 Жыл бұрын
Professor, os ângulos quando não são notáveis e não pode usar calculadora, tem algum jeito de resolver?
@andrelazzaretti
@andrelazzaretti Жыл бұрын
Olá, resolver em que sentido?
@andrelazzaretti
@andrelazzaretti Жыл бұрын
Em 36:40, ficou faltando detalhar o seguinte. A é condicionalmente independente de B, dado C, se (d-separation): 1) As setas no caminho se encontram cabeça com cauda ou cauda com cauda no nó, e o nó está no conjunto C. 2) As setas se encontram cabeça com cabeça no nó, e nem o nó nem qualquer um de seus descendentes está no conjunto C.
@andrelazzaretti
@andrelazzaretti Жыл бұрын
Em alguns momentos misturei a definição de variância e desvio padrão (por exemplo, 31:12). Pra evitar confusão, segue a definição correta: sigma: desvio padrão sigma^2: variância Portanto, o desvio padrão é a raiz quadrada da variância.
@andrelazzaretti
@andrelazzaretti Жыл бұрын
Correção: o símbolo ⊆ representa "é subconjunto de".
@andrelazzaretti
@andrelazzaretti Жыл бұрын
Correção: o símbolo ⊆ representa "é subconjunto de".
@PortesNew
@PortesNew Жыл бұрын
Professor, excelente aula ! O senhor o comentou que na década de 90 teve um movimento grande dos pesquisadores voltado a reescrever os algoritmos utilizando produtos internos ... e o que aconteceu !? tiveram grandes avanços ?! Ainda seguem isso como boa prática? Porque, sinceramente, encontrar um Kernel ideal para alguns problemas me parece algo muito próximo de encontrar uma pedra preciosa no meio de um garimpo rsrs ...
@andrelazzaretti
@andrelazzaretti Жыл бұрын
Olá, muito obrigado! Na realidade, teve um avanço grande durante anos. Existem várias versões de algoritmos clássicos usando kernel (PCA, perceptron, etc). Acho que o fato de ter perdido a força dever ter relação com o crescimento grande dos modelos de deep learning. Muitos pesquisadores foram pra área de deep learning, deixando essa parte de kernel um pouco de lado.
@andrelazzaretti
@andrelazzaretti Жыл бұрын
Veja este paper aqui: To understand deep learning we need to understand kernel learning (Mikhail Belkin, Siyuan Ma, Soumik Mandal).
@PortesNew
@PortesNew Жыл бұрын
@@andrelazzaretti Isso é interessante e estranho pra mim... pq, pensando bem, parece que se perdeu um pouco interesse de se compreender o processo de aprendizado (um pouco mais evidente com a tratativa dos Kernels) e mais em acertar algo ... Qual a visão do senhor sobre isso ?! O deep Learning não é bem aceito em muuuuitas áreas, principalmente de negócios ... os kernels não voltariam a ser uma boa pedida em termos de compreensão do aprendizado/modelo ?!
@andrelazzaretti
@andrelazzaretti Жыл бұрын
@@PortesNew Deep learning em geral tem resultados melhores para dados não-estruturados (imagem, video, sinal, etc). Modelos basados em kernel podem ser uma boa opção pra classificação, sim. No entanto, dependendo da área, a encrenca maior é encontrar boas features (discriminativas). Nesses casos, o classificador passa a não ser o ponto principal. Essa é uma vantagem interessante de deep learning, já que as features são aprendidas no processo de treinamento.
@PortesNew
@PortesNew Жыл бұрын
@@andrelazzaretti Entendido... obg por disponibilizar o curso por aqui, professor. Vou usando pra aprender e pensar em qual área de ML seguirei meu mestrado !
@eduardoguedes1233
@eduardoguedes1233 2 жыл бұрын
Obrigado pela explicação professor! Saudações da UFPB
@andrelazzaretti
@andrelazzaretti 2 жыл бұрын
Sucesso aí!
@vinicius8846
@vinicius8846 2 жыл бұрын
Muito boa a aula, didática excelente!
@andrelazzaretti
@andrelazzaretti 2 жыл бұрын
Valeu!
@0404inter
@0404inter 2 жыл бұрын
Qual livro base vc utiliza ? Poderia disponibilizar slide ? Aula muito boa . Parabéns !
@andrelazzaretti
@andrelazzaretti 2 жыл бұрын
Opa, obrigado. Uso o livro do Sadiku. O material está todo em: sites.google.com/site/andrelazzaretti/undergraduate-courses/circuitos-eletricos/aulas-teoricas?authuser=0
@0404inter
@0404inter 2 жыл бұрын
Muito obrigado !
@PortesNew
@PortesNew 2 жыл бұрын
Que qualidade de aula, meu amigo! Excelente! Qual campus vc dá aula !? Toledo !?
@andrelazzaretti
@andrelazzaretti 2 жыл бұрын
Oi Lucas, obrigado pelo retorno. Eu fico na UTF de Curitiba - CPGEI. Valeu!
@PortesNew
@PortesNew 2 жыл бұрын
@@andrelazzaretti Professor, os slides estão disponíveis?
@andrelazzaretti
@andrelazzaretti 2 жыл бұрын
@@PortesNew Sim. Está tudo disponível em: sites.google.com/site/andrelazzaretti/graduate-courses/reconhecimento-de-padr%C3%B5es-cpgei/cronograma-2021?authuser=0
@Avenger7th
@Avenger7th 2 жыл бұрын
Obrigado pelas aulas.
@vyrtualtecnologia
@vyrtualtecnologia 2 жыл бұрын
Cara, vc e o xasnega dos circuitos. Parabens.
@andrelazzaretti
@andrelazzaretti 2 жыл бұрын
Hahahaha valeu!
@anapaulareis5715
@anapaulareis5715 3 жыл бұрын
Olá boa tarde!! Não encontrei a parte 1 da aula 4, Alguém pode me passar o link?
@andrelazzaretti
@andrelazzaretti 3 жыл бұрын
Olá, está aqui kzbin.info/www/bejne/sHuxnHajYptrmck
@rosanasoares7041
@rosanasoares7041 3 жыл бұрын
Tô adorando as aulas,faço técnico em Eletrotécnica e as vezes não entendo muito a matéria,mas océ nos mostra de onde vem as fórmulas,amei,vou indicar pra os meus amigos
@andrelazzaretti
@andrelazzaretti 3 жыл бұрын
Manda ver! As aulas são mais voltadas pra Engenharia (tem cálculo e álgebra linear), mas muita coisa é comum pro curso técnico.
@nailsonsilva6492
@nailsonsilva6492 3 жыл бұрын
Muito obrigado por compartilhar esse material. Está me ajudando bastante no meu curso técnico em Eletrotécnica e ajudará ano que vem quando for estudar engenharia.
@andrelazzaretti
@andrelazzaretti 3 жыл бұрын
Legal, obrigado!
@vitorhenrique6741
@vitorhenrique6741 3 жыл бұрын
no minuto 48:27 eu encontrei para a parte imaginaria -0,5 ao invés do 4.46 apresentado, coloquei na HP50g ((4*(8-6i)/(4+8+6i))
@andrelazzaretti
@andrelazzaretti 3 жыл бұрын
Oi Vitor. Isso, essa parte está certo. Não esqueça que tem o +j5 ali...a minha resposta já é a final. Por isso ficou j4.467.
@vitorhenrique6741
@vitorhenrique6741 3 жыл бұрын
@@andrelazzaretti perfeito, não tinha me atentado a isso mesmo, muito obrigado
@sergiofeilstricker7069
@sergiofeilstricker7069 3 жыл бұрын
Novamente ótima apresentação!
@andrelazzaretti
@andrelazzaretti 3 жыл бұрын
Obrigado!
@sergiofeilstricker7069
@sergiofeilstricker7069 3 жыл бұрын
Excelente explicação! Muito claro e muito preciso! Agradeço muito sua ajuda! Parabéns!
@andrelazzaretti
@andrelazzaretti 3 жыл бұрын
Obrigado! Sucesso nas suas tarefas aí!
@andrelazzaretti
@andrelazzaretti 3 жыл бұрын
[37:26]: alternative link: kzbin.info/www/bejne/jqfKYWOHo96Uf7s&ab_channel=DeepLearningAI
@leonardommarques
@leonardommarques 3 жыл бұрын
Early Stopping in Keras to Prevent Overfitting (3.4) kzbin.info/www/bejne/o2Kvf6ikqq5lnM0
@leonardommarques
@leonardommarques 3 жыл бұрын
Drop Out for Keras to Decrease Overfitting (5.4) kzbin.info/www/bejne/mIPcgJxmgZuFqZo&ab_channel=JeffHeaton
@leonardommarques
@leonardommarques 3 жыл бұрын
Using L1 and L2 Regularization with Keras to Decrease Overfitting (5.3) kzbin.info/www/bejne/gHa6q4qsZst1fLM&ab_channel=JeffHeaton
@elisabethsoares5649
@elisabethsoares5649 3 жыл бұрын
ÓTIMA AULA
@andrelazzaretti
@andrelazzaretti 3 жыл бұрын
Muito obrigado!
@andrelazzaretti
@andrelazzaretti 3 жыл бұрын
Em 24:53, como o desenho do lado direito (P(w_i | x)) foi feito à mão, acabou mudando o ponto de intersecção de w1 e w2. O ponto próximo à x=12.5 ainda existiria na análise se for rigorasamento de acordo com a equação demonstrada. Desconsidere isso na análise apresentada nesse instante do vídeo. Isso não compromete o objetivo da análise aqui apresentada.
@andrelazzaretti
@andrelazzaretti 3 жыл бұрын
Correção: aos 38:47, quando falo de retirar a feature, considere que a feature é retirada e as demais são mantidas. Nas que são mantidas, o classificador é treinado. No final de um loop em todas as features, aquela feature que colabora menos (em termos de acerto de classificação) é retirada.
@FabriciaSimoes
@FabriciaSimoes 3 жыл бұрын
Bênção de Deus eu ter achado tua aula! Maravilha!
@andrelazzaretti
@andrelazzaretti 3 жыл бұрын
Obrigado! Sucesso nas suas tarefas aí!
@mateusfernando8497
@mateusfernando8497 3 жыл бұрын
Excelente, muito obrigado pelo conteúdo limpo e didático.
@andrelazzaretti
@andrelazzaretti 3 жыл бұрын
Valeu!!
@andrelazzaretti
@andrelazzaretti 3 жыл бұрын
Em 01:05:00, existe outra forma para a pseudo inversa, dada por: A+ = (A^{T}A + alpha * I)^{-1} * A^{T}, quando alpha tende a zero e sendo I a matriz identidade.
@andrelazzaretti
@andrelazzaretti 3 жыл бұрын
Correção em aproximadamente 44 min: A raiz do denominador some em função do |I|^2.
@alanpadua
@alanpadua 3 жыл бұрын
Bom dia, obrigado pelas aulas, procurei os slides no link da descrição mas não estão lá. Ou não é para ser público mesmo?
@andrelazzaretti
@andrelazzaretti 3 жыл бұрын
Obrigado. Desculpe, acabou alterando um pouco. Estão aqui: sites.google.com/site/andrelazzaretti/ensino-gradua%C3%A7%C3%A3o/circuitos-eletricos/aulas-teoricas?authuser=0
@alanpadua
@alanpadua 3 жыл бұрын
@@andrelazzaretti Muito obrigado, estão me ajudando muito essas aulas.
@andrelazzaretti
@andrelazzaretti 3 жыл бұрын
@@alanpadua Valeu, sucesso!
@piatansfair
@piatansfair 4 жыл бұрын
cs231n.stanford.edu/vecDerivs.pdf o link comentado em 42:38
@piatansfair
@piatansfair 4 жыл бұрын
Em alguns instantes deste vídeo (por exemplo do 7:15 ao 7:26) ocorreu um sumiço do som, mas sem perda do sentido da explicação. Só para avisar
@piatansfair
@piatansfair 4 жыл бұрын
13:20 a 13:34
@andrelazzaretti
@andrelazzaretti 4 жыл бұрын
Obrigado por avisar!
@piatansfair
@piatansfair 4 жыл бұрын
18:24 a 18:33
@jborgesx
@jborgesx 4 жыл бұрын
Oi André, olhando com mais atenção a escolha da função de perda, foi selecionada uma distribuição de Bernoulli e aquele produtório é a função de verossimilhança. O problema se torna um caso de estimação pontual usando a maximização da verossimilhança. Eu sei que você mostrou que a escolha é adequada usando um caso de análise mas isso que eu falei faz sentido? Eu puxei o racicíonio lá da estatística.
@andrelazzaretti
@andrelazzaretti 4 жыл бұрын
Julio, não sei se entendi, mas o produtório é pra N exemplos de treinamento e não somente um. Mostrei um pra ilustrar, mas de fato é feito pra todos os N.
@jborgesx
@jborgesx 4 жыл бұрын
@@andrelazzaretti Isso mesmo, N exemplos. É que no vídeo você disse não aprofundar de onde o produtório vem. Eu estou tentando entender puxando um pouco da estatística. É o teorema das prioris conjugadas, acho. Para cada exemplo, vc atualiza uma probabilidade a posteriori aplicando o teorema de Bayes. Essa a posteriori vira a priori na próxima amostra. O resultado final é esse produtório, que é a função de verossimilhança. O que parece é que o núcleo desse produtório pertence a família de distribuição de Bernoulli, geralmente é usada quando o evento é verdadeiro/falso, cara/coroa, classe A/B, etc.
@jborgesx
@jborgesx 4 жыл бұрын
Oi! De onde veio a ponderação da escolha das caixas? :o
@andrelazzaretti
@andrelazzaretti 4 жыл бұрын
60/40? Se sim, fui eu quem atribui (dado do problema).