Рет қаралды 799
Essa aula apresenta o Princípio do Máximo de Entropia, uma poderosa ferramenta de inferência estatística, que permite especificar distribuições de probabilidade consistentes num cenário de pouca informação. O conceito de entropia como uma medida de incerteza probabilística é introduzido, bem como o formalismo matemático utilizado para descobrir a distribuição que maximiza o funcional entrópico. Diversos exemplos ilustram a aplicação dessa técnica.
Os slides dessa aula estão disponíveis no link a seguir:
www.americocunh...
Vídeo elaborado pelo Prof. Americo Cunha (UERJ)
Errata:
34m 25s - O somatório que define a entropia discreta é S = sum_{i=1}^{n} k p_i \ln{p_i} (faltou o p_i antes do logaritmo)
1h 03s - No caso da entropia diferencial (definida pela integral), no caso onde não existe incerteza a entropia é igual a - infinito (não um valor negativo finito como dito no vídeo)