El Perceptrón Multicapa - Clasificación

  Рет қаралды 2,766

SensIO

SensIO

Күн бұрын

Пікірлер
@emoai77
@emoai77 Жыл бұрын
La función de activación no lineal permite al perceptrón multicapa aprender y representar relaciones no lineales entre las variables de entrada y salida. Si solo se utilizara una función de activación lineal, la red estaría limitada a aprender solo transformaciones lineales de los datos.
@Bola10010
@Bola10010 3 жыл бұрын
No tiene caso poner una función lineal en las capas ocultas, ya que dará los mismo que si solo trabajamos con un perceptrón.
@victorcalderon8496
@victorcalderon8496 2 жыл бұрын
Crack !(11)
@Cpacti
@Cpacti 4 жыл бұрын
Creo que se debe poner una función de activación relu para evitar poner funciones lineales que su respuesta sea otra salida lineal
El Perceptrón Multicapa - Nuestro propio Framework
20:18
SensIO
Рет қаралды 1,8 М.
El Perceptrón Multicapa - Introducción
25:58
SensIO
Рет қаралды 4,2 М.
99.9% IMPOSSIBLE
00:24
STORROR
Рет қаралды 31 МЛН
Try this prank with your friends 😂 @karina-kola
00:18
Andrey Grechka
Рет қаралды 9 МЛН
El Perceptrón - Clasificación Binaria
23:20
SensIO
Рет қаралды 4,9 М.
Entrenamiento de Perceptrón Multicapa
18:28
Luis Beltran Palma Ttito
Рет қаралды 17 М.
Transformers (how LLMs work) explained visually | DL5
27:14
3Blue1Brown
Рет қаралды 4,1 МЛН
Tu primera red neuronal en Python y Tensorflow
16:25
Ringa Tech
Рет қаралды 1,1 МЛН
Attention in transformers, visually explained | DL6
26:10
3Blue1Brown
Рет қаралды 1,9 МЛН
¿Cómo funciona ChatGPT? La revolución de la Inteligencia Artificial
50:45
Normalization Vs. Standardization (Feature Scaling in Machine Learning)
19:48
The Essential Main Ideas of Neural Networks
18:54
StatQuest with Josh Starmer
Рет қаралды 1 МЛН
99.9% IMPOSSIBLE
00:24
STORROR
Рет қаралды 31 МЛН