La función de activación no lineal permite al perceptrón multicapa aprender y representar relaciones no lineales entre las variables de entrada y salida. Si solo se utilizara una función de activación lineal, la red estaría limitada a aprender solo transformaciones lineales de los datos.
@Bola100103 жыл бұрын
No tiene caso poner una función lineal en las capas ocultas, ya que dará los mismo que si solo trabajamos con un perceptrón.
@victorcalderon84962 жыл бұрын
Crack !(11)
@Cpacti4 жыл бұрын
Creo que se debe poner una función de activación relu para evitar poner funciones lineales que su respuesta sea otra salida lineal