Perceptrón multicapa
5.1
El perceptrón multicapa
Introducción
Aquí vamos a estudiar las redes multicapa con realimentación hacia atrás. Típicamente, este tipo de redes consisten en un conjunto de nodos fuente que constituyen la capa de entrada, una o más capas ocultas de nodos de computación, y una capa de salida también de nodos de computación. La señal de entrada se propaga hacia adelante a través de lared capa a capa. Estas redes neuronales se conocen habitualmente como perceptrones multicapa (MLPs: Multiplayer Perceptrons), y representan una generalización del perceptrón simple de una sola capa visto en anteriormente. Vemos en la figura (5.1) la representación genérica de un perceptrón multicapa.
Capa de entrada
Primera capa oculta
Segunda capa oculta
Capa de salida
Figura 5.1Perceptrón multicapa completamente conectado
Los perceptrones multicapa han sido aplicados satisfactoriamente para solucionar alguna dificultad y diversos problemas entrenándolos de una manera supervisada con un algoritmo muy popular conocido como algoritmo del error de la propagación hacia atrás. Este algoritmo se basa en la regla de aprendizaje por corrección de error. Básicamente, elalgoritmo aquí reseñado consta de dos pasadas a través de las diferentes capas de la red: una pasada hacia adelante y otra hacia atrás. En la pasada hacia adelante, se aplica un vector de entrada a los nodos fuente de la red, y su efecto se propaga a través de la red, capa a capa. Finalmente, aparece un conjunto de salidas que constituyen la respuesta actual de la red. Durante la pasada hacia adelante, sefijan todos los pesos sinápticos de la red. Por otro lado, durante la pasada hacia atrás, los pesos sinápticos se ajustan de acuerdo a la regla de aprendizaje por corrección de error. De este modo, para conseguir la señal de error se resta la respuesta actual de la red a la deseada. Esta señal de error se propaga luego hacia atrás por la red, en dirección opuesta a la de las conexionessinápticas. Los pesos sinápticos se ajustan, de esta forma, para así conseguir acercar lo más posible la respuesta actual de la red a la respuesta deseada.
1
Un perceptrón multicapa tiene tres características distintivas: 1. El modelo de cada neurona de la red incluye una no linealidad en la salida final. El punto importante a enfatizar aquí es que la no linealidad es suave (es decir, diferenciable).Una forma comúnmente usada de que la no linealidad satisfaga este requerimiento es el uso de una no linealidad sigmoidal definida por la siguiente función: yj =
1 1 + exp(−vj )
(5.1)
donde yj es la salida de la neurona, y vj es el nivel de actividad interno de la neurona j. La presencia de no linealidades es importante porque, de otro modo, la relación entrada-salida de la red podríareducirse a la de un perceptrón de una sola capa. Además, el uso de la función descrita en (5.1) tiene motivaciones biológicas. 2. La red contiene una o más capas ocultas que no forman parte de la entrada o salida de la red. Estas capas ocultas activan la red para que aprenda tareas complejas extrayendo más características significativas de los patrones de entrada. 3. La red exhibe un alto grado deconectividad, determinada por las sinapsis de la red. Un cambio en la conectividad de la red requiere un cambio en las conexiones sinápticas o en sus pesos. De hecho, es la combinación de estas características con la habilidad de la red para aprender de la experiencia a través del entrenamiento lo que hace que el perceptrón multicapa posea tanto poder de cálculo. Estas mismas características, sinembargo, son también responsables de las deficiencias en nuestro actual conocimiento del comportamiento de la red. En primer lugar, la presencia de una forma distribuida de no linealidad y la alta conectividad de la red hace que el análisis teórico del perceptrón sea muy difícil de entender. Y en segundo lugar, el uso de capas ocultas hace que el proceso de aprendizaje sea complejo de visualizar....
Regístrate para leer el documento completo.