Perceptrón multicapa
El
perceptrón simple tiene una serie de limitaciones muy importantes.
más importante es su incapacidad para clasificar conjuntos que no son linealmenteindependientes.
La
Esto
quedo patente el la obra Perceptrons que en 1969 demostró que un perceptrón es incapaz de aprender una función tan fácil como la XOR. La combinación de variosperceptrones podría resolver ciertos problemas no lineales pero no sabían como adaptar los pesos de las capas ocultas
Este
modelo es una ampliación del perceptrón a la cual añade una serie de capas que,básicamente, hacen una transformación sobre las variables de entrada, que permiten eludir el problema anterior. Esto acaba con el problema del perceptrón, convirtiendo las funciones linealmente noindependientes en linealmente independientes gracias a la transformación de la capa oculta.
Se
demuestra que el Perceptron Multicapa (MLP) es un APROXIMADOR UNIVERSAL
aproximar relaciones nolineales entre datos de entrada y de salida una de las arquitecturas más Utilizadas en la resolución de problemas reales:
Puede
Es
por ser aproximador universal por su fácil uso yaplicabilidad
Se
ha aplicado con éxito en:
Reconocimiento de voz Reconocimiento de imágenes OCR Conducción de vehículos Diagnósticos médicos, etc…
Capa
de entrada:sólo se encargan de recibir las señales de entrada y propagarlas a la siguiente capa Capa de salida: proporciona al exterior la respuesta de la red para cada patrón de entrada Capas ocultas:Realizan un procesamiento no lineal de los datos recibidos
Son
redes "feedforward": alimentadas hacia adelante cada neurona está conectada a todas las neuronas de la siguiente capa (conectividadtotal)
Generalmente
El
perceptron multicapa define una relación entre las variables de entrada y las variables de salida de la red Esta relación se obtiene propagando hacia adelante...
Regístrate para leer el documento completo.