Perceptrón
Red Neuronal Multicapa
Las capas puedenclasificarse en tres tipos:
Capa de entrada: Constituida por aquellas neuronas que introducen los patrones de entrada en la red. En estas neuronas no se produce procesamiento.
Capas ocultas:Formada por aquellas neuronas cuyas entradas provienen de capas anteriores y cuyas salidas pasan a neuronas de capas posteriores.
Capa de salida: Neuronas cuyos valores de salida se corresponden conlas salidas de toda la red.
La propagación hacia atrás (también conocido como retropropagación del error o regla delta generalizada), es un algoritmo utilizado en el entrenamiento de estas redes,por ello, el perceptrón multicapa también es conocido como red de retropropagación (no confundir con la red de contrapropagación).
Contenido
[ocultar]
1 Historia
2 Características
3Limitaciones
4 Aplicaciones
4.1 Compresión de datos
5 Referencias
[editar] Historia
En 1969, Minsky y Papert, demuestran que el perceptrón simple y ADALINE no puede resolverproblemas no lineales (por ejemplo, XOR). La combinación de varios perceptrones simples podría resolver ciertos problemas no lineales pero no existía un mecanismo automático para adapatar los pesos dela capa oculta. Rumelhart y otro autores, en 1986, presentan la "Regla Delta Generalizada" para adaptar los pesos propagando los errores hacia atrás, es decir, propagar los erroes hacia las capas...
Regístrate para leer el documento completo.