El tiburon

Solo disponible en BuenasTareas
  • Páginas : 9 (2013 palabras )
  • Descarga(s) : 0
  • Publicado : 13 de febrero de 2011
Leer documento completo
Vista previa del texto
La Red Backpropagation
En 1986, Rumelhart, Hinton y Williams, formalizaron un método para que una red neuronal aprendiera la asociación que existe entre los patrones de entrada y las clases correspondientes, utilizando varios niveles de neuronas.
El método backpropagation (propagación del error hacia atrás), basado en la generalización de la regla delta, a pesar de sus limitaciones, ha ampliadode forma considerable el rangote aplicaciones de las redes neuronales.
El funcionamiento de la red backpropagation (BPN) consiste en el aprendizaje de un conjunto predefinido de pares de entradas-salidas dados como ejemplo: primero se aplica un patrón de entrada como estímulo para la primera capa de las neuronas de la red, se va propagando a través de todas las capas superiores hasta generar unasalida, se compara el resultado en las neuronas de salida con la salida que se desea obtener y se calcula un valor de error para cada neurona de salida. A continuación, éstos errores se transmiten hacia atrás, partiendo de la capa de salida hacia todas las neuronas de la capa intermedia que contribuyan directamente a la salida, recibiendo de error aproximado a la neurona intermedia a la salidaoriginal. Este proceso se repite, capa por capa, hasta que todas las neuronas de la red hayan recibido un error que describa su aportación relativa al error total. Basándose en el valor del error recibido, se reajustan los pesos de conexión de cada neurona, de manera que en la siguiente vez que se presente el mismo patrón, la más salida esté cercana a la deseada.
La importancia de la redbackpropagation consiste en su capacidad de autoadaptar los pesos de las neuronas de las capas intermedias para aprender la relación que existe ente un conjunto de patrones de entrada y sus salidas correspondientes. Es importante la capacidad de generalización, facilidad de dar salidas satisfactorias a entradas que el sistema no ha visto nunca en su fase de entrenamiento. La red debe encontrar unarepresentación interna que le permita generar las salidas deseadas cuando se le dan entradas de entrenamiento, y que pueda aplicar, además, a entradas no presentadas durante la etapa de aprendizaje para clasificarlas.
La Regla Delta Generalizada
La regla propuesta por Widrow en 1960 ha sido extendida a redes con capas intermedias con conexiones hacia delante (feedforward) y cuyas células tienen funcionesde activación continuas (lineales o sigmoidales), dando lugar a la retropopagación. Estas funciones continuas son no decrecientes y derivables.
Este algoritmo utiliza una función de error asociada a la red, buscando el estado estable de mínima energía o de mínimo error a través del camino descendente de la superficie del error. Por ello realimenta el error del sistema para realizar lamodificación de los pesos en un valor proporcional al gradiente decreciente de dicha función de error.

Funcionamiento del algoritmo
El método que sigue la regla delta generalizada para ajustar los pesos es exactamente el mismo que el de la regla utilizada en ADALINE; los pesos se actualizan de forma proporcional a la delta, o diferencia entre la salida deseada y la obtenida ([pic]= salida deseada –salida obtenida).
Dada una neurona (unidad [pic]) y la salida que produce,[pic], el cambio que se produce en le peso de la conexión que una salida de dicha neurona con la unidad [pic]para un patrón de aprendizaje p determinado es:
[pic]
En donde el subíndice p se refiere al patrón de aprendizaje concreto, y [pic]es la constante o tasa de aprendizaje.
En redes multinivel en principio no se puedeconocer la salida deseada de las neuronas ocultas para poder determinar los pesos en la función de error cometido. Inicialmente podemos conocer la salida deseada de las neuronas de salida. Según esto, si consideramos la unidad [pic]de salida, entonces definimos:
[pic]
donde [pic]es la salida deseada de la neurona j para el patrón p y [pic]es la entrada neta que recibe la neurona j.
Esta fórmula...
tracking img