Redes neuronales

Solo disponible en BuenasTareas
  • Páginas : 3 (618 palabras )
  • Descarga(s) : 0
  • Publicado : 8 de junio de 2011
Leer documento completo
Vista previa del texto
Pagina 340
Esta función lleva a cabo una transformación no lineal desde el espacio de entrada al espacio de la capa intermedia. Las neuronas de la capa intermedia son las funciones base para losvectores de entrada y las neuronas de la capa de salida simplemente calculan una combinación lineal de las salidas de las neuronas ocultas. Las funciones que se usan con frecuencia en la capa intermediason las funciones gaussianas. Su media y desviación estándar deben ser determinadas de alguna manera a partir del conjunto de datos de entrada. Si el patrón de entrada viene representado por x, y M enel número de neuronas ocultas, entonces*** el vector de las salidas de las neuronas ocultas, el cual viene representado por la siguiente expresión ******, en donde cada *****=exp****.
Los centros*** de las gaussianas vendrán determinados por los datos de entrada. Los términos *** representan la distancia Euclidea entre las entradas y el centro **-esimo. La activación de la red se calculamediante la siguiente expresión:
*****************
Donde w es el vector de peso entre las neuronas ocultas y la neurona de salida.
Se puede entrar la red usando la minimización del error cuadráticomedio. Podemos actualizar los pesos después de presentar el patrón de entrada ***,**, mediante la siguiente expresión:

****
Donde *** son los errores cuadráticos obtenidos. El método de minimizacióndel error cuadrático medio se basa en minimizar el error existente entre la salida de la red y la salid esperada para un vector cualquiera de entrada. También se pueden actualizar los pesos mediantemétodos rápidos de actualización en modo batería, ya que la operación que tiene lugar después de la activación de la funciones de base radial es totalmente lineal. [Haykin 1998] ha investigado muchísimoeste tipo de redes.

Comparación con el perceptron multicapa
Tanto la RBF como el MLP son excelentes aproximadores universales, es decir, pueden modelar funciones continuas de una manera muy...
tracking img