Rna redes neuronales
Al igual que el Perceptron, ADALINE y MADALINE, la red Back-Propagation se caracteriza por tener una arquitectura enniveles y conexiones estrictamente hacia adelante entre las neuronas.
Utilizan aprendizaje supervisado.
Consiste en un aprendizaje de un conjunto predefinido de pares de entradas-salidas dados comoejemplo, empleando un ciclo propagación-adaptación de dos fases
Redes recurrentes
Cuando se trabaja con patrones dinámicos; es decir, con patrones de secuencias en las que aparece el concepto tiempo, lasRNA alimentadas sólo hacia adelante se encuentran bastante limitadas ya que no permiten conexiones que unan neuronas creando bucles. En las redes recurrentes no se impone ninguna restricción en suconectividad, con lo que se gana un número mayor de pesos por neurona y por lo tanto una mayor representatividad, dado que las RNA representan la información de forma distribuida en sus pesos. De estaforma, la principal característica de este tipo de redes es la de realimentar su salida a su entrada, evolucionando hasta un estado de equilibrio donde proporciona la salida final de la red (Demuth,Beale, 1994). Esta característica las hace útiles cuando se quiere simular sistemas dinámicos; sin embargo, su entrenamiento es más lento que el de una red alimentada sólo hacia delante, y a la vezmucho más complejo. El primer algoritmo de entrenamiento de este tipo de redes aparece en 1987, cuando se adapta el algoritmo de retropropagación del error de las RNA alimentadas sólo hacia delante a lasredes recurrentes aplicadas a patrones estáticos (``Recurrent Backpropagation'') y se pudieron aplicar estas redes a los mismos problemas a los que se aplicaban las multicapa alimentadas haciadelante. Además, otros investigadores se centran en desarrollar aproximaciones del algoritmo de aprendizaje que lo hagan más práctico surgiendo el algoritmo llamado ``Real-Time Recurrent Learning'' o RTRL...
Regístrate para leer el documento completo.