Delta generalizada diapositivas expo
Este algoritmo utiliza también una función o superficie de error asociada a la red,en la que se va buscando el estado estable de mínimo error a través del camino descendiente de la superficie del error. Por esa razón, el error del sistema es realimentado para realizar lamodificación de los pesos, en un valor proporcional al gradiente decreciente de dicha función de error.
El algoritmo encuentra un valor mínimo de error (local o global) mediante una aplicación de pasos(gradiente) descendentes. Cada punto de la superficie de la función corresponde a un conjunto de valores de los pesos de la red. Con el gradiente descendente, siempre que se realiza un cambio en todoslos pesos de la red, se asegura el descenso por la superficie del error hasta encontrar el valle más cercano, lo que puede hacer que el proceso de aprendizaje se detenga en un mínimo local de error.
No se pueden dar reglas concretas para determinar el número de neuronas o número de capas de una red para resolver un problema concreto. Respecto al número de capas de la red, en generaltres capas son suficientes (entrada oculta-salida). Sin embargo, hay veces que un problema es más fácil de resolver con más de una capa oculta. El tamaño de las capas, tanto de entrada como de salida,suelen venir determinado por la naturaleza de la aplicación. En cambio, decidir cuántas neuronas debe tener una capa oculta no suele ser tan evidente.
Codificación deInformación. Traducción de texto a lenguaje hablado. Reconocimiento de lenguaje hablado. Reconocimiento óptico de caracteres (OCR). Software de Redes Neuronales
MBP es una implementación muy...
Regístrate para leer el documento completo.