Redes neuronales

Solo disponible en BuenasTareas
  • Páginas : 7 (1640 palabras )
  • Descarga(s) : 7
  • Publicado : 21 de julio de 2010
Leer documento completo
Vista previa del texto
1. Redes neuronales
2. Aprendizaje supervisado Función de coste Descenso por gradiente Regla delta Algoritmo LMS o Algoritmo de Widrow y Hoff . Factor de aprendizaje
3. Función de coste Sistema x 1 x i x n . . . . y 1y j y m . . . . Entrenamiento secuencial : Una fila adapta el parámetro Entrenamiento por lotes : Todos los datos utilizados para entrenar Época
4. Adaptación del parámetro Neurona Diferencial de la función de coste con respecto a la neurona Diferencial de la neurona con respecto al parámetro
5. Formas de alterar el parámetro- 'trainlm' (Levenberg-Marquard) - 'traingdx' (Gradiente descendente con momento y f.a. adaptativo) - 'traingdm' (Gradiente descendente con momento) - 'traingda' (Gradiente descendente con f.a. adaptativo) - 'trainbfg' (BFGS Quasi-Newton) - 'trainrp' (Resilient Backpropagation) - 'trainoss' (Secante de un paso) - 'trainscg' (Conjugado escalado)- 'traingd' (Gradiente descendente)
6. Factor de aprendizaje
* Se define en el intervalo: ]0, 1]
* Elevado: El algoritmo oscila y se convierte en inestable
* Bajo: Tarda en obtener el modelo
* Si el error se incrementa por encima de un determinado porciento (5%):
* No seactualizan los parámetros
* El factor de aprendizaje se reduce en un factor 0.95 (5%)
* Si el error se reduce más de un determinado porciento (5%):
* Se actualizan los parámetros
* El factor de aprendizaje se incrementa en un factor 1.05 (5%)
* En cualquier otro caso:
* Se actualizan los parámetros
* Se mantiene elvalor del factor de aprendizaje
Dinámico o momento  e 0.95(  e) 1.05(  e)
7. Red lineal (I) Núcleo estimador
8. Red lineal (II) Regla Delta
9. Red lineal (III) Pasos para el aprendizaje supervisado [Paso 1]Definir la estructura del modelo y las condiciones iniciales [Paso 2] Obtener los datos de entrada-salida ( x1, x2, . . .,xn; y ) [Paso 3] Aplicar el núcleo estimador [Paso 4] Adaptar los parámetros [Paso 5] Determinar la condición de finalización en la obtención del modelo, si este no se cumple, repetir a partir del [Paso 2] [Paso 6] Aplicar el criterio para validación del modelo. Si losresultados no son los deseados, repetir a partir del [Paso 1]
10. Solución de ecuaciones lineales
11. Matlab WEB Aplicaciones Modelos Redes Neuronales
12. Filtro lineal con RN Se desea representar el siguiente filtro: y =0.5*x 1 -0.3*x 2 En este ejemplo los parámetros son: w 1 = 0.5 y w 2 = -0.3. Se desea determinar la salida equivalente al vector de entradas: >>x = [1 3 2 4 3 5 4 6]
13. Filtro lineal con RN (II) Solución : % Se define la matriz de entradas x[n,K]=x[2,4] >> x=x' x = 1 2 3 4 3 4 5 6 % Se define el filtro lineal (versión antigua)>>interx1=[1 4] % Intervalo [min, max] de x 1 >>interx2=[3 6] % Intervalo [min, max] de x 2 >>numsal=1 % Número de salidas >>net=newlin([interx1; interx2], numsal); % Nueva versión (adquiere información de matrices) >>net=newlin(x, y);
14. Filtro lineal con RN (III) % Se definen los parámetros del filtro >>net.IW{1,1}=[0.5 -0.3]...
tracking img