trabajo redes neuronales
Redes Neurales
REDES NEURALES
REFERENCIAS
• 1943. McCULLOCH Y PITTS. (“A Logical Calculus of
Ideas Immanent in Neurous Activity”).
• 1960. ROSENBLATT. El Perceptron.
• 1982. HOPFIELD. Enfoque energético. Algoritmo de
aprendizaje de propagación hacia atrás para perceptrones
multicapa. WERBOS.
• RUMELHART Y McCLELLAND. PDP.
McCULLOCH Y PITTS
Modelocomputacional para una neurona artificial: unidad de
umbral binario.
Modelo de Neurona Artificial de McCulloch y Pitts
Departamento de Lógica y Filosofía de la Ciencia. Carlos Muñoz Gutiérrez
1
Inteligencia Artificial
Redes Neurales
Esta Neurona computa una suma ponderada de sus n señales
de entrada, xj, j= 1, 2,...,n, y genera un resultado de 1 si esta
suma supera un cierto umbralu. 0 en otro caso.
n
y = θ ( ∑ wjxj − u )
j =1
Donde: θ(.) es una función de
paso de unidad en 0, y wj es el
peso de la sinapsis asociado
con la j-ava entrada.
Por simplicidad podemos considerar el umbral u como otro
peso w0= -u asociado a la neurona con un input constante
x0=1.
Pesos positivos corresponden a sinapsis excitadoras, mientras
que los negativos a inhibidoras.
LaNeurona de McCulloch y Pitts se ha generalizado de
muchas maneras. En general, usando distintas funciones de
activación, sigmoides, gaussianas. etc.
Distintas Funciones de Activación: (a) umbral (b) Lineal (c) sigmoide
(d) Gaussiana
Departamento de Lógica y Filosofía de la Ciencia. Carlos Muñoz Gutiérrez
2
Inteligencia Artificial
Redes Neurales
ARQUITECTURAS DE RED
Una Red deNeuronas Artificial puede considerarse como un
grafo dirigido ponderado en el que neuronas artificiales son
nodos y las hojas dirigidas y ponderadas son conexiones entre
salidas y entradas de neuronas.
Dependiendo del patrón de conexión pueden dividirse en:
• Redes de Propagación hacia delante (feedforward): en las
que los grafos no tienen bucles.
• Recurrentes o de Retroalimentación(feedback), en las
cuales los bucles ocurren debido a conexiones de
retroalimentación
Clasificación de los tipos de redes
Departamento de Lógica y Filosofía de la Ciencia. Carlos Muñoz Gutiérrez
3
Inteligencia Artificial
Redes Neurales
REDES DE PROPAGACIÓN HACIA DELANTE
• Son estáticas. Producen sólo un conjunto de valores como
resultado, mejor que una secuencia de valores a partirde
un input dado.
• Sin memoria: en el sentido en que su respuesta a un input
es independiente del estado previo de la red.
PERCEPTRON
Consiste en una neurona con pesos ajustables, wj= 1,2,...,n
y un umbral u.
Dado un vector de entrada x=(x1,x2,...xn)t el input a la
neurona es
v=
n
∑wx −u
j j
j =1
La salida y es +1 si v>0 y 0 en otro caso.
En un problema de clasificaciónen dos clases, el
perceptrón asigna un patrón de entrada a una clase si y=1
y a la otra si y=0.
n
La ecuación
∑
j = 1
w jx
j
− u = 0
líneal define el límite
de decisión (un hipercubo en el espacio n-dimensional de
entrada) que divide por la mitad el espacio.
Departamento de Lógica y Filosofía de la Ciencia. Carlos Muñoz Gutiérrez
4
Inteligencia ArtificialRedes Neurales
ALGORITMO DE APRENDIZAJE DEL PERCEPTRON
(1) Inicializar los pesos y el umbral a un número pequeño
aleatorio.
(2) Presentar un vector patrón (x1, x2,..., xn)t y evaluar el
resultado de la neurona.
(3) Modificar los pesos de acuerdo con:
wj(t+1) = wj(t) +η(d-y) xj
donde d es el output deseado, t es el número de iteración
y η(0.0 < η < 1.0) es el aumento (el tamaño del paso)PERCEPTRÓN MULTICAPA
• Un estandard red L-capa feedforward consiste en una capa
de entrada, L-1 capas ocultas y una capa resultante de
unidades sucesivamente conectadas (global o localmente)
hacia delante sin conexiones entre unidades de la misma
capa y sin retroalimentación entre capas.
Red de propagación hacia delante de tres capas
Denotamos wij(l) como el peso de la conexión...
Regístrate para leer el documento completo.