Redes Neuronales Matlab
pensadores:
- Alan turing
Definiciones:
maquina: " artefacto echa de partes mecanicas " (evolucion)
pensar: " tratar de desarrollar acciones parecidas a las del ser humano "
Test de turing
(asimov)
Sistemas expertos:
Deep Blue (computador q le gamo a Gasparov) ; el hombre que calculaba
Redes neuronales
logica difuza-->Fuzzy logic (F.L.)
algoritmos geneticos (G.A.)
____________________________________________________________
__________________
Historia:
años 40`s Mc Culloch y Pitts
crean la--> R.N.A.
Donal Hebb
crea el--> aprendizaje Hebbiano.
Conductivismo (rama de la psicologia)
Años 50`s - 60`s
DARPA
Frank Rosenblatt
-perseptron
Bornard Widrow
-Adaline (adaptativelinear network)
Misky Papert
libro: perseptrons
Años 70`s
Kohonen
- Mapas de auto organización
Anderson
-Brain - State - in - a box
Años 80`s
Rumelhart (Universidad Caneigie Mellon)
--> Manuela Veloso
-Back Propagation
Redes SPIKE
____________________________________________________________
_________________
R.N.A.
- unidades de proceso= Neuronas
- Procesan en Paralelo
- Millones de U.P. (unidades de proceso)
- Interconrxion entre U.P.
* Peso ("analoga a la admitancia").
- la neurona se constitulle por una unidad central y varias entradas.
(no tiene nucleo por lo tanto no se replica)
pates de la neurona:
- soma
- axon
- terminales axonicas
- dentritas
*(internamente hay sodio y externamente hay potasio)
-neuro transmisores(inibidores y exitadores)
-->funcion de activacion.
*(sumatoria de inibidores y exitadores para obtener la respuesta si y solo si es mayor al umbral)
(Modelo del perceptron)
entrada1-------- _____ umbral (bias)
\ peso1 /\ /
entrada3 ___peso2__ sumatoria----> salida'-->salida
/peso3
/
entrada2--------
salida' = (entrada1*peso1+entrada2*peso2+entrada3*peso3)-umbral ;si salida' < 0 --> salida = 0;si salida' >= 0 --> salida = 1
____________________________________________________________
______________________________________
Perseptron
Entrenamiento:
paso1: inicializar pesos
paso2: seleccionar un patron
paso3: calcular la salida
y = sumatoria(wi*xi,i=1,n)
n= numero de entradas
y= fa(w1*x1+w2*x2-teta)teta0-b
bias=-teta
y=fa(w1*x1+w2*x2+bias*1)
/ \
/ \
wo xo=1
paso4: ajuste de pesos
wi(t+1)=wi(t)+alfa*{d(t)-y(t)}*xi
alfa) coeficiente de aprendizaje
paso5: reiniciar pasa2
ejemplo:
and
0 0 0
0 1 0
1 0 0
1 1 1
paso1
w1=0.3
w2=-0.1
bias=0.2
alfa=0.5
paso2
x1=0 x2=0
d=0paso3
y=fa(0*0.3+0*(-0.1)+0.2)
y=1; por la funcion hardlimt
paso4
w1=0.3+0.5*(-1)*0=0.3
w2=-0.1+0.5*(-1)*0=-0.1
bias=0.2+0.5*(-1)*1=-0.3
paso2
x1=0 x2=1
d=0
paso3
y=fa(0*0.3+1*(-0.1)-0.3)
y=0; por la funcion hardlimt
paso2
x1=1 x2=0
d=0
paso3
y=fa(1*0.3+0*(-0.1)-0.3)
y=1; por la funcion hardlimt
paso4
w1=0.3+0.5*(-1)*1=-0.2w2=-0.1+0.5*(-1)*0=-0.1
bias=-0.3+0.5*(-1)*1=-0.8
paso2
x1=1 x2=1
d=1
paso3
y=fa(1*0.3+1*(-0.1)-0.3)
y=0; por la funcion hardlimt
paso4
w1=-0.2+0.5*(1)*1=0.3
w2=-0.1+0.5*(1)*1=0.4
bias=-0.8+0.5*(1)*1=-0.3
**********realizo nuevamente********
paso2
x1=0 x2=0
d=0
paso3
y=fa(0+0)-0.3)
y=0; por la funcion hardlimt
paso4
w1=0.3+0.5*(-1)*0=0.3
w2=-0.1+0.5*(-1)*0=-0.1...
Regístrate para leer el documento completo.