Inteligencia Artificial
Uno de los primeros trabajos que se consideran como el inicio de la Inteligencia Artificial (IA) es el realizado por Warren MacCulloc y Walter Pitts, y curiosamente también forma parte importante en el desarrollo de las redes neuronales. Estos investigadores complementaron conocimientos de tres campos diferentes como son; la fisiología básica y funcionamiento de lasneuronas en el cerebro, el análisis formal de la lógica proposicional de Russel y Whitehead y a la teoría de la computación de Turing. El grupo de Alan Turing fue el que construyo la primera computadora moderna en 1940. Regresando al trabajo de McCulloc y Pitts, en éste se propone un modelo constituido por neuronas artificiales, en el que cada una de ellas se caracterizaba por estar“encendida” o “apagada”: el “encendido” se daba como respuesta a la estimulación producida por una cantidad suficiente de neuronas vecinas. El estado de una neurona se veía como “equivalente, de hecho, a una proposición que propusiera sus estímulos adecuados”. Por ejemplo, mostraron que cualquier función calculable podría determinarse mediante cierta red de neuronas interconectadas y que todos los conectoreslógicos se podían lograr utilizando sencillas estructuras de red. McCulloch y Pitts también insinuaron la posibilidad de aprendizaje por parte de redes definidas para tal propósito. Donal Hebb (1949) demostró una sencilla regla de actualización para modificar las intensidades de las conexiones entre neuronas, de manera que ocurriera el aprendizaje. De estas primeros incursiones, no fue sinohasta el verano de 1956 cuando en un taller organizado por McCarthy en Dartmount College cuando se eligió el nombre de este campo como Inteligencia Artificial. En este taller participaron aproximadamente 10 investigadores de primera línea entre los cuales se puede mencionar a Minsky, Ray Salomonof, Herber Simon, Allen Newell. Es paradójico pensar que posteriormente Minsky contribuyera a desecharbuena parte de las investigaciones sobre redes neuronales en la década de los 70.
John McCarthy en 1958 hizo tres contribuciones cruciales: definió el segundo (el primero es el FORTRAN) lenguaje de alto nivel más antiguo, que se convertiría en el lenguaje dominante en IA, que todavía se utiliza actualmente, LISP. Dado el problema de los escasos y costosos recursos de computo él y otros inventaronel tiempo compartido. Por último, en compañía de un grupo de graduados de MIT formaron Digital Equipment Corporation.
Aún cuando los éxitos alcanzados en los inicios auguraban un futuro prometedor para la IA, la realidad fue otra. El obstáculo que enfrento la mayoría de los problemas de investigación en Inteligencia Artificial consistió en que aquellos métodos que demostraban funcionar en uno odos ejemplos sencillos, fallaban rotundamente cuando se utilizaban en problemas más variados o de mayor dificultad.
El primer tipo de obstáculo se originó en los antiguos programas, los cuales contaban con poco o ningún conocimiento de la materia objeto de estudio; lograban resultados gracias a la realización de sencillas manipulaciones sintácticas.
El segundo obstáculo fue el de laintratabilidad de muchos de los problemas que se estaban intentando resolver mediante IA. La mayoría de los primeros programas de IA se basaban en la representación de las características básicas de un problema y se sometían a prueba diversos pasos, hasta que se llegara a encontrar aquella combinación de éstos que produjeran la solución esperada. Esto funcionó en los primeros programas debido a que losmicromundos con que se trabajaba contenían muy pocos objetos. Antes de que surgiera la teoría de la completitud –NP. Se creía que para pasar de problemas sencillos a complejos bastaría con instalar hardware más veloz y memoria de mayor capacidad. El hecho de que, en principio, un programa sea capaz de encontrar una solución no implica que tal programa encierre todos los mecanismos necesarios para...
Regístrate para leer el documento completo.