You are on page 1of 16

La Inteligencia Artificial

El término "inteligencia artificial" (abreviado IA) se ha popularizado para


designar a una disciplina incluida entre las ciencias de la computación. Tiene
que ver con el esfuerzo que decenas de científicos de distintos países,
especialmente de los Estados Unidos y de Europa Occidental, han venido
realizando durante los últimos treinta años para dotar a las computadoras de
inteligencia. La frase "dotar a las computadoras de inteligencia" suele producir
una reacción de asombro en muchas personas, aunque a veces por motivos
diferentes: "¿Pero, es que las computadoras no son inteligentes?", comentarán
algunos que han visto o leído demasiadas historias de ciencia ficción. Claro
que no, habrá que contestarlos, refiriéndonos al hecho de que la computadora
ordinariamente programada no es más que un instrumento muy rápido y
generalmente confiable de hacer operaciones aritméticas o de manipular fichas
de nombres en orden alfabético (o de ponerlas en tal orden). Para que una
computadora comience a merecer el nombre de inteligente, deberá ser capaz
de realizar acciones que, si realizadas por un ser humano, diríamos que
requieren inteligencia, como jugar ajedrez o mantener un diálogo con otro ser
considerado también inteligente, o resolver algún rompecabezas.

Pero para otras personas la fuente del estupor al ver asociadas las palabras
"inteligencia" y "artificial" consistirá en el hecho de que para ellas la inteligencia
y las máquinas son conceptos esencialmente incompatibles: "Las
computadoras pueden hacer operaciones aritméticas porque para eso sólo se
necesita ser capaz de manipular números en forma mecánica; pero la
inteligencia, a diferencia de la capacidad de manipular números, requiere
creatividad, inventiva, iniciativa intelectual, y eso desde luego solo lo pueden
tener los seres humanos, de ninguna manera las máquinas. Las computadoras
pueden hacer lo que sus programadores les dicen, pero nada más; además,
hagan lo que hagan, nunca sabrán lo que están haciendo, nunca serán
conscientes de lo que hacen.

La disciplina de la IA se ha desarrollado ya suficientemente como para ofrecer


a la sociedad humana algunos instrumentos que mejoren su adaptación al
medio ambiente: programas que se conocen con el nombre de sistemas
expertos, cuya teoría y práctica son muy novedosas. Podemos decir, pues, que
su ejercicio por parte de los investigadores tiene como mira en muchos casos
la fabricación de artefactos útiles, programas con habilidad especial para
realizar funciones que con anterioridad sólo podíamos confiar a seres
humanos.

Llamemos a esa clase de investigación IA de rendimiento. La disciplina


comenzó a existir, y todavía se practica en gran número de casos, con otro
propósito, a saber, el intento de comprender el funcionamiento de la inteligencia
humana; a este tipo de investigación lo llamamos IA de comprensión. De este
segundo tipo fue el trabajo realizado por los pioneros de la disciplina, A. Newell
y H. Simon, en los años cincuentas y siguientes que culminaron con la
publicación de una importante obra sobre habilidad de solución de problemas
en los seres humanos.

1
A la labor de estos dos investigadores debemos también la caracterización de
los métodos de la inteligencia en dos categorías: débiles y fuertes; y el
importante descubrimiento de que los métodos más generales de la inteligencia
son por necesidad métodos débiles, y que los únicos métodos fuertes son los
que aplican conocimientos específicos de un dominio particular (por lo que
necesariamente deben carecer de generalidad). Este descubrimiento puede
expresarse por una ley: a mayor generalidad, menor fuerza; y a mayor fuerza
menor generalidad.

Escuelas del pensamiento


La IA se divide en dos escuelas de pensamiento:

• La inteligencia artificial convencional.


• La inteligencia computacional.

Inteligencia artificial convencional

Basada en análisis formal y estadístico del comportamiento humano ante


diferentes problemas:

Razonamiento basado en casos: ayuda a tomar decisiones mientras se


resuelven ciertos problemas concretos. Sistemas expertos: infieren una
solución a través del conocimiento previo del contexto en que se aplica y de
ciertas reglas o relaciones. Redes bavesianas: propone soluciones mediante
inferencia estadística. Inteligencia artificial basada en comportamiento:
sistemas complejos que tienen autonomía y pueden auto-regularse y
controlarse para mejorar.

Inteligencia artificial computacional

La inteligencia computacional (también conocida como inteligencia artificial


subsimbólica) implica desarrollo o aprendizaje iterativo (por ej. modificaciones
iterativas de los parámetros en sistemas conexionistas). El aprendizaje se
realiza basándose en datos empíricos. Algunos métodos de esta rama incluyen:

Maquinas de vectores soporte: sistemas que permiten reconocimiento de


patrones genéricos de gran potencia. Redes neuronales: sistemas con grandes
capacidades de Reconocimiento de patrones. Modelos oculto de Markov:
aprendizaje basado en dependencia temporal de eventos probabilísticos.
Sistemas difusos: técnicas para lograr el razonamiento bajo incertidumbre. Ha
sido ampliamente usada en la industria moderna y en productos de consumo
masivo, como las lavadoras. Computación evolutiva: aplica conceptos
inspirados en la biología, tales como población, mutación y supervivencia del
mas apto para generar soluciones sucesivamente mejores para un problema.
Estos métodos a su vez se dividen en algoritmos evolutivos (ej. Algoritmos
genéticos) e inteligencia colectiva (ej. Algoritmo hormiga).

2
Tecnologías involucradas
Lenguajes de programación

En principio, cualquier lenguaje de programación puede ser utilizado. Siendo


así de amplio el espectro en el cual se puede escoger un lenguaje para
programar un sistema experto. Atendiendo a la forma de estructurar sus
instrucciones, se los puede dividir en:

• IMPERATIVOS: PASCAL, C/C++.


• FUNCIONALES: LISP.
• DECLARATIVOS: PROLOG, CHIP, OPS5.
• ORIENTADOS A OBJETOS: SmallTalk, Hypercard, CLOS.

Tradicionalmente LISP y PROLOG han sido los lenguajes que se han utilizado
para la programación de sistemas expertos.

Lisp

Su nombre se deriva de LISt Processor. LISP fue el primer lenguaje para


procesamiento simbólico. John McCarthy lo desarrolló en 1958, en el
Instituto de Tecnología de Massachusetts (MIT), inicialmente como un
lenguaje de programación con el cual los investigadores pudieran
implementar eficientemente programas de computadora capaces de
razonar.
Rápidamente LISP se hizo popular por su capacidad de manipular
símbolos y fue escogido para el desarrollo de muchos sistemas de
Inteligencia Artificial.

Prolog

PROgramming in LOGic (PROLOG), es otro de los lenguajes de


programación ampliamente utilizados en IA. PROLOG fue desarrollado
en Francia, en 1973 por Alain Colmenauer y su equipo de investigación
en la Universidad de Marseilles.
Inicialmente fue utilizado para el procesamiento de lenguaje natural,
pero posteriormente se popularizó entre los desarrolladores de
aplicaciones de IA por su capacidad de manipulación simbólica.
Utilizando los resultados del grupo francés, Robert Kowalski de la
Universidad de Edimburgo, en Escocia, desarrolló la teoría de la
programación lógica. La sintaxis propuesta por Edimburgo, se considera
el estándar de facto del PROLOG.

3
Panorama de la Inteligencia Artificial
Los antecedentes culturales que han servido de base. Algunos de los puntos
más importantes son: Se adopta el criterio de que la inteligencia tiene que ver
principalmente con las acciones racionales. Desde un punto de vista ideal, un
agente inteligente es aquel que emprende la mejor acción posible en una
situación dada. Se estudiará el problema de la construcción de agentes que
sean inteligentes en este sentido. Los filósofos (desde el año 400 A.C.)
permitieron el poder pensar en IA, al concebir a la mente, con maneras
diversas, como una máquina que funciona a partir del conocimiento codificado
en un lenguaje interno y al considerar que el pensamiento servía para
determinar cuál era la acción correcta que había que emprender.

Las matemáticas proveyeron las herramientas para manipular las severaciones


de certeza lógica, así como las inciertas, de tipo probabilista. Así mismo,
prepararon el terreno para el manejo del razonamiento con algoritmos. Los
psicológicos reforzaron la idea de que los humanos y otros animales podían ser
considerados como máquinas para el procesamiento de información. Los
lingüistas demostraron que el uso de un lenguaje ajusta dentro de este modelo.
La ingeniería de cómputo ofreció el dispositivo que permite hacer realidad las
aplicaciones de IA. Los programas de IA por lo general son extensos y no
funcionarían sin los grandes avances en velocidad y memoria aportados por la
industria de cómputo.

Criterios de evaluación en I. A
Cada campo necesita criterios para evaluar el éxito alcanzado. En general, es
muy difícil determinar si una máquina o un sistema tiene inteligencia o puede
pensar. Al respecto se han sugerido algunas pruebas entre las que se destaca
la de Alan Turing (1912-1954). En 1950 ideó una prueba para reconocer
comportamientos inteligentes, esta prueba dice lo siguiente: Si la ejecución de
un sistema de IA puede convencernos de que su comportamiento es el que
tendría un humano, entonces el sistema es verdaderamente inteligente.

En una forma más práctica, para saber si un trabajo de investigación en IA ha


tenido éxito, debe hacerse tres preguntas claves: ¿Está definida con claridad la
tarea? ¿Existe un procedimiento ya instrumentado que efectúe la tarea? Si no
existe, es que debe haber muchas dificultades escondidas en algún lugar.
¿Existe un conjunto de regularidades o restricciones identificables a partir de
las cuales el procedimiento implantado obtiene su validez? De no ser así, el
procedimiento no pasaría de ser un juguete, tal vez capaz de un desempeño
superficial impresionante en ciertos ejemplos seleccionados con cuidado, pero
incapaz de impresionar con un desempeño profundo y de resolver problemas
más generales.

4
Robótica
La ciencia de la robótica implica diferentes técnicas de IA. La idea de un robot
"listo" con la capacidad de aprender por experiencia es el tema central de
teorías e investigaciones en IA. El robot debe ser capaz de comunicarse en
lenguaje natural y debe poder realizar tareas que requieran el equivalente a la
iniciativa y la originalidad, esto implica que el robot debe llegar a realizar, tras
un periodo de aprendizaje cosas para las cuales no estaba inicialmente
programado, a diferencia de los robots que se utilizan actualmente en la
aplicación industrial, los cuales no son más que meros autómatas. La idea
global en la inteligencia artificial estuvo desacreditada durante varios años
debido parcialmente, al excesivo optimismo por parte de la primera teoría pero,
mayormente causado por la exageración y el sensacionalismo de algunos de
sus divulgadores

Los primeros robots creados en toda la historia de la humanidad, no tenían más


que un solo fin: entretener a sus dueños. Estos inventores se interesaban
solamente en conceder los deseos de entretener a quien le pedía construir el
robot. Sin embargo, estos inventores se comenzaron a dar cuenta de que los
robots podían imitar movimientos humanos o de alguna criatura viva. Estos
movimientos pudieron ser mecanizados, y de esta manera, se podía
automatizar y mecanizar algunas de las labores más sencillas de aquellos
tiempos. El origen del desarrollo de la robótica, se basa en el empeño por
automatizar la mayoría de las operaciones en una fábrica; esto se remonta al
siglo XVII en la industria textil, donde se diseñaron telares que se controlaban
con tarjetas perforadas.

Cibernética
La cibernética es una ciencia interdisciplinaria, tratando con sistemas de
comunicación y control sobre organismos vivos, máquinas u organizaciones. El
término es una derivación del vocablo griego kybernetes que significa
gobernador o piloto, y fue aplicado por primera vez en 1948 a la teoría del
control de mecanismos por el matemático americano Norbet Wiener. En el
cuerpo humano, el cerebro y el sistema nervioso funcionan para coordinar la
información, la cual es utilizada para determinar el futuro curso de una acción;

5
controlar los mecanismos para la autocorrección en máquinas que sirven con
un propósito similar.

Este principio es conocido como retroalimentación, el cual es fundamental en el


concepto de automatización. La cibernética también se aplica al estudio de la
psicología, servomecanismo, economía, neuropsicología, ingeniería en
sistemas y al estudio de sistemas sociales, el término cibernética no es muy
utilizado para describir por separado a un campo de estudio, y muchas de las
investigaciones en el campo ahora se centran en el estudio y diseño de redes
neuronales artificiales.

Orígenes de la Inteligencia Artificial


El amanecer de una nueva ciencia La Inteligencia Artificial "nació" en 1943
cuando Warren McCulloch y Walter Pitts propusieron un modelo de neurona del
cerebro humano y animal. Estas neuronas nerviosas abstractas proporcionaron
una representación simbólica de la actividad cerebral. Más adelante, Norbert
Wiener elaboró estas ideas junto con otras, dentro del mismo campo, que se
llamó " cibernética", de aquí nacería , sobre los años 50, la Inteligencia Artificial.
Los primeros investigadores de esta innovadora ciencia, tomaron como base la
neurona formalizada de McCulloch y postulaban que: " El cerebro es un
solucionador inteligente de problemas, de modo que imitemos al cerebro". Pero
si consideramos la enorme complejidad del mismo esto es ya prácticamente
imposible, ni que mencionar que el hardware de la época ni el software estaban
a la altura para realizar semejantes proyectos.

Se comenzó a considerar el pensamiento humano como una coordinación de


tareas simples relacionadas entre sí mediante símbolos. Se llegaría a la
realización de lo que ellos consideraban como los fundamentos de la solución
inteligente de problemas, pero lo difícil estaba todavía sin empezar, unir entre sí
estas actividades simples. Por lo tanto podemos decir a grandes rasgos que la
Inteligencia Artificial es una ciencia que intenta la creación de programas para
máquinas que imiten el comportamiento y la comprensión humana, que sea
capaz de aprender, reconocer y pensar.

En 1976, Joseph Weizenbaum publicó Computer Power and Human Reason


[El poder del ordenador y la razón humana]. Básicamente Weizenbaum admitía
la viabilidad de la I.A., pero se oponía a ella basándose en razones morales.
Hacia 1965, Weizenbaum trabajaba en el MIT(Instituto Tecnológico de
Massachusetts), intentando que los ordenadores hablaran en inglés con la
gente. Una de esas ideas era que el conocimiento sobre los dominios se
encontrase en módulos ajenos al propio programa, así cambiar de tema seria
tan fácil como cambiar de módulo. Uno de esos módulos, y el más famoso, fue
el que imitaba a un psicoanalista rogeriano (el psicoanalista Carl Rogers ponía

6
en funcionamiento una terapia que consistía simplemente en animar a los
pacientes a hablar de sus problemas, respondiendo a sus preguntas con otras
preguntas).

El nacimiento de la I.A.
El fracaso de la mayoría de los problemas que intentaban resolver eran
demasiado complicados, tanto teórica como tecnológicamente. La lógica
teórica fue considerada como el primer programa de IA y usada para resolver
problemas de búsqueda heurística. Durante el decenio de 1950 se celebraron
congresos, proliferaron los grupos de investigación y en 1954 uno de ellos
afirmó haber creado un programa que traducía del ruso al inglés. La verdad es
que los resultados prácticos fueron descorazonadoramente escasos. De todas
formas, el resultado más espectacular de este período fue el programa de
Samuel para Jugar a las damas, que se presentó en 1961 y era capaz de
aprender de su experiencia, es decir, tener en cuenta sus errores y éxitos
pasados, para determinar sus jugadas en la partida posterior.

Evolución histórica
Prehistoria de la IA Así como de alguna forma los soportes mecánicos para la
automatización de cálculos aritméticos se sitúan en la prehistoria de los
computadores, la prehistoria de la inteligencia artificial abarca desde los
primeros tiempos de nuestra civilización hasta mediados del siglo veinte. En
este período se producen hechos que podemos agrupar en dos líneas: Una de
ellas, directamente relacionada con la construcción de autómatas que
simulaban desde el punto de vista externo el comportamiento humano o
animal, y que solían funcionar en ayuda de su amo. La otra línea, referente a la
información y automatización del razonamiento lógico y matemático. En
relación con los autómatas, siempre se ha relacionado la inteligencia con los
aparatos mecánicos complejos.

Manipulación del conocimiento


Existen tres paradigmas que los investigadores han utilizado tradicionalmente
para la resolución de problemas de IA: Programación Heurística.- Está basado
en el modelo de comportamiento humano y su estilo para resolver problemas
complejos. Existen diversos tipos de programas que incluyen algoritmos
heurísticos. Varios de ellos son capaces de aprender de su experiencia. Redes
Neuronales Artificiales.- Es una representación abstraída del modelo neuronal
del cerebro humano. Las redes están formadas por un gran número de
elementos simples y por sus interconexiones Una red neuronal artificial puede
ser simulada o ser real. Al elemento procesador de la red, se lo denomina

7
neurona artificial. Evolución Artificial.- Su modelo está basado en el proceso
genético de evolución natural, propuesto por Charles Darwin. Se utilizan
sistemas simulados en computador que evolucionan mediante operaciones de
reproducción, mutación y cruce (Algoritmos Genéticos). Cada paradigma
comprende una colección de métodos, configuraciones y técnicas
desarrolladas para manipular el conocimiento.

En general, una técnica de IA está caracterizada por incluir los siguientes componentes:
Procesos de Búsqueda.- Proporciona una forma de resolver problemas para los cuales
no hay un método más directo, así como también se constituye en un marco de trabajo
dentro del cual cualquier técnica directa puede ser incorporada. Uso del Conocimiento.-
Proporciona una forma de resolver problemas explotando las estructuras de los objetos
involucrados. Abstracción.- Proporciona una forma de separar rasgos importantes y
variaciones, de los tantos que no tienen importancia. La manipulación del conocimiento
involucra además la selección de objetos, entidades y rasgos que son claves para las
representaciones.

Los años difíciles


Tales habían sido las expectativas levantadas por la IA, y tantos sus fracasos,
que el desánimo sucedió al optimismo inicial. El mundo exterior se desentendió
de los trabajos de investigación, y la financiación de muchos proyectos se
volvió problemática, tanto en América como en Europa. No obstante, la IA se
fue consolidando y, aprendiendo de sus fracasos, buscó nuevos enfoques para
los viejos problemas.

En el año 1964 se publicó una tesis doctoral sobre el sistema STUDENT, que
es un programa de lenguaje natural que comprende y resuelve problemas
elevados de álgebra. Es en 1966 cuando se publica, en Comunicaciones de la
Asociación para Máquinas Calculadoras, un programa de ordenador para el
estudio de comunicación hombre-máquina mediante lenguaje natural
interactivo, ELIZA, que fue creado como un programa de psicología que simula
respuestas de un terapista en dialogo interactivo con un paciente.

Investigación y desarrollo en áreas de la I.A.


Las aplicaciones tecnológicas en las que los métodos de IA usados han
demostrado con éxito que pueden resolver complicados problemas de forma
masiva, se han desarrollado en sistemas que:

• Permiten al usuario preguntar a una base de datos en cualquier


lenguaje que sea, mejor que un lenguaje de programación.
• Reconocen objetos de una escena por medio de aparatos de
visión.
• Generar palabras reconocibles como humanas desde textos
computarizados.

8
• Reconocen e interpretan un pequeño vocabulario de palabras
humanas.
• Resuelven problemas en una variedad de campos usando
conocimientos expertos codificados. Los países que han
apadrinado investigaciones de IA han sido: EEUU., Japón, Reino
Unido y la CEE; y lo han llevado a cabo a través de grandes
compañías y cooperativas de riesgo y ventura, así como con
universidades, para resolver problemas ahorrando dinero. Las
aplicaciones más primarias de la IA se clasifican en cuatro
campos: sistemas expertos, lenguaje natural, robótica y visión,
sistemas censores y programación automática.

Cerebro VS. Microprocesador


Los microprocesadores son circuitos electrónicos integrados encargados del
procesamiento de la información en las computadoras. Las arquitecturas más
comunes incluyen: una unidad aritmética y lógica (ALU) encargada de realizar
las operaciones; una unidad de control, cuya función es extraer las
instrucciones del programa almacenado en memoria, e indicar a los demás
dispositivos de la computadora la tarea que deben realizar. La computadora
funciona como una unidad de procesamiento, recibiendo los datos a procesar
mediante los dispositivos de entrada, y entregando el producto elaborado
mediante los dispositivos de salida. Esta actividad la desempeñan con notable
precisión y velocidad, y en esto supera seguramente a nuestro cerebro. A
diferencia del chip de silicio, nuestro cerebro ha evolucionado durante millones
de años. Al intentar simularlo en las computadoras se ha revelado lo difícil que
es realizar algunas operaciones que aquél realiza con facilidad. Las
operaciones referidas son tareas que realizamos cotidianamente y sin esfuerzo
pero requieren cierta característica que las computadoras no poseen.

Velocidad de transmisión
Cuando comparamos el funcionamiento del cerebro y el de la computadora, la
primera gran diferencia que hallamos es la de la manera de que en ambos se
transmite la información. El ordenador maneja datos codificados en códigos
binarios, que se representan físicamente mediante dos niveles distintos de
energía eléctrica. Esto hace que la velocidad de propagación de los mismos
sea muy alta y se mejore con cada nuevo diseño de microprocesador. Por el
contrario, la transmisión de la información en el sistema nervioso, se realiza
mediante un proceso electroquímico en la membrana de la neurona y mediante
la sinapsis, que es el proceso químico con el cual se comunica una neurona
con otra. Ambos procesos son mucho más lentos que el paso de energía por
los circuitos del ordenador. ¿Cómo se explica entonces que el cerebro sea más
eficiente en resolver algunas tareas, si emplea tiempos de transmisión
mayores?

9
Características de la I.A.
Una de sus características es que incluye varios campos de desarrollo, como la
robótica, la comprensión y traducción de lenguajes, el reconocimiento y
aprendizaje de palabras de máquinas o los variados sistemas computacionales
expertos, que son los encargados de reproducir el comportamiento humano en
una sección del conocimiento. Tales tareas reducen costos y riesgos en la
manipulación humana en áreas peligrosas, mejoran el desempeño del personal
inexperto y el control de calidad en el área comercial.

Las áreas de investigación de la I.A.


Son muchas las áreas de la A I que se investigan hoy día. Entre ellas, tenemos
las siguientes:

1. La representación del conocimiento, que busca en el


descubrimiento de métodos expresivos y eficientes describir
información sobre aspectos del mundo real.
2. Los métodos de aprendizaje automático, que extienden las
técnicas estadísticas con el fin de posibilitar la identificación de un
amplio rango de tendencias generales a partir de un conjunto de
datos de entrenamiento.
3. El campo de la planificación, que enfrenta el desarrollo de
algoritmos que construyen y ejecutan automáticamente
secuencias de comandos primitivos con el fin de alcanzar ciertas
metas de alto nivel.
4. Los trabajos en el área de razonamiento posible, que hacen uso
de principios estadísticos para desarrollar codificaciones de
información incierta.
5. El estudio de las arquitecturas de agentes, que busca la
integración de otras áreas de la I A con el objeto de crear agentes
inteligentes, entidades robustas capaces de comportamiento
autónomo y en tiempo real.
6. La coordinación y colaboración multiagentes, que ha permitido el
desarrollo de técnicas para la representación de las capacidades
de otros agentes y la especificación del conocimiento necesario
para la colaboración entre ellos.
7. El desarrollo de ontologías, que persigue la creación de catálogos
de conocimiento explícito, formal y multipropósito, que puedan ser
utilizados por sistemas inteligentes.
8. Los campos de procesamiento de voz y lenguaje, que buscan la
creación de sistemas que se comunican con la gente en su
lenguaje.
9. La síntesis y comprensión de imágenes, que conduce a la
producción de algoritmos para el análisis de fotografías,
diagramas y videos, así como también de técnicas para el
despliegue visual de información cuantitativa y estructurada.

10
Áreas de aplicación de la I.A.
• Lingüística computacional
• Minería de datos (Data Mining)
• Mundos virtuales
• Procesamiento de lenguaje natural (Natural Language
Processing)
• Robótica
• Sistemas de apoyo a la decisión
• Videojuegos
• Prototipos informáticos

Algunos casos y antecedentes históricos.


Los hitos más importantes en el desarrollo de los sistemas expertos son:

1928

• John Von Neumann desarrolla su teorema "mínimos y máximos"


utilizado posteriormente en juegos.

1943

• McCullock y Pitts proponen la arquitectura de redes neuronales


para la simulaciones de la inteligencia.

1945

• Vannevar Bush publica "As we may think ...", o "Cabría imaginar


... ", en Atlantic Monthly el cual sienta las bases de lo que hoy se
conoce como Hipertexto, Multimedia e Hipermedia.

1949

• Shannon desarrolla la Teoría de la Información base fundamental


de la informática y varias de sus áreas.

1950

• Shannon propone el primer programa de ajedrez.


• Turing publica "Computing machinery and Intelligence".

1956

11
• Newell, Shaw, y Simon crean "IPL-11" el primer lenguaje de
programación para IA.
• Newell, Shaw, y Simon crean "The Logic Theorist" para la
resolución de problemas matemáticos.

1957

• Chomsky escribe "estructuras Sintácticas".


• Newell, Shaw, y Simon crean GPS.

1958

• McCarthy introduce el lenguaje "LISP", para procesamiento


simbólico de la información.

1959

• Rosenblatt introduce el Perceptron.


• EL programa de ajedrez de Samuel gana juegos contra grandes
jugadores.

1963

• ARPA da un fondo de investigación de dos millones de dólares al


laboratorio de IA del MIT.
• Quillian desarrolla las redes semánticas como modelo de
representación del conocimiento.
• Minsky escribe "Steps toward Artificial Intelligence".

1964

• Bobrow desarrolla STUDENT.


• Se comienza el desarrollo de BBNLisp en BBN.

1965

• Buchanan, Feigenbaum y Lederberg comienzan el proyecto


DENDRAL, el primer Sistema Experto.
• Iva Sutherland hace demostración del primer Monitor en forma de
casco para realidad virtual.
• Dreyfus argumenta en contra de la IA.

1968

• Minsky publica "Semantic Information Processing".

1969

• Minsky y Papert critican el Perceptron.

12
1970

• Colmerauer desarrolla PROLOG quizás el lenguaje de


Inteligencia Artificial más popular actualmente.
• Winograd crea SCHRDLU.

1972

• Dreyfus publica "What Computers Can't Do".


• Se desarrolla el lenguaje SmallTalk en Xerox PARC.

1973

• Shank y Abelson desarrollan los guiones, o scripts, base de


muchas técnicas actuales de la Inteligencia Artificial y la
Informática en general.

1974

• Edward Shortliffe escribe su tesis con MYCIN, uno de los


Sistemas Expertos más conocidos.
• Minsky publica "A Framework for Representing Knowledge".
• Se establece la red SUMEX-AIM para aplicaciones de la
Inteligencia Artificial en medicina.

1975

• La DARPA lanza un programa de financiación para el


procesamiento y comprensión de imágenes.

1976

• Greenblatt crea "CONS" el primer ordenador con arquitectura


para LISP.
• Lenat introduce su "Automated Matematician".

1978

• Xerox comienza a desarrolla ordenadores LISP.

1979

• Raj Reddy funda el Instituto de Robótica en la Universidad


Carnegie Mellon.

13
1980

• Primera conferencia de la AAAI (American Association on Artificial


Intelligence) en Stanford, y primera Conferencia de Lisp y
programación funcional de la ACM.

1981

• Kazuhiro Fuchi anuncia el proyecto japonés de quinta generación


de computadores.
• El PSL (Portable Standard Lisp) se puede ejecutar sobre varias
plataformas.
• Se construyen máquinas LISP por Xerox, LMI y Simbolics, las
cuales soportan Programación Orientada a Objetos.
• Se sientan las bases del Common Lisp con aspectos comunes de
las familias: Lisp machine Lisp, MacLisp, NIL, S-1 Lisp, Spice Lisp
y Scheme.

1982

• John Hopfield resucita las redes neuronales.

1983

• Feigenbaum y McCorduck publican "The Fifth Generation".

1984

• Steele publica "Common Lisp the Language".


• La comunidad europea comienza el programa ESPRIT.
• Gold Hill crea el Golden Commom Lisp.

1985

• General Motors y Campbell's Soup dejan de usar Lisp para sus


Sistemas Expertos.
• Se funda el Media Lab en el MIT.
• Minsky publica "The Society of Mind".
• Teknowledge, una compañía dedicada al desarrollo de sistemas
en Inteligencia Artificial, abandona Lisp y Prolog por el lenguaje C.

1986

• Primera conferencia de la OOPSLA sobre programación orientada


a objetos, en la cual se presenta CLOS, Lisp Orientado a Objetos,
como lenguaje independiente de la comunidad de Lisp e IA.
• IBM desarrolla shells para Lisp, Prolog y Sistemas expertos y
entra a la AAAI.
• McClelland y Rumelhart's publican "Parallel Distributed
Processing" (Redes Neuronales).

14
• Aparecen compañías dedicadas al desarrollo de Redes
Neuronales.

1987

• Existen alrededor de 1900 Sistemas Expertos en el mundo.


• Sistema experto XCON de DEC capaz de configurar ordenadores
realizando el trabajo de 300 personas, basándose para esto en
10.000 reglas.
• Japón establece su sistema AFIS para la identificación automática
de huellas digitales.

1988

• El chip del 386 ofrece una velocidad a los PC’s comparable a la


de las máquinas Lisp.
• Minsky y Papert publican una revisión de "Perceptrons".
• Se establecen los lenguajes Orientados a Objetos.
• La compañía TI anuncia microExplorer una máquina Lisp con
tecnología Macintosh.

1990

• Steele publica la segunda edición de "Common lisp the


Language".

1992

• Apple Computer introduce el lenguaje Dylan, de la familia Lisp,


como su visión del futuro en la programación.
• X3J13 crea una propuesta para la Sociedad Americana de
Common Lisp.

1994

• La versión para tiempo real del lenguaje CLOS, Lisp con Objetos,
de Harlequin se utiliza en sistema de intercambio de AT&T.

15
Conclusión
El contraste anotado nos lleva a una conclusión que queremos consignar aquí
como nota final de este artículo. Todo parece indicar que las computadoras,
debidamente programados con las técnicas de alto nivel propias de la IA,
pueden descollar en el campo de la pericia, es decir, de la solución de
problemas especializados; por su parte, el intelecto humano parece
insustituible en relación con la solución de problemas de sentido común. Se
impone entonces fomentar la asociación de hombre y máquina en sistemas de
cooperación simbiótica y sinergética; hombre y máquina se necesitan
mutuamente para solucionar eficazmente los problemas, y de la interacción
entre ambos resulta una energía intelectual muy superior a la de la suma de
sus partes.

(Comunicación personal). En cuanto a Minky, él no cree que sea productivo


definir la inteligencia. Le parece que mientras no sepamos cómo trabaja el
cerebro, el intento solo puede crear confusión (comunicación personal).

16

You might also like