You are on page 1of 81

DEPARTAMENTO DE INTELIGENCIA ARTIFICIAL

Asignatura: Introducción a la Inteligencia Artificial
>> Introducción a la Inteligencia Artificial >> Bibliografía básica >> Materia

MATERIA DE LA ASIGNATURA
1. Perspectiva histórica
o Etapa Neurocibernética
o Módelos simbólicos simples de propósito
general

o El conocimiento del dominio y su
parcelación

o Aspectos metodológicos y distribución del
conocimiento

2. Concepto de Inteligencia Artificial
o La Inteligencia Artificial como Ciencia
o La Inteligencia Artificial como Tecnología
3. Referencias

Presentación [xi]
1. PERSPECTIVA HISTÓRICA Y CONCEPTUAL [1]
(J. Mira y A. E. Delgado)
1.1 Concepto de inteligencia artificial [2]
1.2 Idea intuitiva del comportamiento artificial [7]
1.3 Perspectiva histórica de la I.A. [16]
---1.3.1 Neurocibernética [18]
---1.3.2 Computación: de Platón a Turing [23]
---1.3.3 Búsqueda heurística y dominios formales [29]

---1.3.4 Énfasis en el conocimiento (197x-198x) [32]
---1.3.5 Aprendizaje y renacimiento del conexionismo [46]
2. ASPECTOS METODOLÓGICOS EN I.A. [53]
(J. Mira y A. E. Delgado)
2.1 Niveles de computación [54]
2.2 El nivel de conocimiento de Allen Newell [63]
2.3 El agente observador y los dos dominios de descripción [69]
2.4 Estructura de tareas genéricas para modelar conocimiento en el D.O. [75]
---2.4.1 La clasificación como tarea genérica [78]
---2.4.2 La metodología KADS [80]
2.5 I.A. simbólica versus I.A. conexionista [84]
3. FUNDAMENTOS Y TÉCNICAS BÁSICAS DE BÚSQUEDA [89]
(J. G. Boticario)
3.1 Planteamiento del problema [90]
3.2 Espacios de representación [94]
---3.2.1 Nociones básicas sobre grafos [94]
---3.2.2 Representación de los problemas de búsqueda [97]
---3.2.3 Cómo limitar el espacio de búsqueda [101]
3.3 Búsqueda en integración simbólica [102]
---3.3.1 Descripción general del sistema [103]
---3.3.2 Lenguaje de descripciones [104]
---3.3.3 Lenguaje de operadores [106]
---3.3.4 Equiparación de descripciones [107]
---3.3.5 Solucionador [108]
3.4 Búsqueda sin información del dominio [111]
---3.4.1 Búsqueda en amplitud [112]
---3.4.2 Búsqueda en profundidad [116]
---3.4.3 Búsqueda con retroceso [120]
---3.4.4 Otros métodos derivados [124]
3.5 Reducción del problema [128]
3.6 Algoritmo general de búsqueda en grafos [131]
3.7 Discusión [134]
4. BÚSQUEDA HEURÍSTICA [137]
(J. G. Boticario)

4.1 Elementos implicados [138]
---4.1.1 Conocimiento de control [140]
---4.1.2 Planteamiento del problema [144]
4.2 Una estrategia irrevocable [145]
4.3 Estrategias de exploración de alternativas [148]
---4.3.1 Búsqueda primero el mejor [149]
---4.3.2 Algoritmo A* [152]
---4.3.3 Búsqueda heurística en integración simbólica [158]
---4.3.4 Método AO* [162]
4.4 Búsqueda con adversarios [165]
---4.4.1 Estrategia MINIMAX [167]
---4.4.2 Estrategia de poda alfa-beta [172]
4.5 Análisis de medios-fines [176]
4.6 Comentario [178]
5. LÓGICA [179]
(J. G. Boticario)
5.1 El uso de la lógica en la representación del conocimiento [180]
5.2 Lógica de proposiciones [181]
5.3 Lógica de predicados [188]
---5.3.1 Ampliaciones de la lógica de predicados [196]
5.4 Deducción automática: resolución [198]
---5.4.1 Forma clausulada [199]
---5.4.2 Unificación [204]
---5.4.3 Método general de resolución [207]
5.5 Extensiones de la lógica clásica [213]
---5.5.1 Lógica modal [214]
---5.5.2 Lógica difusa [217]
---5.5.3 Lógicas no monótonas [224]
5.6 Conclusiones [229]
6. REGLAS [231]
(F. J. Díez)
6.1 Componentes básicos de los S.B.R. [232]
6.2 Estructura de las reglas [234]
---6.2.1 Antecedente y consecuente [234]
---6.2.2 Uso de variables en las reglas [237]

---6.2.3 Comentarios [237]
6.3 Inferencia [239]
---6.3.1 Comparación de patrones [239]
---6.3.2 Tipos de encadenamiento [240]
---6.3.3 Dependencia reversible e irreversible [243]
6.4 Control del razonamiento [244]
---6.4.1 Mecanismos sencillos [244]
---6.4.2 Control de las agendas [246]
---6.4.3 Metarreglas [247]
---6.4.4 Otros mecanismos [249]
6.5 Explicación del razonamiento [250]
6.6 Tratamiento de la incertidumbre [252]
---6.6.1 Factores de certeza de MYCIN [253]
---6.6.2 Lógica difusa en S.B.R. [254]
6.7 Valoración [256]
---6.7.1 Comparación con los programas basados en comandos [256]
---6.7.2 Comparación con la lógica de predicados [258]
---6.7.3 Crítica de los sistemas basados en reglas [259]
6.8 Apéndice: expresividad y tratabilidad [260]
6.9 Bibliografía recomendada [261]
7. REDES ASOCIATIVAS [263]
(F. J. Díez)
7.1 Grafos relacionales [264]
---7.1.1 Modelo de memoria semántica, de Quillian [264]
---7.1.2 Sistema SCHOLAR, de Carbonell [268]
---7.1.3 Grafos de dependencia conceptual, de Schank [270]
---7.1.4 Problemas de los grafos relacionales [274]
7.2 Redes proposicionales [274]
---7.2.1 Redes de Shapiro [275]
---7.2.2 Representación mediante grafos de Sowa [276]
---7.2.3 Inferencia en grafos de Sowa [281]
7.3 Redes de clasificación [283]
---7.3.1 Extensión e intensión [283]
---7.3.2 Jerarquía de conceptos [284]
---7.3.3 Mecanismos de herencia [286]

1.2. características.3 El lenguaje KRL [311] ---8.1.2 El sistema experto PIP [308] ---8.4 Herramientas basadas en marcos [313] 8.4.1 Paradigmas en la utilización de los marcos [325] ---8.E.5 Bibliografía recomendada [328] 9.4 Ventajas.5 Comentarios finales [301] 7.6 Bibliografía recomendada [302] 8.2 Demonios [315] ---8.3 Ventajas y limitaciones [337] 9.1. inconvenientes y extensiones [322] 8.3 Puntos de vista [316] 8.1.1 Estructura básica [332] ---9.4 Comentarios [325] ---8.1 Planteamiento del problema [317] ---8.2 Valoración [326] 8.1 El sistema experto CASNET [289] ---7. E. ventajas y limitaciones [330] ---9. MARCOS Y GUIONES [305] (F.2 Escenarios y funciones [340] .3. Delgado y otros) 9.2 Representación del conocimiento [318] ---8.1.1 Concepto de S.---7. J.3 Guiones [317] ---8. Díez) 8.3 Inferencia mediante guiones [319] ---8.4 Redes causales [288] ---7.4.1.3 Ventajas y limitaciones de las redes causales [299] 7.1 La propuesta de Minsky [306] ---8.2.4 Sistemas taxonómicos / sistemas asertivos [287] 7.2 Características de un sistema experto [335] ---9.4.3.1 Facetas [314] ---8.1.4. SISTEMAS EXPERTOS [329] (J.3.2 Redes bayesianas [292] ---7. Mira.2.: estructura básica.4.1 Concepto de marco [306] ---8.2 Inferencia mediante marcos [314] ---8. A.3.3.

4 Observaciones [482] 11.3.3. E.4.3.4 Aprendizaje por analogía [469] ---10.1.3 Aprendizaje deductivo [458] ---10.3.3 Tipos de aprendizaje [435] ---10. Delgado) 11.5 Ayudas a la implementación (TG4) [371] ---9.4 Aspectos metodológicos de ayuda al desarrollo de sistemas expertos [360] ---9.3.7 Aspectos básicos en la explicación del razonamiento [418] 10.2 Herramientas para la adquisición del conocimiento [393] ---9.2 Objetivos y tarea [430] 10.1 Identificación y análisis del problema (TG1) [363] ---9.1 Concepto [427] ---10.6 Validación y evaluación (TG5) [410] ---9.1 Inducción basada en ejemplos [437] ---10.6.2 Criterios y técnicas de evaluación [413] 9. APRENDIZAJE [423] (J.3.1 Introducción [423] ---10.4. Mira y A.3 Tareas genéricas: ejemplos de monitorización y diagnóstico [346] ---9.2.1 Razones para la evaluación [411] ---9.3.1 Análisis de la situación [423] ---10. Boticario) 10.3.1 Catálogo de tareas genéricas [346] ---9.2 Adquisición y modelado del conocimiento (TG2) [365] ---9.5 Aprendizaje multiestrategia [477] 10.5.2 Aprendizaje [427] ---10. G.2 Inducción basada en el conocimiento del dominio [457] ---10.6.3 Interfaz de usuario [400] 9.3 El diagnóstico como tarea genérica [355] 9.3 Reducción al nivel simbólico (TG3) [369] 9.5.1.1 Entornos de desarrollo [373] ---9.1 Las redes neuronales como modelo de computación distribuida y autoprogramable [486] .4.9.2 Breve reseña histórica [426] 10.2.2 La monitorización como tarea genérica: el ejemplo de SUTIL [349] ---9.5. COMPUTACIÓN NEURONAL [485] (J.

5.3 Ejemplos de retropropagación del gradiente: XOR.6.4 Funciones de refuerzo [557] 11.2 Expansiones del modelo analógico: neuronas de orden superior [523] ---11.11.2. predicción de series temporales y control [548] ---11.4 Pistas sobre el aprendizaje [500] 11.2.6.3 Formalización de la computación en una capa [508] 11.6.5.3 Modelos lógicos [524] ---11.1 Reglas correlacionales [534] ---11.4 Modelos inferenciales [527] 11.2.1 Distintos tipos de neuronas [493] ---11.2 Inspiración en la neurología [491] ---11. simbólica y computación neuronal: aspectos metodológicos [559] Referencias [577] .A.6.4 Modelo genérico de neurona artificial [511] 11.7 Simbiosis entre I.2.6 Aprendizaje en redes neuronales artificiales [532] ---11.5.1 Modelos analógicos [514] ---11.5 Funciones de computación local [513] ---11.2 Arquitecturas modulares [497] ---11.5.2 Minimización de una función del error: retropropagación del gradiente [536] ---11.3 Posibles funciones de computación local [499] ---11.

como un ejemplo más del desarrollo de la alquimia de la época.Perspectiva histórica La materia objeto del presente análisis trata de la "Inteligencia Artificial". Analicemos por tanto en primer lugar sus antecedentes. Como siguiente antecedente no debemos olvidar.ej. el papa Silvestre II. Todos los ejemplos mencionados pertenecen al mundo de las leyendas y no existen indicios de ningún medio técnico para su creación. los artilugios diversos (p. obra de Dédalo. Tomás de Aquino. existen multitud de circunstancias a lo largo de la historia que han conducido a la situación actual. Existen otros relatos que hablan de seres artificiales . Puede decirse que desde siempre el ser humano ha tenido presente el "desafío del hombre que fabrica al hombre". el obispo Grosseteste. y esto no sólo se refiere a la forma actual de llevar a cabo la mecanización de los procesos del pensamiento: los programas de computadores. Como en cualquier otra rama del saber. También existen historias sobre la construcción de "cabezas parlantes" por Alberto Magno. Como manifestaciones más remotas de este deseo podemos destacar: las figuras utilizadas en los ritos de magia del hombre primitivo. Mucho más cercano. gigantesco robot de la mitología que protegía a Creta de sus enemigos. maquinarias escénicas) que se inventaron en la época alejandrina de la Grecia Clásica. aunque luego tuvo que ser destruido cuando éste perdió el control y se convirtió en "un monstruo que amenazaba al mundo". el que para muchos es el verdadero paradigma de la Inteligencia Artificial: El Glem (palabra talmúdica que se refiere a todo lo incompleto o sin forma) que el rabino Judah Loew construyó en 1580 y que consistía en una estatuilla que cobró vida y sirvió para defender a la comunidad judía de Praga. sino a todos los intentos de construir sistemas o autómatas inteligentes realizados a lo largo de la historia. el médico medieval Paracelso llegó a elaborar la receta para crear un "homúnculo": un ser humano entero artificial. Los primeros hombres mecánicos fueron las figuras móviles de los campanarios de finales de la Edad Media. Talos. las estatuas que servían de cobijo a los muertos en la cultura egipcia. En el mismo siglo XVI. en el siglo XIII podemos mencionar la existencia de una leyenda en la que se describía la construcción de una "cabeza de bronce pensante" que explicaba a fray Roger Bacon y a su colega fray Bungey como defender Inglaterra con una gran muralla de bronce. etc. y la que parece haber sido la primera referencia a un androide.

transmisión digital de señales. De este mismo siglo data la historia del jugador de ajedrez falso construido por Wolfgang von Kempelen: la primera vez que se creaba la ilusión de no distinguir las capacidades de un hombre frente a las de una máquina. la Revolución Industrial potenció la creación de máquinas herramientas. Una vez creadas estas máquinas era el turno de los que fueran capaces de programarlas. que Norber Wiener llamó cibernética.5. Más recientemente. El siguiente caso más claro de mecanismos autónomos lo encontramos en los relojes de gran precisión construidos en el siglo XVIII. y esta fue precisamente la época en que comenzó la historia más reciente de la Informática en general y de la Inteligencia Artificial en particular. Con este mismo enfoque. lo construyó Jaquet-Droz (se encuentra en el Museo de Arte e Historia Natural de Suiza).construidos por Leonardo da Vinci y posteriormente Descartes.). Posteriormente.con los tiempos del florecimiento de los grandes computadores (el Colussus de Turing. en 1959. con capacidad de tomar decisiones y no sólo de tratar la información. además de otras muchas aportaciones (diseño de circuitos. Otro androide. escribió en 1950 el artículo "Una máquina para jugar al ajedrez" en el que predecía que los computadores podrían jugar bien a este juego. Los trabajos de Shannon fueron también una importante contribución para los nacientes campos de la teoría de la información y del control. etc. Surgieron paralelamente los primeros estudios formales sobre redes neuronales formales.1. con una visión mucho más cercana a lo que hoy consideramos rasgos propios de esta rama del saber (por ejemplo. la máchina arithmetica de Pascal de 1645 era capaz de realizar sumas y restas mediante un engranaje con ruedas dentadas. para así luego escoger la más prometedora. el Eniacà). en este caso un músico. En esta misma época se produjo un enorme impulso en el campo del control automático (mecanismos que se guían solos). . Samuel realizó el primer programa que aprendía a jugar a las damas. tal y como ya analizamos en el apartado 1. Leibniz amplío en 1670 el rango de operaciones realizables (multiplicar y dividir). siendo en este contexto cuando surgió la idea del computador digital llamado "Aparato Analítico" de Charles Babbage. el Edvac de Von Neuman. Podemos destacar los trabajos de Shannon que. una máquina que sea capaz de tomar sus propias decisiones) Después. Una de las primeras contribuciones de comienzos del siglo fue la máquina de jugar a la ajedrez de Leonardo Torres y Quevedo en 1912. estudiando un gran número de jugadas y sus consecuencias. se produce la sorprendente evolución de la informática a lo largo del siglo XX. Después nos encontramos -estimulado por la segunda guerra mundial. que finalmente ha dado lugar a los robots programables que hoy podemos ver en cualquier fábrica o taller industrial.

Por tanto. Los trabajos de esta época. que luego fue mejorado y ampliado en sucesivas ocasiones.ej. Entre los invitados destacan personajes tan eminentes como: McCarthy.S. Básicamente. En este período se busca la solución de los problemas en un nivel físico. Simon. Así. a la que puede denominarse neurocibernética. Minsky.bajo el auspicio de la Fundación Rockefeller . Samuel. se basan en crear modelos formales que sigan los mismos principios de funcionamiento que tienen las componentes conocidas de los organismos biológicos en los que descansa la facultad de pensar del ser humano. tomando como ejemplo las neuronas del cerebro se crean modelos que sean capaces de: crear una memoria asociativa.por diez personas durante dos meses en el "Darmouth College". entre los que destaca el primer modelo de computación analógico no lineal y distribuido diseñado por W. la Inteligencia Artificial (IA) comenzó siendo computación neuronal con los trabajos de McCulloch y Pitts. el que sería más tarde premio Nobel. la estructura de las neuronas formales de la primera época consistía simplemente en una serie de entradas. que introdujeron la idea de circuito secuencial mínimo.inspirados en el propio ser humano. la propuesta consistía en que cualquier ley de entradasalida podía modelizarse con una red neuronal: redes de elementos de procesamiento analógico no lineal (sumadores con pesos modificables seguidos de una función de decisión no lineal de tipo umbral) inspirados en algunos aspectos superficiales del funcionamiento de las neuronas. La evolución experimentada desde los primeros modelos neuronales hasta la situación actual puede dividirse en una serie de etapas: Etapa Neurocibernética Como ya hemos señalado. McCulloch y Walter Pitts (1943). El verdadero surgir del término "Inteligencia Artificial" (acuñado por John McCarthy) tuvo lugar en el estudio sobre el tema realizado . un sumador "suma"). por Blum (1955).. y por Widrow y Hoff (1969). que podían ser excitadoras o . Shaw y. Newell. por Rosenblatt (1962). donde una función se realiza por una sola estructura (p. autoorganizarse y aprender de forma autónoma. formado por una función lógica seguida de un retardo y en el que la programación se sustituye por el aprendizaje. en el verano de 1956.

inferir de forma distribuida. la Representación Interna del Medio. separable de la señal física que la transporta. propuesta por McCarthy. recordar. Con esta última idea como base. en esta época se seguía queriendo afrontar problemas muy complejos con formulaciones relativamente simples. y finalmente. hasta que en los años ochenta se produjo un resurgir que se ha mantenido hasta nuestros días. Wiener y Bigelow sobre "Conducta. la principal característica del modelo adoptado en este período es la utilización del cálculo simbólico. Módelos delos simbólicos simples de propósito general Se considera que el punto de partida de este período es la citada reunión en el verano de 1956. implicación y consistencia. la propuesta de un mecanismo de razonamiento por analogía de Craik es un claro antecedente de los trabajos más actuales sobre el razonamiento abductivo (razonamiento en que se parte de la conclusión y se busca un hecho que la explique). cooperar. Por ello. basada en redes de procesadores que sean capaces de: reconocer caracteres. y los de Shannon. algunos antecedentes de este paradigma. . puede ser clarificador repasar.inhibidoras. la Teoría Neural del Conocimiento. Desde el punto de vista de los objetivos que se intentaban resolver. que considera al sistema nervioso como un constructor de dicha representación. significado. El reconocimiento del valor limitado de los modelos aplicados produjo un abandono generalizado de este enfoque (lo cual no excluye que investigadores relevantes siguieran trabajando sobre el tema). aprender por refuerzo o autoorganizarse. En lo que se refiere al enfoque práctico -cómo resolverlos-. aunque sea brevemente. Podemos destacar tres ideas básicas de la etapa neurocibernética: la noción de información como pura forma. frente al numérico que caracterizó la etapa anterior. con el fin de definir operacionalmente conceptos tales como: causalidad. y en una función umbral (con un nivel de disparo) sobre la suma de dichos estímulos. apoyada por los trabajos de Rosemblueth. Shannon y Marvin. Estas unidades formaban una red que definía una u otra función según fueran los umbrales de disparo y la disposición de las conexiones entre ellas. Propósito y Teología".

de acuerdo con Platón. todas las arquitecturas son equivalentes en el sentido de Turing. Subiendo un nivel más. Aristóteles afirmaba: "Utilizamos los nombres como signos de las cosas". de establecer un modelo lógico de símbolos tratados como objetos de cálculo. de forma que luego éstas se manipulan aparte de acuerdo con las reglas del cálculo numérico. Con este mismo propósito. Fue Descartes (15961650) quien plantea el carácter invariante de las matemáticas para representar el conocimiento. Así. dentro del proyecto Edvac. Hobbes (1588-1679) sostenía que el pensamiento consistía en ejecutar operaciones simbólicas siguiendo de forma metódica un conjunto de reglas de decisión. en el que se puede distinguir la arquitectura del modelo lógico. Antecedentes del modelo computacional simbólico: Podemos remontarnos a la Grecia Clásica para mencionar el conjunto de reglas de decisión que Sócrates. La esencia de este planteamiento consiste en poder representar cualquier problema que tenga solución algorítmica mediante una máquina de Turing (un autómata con un mecanismo de funcionamiento extremadamente simple). por lo cual. finalmente. Mucho después. pregunta a Euthyphro. La formulación de estas leyes se realizaba en lenguaje natural (silogismos de Aristóteles). Posteriormente. sentó las bases de la lógica formal tal y como hoy la entendemos. por tanto. Von Neumann estableció la distinción entre el diseño lógico de la computación (arquitectura de computadores) y su realización física en una determinada máquina. encontramos el Modelo de Computación Universal de Alan Turing de 1936. Fue también Alan el que transformó el viejo dilema existente desde que fue planteado por Descartes: "¿pueden pensar las máquinas?". por el de: "¿puede distinguirse la "inteligencia" de una máquina (sería mejor decir "programa") comparando sus respuestas con . Surgen también entonces las primeras reflexiones sobre la distinción entre signo y objeto. La idea básica consistía en representar mediante símbolos los principios del razonamiento para luego manipularlos de forma independiente. Se suponía que dicho conjunto debería ser tan preciso como para que en cada momento pudiéramos calcular la respuesta del sistema aplicando las reglas a la entrada (antecedente del modelo computacional: dadas unas entradas. realizar un proceso que derive en las salidas correspondientes). en 1945. Leibniz (16461716) introduce el concepto de programa como un formalismo con el que se pueden representar numéricamente ciertas relaciones. George Boole (18151868) fue capaz. Otras aportaciones fundamentales son las que tienen que ver con la teoría de la computabilidad.

que consiste básicamente en saber donde se está. representación del conocimiento (para almacenar la información durante el interrogatorio). junto con Cliff Shaw. Este programa. construyeron el denominado "Solucionador General de Problemas" (GPS). debería considerarse el test de Turing como una medida de la capacidad que tiene un programa para acumular evidencias que permitan resolver un problema concreto. . el Teórico Lógico. En el caso de que la respuesta sea negativa. El planteamiento es bastante intuitivo y responde a modelos de actuación tratados en el campo de la psicología cognitiva. La existencia de modelos formales para representar el razonamiento. más pronto que tarde. fueron las principales bazas que utilizaron Allen Newell y Herbert Simon para desarrollar el sistema que se considera el origen del razonamiento automático. y buscar maneras de reducir las diferencias entre ambos. como muy bien señala Moor. En otras palabras. ya que si las preguntas tuvieran relación con un contexto muy amplio o con temas que requieran aplicar el llamado "sentido común". El problema del test.las de un ser humano?. Estos mismos científicos. que podía demostrar los teoremas del Principia Mathematica -la obra central de los fundamentos de las matemáticas escrita por Bertrand Russell y Alfred North Whitehead-. razonamiento automático (para utilizar la información almacenada y sacar nuevas conclusiones) y aprendizaje automático (para adaptarse a las nuevas circunstancias. y detectar y extrapolar patrones). es que no se preocupa del "qué" sino sólo del "cómo". consiste en separar el conocimiento de control del conocimiento del dominio. La aportación fundamental del GPS es el esquema denominado análisis de medios-fines. así denominado por ser capaz de plantear de una forma genérica la solución de problemas. y los avances en la teoría de la computación. al programa de IA en cuestión se le debe suponer el mismo nivel de inteligencia que al operador humano que imita. y muy importante de este modelo. compararlo con aquello que se quiere alcanzar. más bien. Este test mide realmente un conjunto de facultades que son objeto de estudio de la IA: procesamiento del lenguaje natural (para establecer la comunicación en el lenguaje humano). la posibilidad de manipular dichos formalismos mediante un conjunto finito de reglas de transformación. es la idea de que puede distinguirse el conocimiento sobre un problema concreto del saber más general sobre cómo pueden resolverse un conjunto de problemas. Una aportación implícita. fue capaz de sorprender a los propios Russell y Whitehead inventando una demostración más breve para uno de los teoremas propuestos. posiblemente. se descubriría al "impostor". no es lo mismo imitar el pensamiento que pensar.

Este lenguaje se creó a mediados de los años 50 en el laboratorio de Inteligencia Artificial del MIT (Massachusetts Institute of Technology). Su diversificación se produjo en los años 70 y su divulgación y estandarización en los 80 (COMMON LISP). consistía en un lenguaje poco evolucionado con unas 100 primitivas. permitiendo deducir nuevos hechos y relaciones a partir de los enunciados dados.Los problemas resueltos podrían calificarse "de laboratorio": planteamientos simplificados de problemas complejos o modelos de problemas perfectamente definidos. En este esquema la solución consiste en una secuencia de operadores que permiten pasar del estado inicial al estado final. etc.5). Un avance muy significativo del campo lo produjo el desarrollo de nuevos lenguajes de programación. ocho reinas. Algunos programas permitían ya realizar pruebas de teoremas sencillos utilizando la instanciación de Herbrand. después del FORTRAN. pero fue el principio de resolución el que sentaría definitivamente los pilares de la programación lógica. Era el primer lenguaje de programación que permitía la definición de funciones recursivas. De este período el más destacado es el LISP (es el segundo lenguaje más antiguo. De su larga historia podemos destacar que. Para resolverlos se adoptó un esquema conocido como "búsqueda en un espacio de estados". el PROLOG. diseñado para manipular los símbolos -elementos propios de una representación del conocimiento-. que consiste básicamente en transformar un problema o estado inicial en una meta o estado final a través de la aplicación de una secuencia de operadores o reglas que describen las acciones del dominio siguiendo una determinada estrategia de selección de dichos operadores y de los estados generados en el proceso de búsqueda. puzzles. En los años 60 varios "logicistas" y matemáticos buscaban algún método que permitiera que los computadores llevaran a cabo la prueba de teoremas. Tales son los casos de los juegos (ajedrez. En esta época se establecen también las bases que permitirían crear algunos años después (1972) otro de los lenguajes básicos del campo. Otro de los problemas complejos que se pretendía resolver fue el del procesamiento del lenguaje natural (LN). su creador principal fue John McCarthy. cuyo objeto de estudio son los mecanismos efectivos y computables para llevar a cabo procesos de .) y de la demostración de teoremas del cálculo proposicional. en lugar de trabajar con instanciaciones triviales de aquéllos. que sigue utilizándose como lenguaje básico para realizar investigación en IA). damas. en esta primera época (LISP 1. tic-tactoe.

principales cuestiones por resolver: análisis sintáctico y morfológico. En primer lugar: las bases de datos. representación interlingua del significado. etc. resolución de homografías. Warren Weaver. propuesto por Chomsky. el modelo más conocido. estudios sobre vocabularios restringidos. requieren interfaces cada vez más flexibles y adaptados a cualquier usuario. no es apto para ser implementado).ej. la primera estudia modelos generales que reflejen la estructura del LN sin preocuparse de su realización en procesos computables (p.comunicación basados en LN. Este es precisamente el planteamiento de uno de los primeros programas lingüísticos más conocidos: ELIZA (su nombre es el mismo que el de la protagonista deMy Fair Lady. más cercanos a los propósitos de la IA sobre esta cuestión. búsqueda automática en diccionarios. por lo tanto. terminó produciendo un cierto desencanto. Dos razones fundamentales pueden aducirse para entender el interés en el campo de la CLN. Por otro lado. la segunda se ocupa más bien de modelos sobre el uso del lenguaje. que se considera el origen de este campo. creado por Joseph . fue el principal impulsor de la perspectiva criptográfica. Esta rama de la IA está íntimamente relacionada con otras disciplinas: lingüística y psicología cognitiva. que tuvo que aprender a hablar correctamente el inglés). La segunda razón de peso es la trascendencia que dicho proceso tiene en el comportamiento inteligente. la subestimación de los problemas existentes. Dentro de este campo debemos distinguir dos áreas de gran interés: la traducción automática (TA) y la comprensión del lenguaje natural (CLN). los estudios de la época pusieron de manifiesto las que siguen siendo. los paquetes de software y las aplicaciones de IA. se optó.. El presidente de la fundación Rockefeller. El experimento consistió en traducir al inglés 50 sentencias en ruso seleccionadas de textos de química. Supuso una demostración de las posibilidades del campo y fue un estímulo para el desarrollo de nuevas investigaciones sobre el tema. en algún caso. por ejemplo. y la primera demostración pública de un programa de traducción automática tuvo lugar en 1954 en la Universidad de Georgetown. Dado que la solución del problema de la CLN estaba muy lejos de poderse afrontar. la ambigüedad léxica. La primera conferencia sobre el tema tuvo lugar en el MIT en 1952. por "esquivar" el problema. que en 1964 se tradujo en la emisión del informe ALPAC por la Academia de las Ciencias Americana. El antecedente más inmediato de la TA lo encontramos en el desarrollo espectacular de los métodos criptográficos a raíz de la segunda guerra mundial. No obstante. en el cual se aconsejaba una reducción drástica en las subvenciones previstas.

Algunos de los trabajos más significativos se reúnen en el libro "Procesado de Información Semántica". Realmente. ANALOGY de Evans. En este esquema no se tenía en cuenta la presencia del ruido. y finalmente. en ambos problemas se trata de transformar una representación en otra. proyectar el modelo previsto en una imagen. Este programa. No debe sorprendernos que muchas de las técnicas aplicadas en aquél sean también útiles en otro de los campos existentes. elReconocimiento de Imágenes. basado en la "equiparación de patrones" (pattern matching). STUDENT de Bobrow. Una aportación especialmente significativa fueron las "Redes de Transición Ampliadas" (Augmented Transition Networks: ATN). basadas en el análisis sintáctico. cuya notación gráfica recuerda a la de una máquina de estados finitos en la que se ha ampliado el tipo de etiquetas que se pueden asociar a los arcos que definen las transiciones (cada una supone realizar una comprobación para poder atravesar el arco). Un sistema que alcanzó unas prestaciones sorprendentes para esa época fue SHRDLU. por no decir "inteligente". Esta recopilación contiene algunos de los trabajos más representativos de la época. por favor". estaba basado en el antiguo esquema consistente en separar el análisis sintáctico del semántico.Weitzenbaum en 1966. que sí pudo tratarse más adelante en INTERPRET. En este área se logró. líneas). La CLN se afrontó desde múltiples perspectivas. elegir el mejor modelo en función de su grado de semejanza con los datos. al fin y al cabo. estructurar los diferentes componentes de un sistema de visión: extraer las características de la imagen (en este caso. El problema de la CLN forma parte de un problema más general. que fueron el resultado de tesis doctorales dirigidas por el propio Minsky en el MIT: SIR de Raphael. simulaba una conversación con el usuario utilizando palabras que éste había nombrado como base de las frases y preguntas que él formulaba. y programas sobre el problema del "sentido común" de McCarthy. BLACK (sistema deductivo de contestar preguntas). la comprensión. estas redes. por primera vez. activar el modelo correspondiente a dichas características. tienen como principales inconvenientes: su complejidad y su falta de modularidad -son muy sensibles ante pequeños cambios-. . redes semánticas de Quillian. o proponiendo frases poco comprometidas como: "Cuéntame más sobre esto. cualquiera que se haya enfrentado al programa sin previo aviso puede llegar a pensar que está manteniendo una conversación con un interlocutor bastante "razonable". otra particularidad es que el conocimiento del problema se representaba de forma procedimental.

El conocimiento del dominio y su parcelación Con la intención de mejorar los resultados.. Consecuentemente.. Una de las primeras aportaciones de este período es la clarificación sobre la naturaleza de las técnicas de representación del conocimiento. una vez se creía superado el enfoque neurocibernético del problema del aprendizaje. Este sistema utilizaba dos clases de aprendizaje: memorístico (almacenar valores calculados de información para que no sea necesario volver a calcularlos más tarde) y ajuste de parámetros o de coeficientes. redes . redes asociativas y reglas). dado que el problema afrontado era ya de un tipo concreto. movilidad de las piezas) con sus respectivos coeficientes o pesos. Las técnicas de representación que permiten describir los aspectos conocidos del problema se denominan declarativas (p. este aprendizaje sigue siendo más numérico que simbólico. este tipo de análisis es bastante limitado ya que no se tiene en cuenta el conocimiento implicado ni la estructura y las relaciones del mismo en el dominio. se crearon los primeros sistemas que lo afrontaban desde una perspectiva simbólica. funciones LISP).Por otro lado. El dilema es el siguiente: Ante cualquier problema se presentan dos situaciones posibles: saber de antemano el conocimiento sobre lo que hay que hacer o tener que indagar qué podría hacerse para resolverlo.. reglas. Las que se centran en especificar el proceso que hay que realizar para encontrar las soluciones buscadas se denominan procedimentales(p.ej. Este último consiste en combinar la información recibida de diferentes fuentes para formar un único resumen estadístico. se empezaron a incorporar en los esquemas generales de la etapa previa los conocimientos que dependían del problema. Como puede apreciarse.ej. se llegó a generalizar el uso de técnicas que tuvieran en cuenta el conocimiento específico de cada uno de ellos. En cierto sentido. marcos. en este contexto denominado función de evaluación: cuyo valor es una combinación lineal de 16 factores (p. El hecho más destacado fue el desarrollo de un programa que era capaz de aprender a jugar a las damas lo suficientemente bien como para batir a su creador. El aprendizaje se traduce en el incremento o disminución de los pesos dependiendo de que el factor correspondiente afecte a la variación experimentada en el valor de la función a lo largo del juego. programación lógica. La conclusión de esta etapa es que lo adecuado en problemas complejos consiste en combinar técnicas (lógica.ej.

la IA tiene por objeto el estudio de los problemas que no tienen una solución analítica o que.ej. además. CLOS). no puede calcularse con los recursos computacionales disponibles. Lenat amplió su significado al contexto de las reglas de producción (explicadas un poco más adelante) desarrollando un sistema. en PROLOG es importante el orden de declaración de los enunciados). entendida como el uso de lógica para representar problemas y métodos de solucionarlos.ej. etc. junto con la utilización de procedimientos apropiados de prueba para la solución real de dichos problemas. Otro rasgo distintivo de la época es la utilización de métodos heurísticos. La importancia de este campo se refleja en su adopción como base del proyecto Sistemas de Computadores de Quinta Generación. Lo que hizo posible el desarrollo de este campo fueron las técnicas de extracción de respuestas de los procesos de resolución y su realización computacional (para finales del verano del 72 ya estaba disponible la primera versión del PROLOG.. no existen técnicas puramente procedimentales o declarativas (p. Eurisco. Un hecho destacable en los comienzos de este período fue el desarrollo de los métodos teóricos que finalmente permitieron llevar a cabo de forma efectiva la programación lógica.) de ambas naturalezas. redes asociativas (semánticas. el coste de cálculo. SMALLTALK. programación declarativa (p. PROLOG). SCHEME.ej. marcos (creados inicialmente para afrontar el "razonamiento basado en el sentido común").. Esta época se caracterizó por la exploración. en sentido estricto. . grafos proposicionalesà). capaz de aprender reglas que establecen la relación de oportunidad o adecuación entre situaciones y acciones. FLAVORS). programación funcional (p. de diferentes formas de representación del conocimiento e inferencia: sistemas de producción. La heurística sería el conjunto de procedimientos basados en conocimiento del dominio que permiten solucionar el problema con los recursos disponibles pero con una reducción asumible en la calidad de las respuestas. multitud de versiones de LISP (p.ej. Programmation en Logique. Por tanto.ej.ej. la clave estriba en encontrar un equilibrio entre el conocimiento del dominio..ej. LOOPS. aun existiendo ésta. bayesianas. causales (p. En principio. de clasificación. MIRANDA)... y la bondad del resultado. Inicialmente. CASNET). las heurísticas se aplicaban en forma de funciones numéricas que guiaban procesos de búsqueda.. etc.asociativas. programación orientada a objetos (p. sobre todo al principio. INTERLISP) que incorporaban estas y otras ideas (p.

ej. ya que hay otras muchas formas de representar el conocimiento o de sintetizar el conocimiento de un experto. al conjunto de fragmentos se le denomina Base de Conocimientos.ej. en la que se guardan los elementos de información que constituyen los datos iniciales y los elementos que se van paulatinamente referenciando en las reglas utilizadas a partir de dichos datos.ej. etc. Esta nomenclatura es claramente imprecisa. En los sistemas que utilizan este modelo se distinguen una serie de componentes: a la parte del sistema encargada de gestionar y enlazar todos estos fragmentos se le denomina Motor de Inferencias. y a los procesos que hacen posible la interacción entre el usuario y el sistema se le conoce por Interfaz de Usuario. por ejemplo. en lugar de apuntar al conocimiento del dominio. para así evitar tener que recorrer numerosas veces el almacén de todos los fragmentos.. también llamada memoria de trabajo. que ambos pertenezcan a la misma categoría). se crean redes que permiten apuntar casi instantáneamente a los tales que dependen de los cuales o viceversa (p. mecanismos de "especificidad" en OPS5). Sobre este esquema básico y para que el sistema sea eficiente. se escogen los fragmentos que tengan que ver con los últimos taleso cuales generados (p. El esquema de funcionamiento de la mayoría de los SBR de la época era el denominado Sistema de Producción. se crean fragmentos que hacen referencia a otros fragmentos (metarreglas en TEIRESIAS). Éstos se enmarcan dentro de los Sistemas Basados en el Conocimiento (SBC). se agrupan dichos fragmentos por temas (conjuntos de reglas). "Cuando situación Entonces acción"). Esta base puede ser tan simple como una lista o tan compleja como una red de . La esencia de este modelo consiste en suponer que el conocimiento es algo "parcelable". RETE en OPS5). se ordenan los fragmentos aplicables por diferentes criterios (p. El razonamiento realizado consiste en enlazar los fragmentos que tengan tales ("encadenamiento hacia adelante") o cuales ("encadenamiento hacia atrás") coincidentes (en realidad la coincidencia puede ser parcial.El modelo imperante en esta época eran los Sistemas Basados en Reglas (SBR). los patrocinadores en GoldWorks). formado por relaciones sencillas de causalidad o de secuencialidad: "Si tal Entonces cual" (o si se prefiere. por compendiar el conocimiento sobre un tema concreto o por emular el comportamiento de un experto en un dominio.. que pueden recuperarse cuando son necesarias cuando se pregunta por tal o por cual. se prefieren los fragmentos que tengan un mayor número de tales o cuales semejantes a los tales y cuales de la pregunta formulada (p. mecanismos de "actualidad" en OPS5). caracterizados por que la "comunicación" entre las reglas se realiza a través de una base de datos.ej. también llamados Sistemas Expertos.

El objetivo de estos mecanismos de representación es poder plasmar situaciones estereotipadas. rompen el esquema básico de parcelación del conocimiento de los SBR. por lo que posteriormente podrán ser evaluados cuando se reciba nueva información. diagnóstico médico. El mecanismo de inferencia en este caso es la propia red de marcos.marcos (p. Hersay-II). Cuando hay más de una regla aplicable ("equiparable" con los datos de la base) se produce un "conflicto" que puede resolverse siguiendo diferentes criterios: el sistema MYCIN simplemente ejecuta todas las reglas. Por ejemplo. Otro de los esquemas imperantes fueron los marcos mencionados previamente. estamos ante un proceso de reconocimiento similar a los que pudieran darse en visión artificial o en la comprensión del lenguaje natural. y la de los marcos para estructurar los objetos. Una vez superada la fase de recogida de información. Los marcos vecinos de un marco activado pasan a estar semiactivos. etc. con el objetivo de encontrar el que explique mejor la evidencia disponible. limitando así el espacio de búsqueda considerado. sus relaciones.ej. aunque de mayor tamaño y con nuevos matices. en el caso de los guiones). Siguen por tanto siendo parcelas de conocimiento. y también los guiones. La capacidad de las reglas para representar los hechos del conocimiento del dominio. reconocimiento de formas. A este modelo básico se le aplicaron mejoras tendentes a soslayar las dificultades en el tratamiento de la incertidumbre. y las inferencias que dependan de éstas. como el mencionado OPS-5. estructurando cada fragmento en una serie de campos (o escenas. denominada red de activación. en el sistema experto PIP (comentado más adelante) cada enfermedad viene representada por un marco. Aunque a primera vista pueda parecer que los marcos. comprensión del lenguaje natural. terminaron por imponer un enfoque de construcción de los SBC basado en la combinación de ambas técnicas. una reflexión más pausada nos indica que siguen siendo estructuras que aglutinan el conocimiento en fragmentos con una estructura estática y con unas posibilidades de relación entre sus partes también prefijadas. otros.. de tal forma que son útiles en dominios tan diversos como: razonamiento basado en el sentido común. la tarea de diagnóstico consiste básicamente en activar los marcos que representan los diagnósticos que incluyen algunos de los síntomas o signos observados en el paciente. . Por lo tanto. tienen un amplio conjunto de heurísticas que prefieren las reglas más recientes y más complejas (o específicas). el sistema procede a evaluar los posibles diagnósticos (hipótesis generadas).

PROSPECTOR destinado a la exploración geológica. TAXMAN II sistema para el análisis de casos legales.ej. etc. EMYCIN. S. CASNET. de análisis. primer SE basado en una red causal. también sería imperdonable en este breve repaso histórico no mencionar algunos de los más significativos: PIP (present illness program). por ser una labor de síntesis. su nombre procede de Causal Associatonial Network. M. . NEOMYCIN -separa el conocimiento estratégico en un conjunto de metarreglas-). lo cual es especialmente útil en su campo de aplicación. la medicina (más concretamente. TEIRESIAS. UNITS. necesitan considerar mayores volúmenes de conocimiento. sería interminable dar una visión razonable del número y el rango de sistemas expertos (SE) construidos (no necesariamente SBR) o de las herramientas (en algunos casos. ART. ONCOCIN (también denominado R1). y un largo etcétera.1. que refleja los avances experimentados en las técnicas de representación. OPS83. diseñado para ayudar a los químicos en el desarrollo de métodos de cromatografía para líquidos. ROSS. DENDRAL (y su ampliación Meta-DENDRAL). TWIRL. su importancia la acredita la serie de sistemas construidos a partir de él (GUIDON -usa la base de conocimientos de MYCIN para construir un sistema tutor para instruir a los alumnos sobre enfermedades infecciosas-. Un dato también significativo. A partir de entonces se abordaron igualmente tareas de diseño. conocido como el primer SBR. HEARSAY-III.). que generalmente. otros SE) utilizadas en su desarrollo (p. KNOWLEDGE CRAFT. OPS5. KEE. NEXPERT. tuvo un gran éxito comercial al igual que XCON (uno de los primeros sistemas de diseño). diseñado en base a una red de marcos para el diagnóstico de enfermedades renales. herramientas para el desarrollo de SE que realicen razonamiento en presencia de incertidumbre. es que la mayoría de los sistemas expertos construidos hasta mediados de los años 80 realizaban tareas de diagnóstico. el del diagnóstico y tratamiento de enfermedades infecciosas). por tanto. utilizado por Digital Equipment Corporation para configurar sus estaciones de trabajo. BB1. sus reglas de producción se utilizaban para generar estructuras químicas que explicaran los resultados espectográficos. una herramienta orientada a objetos para el desarrollo de simulaciones basadas en el conocimiento. ECAT.1. MYCIN fue uno de los primeros sistemas que eran capaces de explicar el razonamiento.Dejando un poco de lado las cuestiones metodológicas y bajando al campo de las realizaciones prácticas. OPS7. EMYCIN -realizado a partir de los mecanismos de inferencia de MYCIN-. No obstante. simulación de combate aéreo estratégico. pretendía ayudar a los médicos en el tratamiento del glaucoma (enfermedad ocular).. INFERNO y AL/X. es el primer consejero de terapia en oncología y es una referencia obligada del razonamiento temporal.

DYPAR. denominado multiestratégico. en concreto. aunque también se han utilizado como intérprete de comandos. por lo tanto. Las investigaciones realizadas se dividieron en: métodos para hacer computables los modelos cognitivos utilizados por los humanos. Estos sistemas tratan de solventar las diferencias que existen entre los dos tipos de lenguajes -el lenguaje natural y el propio de la base de datos (p. Uno de los más conocidos. SQL). fundamentalmente para el acceso a grandes bases de datos. sino uno restringido a las expresiones más frecuentes en un dominio concreto. Se trata de un tipo de interfaz que pretende que el lenguaje de comunicación con la máquina no sea ni tan estricto como los lenguajes artificiales. las transformaciones sintácticas.Pero en esta época avanzaron otras muchas ramas de la IA. y procedimientos efectivos para entablar procesos de comunicación entre el hombre y la máquina -sin considerar su plausibilidad psicológica-. DYPAR permite construir gramáticas semánticas. Estas aplicaciones son factibles porque no se trata de crear un intérprete universal del lenguaje humano. la comparación de la frase de entrada con los patrones contenidos en las reglas de la gramática. A finales de los años ochenta se divulgó el uso de los interfaces de lenguaje natural. se ha implementado en el sistema DYPAR. surgen los métodos basados en la utilización de gramáticas semánticas. denominado PLN Aplicado. Además de la equiparación de patrones y el análisis sintáctico.y de esta manera ofrecer al usuario una herramienta mucho más sencilla y flexible. y la equiparación de patrones en un mismo sistema. ni tan ambiguo como los lenguajes naturales.. denominado PLN General. cada uno de estos interfaces depende de la información contenida en la base de datos que corresponda. Otra aportación indudable en la CLN fue la instanciación de marcos de casos. En este enfoque las categorías gramaticales son sintácticas y semánticas. aplicados en los sistemas: LIFER y SOPHIE. Esta metodología es una de las principales técnicas de análisis que se sigue aplicando en la .ej. El fundamento de su funcionamiento es la equiparación de patrones. Su origen se remonta a la propuesta del lingüista Fillmore. no solo los SBC. se divide funcionalmente en dos partes: la primera se encarga de leer y compilar las gramáticas y la segunda utiliza esa gramática para entender las frases de los usuarios y ejecutar las acciones asociadas con cada una de estas frases. en las que la sintaxis del lenguaje está implícita en los patrones semánticos. Este esquema. Existe también la posibilidad de combinar las ventajas de las gramáticas semánticas. Uno de los problemas que tuvieron mayor atención siguió siendo el del procesamiento del lenguaje natural (PLN). y en la consulta y ejecución de sistemas expertos sencillos.

La clave del reconocimiento es semántica: un mismo caso engloba diferentes estructuras sintácticas con un mismo significado.. En la actualidad. financiado por el ministerio de industria. etc. agente. Japón. cuya misión era aconsejar y seleccionar los componentes apropiados que debían formar parte de la configuración de un computador VAX. Uno de los principales problemas a los que se enfrentan estas investigaciones es el . por su parte. Su utilidad descansa en la utilización de un proceso de naturaleza recursiva y en la capacidad de combinar reconocimiento ascendente a partir de los elementos clave de la sentencia y descendente del resto de componentes menos estructurados. debe recibir una mención especial el sistema XCALIBUR. se produjo un nuevo impulso tanto en Europa como en Japón. que finalmente generaba el sistema experto R1. que tiene un tipo de marco determinado con campos como: objeto. denominada en el modelo *ATRANS*. En el campo de la CLN. este proyecto emplea a 160 investigadores de diferentes grupos nacionales. Dentro del campo de la traducción automática. después de un período de relativo abandono debido al informe ALPAC. cuyo principal objetivo es proporcionar herramientas que faciliten y automaticen. cuyo objetivo era proporcionar diálogo en lenguaje natural con el sistema experto XSEL: un asistente de venta de Digital.actualidad. Hay que recordar que este sistema se ha utilizado en condiciones reales con un indudable éxito. y para ello se utiliza primero la búsqueda de los marcos a partir de una serie de palabras clave que los identifican.000. las tareas de traducción inherentes a dicha organización. siendo éstas verbos que corresponden con diferentes acciones primitivas(p. Para llevar a cabo esta correspondencia se parte de una representación canónica del significado mediante los Grafos de Dependencia Conceptual (un tipo de red asociativa). El proceso consiste sencillamente en buscar los marcos adecuados para interpretar la frase que se está analizando.000?. viene desarrollando desde 1980 un esfuerzo considerable en el tema. Podemos destacar el proyecto Eurotra (comenzó en 1978). Una vez identificado el caso se intentan completar su estructura con los elementos de la frase. y respondía con sentencias del tipo: El rp07aa es un disco duro de 516MB que cuesta $38. como queda reflejado en el proyecto de la Universidad de Kyoto. en la medida de lo posible. "comprar" supone realizar una transferencia de la relación abstracta de posesión.ej. que permiten identificar los elementos significativos del enunciado en cuestión). El interfaz de lenguaje natural recibía frases como: ¿Cuál es el disco duro 11780 más grande por debajo de $40. patrocinado por la Comunidad Europea. receptor.

para expresar las fases que atraviesa un proceso de interpretación guiado por el conocimiento aplicable. En lo que se refiere al reconocimiento de imágenes. Las técnicas de aprendizaje inductivo se aplicaron fundamentalmente para resolver la tarea de clasificación. Para ello se realiza un complejo proceso de búsqueda y refinamiento de las hipótesis utilizadas en la interpretación de la imagen. al igual que en el resto de las áreas. la necesidad del conocimiento del dominio. los más adecuados han sido los marcos (dos ejemplos representativos son: SIGMA y ALVEN). se establece una etapa denominada de "postedición". En lo que se refiere a los formalismos de representación utilizados. en concreto. Michalski y Mitchell realizaron un análisis metodológico muy clarificador sobre el estado del arte. En lo que se refiere al aprendizaje. se crea el concepto de "ciclo de la percepción". En los casos en que el conocimiento aplicado sea insuficiente. más eficiente y eficaz será el proceso realizado. dentro del campo del aprendizaje basado en ejemplos. esta etapa supone. Los primeros esfuerzos con relativo éxito siguieron teniendo lugar dentro del aprendizaje inductivo. el sistema IGS (interpretation-guided segmentation) probó que. de la "imagen de la escena". . de la imagen objeto. redes semánticas y heurísticas. Dentro de la imperante formulación simbólica del problema. se amplían y matizan las fases del proceso propuestas en la primera etapa. El fundamento común de todos los modelos consiste en introducir conocimiento del dominio en la fase de segmentación de las imágenes de tal forma que se focalice la búsqueda de las características más relevantes en un contexto dado. En 1983. Así. Es también la época en la que aparecen las primeras aplicaciones reales y se establecen los ciclos de conferencias a nivel mundial sobre este tema (la primera celebrada en la Universidad de Carnegie Mellon en 1980). Carbonell. Otra aportación importante sobre dicho ciclo consistió en distinguir lo que se denomina "imagen del dominio". Por otro lado. en la que se tiene opción de ajustar los resultados obtenidos. se asume. que se refiere a la imagen real en tres dimensiones. La principal conclusión de las técnicas aplicadas es la necesidad de utilizar información contextual del dominio para afrontar dicho problema.tratamiento de la ambigüedad del lenguaje. El objetivo de un sistema de visión es encontrar la descripción más específica y detallada. que determina su visión en dos dimensiones. por fin. cuanto más conocimiento sea tenido en cuenta (proporcionado por el propio sistema o por el usuario). aunque se han construido aplicaciones con reglas. en la práctica. el desarrollo y la divulgación de las principales técnicas efectivas del campo. entre las que el sistema tenga disponibles.

o métodos de compilación del conocimiento. naturaleza deductiva.ej.. Surge aquí el problema adicional de establecer las bias adecuadas para generar conjuntos lo más útiles posibles -normalmente aquellos cuya facultad de predecir los atributos relevantes que los describen sea mayor-. ya que se basan en el análisis del conocimiento disponible. cuya definición inicial era demasiado abstracta como para resolver adecuadamente el problema. Como resultado de la dependencia del número y el tipo de ejemplos disponibles en la formulación inductiva del aprendizaje. Su objetivo -inicialmente demasiado elevado. y como expresión de la emergente tecnología relativa al desarrollo de sistemas expertos. podemos afirmar que este tipo de aprendizaje produce una corrección del conocimiento del dominio. Una opción muy extendida para llevar a cabo la clasificación es la utilización de árboles de decisión como estructura de representación básica que establece la buscada correspondencia entre el espacio de entradas y de salidas. siendo su objetivo predecir la clasificación correcta de instancias todavía no presentadas en base a la búsqueda de semejanzas en las clasificaciones observadas (por esto se le conoce como aprendizaje basado en la semejanza. ya que se aplicaron como una herramienta para hacer más operacional el conocimiento de una tarea. Aparece por lo tanto el problema de manipular descripciones probabilísticas de conceptos. BACON). y cumplen la condición básica de este paradigma: la . Un salto cualitativo dentro del razonamiento inductivo está asociado a los métodos que carecen de una fuente explícita de clasificación de ejemplos.Generalmente estas formulaciones parten de una clasificación de las observaciones procesadas de acuerdo con alguna fuente externa (llamada «oráculo»). igual que lo hacen los humanos. la clasificación. por tanto. SBL: similarity based learning). al ser de naturaleza inductiva. Otro ejemplo del enfoque inductivo son los sistemas de descubrimiento. Si analizamos estos sistemas en el nivel de esta tarea. tienen. Todos estos paradigmas. En estos casos el problema se centra en agrupar convenientemente los objetos y establecer una descripción de dichos grupos. surgió a lo largo de los años 80 un enfoque más centrado en la formulación adecuada del conocimiento disponible que en la búsqueda de mecanismos genéricos de generalización inductiva. En realidad son estrategias de aprendizaje analítico. Su realización práctica ha logrado establecer heurísticas que permiten obtener leyes científicas válidas en el contexto seleccionado (p.era realizar descubrimientos de carácter científico. Surgen entonces las que se denominaronaproximaciones basadas en el conocimiento intensivo. tienen como rasgo común la no monotonocidad del conocimiento aprendido: la posibilidad de que el nuevo conocimiento inferido desmienta las hipótesis previas.

algo así comoencapsulamiento. se requiere que sea completa..ej.ej. La nueva regla obtenida que produce el mismo efecto que una secuencia de operadores se denomina macrooperador. De igual forma que en EBL. pero con un planteamiento diferente. que en este caso no está formada por reglas que describen el conocimiento del dominio. El mecanismo de generalización se denomina chunking. EBL). las reglas básicas del juego del ajedrez definen una teoría de estas características. así como todas las acciones que no se han deshecho por la aplicación de los . etc. En este caso se aprenden heurísticas basadas en el conocimiento del dominio que determinan qué estado o qué operador debe elegirse en un momento dado. sigue siendo un aprendizaje basado en una explicación.. Como una prolongación del planteamiento general de los problemas de búsqueda de la etapa anterior y dentro del planteamiento analítico y deductivo del aprendizaje. Estas técnicas analíticas se pueden aplicar en multitud de tareas. inspirado en el campo de psicología cognitiva. Destaca su utilización en el paradigma denominado resolución de problemas (problem solving). consistente. Aunque en otro contexto. y reúne en su parte antecedente todas las características del problema inicial que se necesitan para dicha solución. encontramos un modelo que aprende heurísticas de control cuando las ya existentes no son capaces de resolver una determinada situación. y tratable (evaluable con unos recursos razonables) (p. sino por operadores aplicados a lo largo de un proceso de búsqueda de la solución.monotonocidad del conocimiento aprendido. de percepción. al igual que el resto de los métodos analíticos. debemos mencionar el aprendizaje de macro-operadores. pero el rango de decisiones es inabordable: 10120). Por esto son también llamados métodos basados en la explicación (explanation based learning. El mecanismo de aprendizaje de estos métodos se basa en resumir en una sola regla el árbol de explicación o prueba de un ejemplo con una teoría. de planificación. que en este caso sirve para salvar un punto de indecisión. La principal desventaja son sus exigencias con respecto a la formulación de la teoría del dominio. El objetivo deja de ser realizar una tarea más correctamente y se transforma en mejorar la eficiencia con la que se ejecuta. realiza una compresión del proceso de búsqueda realizado. ya que. La gran ventaja es que pueden aprender conocimiento útil a partir de un único o un conjunto reducido de ejemplos (p. múltiple EBL). en tanto en cuanto la teoría puede describir conocimiento de control. el conocimiento aprendido es una regla que resume el proceso realizado: el camino que conduce desde un determinado estado hasta un estado meta. Con este mismo objetivo.

2. Estos cambios se producen tanto en el campo . CLN. junto con la constatación de los mecanismos de razonamiento analógico en el ser humano.2. En estos procesos se realiza una generalización inductiva sobre las relaciones (determinaciones que se cumplen en un determinado dominio (el «origen»).2. La dificultad intrínseca de una formulación correcta y completa de la teoría del dominio asociada a los métodos basados en la explicación (EBM). Este método se ha aplicado principalmente en la planificación de la tarea de un robot. Este tipo de realizaciones exige tener mecanismos de almacenamiento y acceso a datos muy eficientes. 1. proviene fundamentalmente de estudios sobre la plausibilidad psicológica más que sobre la realización práctica. Aspectos metodológicos conocimiento y distribución del Después de los períodos de iniciación (secciones 1. y del de divulgación y diversificación de las técnicas básicas aplicadas en diferentes dominios y tareas (sec. concentración y separación de las tareas de aprendizaje que caracterizaba la etapa anterior.1 y 1.diferentes operadores durante el camino encontrado. de indexación de estructuras. visión. dio lugar al desarrollo del aprendizaje por analogía. suponiendo que también se cumplen en otro dominio (el «destino») relacionado con aquél. de búsqueda de correspondencias entre situaciones semejantes y de generalización. etc. que no puede clasificarse como puramente deductiva ni inductiva. comenzó a finales de los años 80 una época de asentamiento y revisión de resultados caracterizada por un cambio de conceptualización del conocimiento y por una preocupación por los aspectos metodológicos en los diferentes campos (SBC. Una tercera aproximación al problema del aprendizaje. Para llevar a cabo estos sistemas se han conjugado mecanismos potentes de organización dinámica de memoria. dado el volumen creciente de información manipulada.2).3). En cuanto al modelo del conocimiento adoptado  tal y como analizaremos a continuación se observa un predominio de los esquemas distribuidos con una capacidad intrínseca de aprendizaje frente a la parcelación. aprendizaje.).

desarrollo.simbólico (p. Para paliar esta limitación se intentaron aplicar técnicas de aprendizaje (p. que se desarrollaban de acuerdo con una estructura muy pobre (análisis de protocolos). de ingeniería. las únicas técnicas aplicadas eran el prototipado y el análisis de protocolos. pero resultaron ser demasiado dependientes de la tarea y el dominio en concreto. inducción de nuevas reglas a partir de ejemplos en MetaDendral [Lindsay et al. 80]. ya que los humanos son poco aptos para describir su conocimiento mediante reglas. Uno de los principales problemas de estos sistemas era su relativa fragilidad: a la vez que pretendían emular el comportamiento de un experto... Para su realización se concertaban una serie de entrevistas con el experto. Las técnicas de representación más extendidas de la época anterior (sec. se partía del presupuesto de que una modelización excesiva desde el principio suponía muchas veces un esfuerzo inútil. 82]. 82]. razonamiento basado en casos) como en el subsimbólico (p. Además. La fase de adquisición del conocimiento es la que más esfuerzo y tiempo requiere. Este proceso era largo y costoso. redes conexionistas multicapa). y cuyo propósito era extraer todo el conocimiento relevante para llevar a cabo la tarea encomendada. Una de las deficiencias más detectada era la falta de metodología.. tenían verdaderas dificultades para enfrentarse a un problema imprevisto. marcos o en una combinación de ambos) adolecían de una serie de desventajas que terminaron minando las sobrealimentadas expectativas puestas en ellos  animadas muchas veces por meros intereses económicos . etc. descubrimiento de nuevos conceptos y relaciones [Lenat.3) en el desarrollo de los sistemas expertos (reglas. Por otro lado. descubrimiento de nuevas asociaciones entre pacientes en RX [Blum.ej. y mantenimiento. dado que la configuración .).2. aprendizaje de modelos de adquisición de reglas en TEIRESIAS [Buchanan & Shortliffe. 1. o si se prefiere. Prácticamente. se detectaron diversos problemas en cada una de las fases en las que se puede dividir su realización: adquisición del conocimiento. 84].ej.ej.

del sistema se iba perfilando según avanzara el proceso de entrevistas sucesivas. desde luego. se intenta que sea suficiente con especificar una descripción que se aplica a un programa ya creado.3) en el sistema EMYCIN. siendo muchas veces necesario replantear el esquema inicial (prototipado). De tal forma. a una estructura de representación concreta  generalmente reglas o marcos . que resultó de vaciar MYCIN de reglas de . por tanto. que pretendían aportar la estructura de inferencia requerida para solucionar un determinado tipo de problemas. control. que se trivializaba el proceso de abstracción y estructuración propio de cualquier otro producto de la ingeniería del software. los mecanismos de inferencia utilizados: encadenamiento hacia adelante. el salto entre ambas. en los SBC el problema consistía en pasar de la descripción del conocimiento en lenguaje natural. Sin embargo. y más que "construirlo". El modelo interno del sistema.2. Un intento de aprovechar en los SBC dicha circunstancia fueron los llamados sistemas "concha" (shell). Sin embargo. La suposición inherente a todos estos planteamientos era que se podía separar el conocimiento de su uso en inferencia. siendo una cuestión secundaria la sintaxis que permite llevarlo a cabo. Conviene recordar que el objetivo primordial de dicha ingeniería es que el diseñador del programa no tenga que construir todo un programa completo. hacia atrás o combinado. eran una aproximación demasiado gruesa en relación a la estructura de las tareas que se querían resolver: planificación. diagnóstico. ¿Qué pasa con todos aquellos problemas que comparten una cierta estructura?. que para cada caso concreto bastara con actualizar el conocimiento del dominio. su arquitectura. de abstraer lo que el programa debe hacer. se ajustaba tanto al que se suponía que era el modelo del experto: un conjunto de fragmentos independientes de conocimiento que había que descifrar. clasificación. era muy considerable. Se trata. de tal forma que pueda ser reutilizado y corregido fácilmente. Recordemos que esta práctica tiene su origen (sec. etc. sino sólo ciertas partes del mismo. 1.

Esta técnica de modelar el conocimiento nos permite aislar el objetivo: la tarea que quiere realizarse. esta metodología estructura las fases. heurístico. y el refinamientocomo una combinación de los dos procesos de búsqueda anteriores. Siendo el método el que determina la descomposición correspondiente. Lo que caracteriza la clasificación frente a otras tareas es que las clases deben ser previamente conocidas. de Por otro lado. Apoyándose en estas ideas se ha desarrollado una metodología de construcción de SBC orientada a modelos conocida como KADS (Knowledge-Based Systems Analysis and Design) [Wielinga et al. Por ejemplo.enfermedades infecciosas. la clasificación. equiparación heurística y refinamiento [Clancey. ya que a cada "entrada" le corresponde una "salida"). no son el resultado de un proceso de construcción (si fuera un proceso constructivo cualquier solución de cualquier problema sería un proceso de clasificación. estas subtareas pueden modelarse en base a otras tareas más simples: la abstracción como un proceso de búsqueda dirigido por los datos. Por ejemplo. en lo que se refiere al planteamiento metodológico de las problemas. delmétodo con el que se resuelve.. dejando las estrategias razonamiento y las facilidades de explicación. La tarea de clasificación puede descomponerse en una sucesión de subtareas. la tarea de clasificación puede definirse como: "la búsqueda de una relación de correspondencia entre las observaciones y las clases a través de un conjunto de reglas de inferencia". 85]. etapas. 92]. En realidad se busca un nuevo nivel de abstracción que permita combinar métodos y tareas en función de los objetivos. de tal forma que se puedan identificar la tarea y el método para resolverlos. 92]. Los elementos que definen este nivel se denominan tareas genéricas [Chandrasekaran et al. en el caso concreto de la clasificación heurística la inferencia se realiza en tres etapas: abstracción. En pocas palabras. la equiparación heurística como una búsqueda dirigida por las hipótesis. actividades y resultados que deben seguirse para obtener una . pertenecientes a un conjunto.. hoy en día prevalece la postura de que para describir en abstracto los problemas es necesario modelar claramente el conocimiento. A su vez.

junto con el elevado coste de su desarrollo y mantenimiento. proporcionar un estándar de desarrollo similar al de otros campos de la ingeniería del software.descripción del sistema mediante modelos que deben representar conceptos relevantes. ya hemos señalado que el modelo adoptado. que llega incluso a la definición del programa que finalmente será ejecutado ùKADS-I (ESPRIT-I P1098) se quedaba en la definición del modelo conceptualù [Van de Velde et al. En realidad. distinguir las actividades técnicas de las de gestión. 94]. Esta metodología es el resultado del proyecto ESPRIT KADS-II (P5248) que es una continuación del proyecto KADS. Actualmente. No es nuestro objetivo realizar un análisis profundo sobre este fenómeno. integración. el objetivo en sí: intentar que un producto de software se comporte de modo parejo a como lo haría un experto en un área muy concreta. facilitar el mantenimiento y las ampliaciones. CommonKADS es el estándar europeo para el desarrollo de sistemas basados en el conocimiento.2. Cubre todos los aspectos del desarrollo de un SBC (conocimiento estratégico. la falta de metodología y las esperanzas puestas en la tecnología entonces aplicada.3). De hecho. gestión del proyecto. En . Algunas de las ventajas que se buscan con esta metodología son: estructurar y sistematizar el desarrollo de los SBC. La propia designación de "sistemas expertos" ha llegado a tener. sigue siendo una meta que no debe despreciarse.. sería una grave falta de juicio no reconocer los éxitos que estos sistemas han tenido (véanse las numerosas aplicaciones citadas en la sección 1. Una de las principales contribuciones de este proyecto es el introducir las últimas técnicas aplicadas en la ingeniería del software en el campo de la IA. adquisición del conocimiento y desarrollo del producto) enmarcados en un único ciclo de vida de carácter espiral. muchas veces injustamente. soportar la adquisición del conocimiento y generar una librería de modelos reutilizables. diseñados para proporcionar el comportamiento deseado en el dominio. connotaciones negativas  alguna vez hemos oído la expresión YAES ("yet another expert system") . ha producido un cierto rechazo sobre el tema.

87. 94] (sistema experto para ecocardiografía basado en redes bayesianas). Cuando las personas resuelven problemas. Uno de los paradigmas más aceptados y utilizados es el del razonamiento basado en casos. Quizás la más dañina de todas sea la creencia de que "ser inteligente" proviene de saber una gran cantidad de reglas à La mayor parte del razonamiento humano está basada en casos en lugar de en reglas. Presentamos a continuación las manifestaciones de un investigador de reconocido prestigio que señala:  Treinta años de investigación nos han enseñado que muchas de las ideas que la gente tiene de forma intuitiva acerca de la inteligencia no son ciertas. queremos mencionar algunas de las aplicaciones que han desarrollado personas cercanas a nuestro grupo de trabajo: CAEMF [Marín. MEEDTOL [Otero & Mira. SUTIL [Barro. 91] y DIAVAL [Díez. normalmente recuerdan problemas previos. casi exclusivamente.este sentido. Otero.. 87] (aborda el problema de la monitorización inteligente en una unidad de cuidados coronarios y resuelve algunos problemas importantes relacionados con los sistemas expertos en tiempo real). una especie de micromarcos).à [Schank. 91] (es una herramienta para el desarrollo de sistemas expertos que incluye un procedimiento propio para la representación del conocimiento mediante "magnitudes generalizadas". a aprender el contenido de los libros sobre el tema con vistas a . 95] Uno de los ejemplos aducidos por Schank es el de los estudiantes de medicina en los Estados Unidos. TAO-MEEDTOOL [Barreiro. 88. 86] (dedicado al diagnóstico y seguimiento anteparto del estado materno-fetal). 91] (consejero de terapia oncológica que incorpora el conocimiento estratégico necesario para la inclusión de enfermos en protocolos de quimioterapia y para el seguimiento del efecto del protocolo). TAO [Mira et al. Durante los dos primeros años éstos se dedican. parece haber consenso en superar las limitaciones de las técnicas aplicadas en épocas pasadas. Actualmente.

formando una jerarquía de . Los casos se organizan en una red en la que existen enlaces de abstracción y especialización.superar un test. Los fundamentos en los que se apoya el RBC tienen su origen en los modelos de representación conceptual del campo de la psicología cognitiva [Schank. "Tener un amplio. 80] y en el razonamiento analógico aplicado a dominios de conocimiento restringido [Carbonell. el mundo es muy complejo como para ser reducido a las reglas que forman las teorías que construimos. Las generalizaciones que realizamos son constantemente modificadas para acomodarse a las sorpresas que nos depara la realidad circundante. los MOPS reúnen. y convenientemente indexado conjunto de casos. A diferencia de los guiones (secuencia estereotipada de acciones almacenada en una sola estructura en la memoria). 82]: unidades primarias de almacenamiento de una memoria dinámica que sirven para identificar las partes comunes observadas en las experiencias de diferentes episodios. que confía en que el Razonamiento Basado en Casos (RBC) es un modelo adecuado para la resolución de problemas. es lo que diferencia al experto del estudiante primerizo formado a partir del conocimiento reflejado en los libros". Estos enlaces cambian continuamente. en función del descubrimiento de nuevas semejanzas o diferencias que se consideran más relevantes para la tarea en cuestión. Realmente. 86]. mediante enlaces creados dinámicamente. El objetivo consiste en conjugar de forma efectiva el razonamiento causal con técnicas de almacenamiento y agrupación eficiente de sucesos en memoria. las escenas y los diferentes elementos de conocimiento que son relevantes para interpretar una determinada situación. sin embargo. con independencia de la calificación obtenida en dicha prueba". "nadie querría ser operado por un estudiante de segundo curso. el elemento básico de representación en este paradigma son los MOPs (Memory Organization Packets) [Schank. Desde el punto de vista estructural. Roger Schank pertenece a una corriente de opinión dominante. lo cual implica una concepción bastante alejada de la mayoría de los sistemas de IA construidos hasta ahora.

El razonador basado en casos resuelve nuevos problemas adaptando los casos relevantes de su biblioteca. 82]. recordarla indexándola convenientemente. en el caso de que hubiera habido reparación. intentamos entenderlo etiquetándolo en nuestra memoria [Schank. Estos enlaces juegan un papel esencial ya que determinan qué información y cuándo está disponible. 86]. recuperar los casos relevantes basándose en la semejanza con la entrada. 88]). . Aunque en este modelo no se parta de hechos de una teoría más o menos formalizada (como en el caso de los SBR). 87]). 94]). evaluar la solución con vistas a determinar si debe ser reparada o si puede ser directamente incorporada a la memoria de casos. etc. Los casos están formados por conocimientos acerca de las experiencias con las que nos enfrentamos. 90]).abstracciones. Consiste esencialmente en utilizar el conocimiento disponible que tenga una mayor relación con el problema planteado. seleccionar el mejor caso(s). 92]). y. La idea clave que utiliza su esquema de funcionamiento se apoya en que cuando escuchamos un relato. En concreto. soluciones de problemas construidas por analogía (PRODIGY [Veloso & Carbonell. ya que podrá ser accedido a través de un mayor número de etiquetas. recetas culinarias (CHEF [Hammond. Cuantos más detalles contenga el relato más fácil será recordarlo. 90]). diagnósticos (CASEY [Koton. un sistema de este tipo debe: extraer de los datos de entrada las características que mejor puedan utilizarse para indexar la memoria de casos. adaptar los caso(s) para que cumplan las especificaciones del problema. menús (JULIA [Hinrichs. diseños (CYCLOPS [Navinchandra. Los casos pueden ser: planes (DAEDALUS [Allen & Langley. disputas laborales (PERSUADER [Sycara. realizar las generalizaciones pertinentes en función de los nuevos casos disponibles. 91]). La red de casos representa el conocimiento del dominio. El RBC tiene como proceso básico de actuación la capacidad de recordar. finalmente. disputas legales sobre patentes (HYPO [Ashley. 86]). se accede a situaciones previas para guiar el proceso de búsqueda de la solución de los problemas nuevos planteados [Hammond.

aplicando algún método analítico de aprendizaje (del tipo EBL. àAunque esto no ha hecho nada más que empezar.Un aspecto esencial del RBC es que su esquema de funcionamiento básico incorpora la capacidad de aprender. Es por ello que también se ha considerado tradicionalmente como un subcampo del aprendizaje. relativos a los objetos del dominio. Para comentar la importancia que últimamente se le está dando a otro de los formalismos de representación en boga. 94]. 87] . resumiremos algunas ideas escritas por Leslie Helm en el periódicoLos Angeles Times en su edición del 28 de octubre de 1996 (home edition). àEstos sistemas pueden generar predicciones óptimas automáticamente. se atiende a la explicación de las causas que determinaron las decisiones tomadas  accesibles a través de un modelo causal creado al efecto [Sycara. véase la sección anterior). aprender nuevos índices [Sycara & Navinchandra. 89]. aprender características que predigan problemas [Hammond. actualmente se están construyendo productos que incorporan esta tecnología. aprender reparaciones aplicables en diversas situaciones [Sycara. estos sistemas pueden explicar el aprendizaje realizado en términos semánticos. así como decisiones. ya sea para predecir los precios del petróleo y las acciones. Por tanto. 90]. incluso cuando se hayan omitido elementos de información claves. Según la columnista:  Bill Gates (presidente de Microsoft Corporation) afirma que "la ventaja competitiva de la empresa es su experiencia en Redes Bayesianas": àdiagramas complejos que organizan el conocimiento de un tema estableciendo las conexiones causa-efecto entre las variables relevantes y cuya codificación se basa en introducir los números que representen el grado probable en que una variable afecta a otra. por ejemplo. 89]. y ampliar la jerarquía de casos describibles [Vilain et al.. para controlar un . 87]. Para ello. Abarca diversos tipos de aprendizaje: aprender nuevos casos que ayuden a resolver problemas [Veloso & Carbonell.

confía en un renacimiento del campo con esta nueva seña de identidad. ciegos y desorientados. prometiendo una ola de programas que podían "pensar". Actualmente. otro servicio Web que ayuda a los padres a diagnosticar los problemas de salud de sus hijos. y las Redes Bayesianas vienen a resolver este último problema. . la última versión del "Office" proporciona una ayuda al usuario basada en la experiencia previa (considerando cómo se está moviendo el ratón y qué tarea se está realizando). por lo que se recurre a estimaciones subjetivas de expertos humanos. los avances en este campo (cuyo resurgir se debe fundamentalmente a la introducción de la propiedad de separación direccional en el modelo) están demostrando tener un campo de aplicación muy prometedor (podemos destacar un sistema bayesiano para el diagnóstico de valvulopatías. No obstante. podemos predecir un nuevo descrédito  si así se quiere interpretar de esta nueva tecnología. El campo de la IA. La Compañía ofrece: un servicio Web gratuito que ayuda en el diagnóstico de los problemas de impresión. Como muchos investigadores defienden. y que finalmente no fueron capaces de producir. y normalmente no se dispone de toda esta información mediante estudios objetivos. desarrollado por un miembro de nuestro departamento [Díez. es muy improbable que un sólo formalismo sea la solución de muchos problemas. que cayó en descrédito durante los años 80. basándonos en el espíritu de este artículo. debemos recordar que estas redes necesitan gran cantidad de probabilidades numéricas.transbordador espacial. existen ciclos de conferencias y numerosas publicaciones que reflejan la importancia científica de este "renacimiento". o para diagnosticar una enfermedad. Además. à Microsoft es la compañía que ha apostado con mayor energía en este nuevo enfoque. 94]). mudos.à Una vez más. àA Gates le gusta decir que los computadores actuales son sordos. además del interés comercial.

La gran diferencia del algoritmo utilizado..2. Este tipo de computación pretende convertirse en una tecnología complementaria de la IA simbólica para aquellos problemas que tengan que ver con medios cambiantes y parcialmente . Al fin y al cabo. estriba en que la función umbral se sustituye por una función derivable (una sigmoide) que permita la retropropagación de la función de error que guía el aprendizaje supervisado por el método del gradiente.1) una nueva propuesta [Rumelhart et al. aproximación de funciones lineales. el paralelismo y la posibilidad de realizar directamente su implementación hardware. al igual que en los métodos SBL (sec. memoria asociativa. se produce a mediados de los años 80  después de un largo período de relativa inactividad (sec. reconocimiento de caracteres. 1.2. Por lo tanto. Junto al declive del modelo de computación aplicado en los sistemas expertos y a las razones que siempre han motivado el interés por este modelo de computación: la constatación de la versatilidad del modelo neuronal en tareas como: percepción. también conocidos como redes neuronales (sec. una red actúa como un clasificador con capacidad de predicción. control adaptativo y aprendizaje. backpropagation. Esta nueva aportación mantiene el concepto de red como una arquitectura modular repartida en un elevado número de elementos que realizan una función analógica no lineal y que están conectados entre sí según lo disponga la configuración elegida.3). 1.2. se requiere un número elevado de ejemplos para llegar a un punto de convergencia en el modelo.1). Otras razones que también avalan el interés por las redes neuronales son: la tolerancia a fallos. la inherente velocidad computacional. la relevancia encontrada en las observaciones presentadas se fundamenta  implícitamente en un análisis estadístico. predicción de series temporales. En este tipo de aprendizaje. optimización. 86] que permite superar las restricciones de los modelos previos.Otro elemento que caracteriza la situación actual es el resurgimiento del interés en los llamados modelos conexionistas (llamados así por estar formados por una red de unidades altamente interconectadas). 1.

La aplicación práctica de estos modelos refleja la importancia que tiene la determinación del conocimiento inicial para lograr unos resultados satisfactorios. 192. es una de las aplicaciones más toscas hasta la fecha). determinados por las clases de funciones de computación local aplicada sobre las entradas (p.conocidos que aconsejen soluciones paralelas y en tiempo real. reconocimiento de caracteres escritos [Le Cun et al. ALVINN (Autonomous Land Vehicle In a Neural Network) [Pomerleau. y las unidades de salida representan las clases a las que pertenecen los ejemplos presentados. con sus tres capas ocultas de 768. 89] (se utilizaba para leer las direcciones y apartados de las cartas de correo. los resultados fueron limitados. El gran problema que debe afrontar el modelo conexionista.. 93] (aprende a dirigir a un vehículo siguiendo una línea de un carril en una autopista imitando el comportamiento del conductor a partir de pares imagen/dirección. pero sentó las bases del campo). es la manipulación del conocimiento y de la inferencia en la red. La configuración multicapa generalmente elegida es la de una red con unidades dispuestas en tres grupos diferenciados o capas. tal y como se planteó en su día en la formulación simbólica. las unidades intermedias(también llamadas unidades ocultas) constituyen la estructura interna de la red. que sean capaces de afrontar la variabilidad del medio.. y 30 unidades respectivamente. aprende a pronunciar texto escrito. El conocimiento explícito de la red se manifiesta en los pesos de las conexiones y en la configuración de los enlaces entre las distintas unidades. la efectividad de la red viene determinada por la manipulación de una serie de parámetros como son el ratio de aprendizaje y el momentum). Las unidades de entrada reflejan la codificación de los patrones asociados a los ejemplos presentados.ej. El conocimiento implícito proviene de los distintos tipos de neuronas. 87] (fue una de las primeras demostraciones sobre la utilidad de las redes neuronales. Algunas de las aplicaciones más conocidas son: el programa NETtalk [Sejnowski & Rosenberg. en el caso del backpropagation. es sorprendente .

ej.. Los resultados obtenidos (p. Sin embargo. el programa sólo era capaz de seguir una línea y no podía circular en situaciones reales con tráfico. 95] (existe un ciclo de conferencias y una lista de correo electrónico sobre este tema).comprobar que el sistema ha permitido alcanzar velocidades de 130 Km/h en autopistas cercanas a Pittsburgh). Towell & Shavlik. últimamente se están realizando un gran número de aplicaciones tendentes a aprovechar las ventajas respectivas de ambos tipos de formulaciones (algunos ejemplos representativos son: [Shavlik & Towell. Towell et al. 1993. El enfoque conexionista ha estado tradicionalmente separado del planteamiento simbólico. 94]). en el caso ya comentado del sistema ALVINN. y la inaccesibilidad al conocimiento distribuido implícito en la red (sólo se accede a la respuesta de la red). Esta es una constante en este tipo de aplicaciones. o la combinación de ambas. Los sistemas híbridos son frecuentes cuando la IA se aplica a situaciones palpables en el mundo real. Actualmente se pretende combinar las capacidades primarias del sistema con conocimiento simbólico de más alto nivel con el fin de afrontar situaciones más reales. éstos requieren de 100 a 1000 veces más de tiempo de entrenamiento. 90. Luego el problema no es cuál es mejor formulación.. Dos de los principales inconvenientes de las formulaciones conexionistas son: la necesidad de realizar una codificación arbitraria de las entradas y las salidas. ya hemos comentado la utilidad práctica de este planteamiento. si la simbólica o la conexionista. y aunque la clasificación generada de los ejemplos presentados sea ligeramente mejor que en el enfoque simbólico.. la cuestión es saber cuándo debe aplicarse una u otra. 89]) indican que el aprendizaje en las redes es largo. Estas formulaciones mixtas de aprendizaje  como la señalada simbólicoconexionista se conoce más genéricamente . Thrun & Mitchell. [Mooney et al. Sin embargo. Romaniuk & Hall. 89. Uno de los temas que reciben un mayor interés es la extracción de las reglas que reflejan el conocimiento contenido en una red conexionista [Omlin & Giles. 91. Por ejemplo.

como estrategias híbridas. se observa. Precisamente. después de un periodo en el que se establecieron las bases . 94]. Nos referimos al análisis sobre las denominadas bias: son el conjunto de todos los factores internos (p. que influyen en la selección/interpretación/modelización/etc. Rendell. Hoy en día. más adelante. Básicamente. Michalski. 89]. 80. 86. y. Bajo este nombre se engloban también el resto de los modelos simbólico-subsimbólicos. abductivos. Esto es una consecuencia clara de la paulatina maduración del campo. generalmente ocultos a nivel consciente. 94] y los simbólico-genéticas [Vafaie & De Jong. también conexionistas y bayesianos. queda patente la incorporación de la capacidad de aprender en las distintas formulaciones. Uno de los avances más significativos se produjo cuando se realizaron los primeros estudios sobre el significado de las transformaciones realizadas en estos sistemas. al igual que se ha comentado sobre los SBC. El acceder a la descripción del principio que guía el proceso de aprendizaje abrió las puertas a la interacción entre modelos que inicialmente se consideraban de forma aislada: deductivos. el aprendizaje es una de las cualidades más definitorias de la inteligencia. a la par que una preferencia por las formulaciones mixtas  ya introducidas . lo que hacen estos métodos es utilizar el conocimiento del dominio y un conjunto de ejemplos para desarrollar un modelo que permita clasificar bien futuros ejemplos. Utgoff. 89. de aquello (realizada por dicho agente) que determina el comportamiento del sistema de aprendizaje [Mitchell. 83. 84.. además de una exigencia deseable en cualquier sistema que pretenda llevar el distintivo de IA.ej. analógicos. un intento de avance en los aspectos metodológicos. Subramanian. La clave del asunto está en aprovechar la información de cada una de las dos fuentes para que ambas se complementen entre sí. En esta revisión que estamos realizando sobre la situación actual. Al fin y al cabo. en lo que se refiere a la tendencia actual de las investigaciones sobre las técnicas de aprendizaje. un agente en interacción con el medio). inductivos. como puedan ser los simbólico-numéricos [Zahng.

87. 93. la deductivoinductiva. también en el campo del aprendizaje se percibe la necesidad de considerar el conocimiento como . responde a una sugerencia realizada anteriormente [Mitchell. consiste en utilizar el conocimiento expresado en una teoría del dominio incompleta. Cualquier otro modelo multiestrategia que hubiéramos analizado tendría como base una misma concepción del problema. se han establecido ciclos de conferencias dedicados expresamente al tema. 90] se aplica EBG (un método analítico de EBL) [Mitchell et al. en el desarrollo presentado en [Hirsh. 86] para obtener generalizaciones válidas a partir de una teoría incompleta del domino. 92. Una de las más utilizadas. Por ejemplo. 90. Shavlik & Towell. Veloso & Carbonell. incorporando a continuación el conocimiento proveniente del trato empírico de ejemplos disponibles. Existen varias formulaciones básicas sobre el tema. incluyendo las concepciones híbridas [Michalski & Tecuci. para producir nuevas entidades que superan el cierre léxico de las conectadas. y que consiste en concebir el conocimiento. Tecuci. 90]). 89. sino como algo que debe ser relacionado y confrontado con otros elementos de conocimiento disponibles. 94] como lo demuestra el último número de la colección de libros sobre aprendizaje (el volumen IV de Machine Learning se ha dedicado por entero a ilustrar trabajos en el campo del aprendizaje multiestrategia. 90. pero que no estaban directamente disponibles en la teoría aplicada. Cox & Ram. 89. deductiva o abductiva).que permitían llevar a cabo estas formulaciones de carácter mixto [Cohen. Russell & Grosof. no como un elemento aislado que depende de una determinada concepción (en este caso: inductiva.. cuyo objetivo es intentar rellenar los vacíos existentes en la descripción inicial de la teoría (algunos ejemplos se pueden encontrar en [VanLehn. 90]. Falkenhainer. luego se refinan las reglas aprendidas mediante el uso de jerarquías de abstracción de los valores de algunas de las características que se utilizan en la descripción de los objetos del dominio. se ha producido una auténtica eclosión de modelos y aplicaciones [Lebowitz. Por lo tanto. 94]). 90. Flann & Dietterich. 84]. Hirsh. que coincide con el resto de las propuestas de otros campos de la IA en nuestro días. 91. además. Qian & Irani.

. redes neuronales. Boticario. reformulaciones de algoritmos antiguos. estudios sobre la complejidad sintáctica y la fiabilidad de los resultados obtenidos  conocido como teoría del aprendizaje computacional  (este campo surgió hace algún tiempo [Valiant. 88]. primero. que engloba. 84. aplicación de muchas de las técnicas afianzadas. o más versátiles (en un formalismo lógico [Qian & Irani. 90]. organización de memoria y aprendizaje (PRODIGY [Carbonell et al. como el espacio de versiones [Mitchell et al.. la aplicación de un conjunto amplio de herramientas ùdesde el aprendizaje por descubrimiento. cuyo último objetivo ùtodavía lejano [Pérez & Ribeiro. 83. 92b] (es el primer sistema aprendiz utilizado regularmente por un usuario final  en cuyo desarrollo ha tenido la oportunidad de participar el autor del presente proyecto ). etc. 94]). técnicas fuzzi. 92a. y consideración de otras alternativas. Haussler. arquitecturas integradas que proporcionan un entorno genérico de programación en el cual pueden combinarse procedimientos de búsqueda. como el denominadoDescubrimiento del Conocimiento en Bases de Datos (KDD: Knowledge Discovery in Data Bases). THEO [Mitchell et al.una red. SOAR [Laird & Rosenbloom. segundo. 88]. 91]). Además de estas formulaciones de carácter mixto. siendo el principal problema el establecer modelos que incorporen capas en las que formulaciones diferentes puedan interactuar [Boticario & Mira. métodos estadísticos. y. representación. sistemas aprendices que se adaptan a las necesidades de cada usuario [Dent et al. con el fin de hacerlos más eficientes (formulación en paralelo [Hong & Tseng. 90]. existen otros muchos estudios teóricos y desarrollos de aplicaciones del campo del aprendizaje: mejoras y ampliaciones de los algoritmos existentes [Quinlan. la interpretación del conocimiento existente en dichos patrones . hoy en día existe un ciclo de conferencias y un gran interés sobre el tema)... 96]. 96]ù sería la creación de un sistema de descubrimiento de conocimiento de propósito general. 91]à). 96].ù para extracción de patrones a partir de los datos  conocido como minería de datos (data mining) . en nuevos campos de aplicación. inferencia.

D. Chandrasekaran. 89. 90.. queremos resaltar el interés creciente que también existe en este campo por llevar a cabo nuevas propuestas de carácter metodológicos que clarifiquen el campo y abran vías alternativas de investigación [Anderson. 93. 90]. debido a los enormes avances en la tecnología de los computadores (mejoras en la velocidad de proceso. y sobre todo. 1991). Los estudios realizados consideran que la información del contexto  de la frase en concreto y del texto en general es una fuente esencial para aproximar la traducción correcta entre lenguajes que tienen estructuras gramaticales tan dispares como el japonés y el inglés [Kinsui & Takubo.2. en los lenguajes y entornos. Para concluir con este repaso sobre el aprendizaje. ày.C. en la arquitectura. y Washington. la evolución de los interfaces hombre-máquina. actualmente recibe especial atención la traducción automática. y también para la síntesis de los textos de lenguaje natural). las redes conexionistas aportan una tecnología especialmente .3 ). debido a: los numerosos grupos de investigación creados (el Centro de Traducción Automática de la Universidad de Carnegie Mellon es uno de los más importantes). 1989.. 94. Boticario & Mira. el número 11 del mes de noviembre de 1996 de Communications of the ACM está dedicado por completo aData Mining and Knowledge Discovery in Databases). 96]. especialmente en Europa y en Japón  véase la sec. etc. Buntine. el apoyo de las instituciones oficiales (se mantienen los proyectos financiados que surgieron en la época anterior. 94.. Munich.). 96] (p.ej. Clark. 1987. 89. Dentro de este campo. Otra de las áreas de mayor actividad sigue siendo el procesamiento del lenguaje natural (PLN). un amplio etcétera de otros temas de investigación que podríamos mencionar. Boticario. 1. En lo que se refiere a los nuevos modelos utilizados. las nuevas técnicas desarrolladas en el campo de la lingüística computacional (modelos para el análisis morfológico y sintáctico. Se puede apreciar un nuevo optimismo en las sucesivas conferencias internacionales sobre el tema (las primeras se celebraron en: Hakone.descubiertos [Fayyad et al.

Un planteamiento muy frecuente es el denominado orientado a la transferencia: se basa en encontrar las correspondencias entre las unidades léxicas y las estructuras sintácticas del lenguaje origen y destino. 1..3). según el sistema vaya adquiriendo mayor práctica se irá requiriendo menos ayuda del usuario. 92]. [Tebelskis & Waibel 90]).adecuada para el tratamiento del problema (p. También debemos mencionar el avance que supuso la derivación de dependencias semánticas a partir de las sintácticas. También se han utilizado métodos que combinan las redes con algoritmos genéticos [Kitano. etc. Actualmente se considera que es conveniente la participación del usuario en el propio proceso de traducción con el fin de resolver los mayores conflictos..ej. En este caso. [Arnold & Sadler. 88]). para ello se retrasa el análisis semántico y pragmático (resolución de elipsis. Un modelo alternativo son las gramáticas de casos.2. siendo entonces innecesario considerar una representación intermedia distinta. 87]. que en otros modelos se utiliza para hacer la traducción entre los dos lenguajes.ej. extraídas al considerar los textos de los dos lenguajes (un algoritmo universalmente utilizado al respecto ha sido el de Tomita [Tomita et al. Otros trabajos que han resultado ser muy prometedores se basan en la aplicación de la traducción por analogía. anáforas.. 91]). Tradicionalmente la interacción con el usuario sólo se realizaba al principio  preedición o al final del proceso  postedición . Se introducen modificaciones en el esquema de interacciones entre el usuario y el sistema.. hasta una eventual automatización del proceso. Del resto de las tendencias que se observan en el campo podemos destacar: el uso de sistemas de traducción automática como partes de otros sistemas de mayor entidad. 90]. en este paradigma se presupone que los casos sirven para representar las sentencias de cualquier lenguaje [Nirenburg et al. en los que la traducción de una frase se hace en referencia a las traducciones previas de ejemplos similares [Sumita et al.) del origen con vistas a resolver posibles ambigüedades en el destino (p. la utilización de fuentes alternativas de conocimiento en el proceso  incluido el . utilizadas originalmente en la comprensión del lenguaje (sec.

describir. el problema consiste en intentar integrar la información visual a lo largo del tiempo. parece sentirse la necesidad de representar el conocimiento mediante una red. Parece razonable pensar que el desarrollo de aplicaciones sobre . Un área realmente nueva en nuestros días es el de los modelos basados en la computación paralela en gran escala. A este respecto. cabría preguntarse hasta qué punto un sólo formalismo de representación puede satisfacer los requerimientos de la visión. Según se ha descrito [Bobick & Bolles. declarada como de interés especial. 92]. considerando. y paralelo con un componente secuencial superpuesto [Chellappa & Kashyap. El origen de las tendencias actuales en este campo fue la llamadamáquina conexionista [Hillis. 89]. por otro lado. 85]. y documentar experiencias en el reconocimiento de imágenes. y diagramas . Por ello se optó por utilizar una red de marcos organizada como una red semántica. según se vaya adquiriendo. un área. El espacio es un proceso continuo de representaciones que van perfilándose con los nuevos datos disponibles. también en el caso de la interpretación de imágenes. Una vez más. y la incorporación de elementos multimedia  como lenguaje hablado. que el proceso biológico de la misma parece ser no lineal. En cuanto a las necesidades metodológicas del campo podemos destacar que. dado que se necesitaba acceder a una gran colección de aquellos. La representación basada en marcos tenían un grave problema de indexación para afrontar este problema. Un área de máximo interés es cómo puede integrarse un sistema de visión en agentes inteligentes que sean robots móviles (más adelante se analiza el tema de los agentes inteligentes). un tema que requiere especial atención es la representación espacial. variable en el tiempo. imágenes de apoyo. jerárquico.propio usuario . experimentar. Es un hecho que los métodos de IA desarrollados hasta ahora dependen en gran medida de los recursos de cálculo disponibles. es la necesidad de encontrar un marco general en el que se pueda diseñar. En lo relativo al reconocimiento de imágenes.

La parcelación de este objetivo ha respondido a un principio estratégico básico para enfrentarse a los problemas complejos: "divide y vencerás". Etzioni & Weld. aprender del propio comportamiento y del entorno. Newell [Newell. interactuar en un espacio físico concreto. el principalù focos de interés de las investigaciones actuales son los agentes. como lo demuestra los sistemas que ya se están construyendo con estas arquitecturas (p. 92b. llegando a ser. 92. agentes robot [Vere & Bickmore. Newell. se han realizado un número considerable de investigaciones y de aplicaciones comerciales: agentes que solucionan problemas [Hayes-Roth. Maes. Pollack. Realmente. 90]. se están realizando trabajos paralelos sobre las principales cuestiones que deben resolverse: arquitecturas . 93]..dispositivos de capacidades muy superiores. 94. este objetivo es la razón de ser de la IA. Este mismo sentir lo comparten otros investigadores de reconocido prestigio [Hayes-Roth. Podría decirse que si la época anterior era la de los sistemas expertos está es la de los agentes: sistemas de software inteligentes que combinan muchas de las capacidades anteriormente enunciadas: razonar basándose en casos previos. entender las intenciones del usuario y adaptarse a sus preferencias. sistemas aprendices de ayuda personalizados [Dent et al. tendrá consecuencias muy positivas sobre los modelos y sobre el rendimiento de las aplicaciones de IA [Kitano. 95]. agentes de problemas de laboratorio [Bresina & Drummond. 92a. etc. [Adeli & Park. A la vez. 90. En su libro sobre las Teorías Unificadas de la Cognición. Afortunadamente. 96]). 90. Firby. una de las áreas de interés prioritaria debería ser la elaboración de los principios y el diseño de las arquitecturas que sirvan de soporte a esta concepción integrada de la IA. 91]. gestionar espacios virtuales de recursos.. 94]. en algunas ocasiones.ej. Muchas veces las formulaciones de problemas dispares son difícilmente conjugables. hasta contradictorias. 90] insistió en la necesidad de redirigir el esfuerzo de investigación en parcelas concretas de la IA hacia concepciones que integraran armonizadamente las soluciones encontradas. Por lo tanto. etc. Hayes-Roth et al. 85. 93].. Otro de los principales ùpor no decir.

entre ellos mencionamos un relato sobre el médico Paracelso. la IA sería la rama de la alquimia dedicada a identificar las materias primas y la receta para crear un ser humano. en la sección anterior hemos reinterpretado la historia para encontrar antecedentes de la IA. 89. 92]. acción e inferencia [Washington & Hayes-Roth. 91]. HayesRoth et al. 93]. la interacción hombre-máquina [Shneiderman. otro dominio en el que están surgiendo numerosas aplicaciones de estos agentes es la gestión de información y recursos disponibles a través de la red Internet (como queda reflejado en un libro que analiza el elevado número de aplicaciones que ya están operativas en la actualidad [Fah-Chun.. Dado el contexto del presente análisis. Muy posiblemente. Concepto de Inteligencia Artificial La definición de cualquier término depende tanto del objetivo que se pretende alcanzar como de los medios que se suponen más adecuados para lograrlo. la propia concepción de estos agentes los hace especialmente adecuados para cubrir otra de las áreas de investigación de la IA. la concepción actual del computador. Sin lugar a duda. 95]. 94]. La cantidad de estudios que se están realizando refleja el interés que actualmente disfruta este tema. Finalmente. nuestro propósito debe ser analizar el término y sus definiciones dentro del campo de la ciencia de los computadores. Incluso podemos ya citar agentes cuyo propósito es provocar reacciones en aquellos que forman parte de una audiencia determinada [Bates et al. Chrisman & Simmons. Por ejemplo. Nilsson... 96]).. para los contemporáneos de Paracelso. Webber et al. 91. 92. cooperación de múltiples agentes [Sycara. entendido como medio . integración de percepción. Por otro lado. 86. 90.. etc.. que en el siglo XVI elaboró una receta para crear un "homúnculo": un ser humano artificial. Charib-draa et al. Firby.de agentes [Laird et al. 89. Durfee. seguimiento de instrucciones [Gans et al. 89. 87].

o si se prefiere. un tema que nadie comprende muy bien. estos supuestos transcribiendo algunas definiciones de IA: a. b." [Nilsson. En cualquier caso. 86] Como también comenta Minsky en otro libro [Minsky. 78]. condiciona el contenido de las definiciones que aquí vamos a exponer. manifestadas a través del comportamiento del ser humano.para alcanzar el objetivo deseado (cuya primera aproximación académica podría ser "creación de inteligencia a partir de métodos realizados por el propio hombre"). 85] . de su estructura. "La automatización de actividades que asociamos con el pensamiento humano. "La disciplina cuyo objetivo científico es construir una teoría de la inteligencia en base al proceso informático. la resolución de problemas. Otro factor de limitación es el desconocimiento de la esencia de la inteligencia. sin pensar acerca del pensar sobre algo  Seymour Papert [Minsky. el aprendizaje à" [Bellman." [Charniak & McDermott. Por tanto. vamos a comprobar. por sus capacidades. "el problema de la Inteligencia Artificial es la naturaleza de la misma inteligencia. la capacidad de pensar:  No puedes pensar sobre el pensar. como dijo el premio Nobel Lwoff: "Definir es uno de los métodos para descubrir". el propio proceso de definir siempre es positivo. sin más dilación. ¿Por qué no? Quizás en parte porque nadie ha tenido la oportunidad de estudiar otros tipos de inteligencia distintos de la humana". actividades como la toma de decisiones. "El estudio de las facultades mentales a través del uso de los modelos computacionales. 80] c. Sólo somos capaces de definirla funcionalmente. El siguiente juego de palabras nos enfrenta a la parte del dilema que tiene que ver con la que consideramos la cualidad esencial de la inteligencia. 85].

La Inteligencia Artificial como Ciencia Las definiciones de IA responden al carácter científico de esta materia. entendido como ser con capacidad de pensar. conexionistas o híbridos. la verdad ." [Mira et al. tomar decisiones. 95] La mayoría de las definiciones coinciden en que el objetivo de la IA es duplicar las facultades del comportamiento que atribuimos al ser humano (aprender. razonar y actuar. 92] g.2). Como en cualquier otra ciencia (véase la sección 1. "El proyecto de construcción de un artefacto inteligente. son realizadas mejor por los seres humanos.. "El estudio de cómo lograr que los computadores realicen tareas que. De éstas. implícita o explícitamente. "Hacer computacional el conocimiento humano no analítico por procedimientos simbólicos. para averiguar las últimas causas. percibir. la última realiza un precisión adicional: el objetivo son las cuestiones de solución desconocida. razonar y actuar en consecuencia à). En lo que sí coinciden todas es en mencionar. Finalmente.d. el computador como medio para lograr dichos objetivos. y a la creación de artilugios que manifiesten dicho comportamiento." [Ginsberg. 93] h.3. "El campo de la ciencia y la ingeniería dedicado a la comprensión de los procesos computables propios de lo que vulgarmente se identifica por comportamiento inteligente." [Shapiro. g y h)." [Winston. "El estudio de las computaciones que permiten percibir. por ahora. 92] f. en el resto se omite la mención de comportamiento alguno (b." [Rich & Knight. Otra definición califica el comportamiento por su complejidad y no por sus facultades (d). 91] e.

y. 1. La neurología estudia los principios organizacionales y estructurales de los componentes biológicos en los que se genera dicho comportamiento. ya que en lugar de preocuparse por resolver los problemas mediante modelos computables. por otro. En el caso de la ciencia cognitiva. la inteligencia. Los objetos de estudio son los comportamientos humanos tachados de inteligentes: razonar. la capacidad de resolver problemas que requieren inteligencia. el elemento de síntesis. se centra en imitar exactamente la forma en que son resueltos por el ser humano. podemos distinguir la doble perspectiva de la IA. la metodología y los modelos son diferentes. . La ciencia cognitiva se preocupa de los mismos fenómenos desde la perspectiva de los procesos mentales que los producen. generalizarà 2. Es una ciencia de síntesis de formulaciones matemáticas y modelos que puedan llevarse a cabo con un soporte físico concreto. Como ciencia de lo natural pretende entender la inteligencia humana. abstraer. los computadores. la IA tiene una componente ciencia de lo natural y otra de ciencia de lo artificial. Considerando lo expuesto. Por tanto. se parte del conocimiento de los fenómenos. En realidad. aprender. el comportamiento humano. en este caso. más exactamente.subyacente. el comportamiento humano inteligente. Es una ciencia de análisis y modelado de la naturaleza de los sistemas inteligentes. Como ciencia de lo artificial busca la creación de sistemas inteligentes con técnicas computacionales. pero bajo distinta fenomenología. Otras ciencias versan sobre la misma materia. está condicionada por la arquitectura y las capacidades que en cada momento tengan estas máquinas. ambas reflejan dos caminos con un mismo objetivo [Pylshyn. Por una lado se considera el objeto de análisis. los procesos computables. 80]. Por tanto.

1. la IA como ciencia debe ser capaz de predecir.ej.ej. Ya hemos señalado como a lo largo de su historia (sec. el origen de los métodos utilizados es especialmente variado. métodos de búsqueda como la poda alfa-beta). etc.ej.ej. Figura ....1: Interrelaciones propias de cualquier rama de la ciencia Los métodos y técnicas de esta ciencia deben ser traducidos en forma de programas de computador. psicología cognitiva (p.Por otro lado.ej. probabilidad y estadística (p. construcción de árboles de decisión). investigación operativa (p..2) se han utilizado técnicas que provienen de campos como: teoría de la información (p. y las herramientas o instrumentos. Estos elementos configuran dos ejes de interrelaciones que a su vez están conectados entre sí.. debe valerse de los tres elementos básicos propios de cualquier otra rama de la ciencia: las teorías. y para ello. ya que estos son las máquinas de las que se vale el ser humano actualmente para alcanzar los objetivos señalados. Dada la diversidad de tareas modeladas en este campo. lingüística (p. redes bayesianas). razonamiento basado en casos). . gramáticas de contexto libre aplicadas en interfaces de lenguaje natural). las técnicas o modelos. describir y controlar los fenómenos que trata.

reflejan un claro proceso de maduración. Más adelante. la IA sigue siendo la ciencia en la que a todo el mundo le gustaría estar. por tanto. la cantidad de conferencias de carácter interdisciplinario. No se tenía consciencia de la complejidad de los pilares de esta ciencia. el establecimiento de una metodología y la clarificación de los objetivos. En su lugar. Utilizando la metáfora de la construcción. El también relativo fracaso de estas previsiones ha permitido afrontar uno de los requerimientos básicos de cualquier ciencia aplicada. tal y como hemos podido comprobar en el repaso histórico. Por otro lado. se tuvo consciencia de la necesidad de utilizar el conocimiento del dominio. se están empezando a levantar los primeros pisos. la coordinación de múltiples tareas y objetivos. que requiere solucionar problemas tan diferentes como el reconocimiento de una situación conocida. a la vez que se intentan afianzar los pilares de esta hipotética casa. El objetivo es apasionante y es una ciencia muy viva ¾ como lo demuestra su rápida evolución en el tiempo¾ en la que se deben producir grandes avances. el seguimiento de instrucciones. Al . son algunas de las manifestaciones de esta nueva realidad que pretende conjugar y asentar las funciones ya modeladas. la utilización y adaptación de métodos de ingeniería del software. Era necesario confrontar la diversidad de técnicas desarrolladas y establecer los fundamentos que permitan distinguir su utilidad y sus limitaciones. Los agentes actuales. se incrementaron las inversiones y se promocionó su ingeniería. los modelos híbridos y multiestrategia del aprendizaje. la profundización teórica de los modelos utilizados. y se desarrollaron numerosas técnicas de representación y distintas formas de inferencia. La evolución de las metas. se intentaron definir modelos básicos de computación para resolver cualquier tipo de problemas. Actualmente ¾ retomando la metáfora de la construcción¾ .Pero todos estos métodos no tendrían sentido si no se supiera cuales son los objetivos. el aprendizaje basado en la observación. podríamos decir que en un principio se pretendió empezar a construir la casa por el tejado. etc. El relativo éxito de estos modelos disparó las expectativas y. los estratos que sirvan para combinar esos cimientos de forma armonizada.

Precisamente. por ahora. La Inteligencia Artificial como Tecnología Tendríamos una visión limitada de la realidad si no realizáramos un repaso.. pudiendo entonces plantearse cuestiones como ¿qué métodos deben aplicarse para qué tipo de problemas?. por ejemplo. en el nivel de la electrónica digital. En esta nueva fase se busca dar sentido a esa extensión observada para llegar a ordenar. la resolución de los problemas consiste en la determinación del método que permite convertir un conjunto de especificaciones funcionales ¾ en este caso referidas al conocimiento¾ en un sistema computable eficaz y eficiente. aunque sea muy conciso. de algunas cuestiones que perfilan la IA como una tecnología ¾ a veces denominada "ingeniería del conocimiento"¾ dentro de la ciencia de los computadores. y construir modelos que la expliquen. circuito.2. Como se ha insistido frecuentemente por algunos autores [Mira et al. Cualquier ciencia pasa tradicionalmente por una serie de estadios que reflejan su grado de maduración. correlacionar. la etapa de los principios arquitectónicos. Hasta ahora hemos estado inmersos en la época de "los casos de estudio" o de la experimentación. El presente análisis hace hincapié y amplía algunas de las cuestiones introducidas previamente (sec. Esto implica que los modelos propios de la IA deben apoyarse en las sucesivas capas que se han definido sobre dicha electrónica (dispositivo. esta rápida evolución determina el estado actual de las teorías que dan sentido y explican la utilización de los métodos aplicados. En la perspectiva aplicada de la IA.fin y al cabo todavía estamos esperando los Newton y Einstein de este campo. En esta fase sólo se confirma una hipótesis de trabajo. un nuevo método de generalización. 1.4). no debemos olvidar que toda computación termina. La cantidad de experimentos realizados empieza a permitir dar un nuevo paso. . 95].

cuáles son los objetivos de la tarea. transferencia-registro. se han establecido niveles genéricos de descripción adicionales que pretenden simplificar las etapas de análisis y diseño propias de cualquier producto de ingeniería. por importancia y por antigüedad. tres niveles de computación: teoría. El segundo nivel.lógica de circuitos. aplicación) con el fin de afrontar la solución de los problemas en un nivel de complejidad cada vez más cercano a la tarea que se quiere resolver. En primer lugar. algoritmo e implementación. Sólo los procesos de inferencia que puedan declararse completamente mediante una descripción lógica son los que se pueden precisar en el nivel del conocimiento. nivel del conocimiento. El primer nivel requiere que el problema pueda ser descrito mediante el objetivo de la tarea y la lógica de la estrategia para alcanzarlo. En un principio. 81]. Desgraciadamente. en el contexto de la búsqueda de una teoría computacional de la percepción visual. el nivel del conocimiento [Newell. de tal forma que el modelo falla a la hora de predecir el comportamiento del sistema. programa. en muchos casos de estudio sólo se dispone de un conjunto impreciso e incompleto de especificaciones funcionales. que corresponde al nivel simbólico de Allen. y otro idealizado. uno dependiente del formalismo de representación. 86]). ajeno a cualquier detalle de realización. . debemos mencionar. Su principal deficiencia es que no sirve para determinar "el cómo". coincide con el nivel del conocimiento de Newell. Para intentar simplificar el salto cualitativo que supone convertir dichos requerimientos en un conjunto de procesos descritos mediante un soporte software y hardware concretos. las especificaciones de los problemas de IA se realizaban en lenguaje natural. nivel simbólico. La ventaja de este planteamiento es que permite especificar "el qué". por tanto. Por otro lado. su descripción funcional. Davis Marr [Marr. En el modelo propuesto por Allen el problema se analiza en dos niveles. 82] introduce. en el resto de los sistemas es necesario descender al nivel simbólico para explicar su comportamiento (como se ha podido comprobar en procesos de aprendizaje inductivo [Dietterich.

Por tanto. a la que se denomina modelo de tareas genéricas.3). 1. reglas. tareas y métodos entre diferentes problemas.comprende la definición de los espacios simbólicos de representación de las entradas y las salidas y los algoritmos que las enlazan. y utiliza el concepto de tarea . Esta ha sido precisamente la aportación de KADS [Wielinga et al.. En estos casos. 92]. compartir. diseño. estructurar el problema y simplificar su desarrollo y. El tercer nivel se refiere a la especificación del problema en un soporte software que sea traducido automáticamente hasta conectar con el nivel físico. por un lado.2. especificación y mantenimiento de sistemas basados en el conocimiento (SBC). a través del acceso a una librería. mucho más cercanas a los modelos computacionales directamente traducibles en código máquina que a los problemas que querían resolverse. La propuesta surgió de dos campos tan interrelacionados como la teoría de modelos y la ingeniería del software. animaron la búsqueda de nuevos métodos de análisis. Siguiendo esta técnica. Esto permite. et al. y el método: la forma de llevarla a cabo [Chandrasekaran. Los problemas detectados en el proceso de ingeniería de los productos realizados en la primera mitad de los años ochenta (sec. muchas descripciones se quedan enfrascadas en resolver problemas relativos al esquema de representación adoptado En su lugar. estructura el desarrollo de los SBC en dos fases: análisis y diseño. lógica de predicados o cualquiera otra de las técnicas de representación entonces existentes.. Su principal aportación fue rechazar la idea de que la modelización del conocimiento debía realizarse directamente sobre marcos. la tarea se estructura en subtareas cada vez más concretas en función del método aplicado en resolverlas. se propone realizar primero una modelización en la que se distinga claramente el objetivo: la tarea a realizar. una metodología que. 92]. el gran salto sigue encontrándose entre el primero y el segundo nivel. por otro. Además de introducir este nuevo nivel de descripción era necesario estructurar su utilidad en un esquema más general que permitiera integrar el desarrollo del sistema con el resto de los productos realizados con técnicas propias de la ingeniería del software.

planifican o reparan ¾ en caso de fallo¾ . el de estrategia. Con tal fin se ordenan. Este intento no sólo se manifiesta a través de las metodologías basadas en la estructura de tareas genéricas como KADS. identificar procesos de inferencia y predecir resultados a la vez que clarificar interacciones. No debe por tanto buscarse un modelo abstracto dependiente de la psicología del experto. Hoy en día. sostiene que el conocimiento no puede separarse de su uso [OÆHara & Shadbolt. a través de los modelos de inferencia y tarea genérica. la corriente que impera desde el punto de vista metodológico (recordemos que el razonamiento basado en casos parte del mismo supuesto. el modelo del conocimiento del dominio. las estructuras de tareas utilizadas. Desde el punto de vista metodológico.genérica. esta metodología incluye. 93]. hasta alcanzar el nivel de descripción superior. De esta forma. y va ascendiendo. ya que mediante este procedimiento se pueden segmentar las partes comunes. cuya función es controlar que se realicen con éxito las tareas necesarias para alcanzar los objetivos seleccionados. pero bajo un enfoque de estructuración del problema invertido.. El objetivo debe ser establecer los estándares que permitan predecir y controlar las inferencias requeridas. sino que también .3).2. además de la definición del modelo conceptual correspondiente al diseño del sistema. las tareas genéricas son válidas en tanto que facilitan la labor de desarrollo de los SBC. la definición del programa que finalmente será ejecutado [Van de Veldeet al. véase el apartado 1. la IA pretende separar los aspectos estructurales comunes al procedimiento de solución de una clase general de problemas del conocimiento específico de una tarea particular. la modelización realizada debe estar orientada al método empleado en su realización. siendo su principal virtud el incrementar la capacidad de describir el problema en el nivel del conocimiento. ya que parte de lo más concreto. Actualmente. Cuando un ingeniero se plantea desarrollar una aplicación basada en el conocimiento. Para ello se defiende una labor de modelado. 94].

¿cuándo y qué debe aprenderse?.. 1. capaz de proporcionar un entorno genérico de desarrollo en el cual puedan combinarse dichos elementos. Cuando la solución de un problema se plantea desde la perspectiva simbólica. 90] (destaca su capacidad de resolver problemas por analogía). Pensemos en las diversas fases y etapas por las que pasa el desarrollo de un . Las arquitecturas integradas surgieron para afrontar diversas cuestiones de carácter metodológico. etc.4) y de las llamadas arquitecturas integradas.) Para terminar con este breve repaso sobre los aspectos metodológicos. En realidad. y THEO [Mitchell et al. Entre las arquitecturas más conocidas están: SOAR [Laird & Rosenbloom. ¿qué decisiones de compromiso deben adaptarse?. queremos añadir a lo ya expuesto (sec.2. A lo largo del presente análisis hemos mencionado términos como búsqueda. ¿cuáles son los partes más difíciles de solventar y cuales no son abordables?. representación.2. 90] (posee un mecanismo de generalización implícito). etc.. 91] (utiliza un representación uniforme en la que se confunden tareas de búsqueda. se lleva a cabo un proceso de reducciones sucesivas que depende de la metodología aplicada. ¿cómo podríamos integrar todos estos elementos en un sistema inteligente? El objetivo es el desarrollo de la arquitectura de un agente. La integración y el diseño de estos macrosistemas tiene sus propios problemas. sobre el cual todavía quedan muchas cuestiones por resolver. Pero. etc.. aprendizaje simbólico y conexionista. parece claro que hay un espacio propio para la investigación de los problemas de diseño de arquitecturas. entre los que destacan: ¿qué métodos de representación. dada la importancia que hoy en día tienen los modelos conexionistas.es uno de los objetivos básicos de los nuevos paradigmas híbridos y multiestrategia en el campo del aprendizaje (véase el apartado 1. inferencia. PRODIGY [Carbonell et al. inferencia lógica. ¿cuáles son los elementos del diseño que deben representarse explícitamente?. inferencia. organización de memoria y aprendizaje. deben elegirse?.4) el análisis de una diferencia clave existente entre el planteamiento simbólico y conexionista.

40 (1989) 313-351.S. La computación neuronal se está convirtiendo en una alternativa para aquellos problemas que tengan que ver con medios cambiantes y parcialmente conocidos que aconsejen soluciones paralelas y en tiempo real [Mira et al. . "The acquisition. Sin embargo. "A theory of the origins of human knowledge".. "Fully automated design of super-high-rise building structures by a hybrid AI model on a massive parallel machine".4) que esta deficiencia está dando lugar a numerosas propuestas basadas en la combinación de modelos simbólicos y conexionistas.SBC utilizando la metodología KADS. 3 (1996) 87-93.. Frente a esta limitada capacidad de computación de cada procesador están las ventajas de utilizar una arquitectura de computación distribuida y de incorporar en el modelo la capacidad de autoprogramación.R. [Anderson. J. Nashville. REFERENCIAS [Adeli & Park. [Allen & Langley. TN: Vanderbilt University. No obstante debemos recordar (véase el apartado 1. 1990. Artificial Intelligence. Department of Computer Science. 95]. 96] Adeli. H.. organization. and use of plan memory". dado que no existen modelos intermedios que faciliten la introducción del conocimiento del dominio ni la extracción del conocimiento contenido en la red.. H. 90] Allen. El principal problema es que. J. and Park. cuando la formulación del problema se modela a través de las llamadas redes neuronales se realiza un salto directo desde la descripción de la tarea en el nivel del conocimiento hasta un nivel de procesamiento formado por redes de procesadores cuya función local no puede ser excesivamente compleja (procesador analógico no lineal seguido de una función no lineal de tipo sigmoide para limitar las salidas).2. como por ejemplo: la clasificación. AI Magazine 17. su aplicación se ve limitada a aquellas tareas que permiten realizar el salto requerido. Technical Report CS-90-07. 89] Anderson.

San Francisco. Cohen.. R. J. [Bellman. [Barreiro. 1989. [Ashley. 82] Blum. Dissertation...L. 1991.. Based on AshelyÆs 1987 PhD. Cambridge. 82] Barr. William Kaufmann. University of Massachusetts. "Remembering".. A.. E. and Feigenbaum. . COINS Technical Report No.R. Universidad de Santiago de Compostela. F. "Lógica Matemática". 1978. [Barro. Vol III. Cambridge University Press. "An introduction to Artificial Intelligence: Can Computers Think?" Boyd & Fraser Publishing Company. A. "Modeling legal argument: Reasoning with cases and hypotheticals". CA. Vol II. Universidad de Santiago. 1982. 1932. "The Handbook of Artificial Intelligence".[Aranda et al. S. E. Menlo Park. and Feigenbaum. Ph. Marrón. Sanz y Torres.. Working Notes of the AAAI Symposium.. 88-01. William Kaufmann. [Barr & Feigenbaum. Vol.A. Tesis doctoral.R. MIT Press. 81] Barr. [Barr et al.D. [Bates et al. 1994. "The Handbook of Artificial Intelligence"... Tesis Doctoral.E. [Barr et al.. Cambridge. 87] Barro. CA..A.. 1981.. 1990.. F. "Interactive story systems". 1993. J. UK. 1987. A. P.L. 32] Barlett.. (También en: Computers and Biomedical Research 15.D. and Sadler. D.. "TAO/Medtool: Un sistema consejero en oncología". P. B. Calif. 91] Barreiro. y Morilla. [Blum. L. 93] Aranda. J. Santiago de Compostela.A. "SUTIL: Sistema Cuasi-Integral de Monitorización Inteligente en UCC". [Barlett. 95] Bates. R. E. Cohen. 78] Bellman. Pitman Books Limited. 89] Barr. "The Handbook of Artificial Intelligence". Hayes-Roth. I. [Arnold & Sadler. and Feigenbaum... 91] Arnold... Fdez. Los Altos. K. Machine Translation 6 (1991) 193-200.. P. "Discovery and representation of causal relationships from a large time-oriented clinical database: The RX project". pp. "Some formal issues in transfer". 164-187). and Maes. A. Stanford University.C. 90] Ashley. dissertation.

"On the epistemological status of semantic networks". M. and Drummond. Martínez V.. Facultad de Informática. pp. 88] Boticario. [Bresina & Drummond. y Pazos J. 1979 . Editorial: Universidad Carlos III de Madrid (Escuela Politécnica Superior).J. Universidad Politécnica de Madrid. Centro de Estudios Ramón Areces. 96] Boticario.[Bobick & Bolles.. "Inteligencia Artificial: Métodos y Técnicas". R. T. 94] Boticario. R. D. pp.. Informática y Automática. J. 16 (1983) 67-73.. and Winograd. [Boticario & Mira. San Mateo. [Boticario. "Basic computational processes in machine learning". [Borrajo et al. Proceeding of the IEEE Conference on Computer Vision and Pattern Recognition.G. and Optimization (MALFO ´96)... and Mira J. [Brachman & Levesque.J.E. 1985. pp. 1994. Trabajo fin de carrera No. 1 (1977) 3-46. R. In J. H. a knowledge representation language"... [Boticario & Mira. 85] Brachman. 13-27. A. Dpto. CA. 1988. "Contribuciones a la teoría computacional del aprendizaje: ejemplos de aplicación". Hendler . Madrid. Forecasting. and Mira J. 79] Brachman. 90] Bresina. R. J. J. Morgan Kaufmann. R. "SAM: Construcción de un sistema de aprendizaje automático para integración simbólica basado en la inducción". pp. 1989. 492-499. Cybernetics and Systems. Computer. 94] Boticario.. Fikes. 93] Borrajo D. In: Proceedings of The First International Workshop on Machine Learning.. Tesis doctoral. and Levesque. In: [Findler. Calif. 87/88-052.3-50. and Bolles. "Some methodological aspects of machine learning". 233-258.G. Juristo N. "Representation space: An approach to integration of visual information". 1993. and Levesque.J. San Diego. [Boticario.. J. [Bobrow & Winograd. 83] Brachman. Madrid (Leganés).. 25 (1994). "KRYPTON: A functional approah to knowledge representation". julio 1996. H.G.J. Cognitive Science.. UNED.G.J. 89] Bobick... 77] Bobrow.. J..... "Integrating planning and reaction: a preliminary report". "An overview of KRL. [Brachman. [Brachman et al.G. "Readings in Knowledge Representation".

G.. Reading... [Brownston et al. Reading.G. Andriole (ed. [Carbonell et al.. Conn. 11 (1978) 524. T. 1985. 91] Brewka.G.: Petrocelli Books. Cambridge University Press. and Mitchell. University of Maryland. 1984 [Carbonell. and Burton R.. 85] Carbonell. N.. P. and Anick. Farrel. J.. Applications of Artificial Intelligence. NY.D. "Multiple representation of knowledge for tutorial reasoning". Michalski. "Machine learning: A historical and methodological analysis". Collins. "Robust man-machine communication. Academic Press.J. New York. 1986. MA..S. Boggs. N... J. Mauldin.G.. Systems Research Center. Petrocelli.... Fall (1983) 69-79. B. New Haven..M.G. and Feigenbaum.S.. and Shorliffe. E.). 1984] Buchanan.M. 85] Brownston. Addison-Wesley. 78] Buchanan. T. 86] Carbonell. Bobrow and A. "The Xcalibur project: A natural language interface to expert systems and data bases". In S. pp.. L.. MA.. eds. J."Nonmonotonic reasoning: Logical foundations of commonsense". user modelling and natural language interface design". "DENDRAL and Meta-DENDRAL". B. "Subjective understanding: computer models of belief systems".(ed..S. R. 311-349... San Mateo. 75] Brow J..H. In S. Artificial Intelligence. 1979. J. Representation and Understanding. [Buchanan & Feigenbaum. 83] Carbonell. "Programming Expert Systems in OPS5". Morgan Kaufmann.R. E.G. [Carbonell. "Rule-Based Expert Systems: The MYCIN Experiments of the Stanford Heuristic Programming Project". [Carbonell. Kant..G. 371-392. R. 1985. CA. (Eds. 85] Carbonell. 79] Carbonell. Machine Learning: An artificial intelligence approach. M..A. [Brewka... Ph. R. and Mitchell. ed. J. [Carbonell et al. . Carbonell. J.G. Yale University. Addison-Wesley.G. E. [Brown & Burton. pp. 1975. 1990. Andriole. M. "Derivational analogy: A theory of reconstructive Problem Solving and expertise acquisition". [Buchanan & Shortliffe. Applications in Artificial Intelligence. dissertation. 1991.. Boston. In: Michalski.). G.). AI Magazine. SRC TR 90-45. 1985. In D. Princenton. and Martin.

and Smith. "Introduction to Artificial Intelligence" Addison-Wesley. Academic Press. Morgan-Kaufmann. Canada.J. 89] Chandrasekaran. [Charib-draa et al. "Image understanding".. [Chang & Lee.. 92] Charib-draa. 81] Clancey.C. 1985. Reading. R. [Chrisman & Simmons.. Johnson. 90] Carbonell. [Clancey. MIT AI..L. R. Knoblock. S. Hillsdale. In: VanLehn. 1989. "Knowledge-based tutoring".). C-L.. Earlbaum.. and Simmons..C. Cambridge.. Mandiau. 1991. and Lee. [Charniak. "Neomycin: reconfiguring a rule-based expert system for application to teaching". T. and Minton.. R.W. [Chandrasekaran. 87] Clancey. (Ed. [Clancey.G. San Mateo.. California. 85] Charniak.. [Chandrasekaran et al. [Charniak & McDermott. "Symbolic logic and mechanical theorem proving". CA. [Clancey. Mass. B. 3 (1992) 20-37. MIT Press. 92] Chellappa.[Carbonell et al. 91] Chrisman. "Task-structures. 72] Charniak. In Proceedings of the National Conference on Artificial Intelligence. and McDermott. Artificial Intelligence. B. E.. 339345. Cambridge. 27(1985) 289-350. in Proceedings of the Seventh IJCAI.. 1992.. "Toward a model of childrenÆs story comprehension". K. Machine Learning Vol. 1973. and Kashyap. "Task-structure analysis for knowledge modeling". and Millot. 92] Chandrasekaran.. New York. SigArt Bulletin. [Chrellappa & Kashyap. L.C. W. San Mateo. 1981.. Massachusetts. J. Communications of the ACM. J.J. John Wiley & Sons. D. Vancouver. Architectures for intelligence.C-T. "Sensible planning: focusing perceptual attention". P. 73] Chang..J.. knowledge acquisition and learning".. 1972. pp. B.R. R. NJ.. Morgan Kaufmann. Mass. TR-266. E. 2nd edition. W. B. 4. "PRODIGY: An integrated architecture for planning and learning". . 1987. 85] Clancey. W. "Heuristic Classification". 35 (1992) 124-137. Encyclopedia of Artificial Intelligence. R.. 1990. "Distributed artificial intelligence: An annotated bibliography". C.

"Retrieval time from semantic memory". M.. A. "Meta-rules: Reasoning about control".M.. 1992. [Collins & Quillian. 43] Craik. "Superpositional connectionism: a reply to Marinov". pp. 1990. Mich.W. and Russell. [Davies & Russell. 1984. 85-102. 85] Cuena. 87] Davies.. [Cohen. [Cohen. 264-270. Research report. Journal of Verbal Learning and Verbal Behavior.. Japan. pp.. S. "Equations and inequations on finite and infinite trees". 1985. and Shortliffe. . Group Intelligence Artificielle. Luminy. J. "Un systeme de communication homme-machine en francais". 90] Cohen. Scotland. Artificial Intelligence. "Generalizing number and learning from multiple examples in explanation based learning". 1943. 1987. 8 (1969) 240-247.. Austin. R. Cambridge University Press. 69] Collins. 15 (1980) 179-222. "A logical approach to reasoning by analogy". Artificial Intelligence. [Davis. Aberdeen.J. A. R. 92] Cox M. Alianza Editorial.R. 271-281.[Clark. "An analysis of representation shift in concept learning".. Cambridge. 104-112. [Craik. Buchanan. [Cox & Ram. W. Texas. pp. In: Proceedings of the 7th International Conference on Machine Learning. B. and co-workers. pp. K. Italy. Minds and Machines. Morgan Kaufmann. [Colmerauer. and Ram A.. 73] Colmerauer. pp. 84] Colmerauer. Tokyo...T. 80] Davis. [Colmerauer. Proceedings of the Ninth International Workshop. 256-269. E. Milan. 1988. In Proceedings of the International Joint Conference on Artificial Intelligence. 1973. 88] William W. 77] Davis.. A. 93] Clark. "Lógica Informática". Morgan Kaufmann. Cohen. 8 (1977) 15-45. [Cuena.R. Ann Arbor. T. "Multiestrategy learning with introspective meta-explanations". 1993. "The Nature of Explanation". Proceedings of the Fifth International Conference on Machine Learning. and Quillian.. Université dÆAix Marseille. Kluwer Academic Publishers. Machine Learning. "Production rules as a representation for a knowledge-based consultation program". [Davis et al. A. Proceedings of International Conference on Fifth Generation Computer Systems.

94] Díez Vegas.. 86] Dietterich. J. 1992 AAAI Spring Simposium.. [Díez. 101-144. Machine Learning. D. F. Informática y Automática. P... O.. and Mooney. [Dent et al.G. San Jose. [Duda et al. In: Shrager J.). Edinburgh. 1994. R. "A personal learning apprentice".. In: Proceeding of the National Conference on Artificial Intelligence. AAAI Press/MIT Press. (Ed.J. D. T. of the ACM. G. 1996. Morgan Kaufmann. 1980. [Falk. and Cybernetics... "Internet agents: spiders. L. IEEE Transactions on Systems. L. Gaschnig.. 1 (1986) 287-316. [Durfee.O. Boticario. [Falkenhainer. D. In: Michie. Indianapolis. R. 213253. J..R.. wanderers. "Sistema Experto Bayesiano para Ecocardiografía". D.. McDermott. J. Mitchell T.. [Dietterich. Machine Learning..). and bots". UNED. 1992. "A personal learning apprentice". V. and Reddy... 79] Duda..D. 72-79..F. McDermott. IN. D. Man.. San Mateo. "Model design in the PROSPECTOR consultant program for mineral exploration". and Zabowski.. "Interpretation of imperfect line data as a threedimensional scene"..... brokers. G. Boticario.. 37. CA. 92a] Dent. Stanford University. (Eds. L. Lesser. and Weld. and Langley. Mitchell T.C. E. 72] Falk. New Riders Publishing. Artificial Intelligence 3(2). 96] Fah-Chun. 86] DeJong. pp. Tesis doctoral. [Etzioni & Weld. "The HEARSAY-II Speech-Understanding System: Integrating knowledge to resolve uncertainty". Computational models of scientific discovery and theory formation. 91] Durfee. C. ACM Computing Survey 12(2). 1994. . [Fah-Chun. 94] Etzioni...G.. March 25-27. 92b] Dent. 1991. pp. "Learning at the knowledge level".. Hayes-Roth. and Zabowski. J.G. "A softbot-based interface to the internet". 96-103. pp. "A unified approach to explanation and theory formation". 90] Falkenhainer. and Hart. 153-167. B. Edinburgh University Press.[DeJong & Mooney. 1 (1986) 145176. [Erman et al.. "The DAI melting pot".. "ExplanationBased learning: An alternative view". 80] Erman. Comm. P.E. [Dent et al.. 1990.R. 1979. Expert Systems in the Microelectronic Age. J. 1972. CA. F. Dpto.

. M.... 83] Gentner. Harms. 79] Findler. 1992. J. 4 (1989) 187-226. Confrey.. Machine Learning 2. [Gentner. Harvey. Alianza Editorial. y Sáez. 92] Garrido. pp. 4. "Lógica simbólica".. Artificial Intelligence. [Fillmore. Stanford University. J. 1983. Rinehart. New York. 1987.. Hart. "The case for case". B. P. C. [Gilmore... New York. T. Alianza Informática. 155-170. N..S. College Park. "Learning and executing generalized robot plans". [Fisher. In Proceedings of the First International Conference on AI Planning Systems. 87] Fernández. and Hayes-Roth. Machine Learning. IBM Journal of Research and Development. N. [Flann & Dietterich.. 1979. 1993.. U. Tecnos. Cognitive Science 7. June 1992. 96] Fayyad. pp.. and Nilsson.. G. and Smyth. "Associative Networks: Representation and Use of Knowledge by Computers". 1-90. [Garrido. "Knowledge acquisition via incremental conceptual clustering". 3 (1996) 37-53. P. R.H."From data mining to knowledge discovery in databases". 139-172. Holt.. 60] Gilmore. A. Morgan Kaufmann Publishers. P. [Ginsberg. 72] Fikes. MA. [Fikes & Nilsson.. "Essentials of artificial intelligence".G. [Gans et al. N. and Winston. "Fundamentos de Informática". 90] Gans. [Findler. 1990. [Fernández & Sáez. In E. . Bach and R. "Building symbolic primitives with continuous control routines".[Fayyad et al. G. eds.... 1987. D. Report KSL 90-03. 87] Fisher D.V. Knowledge Systems Laboratory. and Flann. Piatetsky-Shapiro. "How WATCH works". 28-35 (1960). 92] Firby. 2. (Ed. "Structure-mapping: a theoretical framework for analogy". Universals in Linguistic Therory. pp. [Firby.. 68] Fillmore. AI Magazine 17. 89] Dietterich. Academic Press. T. 93] Ginsberg. Kluwer Academic Publishers. "A study of explanation-based methods for inductive learning". 1968. "A proof method for quantification theory: Its justification and realization". (2ª Edición).. Boston.). 62-69. pp. 3(1972) 251288. M. F.

D. P. [Grosz & Sidner. In C..E. 59 (1993) 329-341. L. "The complete problem solver". C. "A blackboard architecture for control".J.. M. In Proceedings of the Conference on Applied Natural Language Processing. and van Gent.. "On building integrated cognitive agents: A review of NewellÆs Unified Theory of Cognition". J. Berlin. 93] Hayes-Roth. Artificial Intelligence. B. 86] Hammond. D. [Hammond. Santa Monica. 1994. In: Proceedings of the National Conference on Artificial Intelligence. P. J. K. 89] Hammond. Pollack (eds.. 1994 [Hayes-Roth et al. 88] Haussler.. 1979. [Haussler. Lawrence Erlbaum Associates. K...K. M. "CHEF: a model of case-based planning".R. 1983. B. 36 (1988) 177-221. [Hammond.. "A domain-specific software architecture for adaptive intelligent systems". pp. NJ: Erlbaum. 1067-1076.. Reprinted in W. G. Stanford University Report KSL-94-69. Philadelphia. Intentions in Communications. IEEE Transactions on Software Engineering.R. 1989. pp. Stefik (Eds. Cohen. 183191. Smoliar.. In Proceedings of the Fifth IJCAI. Brownston. B.). [Hayes-Roth et al. Artificial Intelligence.. [Hayes-Roth. 26 (1985) 251-321. PA.. J. 1988. K. Pfleger..). "CHEF". In P. "Human engineering for applied natural language processing". R. 46-61.[Grosz. pp. 88] Grosz. 83] Grosz. 1986.. Morgan. "TEAM: a transportable natural language interface system". B.G. Lalanda. 79] Hayes.. Inside case-based reasoning.. In: Metzing. 85] Hayes-Roth. 95] Hayes-Roth. "Quantifying inductive bias: AI learning algorithms and Valiant´s learning framework". 77] Hendrix.). Artificial Intelligence. Frame Conceptions and Text Understanding. Hillsdale. MIT Press. 94] Hayes-Roth. "Multiagent collaboration in directed improvisation". and M. [Hendrix. .. Riesbeck & R....L. and Balabanovic. B. and Sidner. [Hayes.C. Morignot. 1977. [Hayes-Roth.).J. (Ed. Clancey.. Calif. Walter de Gruyter and Co. Second edition. "The logic of frames". 1995. "Plans for discourse". [Hayes. Contemplating Mind. P. Schank (Eds. S. 89] Hayes.

Morgan Kaufmann Publishers.. 80] Kanade. 6. No.. "Towards an architecture for open world problem solving".. Morgan Kaufmann. 1993. [Klahr & Waterman. P. Graph. G. Austin. 1988. 1979 . [Jackson et al. [Hillis. Cambridge. S-S. 89] Jackson.. pp. and Waterman. Vis. H. tools and applications". H. Inc. Kodan-sha Publishers. 90] Kinsui.R. In Proceedings of the13th International Joint Conference of Artificial Intelligence. "Neurogenetic Learning: An Integrated Method of Designing and Training Neural Networks using Genetic Algorithms". [Hong & Tseng. [Hinrichs. 3. 1992. In: [Findler.. T. Proceedings of the Workshop on Case-Based Reasoning (DARPA). IEEE Transactions on Knowledge and Data Engineering. D.. [Kitano. 92] Kitano. .. T.. 1980. and Harmelen. In Advances in Japonese Cognitive Science. San Mateo.. Vol 6. MIT Press. Morgan-Kaufmann Publishers. Comput. "A discourse management analysis of the japonese demostrative expressions". 1990. "Logicbased knowledge representation". France. "Challenges of massive parallelism".. 1986. 279-297.. "The connection machine". pp. "Learning concepts in parallel based upon strategy of version space". [Kanade. [Hinrichs. 1990. and Tseng.[Hendrix. [Hirsh. Img.. 79] Hendrix. Addison-Wesley... 90] Hirsh.. "Survey: region segmentation: signal vs semantics". 1992. Reichgelt. [Kitano. R. and Takubo. 13. T-P.G. CA. P. "Incremental version space merging: A general framework for concept learning". Vol. Tec. MA. S. H. H. Report CMU-CMT-92-134.51-92. The MIT Press. 93] Kitano. 92] Hinrichs.. D. "Expert Systems: techniques. pp. 85] Hillis. December 1994. Chambéry. Lawrence Erlbaum Associates. 1989. 88] Hinrichs. In: Proceedings of the 7th International Conference on Machine Learning. 330-338. TX.. F.A. "Encoding knowledge in particioned networks". 86] Klahr.. [Kinsui & Takubo. T. Y. 94] Hong. Process. 1985. "Problem solving in open worlds".

P. Hillsdale.A. execution. Los Altos. and Rosenbloom. Bolc (Ed.. pp.E. J. pp.. 11-46. pp. 93] Kolodner. In: Szolovits. "Retrieval and organizational strategies in conceptual memory". L... 27(11). "Representation of expert knowledge for consultation: The CASNET and EXPERT projects". pp.W. Artificial Intelligence in Medicine. Vol 2. A. 21-55. Morgan Kaufmann. "The nature of heuristics". 1984. [Laird & Rosenbloom. M.R. C. Giarla. 82] Kulikowski. [Laird et al. and learning in SOAR for external environments".. J.. and Bradshaw. 86] Laird J. "Heuristics for empirical discovery". and Turner. et al. Y. 21-54.).S. Ellis. 82] Lenat.E. Minnesota.W. 86] Klahr. Rosenbloom. H. 1986. Springer-Verlag. In: Proceedings of the Eighth National Conference on Artificial Intelligence. "Reasoning about evidence in causal explanation". L. Simon. [Lenat. 89] Le Cung. [Kulikowski & Weiss. 88] Koton. pp. . 1022-1029. "Integrating planning.. 1. D. [Koton. CO.. 90] Laird.M. CA: Morgan Kaufmann. P. 189-249. 84] Kolodner.. 3. pp. 1982. Computational models of learning. N. P. and Denker. MN. In: [Klahr & Waterman. M. Machine Learning: An Artificial Intelligence Approach. Krodatoff & R. 256-261. pp.. and Weiss. San Mateo.. [Le Cun. D.. 41-46. "TWIRL: Tactical warfare in the ROSS language".J. J.B.). "Chunking in Soar: The anatomy of a general learning mechanism". Vol. L. "The utility of similarity-based learning in a world needing explanation". 1988.D. [Kolodner.. 1987. Michalski (Eds.L..[Klahr et al. 19(2). "Hadnwritten digit recognition: applications of neural network chips and automatic learning". [Lebowitz. P. J. Cesar. S. 86 . A. G. 1990..S. B.. 1989. (Ed. & Newell.S. 1982. Westview Press. pp. 1990. Morgan Kaufmann. 87] Langley.... 1993. 224-268. [Kolodner. Lawrence Erlbaum Associates. 90] Lebowitz. Machine Learning. S. P. Artificial Intelligence.. P. 399-422. In: Proceedings of AAAI-88.. "Case-based reasoning". Boulder. [Langley et al. N. Sanjai. Jackel.. Berlin Heidelberg. pp.). In Y. Boser..E. CA. J. L. IEEE Commnunications Magazine. AAAI Press.

mechanisms. [McArthur et al. Artificial Intelligence.. Universidad de Santiago de Compostela. N.T. "Agents that reduce work and information overload". London. Los Angeles. "An expert system for antepartum diagnostic evaluation". Bulletin of Mathematical Biophysics. and maps".. Riseman. D. pp... pp. [Mackworth... V.A. In: [Klahr & Waterman. Comm. D. eds. [McCulloch & Pitts.S. 80] Lindsay. J. "Circumscription  A form of nonmonotonic reasoning". "A computational theory of legal argument". S. [McCarthy & Sridharan. and Mira. [McDermott.. W. 908-915. Rutgers University. . R. Laboratory for Computer Science Research.. 43] McCulloch. Narain. New York. R.... Tesis Doctoral.. 80] McCarthy.. 13 (1980) 27-40. 1980. 86 .K. 94] Maes. 1978. 70-91. A. P. 53-60. Academic Press. [Matsuyana & Hwang. Calif. and Hwang. and Lederberg. 86] Marín. miniworlds. McGraw-Hill. pp. Freeman. 86] McArthur. 30-40. 902-907. [Marr. 2. R. metaphors. E. "SIGMA: A framework for image understanding: Integration of bottom-up and topdown analyses". [Marín. "A logical calculus of the ideas immanent in nervous activity". Klahr. P.[Lindsay et al. T.S. and Pitts. New York.. Calif. in a Hanson and E. J.G. J. 78] Mackworth. Proceedings of the Ninth IJCAI. "ROSS: An object-oriented language for constructing simulations". 82] Marr. W. Proceedings of the Seventh International Congress of Cybernetics and Systems. LPR-TR-2. 87] Marín... of the ACM. 85] Matsuyama. "Sistema Experto para el Diagnóstico y Tratamiento Anteparto". [Maes. 1986. 1987. 1994.. San Mateo. J. "R1: A rule-base configurer of computer systems". Morgan Kaufmann. Buchanan. Feigenbaum.. 1985. 37. [Marín & Mira. B. 1982.. Computer Vision Systems. "Vision". "Applications of artificial intelligence for organic chemistry: The DENDRAL project". Artificial Intelligence. 1981. pp. 19 (1982) 39-88. 82] McDermott. Vol. 5 (1943) 115-133. 81] McCarthy L. [McCarthy. and Sridharan...... "Vision research strategy: black magic. New York.

1988 Kluwer Academic Publishers.[McDermott. 1969.. 1985. 13 (1980) pp. 75] Minsky.L. 68] Minsky. CA. 20 (1983) pp. 10. 78] Michalski. Inc. G. [Minsky & Papert. [Michalski & Larson. "The society of mind".). Rep. . and Larson. MA.). New York. Machine Learning: A Multiestrategy Approach. 1982. "Production system conflict resolution strategies". "Selection of most representative training examples and incremental generation of VL1 hypotheses: the underlying methodology and the Description of Program ESEL and AQ11". M. MIT Press. Editorial Planeta. [McDermott & Doyle. The Psychology of Computer Vision. New York. New York. [Minsky.L.. of Illinois at Urbana-Champaign. 1994. 80] McDermott D. C. D. "Perceptrons: An introduction to computational geometry". 82b] McDermott. [Michalski. Vol. eds. J. 1978. [Minsky. Machine Intelligence. Morgan Kaufmann. M. 1975. 85] Minsky M. "Semantic Information Processing". J. MIT Press. R... J. pp. Univ. Pao. 83] Michalski. "A theory and methodology of inductive learning". No. and Papert. "Learning search control knowledge: An explanation based approach"..S.. (Ed. 177-199. 1986. [McDermott & Forgy. Michie. S..S. San Francisco.. 94] Michlski. (Una versión con anotaciones manuscritas se publicó en 1972 y también se ha realizado una edición ampliada en 1988. New York. MA. Boston. S.B.. In: Winston. YN. Omni Publications International. "A framework for representing Knowledge". 78-867. (Eds. and Y-H. "XSEL: A computer salespersonÆs assistant". 1978. R. and Doyle. 1986. M.. Simon and Schuster Inc. Vol 4. Traducción española: Robótica. 41-72. In J.) [Minton. 86] Minsky M. 1968 [Minsky. McGraw-Hill. [Minsky. in Waterman and Hayes-Roth. 88] Minton. [Michalski & Tecuci. Dept. 325337. P. and Forgy... "Robotics". Cambridge.. John Wiley & Sons. pp. eds. 78] McDermott. Cambridge. MA. 111-116. Artificial Intelligence. 69] Minsky.. of Computer Science. and Tecuci. Hayes.S. "Nonmonotonic logic I" Artificial Intelligence. R. J.

.. [Mira et al. Otero. S. 174-192.T.. J. J. T.M. (Eds. 2. Marín. pp. Artificial Intelligence. "THEO: A framework for self-improving systems". Madrid. Keller. J. Marín. A. Rutgers University.. CBM-TR-117. T.. Tech.. Rep. and Jacket. Dept. [Mitchell. Springer-Verlag. Delgado.. Delgado A.. NJ.G. T. No. [Mira et al.. 78] Mitchell... R.M. 86] Mitchell. T. [Mitchell. 355-358. Barreiro. A. "Sistemas expertos y consejeros de terapia en medicina: Ejemplos en cardiología. pp. Earlbaum.. A. and Schlimmer.. [Mitchell et al.. G. y Couselo. Tioga. In: Elithorn. R. HPP-79-2. "On knowledgebased systems in Ccu's: Monitoring and patients follow-up".. Report STAN-CS-78-711.. Chalasani. J. Allen. "Version spaces: An approach to concept learning". P. "Learning by Experimentation: Acquiring and Refining ProblemSolving Heuristics".. "Toward combining empirical and analytic methods for learning heuristics". pp. 163-190.. T. M. R.). Stanford. J.M. 1983.M. Yáñez. March 1982. J. Applications and Evaluation. Delgado.). 202-226. M. Amaro. Human and Artificial Intelligence. and Kedar-Cabelli.E. and Banerji. Ringuette. A. Carbonell..E. M. 91] Mira. Actas del III Simposium Internacional de Ingeniería Biomédica. S.. 91] Mitchell.. Utgoff.. S. T.. "Aspectos Básicos de la Inteligencia Artificial".. 82] Mitchell.. Barro. S. O.P... 1980. Etzioni. and Banerji. 84] Mitchell. 1984. of Computer Science. (Eds. R. Barreiro. Tech. J. R. J. [Mitchell. P. Boticario J. A. R. "Generalization as Search". Pérez. 1987. Machine Learning. 80] Mitchell. y Díez J. R... J. 87] Mira. (Eds.. Barro. M. 1991. Cheng. and Fox. . 1978. K. pp.. Michalski. Hillsdale.. M. E. [Mitchell et al.. (Ed. M. [Mitchell et al.)..M. 83] Mitchell. Berlin. R. "The need for biases in learning generalizations". Ruiz.. & Mitchell.Architectures for Intelligence.). 95] Mira J. Department of Computer Science. 1991.. A. In: VanLehn.M..... R.. 1 (1986). 1995. Jacquet. T. 18. oncología pediatría y medicina perinatal". pp. [Mitchell.M. CA: Stanford University.... "Explanation-based Learning: A unified view". T. Erlbaum. NJ. Machine Learning: an Artificial Intelligence Approach. Knowledge Based Systems in Medicine: Methods. 47-80. Madrid.. A.[Mira et al. Sanz y Torres. Vol.. B.E. In: Talmon.

[Mitchell et al., 94] Mitchell, T.M., Caruana, R., Freigat, D., McDermott,
J., and Zabowski, D., "Experience with a learning personal assistant".
Communications of the ACM 37, 80-91, 1994.
[Mooney et al., 89] R.J. Mooney, Shavlik, J.W., Towell, G.G., and A.
Gove, "An experimental comparison of simbolic and connectionist
learning algorithms". In Proceedings of the Eleventh International Joint
Conference on Artificial Intelligence, pp. 775-780, Morgan Kaufmann,
August, 1989.
[Moor, 87 Moor, J.H., "Turing Test", In: Shapiro, S.C. (Ed.), Encyclopedia
of Artificial Intelligence, Vol II. J. Wiley & Sons, New York, 1987, pp. 11261130.
[Moore, 82] Moore, R.C., "The role of logic in knowledge representation
and commonsense reasoning". In: Proceedings of the AAAI-82 (American
Association for Artificial Intelligence), Pittsburgh, PA, pp. 428-433, 1982.
[Moore, 94] Moore, J., Invited Lecture, National Conference of the AAAI,
1994.
[Nagao et al., 85] Nagao M., Tsujii, J., and Nakamura, J., "The japonese
government project for machine translation". In J. Slocum, ed., Machine
Translation Systems, Cambridge University Press, UK, 1985.
[Navinchandra, 91] Navinchandra, D., "A design scenario". Exploration
and Innovation in Design: Towards a Computational Model, SpringerVerlag, New York, NY, 1991.
[Neapolitan, 90] Neapolitan, R.E., "Probabilistic Reasoning in Expert
Systems: Theory and Algorithms". Wiley-Interscience, New York, 1990.
[Newell, 73] Newell, A., "Production systems: models of control
structure". in W. Chase, ed., Visual Information Processing, Academic
Press, Inc., New York, 1973.
[Newell, 81] Newell, A., "The Knowledge Level". AI Magazine, summer
(1981) 1-20.
[Newell, 90] Newell, A., "Unified Theories of Cognition". Cambridge,
MA: Harvard University Press, 1990.
[Newell & Simon, 56] Newell, A., and Simon, H.A., "The Logic Theory
Machine". IRE Trans. Information Theory, 2 (1956) 61-79.

[Newell & Simon, 72] Newell, A., and Simon, H.A., "Human Problem
Solving". Prentice-Hall, Englewood Cliffs, NJ, 1972.
[Newell et al., 60] Newell, A., Shaw, J.C., and Simon, H.A., "Report on a
General Problem-Solving Program". In: Proceedings of the International
Conference on Information Processing, UNESCO House, Paris, 1960, pp.
256-264.
[Nilsson, 80] Nilsson, N.J., "Principles of Artificial Intelligence". Tioga,
Palo Alto, CA, 1980. Traducción española: Principios de Inteligencia
Artificial. Díaz de Santos, Madrid, 1987.
[Nilsson, 89] Nilsson, N.J., "Action networks". In Proceedings of the
Rochester planning workshop: From formal systems to practical systems.
Rochester, N.Y., University of Rochester, 1989.
[Nirenburg et al., 87] Nirenburg, S., Raskin, V., and Tucker, A., "The
structure of interlingua in TRANSLATOR". In S. Nirenburg, ed., Machine
Translation, Cambridge University Press, UK, 1987.
[OÆHara & Shadbolt, 93] OÆHara, K., and Shadbolt, N.,, "AI models
as a variety of psychological explanation". In Proceedings of the IJCAI-93,
Chambery, France, 1993.
[Omlin & Giles, 95] Omnis, C.W., and Giles, C.L., "Extraction of rules
from discrete-time recurrent neural networks". Technical Report CS-TR3465 and UMIACS-TR-95-54, University of Maryland, College Park, MD
20742 (Aso published in Neural Networks), 1995.
[Otero, 91] Otero, R.P., "MEDTOOL. Una Herramienta para el Desarrollo
de Sistemas Expertos". Tesis Doctoral, Universidad de Santiago, 1991.
[Otero & Mira, 88] Otero, R.P., and Mira, J., "MEDTOOL: A teachable
medical expert system development tool". Proceedings of Third
International Symposium on Knowledge Engineering, Madrid, 1988, pp.
191-200.
[Pauker et al., 76] Pauker, S.G., Gorry, G.A., Kassirer, J.P., and
Schwartz, W.B., "Towards the simulation of clinical condition. Taking a
present illness by computer". American Journal of Medicine,60 (1976)
981-996.
[Pazos, 87] Pazos J. "Inteligencia Artificial". Paraninfo, Madrid, 1987.
[Pearl, 84] Pearl, J., "Heuristics: Intelligent search strategies for
computer problem solving". Addison-Wesley Publishing, 1984.

[Pearl, 86] Pearl, J., "Fusion, porpagation and structuring in belief
networks". Atificial Intelligence 29(3), pp. 241-288, 1986.
[Pearl, 88] Pearl, J., "Probabilistic reasoning in iIntelligent systems:
networks of plausible inference". Morgan Kaufmann, San Mateo, CA,
1988. Reprinted with corrections in 1991.
[Pérez & Ribeiro, 96] Pérez, A., and Ribeiro, A., "An approximation to
generic knowledge discovery in database system". In: Proceedings of
The First International Workshop on Machine Learning, Forecasting, and
Optimization (MALFO´96). Editorial: Universidad Carlos III de Madrid
(Escuela Politécnica Superior). Madrid (Leganés), julio 1996, pp. 129-139.
[Pollack, 91] Pollack, M., "Computers and thought address".
International Joint Conference of Artificial Intelligence, 1991.
[Pomerleau, 93] Pomerleau, D.A., "Neural network perception for
mobile robot guidance". Kluwer, Dordrecht, The Netherlands, 1993.
[Pylshyn, 80] Pylshyn, Z., "Information science: Its roots and relations
as viewed from the perspective for cognitive science". In F. Machlup and
U. Mansfield (eds.), The Study for Information: Interdisciplinary
Messages, Wiley, New York, 1983, pp. 63-80.
[Qian & Irani, 91] Qian, Z., and Irani, B.K., "The consistent concept
axiom". In: Proceedings of the 8th International Workshop on Machine
Learning. Morgan Kaufmann, 1991, pp. 437-441.
[Quillian, 68] Quillian, M.R., "Semantic memory". In: [Minsky, 1968 ,
pp. 227-270.
[Quinlan, 86a] Quinlan, J.R. "INFERNO: A cautious approach to
uncertein inference". In: [Klahr & Waterman, 86 , pp. 350-381.
[Quinlan, 86b] Quinlan J.R., "Induction of Decision Trees". Machine
Learning Vol. I, pp. 81-106, 1986.
[Quinlan, 96] Quinlan J.R., "Improved use of continuous attributes in
C4.5". Journal of Artificial Intelligence Research 4 (1996), pp. 77-90.
[Reiter, 80] Reiter, R., "A logic for default reasoning". Artificial
Intelligence, 13 (1980) 81-132.
[Reiter, 81] Reiter, J., "AL/X: An inference system for probabilistic
reasoning". M.Sc. Thesis, Department of Computer Science, University of
Illinois at Urbana-Champaign, 1981.

[Rendell, 89] Rendell, L., "Comparing systems and analyzing functions
to improve constructive induction". In: Proceedings of the 6th
International Workshop on Machine Learning. Cornell University, Ithaca,
NY, 1989, pp. 461-464.
[Rich & Knight, 91] Rich, E., and Knight, K., Artificial Intelligence.
McGraw Hill, 1991. Traducción española: Inteligencia Artificial. Segunda
Edición. McGraw-Hill, 1994.
[Riesbeck & Schank, 89]. Riesbeck, K.C., and Schank, R.C., "Inside
Case-Based Reasoning". Lawrence Erlbaum Associates, Hillsdale, NJ,
1989.
[Roberts, 65] Roberts, L., "Machine perception of three-dimensional
solids", in J. Tippett and co-workers, eds., Optical and Electro-optical
Information Processing. MIT Press, Cambridge, Mass., 1965, pp. 159-197.
[Robinson, 65] Robinson, J.A., "A machine oriented logic based on the
resolution principles". Journal of the ACM, 12 (1965) 23-41.
[Romaniuk & Hall, 91] Romaniuk, S.G., and Hall, L.O., "Injecting
symbol processing into a connectionist model". In Branko Socek and the
IRIS Group (eds.). Neural and Intelligence Systems Integration. John
Wiley & Sons, 1991.
[Rosenblueth et al., 43] Rosenblueth, A., Wiener, N., and Bigelow,
J., "Behavior, Purpose and Teleology", Philosophy of Science 10 (1943).
[Rumelhart et al., 1986] Rumelhart, D.E., Hinton, G.E., and Williams,
R.J., "Learning internal representations by error propagation". In
Rumelhart, D.E., and McClelland, J.L. (Eds.), Parallel Distributed
Processing: Explorations in the Microstucture of Cognition, Vol. 1:
Foundations. MIT Press, Cambridge, MA, pp. 318-362, 1986.
[Russell & Grosof, 90] Russell, S., and Grosof, B.N., "Declarative bias:
An overview". In: Benjamin, D.P. (Ed.), Change of Representation and
Inductive Bias, Kluwer Academic Publishers, 1990, pp. 267-308.
[Russell & Norvig, 95] Russell, S., and Norvig, P., "Artificial
intelligence: A modern approach". Prentice-Hall International, Inc., 1995.
[Samuel, 59] Samuel, A. L., "Some studies in machine learning using
the game of checkers", IBM Journal of Research and
Development, 3 (1959) 211-229. Reprinted in: Feigenbaum, E.A., and
Feldman, J. (Eds.), Computers and Thought. McGraw-Hill, New York, pp.
71-105. 1959.

C. Connection Science.C.. G. and Rosenberg. Erlbaum.C. "An approach to combining explanation-based and neural learning algorithms". 79] Schank.E. "Encyclopedia of Artificial Intelligence". pp. 79] Shapiro. S.. 1987.327-362. "Designing the user interface: Strategies for effective human-computer interaction" Addison-Wesley Publishing Company. R. R. 1995.. "The SNePS semantic network processing system". In: [Findler. J. 179-203. 92] Shapiro. C. R. [Schank. and Rieger. 1979 . [Shapiro. 72] Schank. "Engines for education".. [Schank. [Schank & Carbonell. III.C. [Schank & Rieger.C. Complex Systems. 89] Shavlik. 1977.W. "Dynamic Memory: a theory of learning in computers and people". 41 (1950) 256-275. T. North Holland. "Re: The Gettysburg Address".). 1 (1989) 233-255. R. 1. Cognitive Science 4(1980).P.C. [Schank. S. 1987. R.. J.. [Schank & Abelson. 95] Schank. 145-168. R. "Programming a computer for playing chess". 2nd edition. ..C. R. C. 1979 .C. 1975. 3 (1972) 552631.. [Shavlik & Towell. "Conceptual dependency: A theory of natural language understanding".G. "Parallel network that learn to pronounce English text". 87] Shneiderman.[Schank. New York. [Shneiderman. and Abelson. 1982. "Language and Memory". Cognitive Psychology. John Wiley & Sons. 77] Schank. Amsterdam. "Scripts. Lawrence Erlbaum Associates. pp. 75] Schank. R. 1992....C. 82] Schank. The Netherlands. [Shannon.. and Towell. C... 50] Shannon. 87] Sejnowski. R. and Carbonell. NJ. Plans. 80] Schank. [Schank. pp. 243-284.J. Cambridge University Press. Goals and Understanding".. [Sejnowski & Rosenberg. C. 74] Schank. J.R. (Ed. B. "Inference and the conceptual understanding of natural language". Artificial Intelligence. Philosophical Magazine. "Conceptual information processing".. pp. [Shapiro. R. Hilsdale. In: [Findler. 5 (1974) 373-412. Cambridge.

Mitchell Eds. School of Information and Computer Science. Georgia Institute of Technology. Distributed Artificial Intelligence. D. Steele Jr. S. K. A. Gasser and M. [Sowa. 2. [Sycara. 1987. pp. "Conceptual Structures: Information Processing in Mind and Machine". "Multi-agent compromise via negotiation"..F. [Simon. G. H. D. [Sycara & Navinchandra. J. In: Proceedings of the 6th International Workshop on Machine Learning. [Subramanian. [Sowa.. CA: Morgan Kaufmann. H. 2537.[Simon.. Austin. J. Morgan Kaufmann. 83] Simon H. 91] Sowa.. Digital Press. Atlanta GA. TN.W. 89] Subramanian. In L. pp. (Ed. [Steele.C. Michalski. C. 1989. NY.). 1983. "Resolving adversarial conflicts: an approach to integrating case-based and analytic methods".P. San Mateo. "Representing and indexing design cases". Addison-Wesley.. "Translating with examples: A new approach to machine translation". 1989. E. Prentice-Hall. and Navinchandra. K.). MA. [Sycara. . 93] Tansley. and Kohyama. "Search and reasoning in problem solving" Artificial Intelligence 6 (3) 235-47. & T. 84. (1984).P. 90] Sumita. Machine Learning: An artificial intelligence approach. Tullahoma. Vol. Massachusetts (MA).. "Principles of Semantic Networks: Explorations in the Representation of Knowledge". 90] Guy L. Ithaca... M. 1989. CA. "Common Lisp: the language". and Hayball. 87] Sycara. 84] Sowa. 1990. K. D. 1984." In R. "Representational issues in machine learning". "Why should machines learn?. 1993. Iida. "Knowledge-Based Systems Analysis and Design: A KADS DeveloperÆs Handbook".. 1991. Tex. 426-429. [Tansley & Hayball.. Hunds (eds.P. A. 83b] Simon H. Carbonell. 89] Sycara.N.S. In Proceeding of the Second Intenational Conference on Industrial and Engineering Applications of AI and Expert Systems. J. Second Edition (1990). [Sumita et al. Los Altos. Reading.. June 1113.F. In Proceedings of the Third International Conference on Theoretical and Methodological Issues in Machine Translation of Natural Languages. Technical Report GITICS-87/26. 1983. 89] Sycara. London: Pitman.

Albuquerque..). Vol. Artificial Intelligence 70. E. 90] Tebelskis. (Eds.. Version 8. pp. J.M. 1977. S.. and G. 1985.. Carnegie Mellon University. J. (Eds.... "The generalized LR parser/compiler. "An inference-based framework for multiestrategy learning".S.G. and Mitchell.. 93] Thrun. Mex.S.M.... and Kee... and Waibel. "Experiments in interpretation guided segmentation".. R. Carbonell. 762. "Knowledge-based artificial neural networks".C. [Tu et al. [Towell et al. MA.769. G. Machine . In Proceedings of IEEE International Conference on Acoustics.. IV. 84] Utgoff.. 1984. In: Michalski. Center of Machine Translation. [Towell & Shavlik. E. Communications of the ACM.A. [Utgoff.W.. [Tenenbaum & Barrow. Shavlik. M. 241-274. R. 85] Tsotsos. [Tecuci. Machine Learning: A Multistrategy Approach. "Knowledge organization and its role in the interpretation of time-varying data: The ALVEN system". and Fagan. G. and Tecuci. Fergusson. [Tsotsos. J. 1994. Musha.1: UserÆs Guide". "Shift of bias for inductive learning".G. In: Michalski. 197-204. 32(1989) 14391455. 1993.H. M.. pp.. and Mitchell. Musen. 1993 [Tomita et al.. M. M. Kahn. Rutgers University. Shortliffe. "Explanation based learning: A comparison of symbolic and neural network approaches".. 437-440. 16-32. H. PA. 86] Utgoff.. Artificial Intelligence 8(3). "Refinement of approximate domain theories by knowledge-based neural networks". Pittsburgh. 77] Tenenbaum J. 90] Towel. Morgan Kaufmann. and Barrow. Dept. 93] Tecuci.. Shavlik. 89] Tu. T. N. P. MA. CA. Mitamura. A. Speech and Signal Processing (ICASSP-90). [Utgoff.). M. J. S. In Proceedings of the Tenth International Conference on Machine Learning. Boston. pp.. San Mateo. L. Computational Intelligence 1 (1). J.E.. 88] Tomita. The MIT Press.. "Large vocabulary recognition using linked predictive neural networks". Proceeding of the Eighth National Conference on Artificial Intelligence. T.. Noordewier. 1988. 1990.. T. J.[Tebelskis & Waibel. 94] Towel. 1990. "Shift of bias for inductive concept learning". P.M. Amherst. H. G. PhD thesis. [Thrun & Mitchell. Technical Memo. "Episodic skeletal plan refinement based on temporal data". of Computer Science..

C. K. Mich. H.. "Cased-Based reasoning in PRODIGY".G. 523-548.1. Erlbaum. "Improving a rule induction system using genetic algorithms".. O.. and Tecuci. Communications of the ACM. pp. R. October 1994. [Veloso & Carbonell. Schrooten. 1990. (Ed. R.. (eds) Machine Learning: A Multistrategy Approach Volume IV. M.M.. and Gustavsson.. V. G. 1990. "Input data management in real-life AI systems". Vol 4. Volume II. Detroit.. pp. version 2. 31 (1987) 1-40.. "Design model and process". In Michlski. 1994. R. Morgan Kaufmann. M. 1989. Ann Arbor.. & Tecuci. 1980. 736-742. Olsson. and Carbonell.S. [VanLehn.Learning: An Artificial Intelligence Approach. "Learning one subprocedure per lesson". CA. Schreiber. "From Inheritance Relation to Non-Axiomatic Logic". 94] Veloso. 87] VanLehn. [Valiant. [VanLehn. 1994. 90] Vere. Morgan Kaufmann..P. 1134-1142. pp. International Journal of Approximate Reasoning 11(4): 281-319. K. Duursma. 1994. R. J. San Mateo. AAAI Press / MIT Press. and Chase. G. "A theory of the learnable"..G..)... 1986.S. 90] Vilain. 84] Valiant. K.. CA. (Eds. W. and Bickmore. "On analytical and similarity-based classification". 91] VanLehn. In Michalski.. [Vere & Bickmore. Computational Intelligence 6. UMI Research Press. S. Machine Learning: A Multiestrategy Approach. NJ.. . [Vilain et al. P. Golinopulos. T. and De Jong. 94] Van de Velde. M. CA. Artificial Intelligence. "Architectures for Intelligence". 107-148... [Van Melle. In: Proceedings of AAAI-90 (American Association for Artificial Intelligence). "A basic agent". [Van de Velde et al. Koton. Morgan Kaufmann: San Francisco. "System aids in constructing consultation programs". U. W. M.). P.. 41-60. San Francisco. Terpstra.7. 89] Washington. KADS-II: Deliverable D. 1991. MI. [Washington & Hayes-Roth. 27. G. [Vafaie & De Jong.. B. Hillsdale. 94] Wang P. In Proceedings of the International Joint Conference on Artificial Intelligence. Sundin. L. 94] Vafaie. [Wang. and Hayes-Roth. 80] Van Melle..

Van Nostrand Reinhold. 1975..S. Lenat..: MIT Press. S. New York..A. 1993.. In W.A.. L. Academic Press.. Mass. [Weitzenbaum. MA. [Winograd. 8 (1965) 338-ss.A. "A model-based method for computer-aided medical decisionmaking". Di Eugenio. [Zadeh.[Wasserman. A. Cambridge. [Waterman. Addison-Wesley. 86] Waterman. [Wielinga et al. Knowledge Acquisition. "Machine translation of languages"... 15-23. Fuzzy Sets and their Applications to Cognitive and Decision Processes. (Versión traducida en Addison-Wesley Iberoamericana. . L. Kulikowski. D. K. S. Artificial Intelligence. and Breuker J. C. N.. MA. 72] Winograd. 1994) [Woods. [Winston.. [Webber et al. L.. New York. "A Guide to Expert Systems". [Weiss et al. B. 1989. 92] Winston. 1972.A. and Safir. [Waterman & Lenat.A. Locke and A.J. Badler... Reading. 83] Waterman. . 93] Webber. K. "Building Expert Systems". 92] Wielinga. 78] Weiss..B. Academic Press. 1966.. "Transition Network Grammars for Natural Language Analysis".A. "ELIZA ùA computer program for the study of natural language communication between man and machine". "Neural Computing: Theory and Practice".... D. (Eds). In: Zadeh. 1992. W. Reading. and Hayes-Roth. "Instructions. 66] Weitzenbaum. T. M. "Calculus of fuzzy restrictions". 591-606. Levinson. Fu... 11 (1978) 145-172. Addison-Wesley Publishing. CACM 13 (10). 1983. pp. and Shimura... 75] Zadeh. "Understanding Natural Language". "Fuzzy sets". B. D... Tanaka. CACM 9(1). "KADS: a modelling approach to knowledge engineering". Schreiber A. University of Pennsylvania. (1970). C. "Artificial intelligence". 89] Wasserman. B.M.. Report MS-CIS-93-61. 1986. Booth (eds. 36-45.. P. 1955. A. and expectations". Addison-Wesley. [Zadeh. [Weaver. M.. 4 (1992) 5-53. B. pp.D. P.). Greib. New York. 70] Woods W. L. and Moore. 55] Weaver. Information and Control. intentions.A. Amarel.Th. 65] Zadeh.

Vol 4. and Tecuci. 94] Zhang.S. In Michlski.. "Learning graded concept descriptions by integrating symbolic and subsymbolic strategies". CA. Machine Learning: A Multiestrategy Approach. 1994. San Francisco. R. (Eds.).. Morgan Kaufmann. . G.[Zhang. J.