You are on page 1of 507

1

nasgreen46 nas2green49
2
Inteligencia Articial
Jose A. Montero Valverde
c _ Derechos reservados 2012
27 de enero de 2013

Indice general
Contenido I
Prefacio XIII
1. Fundamentos de la Inteligencia Articial (IA) 3
1.1. Historia de la IA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1. IA: Etapa Moderna (desarrollos losocos) . . . . . . . . . . 11
1.1.2. IA: Etapa Moderna (desarrollos practicos) . . . . . . . . . . . 15
1.2. Conceptos y tecnicas (Estado del arte) . . . . . . . . . . . . . . . . . 22
1.3. Desarrollos actuales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.3.1. Procesamiento de Lenguaje Natural (PLN) . . . . . . . . . . . 31
1.3.2. Reconocimiento de patrones . . . . . . . . . . . . . . . . . . . 33
1.3.3. Robotica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.3.4. Sistemas Expertos . . . . . . . . . . . . . . . . . . . . . . . . 39
1.3.5. Logica Difusa . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
1.4. Modelos de agente inteligente . . . . . . . . . . . . . . . . . . . . . . 44
1.5. Heurstica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
1.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2. Tecnicas de B usqueda 67
2.1. Solucion de problemas con b usqueda . . . . . . . . . . . . . . . . . . 68
2.1.1. Terminos relacionados con b usqueda . . . . . . . . . . . . . . 71
2.1.2. Formulacion de un problema de b usqueda . . . . . . . . . . . 74
i
ii

INDICE GENERAL
2.2. Espacio de estados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
2.2.1. Estados determinsticos y no determinsticos . . . . . . . . . . 82
2.3. Metodos de b usqueda . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
2.3.1. Primero en anchura (breadth-rst) . . . . . . . . . . . . . . . . 89
2.3.2. Grafos O . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
2.3.3. Grafos A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
2.4. Satisfaccion de restricciones . . . . . . . . . . . . . . . . . . . . . . . 100
2.4.1. B usqueda en CSP . . . . . . . . . . . . . . . . . . . . . . . . . 104
2.5. Teora de juegos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
2.5.1. Descripcion de juego . . . . . . . . . . . . . . . . . . . . . . . 109
2.5.2. Teora de juegos no cooperativos . . . . . . . . . . . . . . . . 110
2.5.3. Formas de juego: estrategicas y extensivas . . . . . . . . . . . 114
2.5.4. Juegos cooperativos . . . . . . . . . . . . . . . . . . . . . . . . 122
2.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
3. Representacion del conocimiento y razonamiento 129
3.1. Sistemas basados en conocimiento (KBS) . . . . . . . . . . . . . . . . 130
3.1.1. Concepto de conocimiento . . . . . . . . . . . . . . . . . . . . 135
3.1.2. Lenguajes utilizados en la representacion de conocimiento (RC)137
3.2. Mapas conceptuales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
3.3. Redes Semanticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
3.3.1. Descripcion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
3.4. Logica de predicados . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
3.4.1. Sintaxis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
3.4.2. Semantica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
3.4.3. Inferencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
3.4.4. Validez . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
3.5. Razonamiento con incertidumbre . . . . . . . . . . . . . . . . . . . . 179
3.5.1. Razonamiento probabilstico . . . . . . . . . . . . . . . . . . . 181
3.5.2. Aprendizaje . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190

INDICE GENERAL iii


3.5.3. Logicas multivaluadas . . . . . . . . . . . . . . . . . . . . . . 199
3.5.4. Logica difusa . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
3.6. Demostracion y metodos . . . . . . . . . . . . . . . . . . . . . . . . . 213
3.6.1. Demostracion . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
3.6.2. Metodos de demostracion . . . . . . . . . . . . . . . . . . . . 215
3.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
4. Sistemas de Razonamiento 227
4.1. Reglas de produccion . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
4.1.1. Sintaxis de las reglas de produccion . . . . . . . . . . . . . . . 230
4.2. Semantica de las reglas de produccion . . . . . . . . . . . . . . . . . . 233
4.2.1. Conocimiento causal . . . . . . . . . . . . . . . . . . . . . . . 235
4.2.2. Conocimiento de diagnostico . . . . . . . . . . . . . . . . . . . 242
4.3. Arquitectura de un sistema de produccion . . . . . . . . . . . . . . . 253
4.3.1. Base de hechos . . . . . . . . . . . . . . . . . . . . . . . . . . 253
4.3.2. Base de conocimientos . . . . . . . . . . . . . . . . . . . . . . 258
4.3.3. Mecanismos de control . . . . . . . . . . . . . . . . . . . . . . 264
4.4. Ciclo de vida de un sistema de produccion . . . . . . . . . . . . . . . 278
4.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
5. Aplicaciones con tecnicas de IA 295
5.1. Robotica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
5.1.1. Conceptos basicos . . . . . . . . . . . . . . . . . . . . . . . . . 296
5.1.2. Clasicacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 307
5.1.3. Desarrollos actuales y aplicaciones . . . . . . . . . . . . . . . . 320
5.2. Redes neuronales (RN) . . . . . . . . . . . . . . . . . . . . . . . . . . 339
5.2.1. Coceptos basicos . . . . . . . . . . . . . . . . . . . . . . . . . 341
5.2.2. Clasicacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347
5.2.3. Desarrollos actuales y aplicaciones . . . . . . . . . . . . . . . . 357
5.3. Vision articial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363
iv

INDICE GENERAL
5.3.1. Conceptos basicos . . . . . . . . . . . . . . . . . . . . . . . . . 364
5.3.2. Desarrollos actuales y aplicaciones . . . . . . . . . . . . . . . . 383
5.4. Logica difusa (Fuzzy Logic) . . . . . . . . . . . . . . . . . . . . . . . 391
5.4.1. Conceptos basicos . . . . . . . . . . . . . . . . . . . . . . . . . 394
5.4.2. Desarrollos actuales y aplicaciones . . . . . . . . . . . . . . . . 410
5.5. Procesamiento de Lenguaje Natural (PLN) . . . . . . . . . . . . . . . 415
5.5.1. Conceptos basicos . . . . . . . . . . . . . . . . . . . . . . . . . 416
5.5.2. Desarrollos actuales y aplicaciones . . . . . . . . . . . . . . . . 433
5.6. Sistemas Expertos (SE) . . . . . . . . . . . . . . . . . . . . . . . . . . 444
5.6.1. Conceptos basicos . . . . . . . . . . . . . . . . . . . . . . . . . 445
5.6.2. Clasicacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 450
5.6.3. Desarrollos actuales y aplicaciones . . . . . . . . . . . . . . . . 469
5.6.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 475
Bibliografa 479

Indice de guras
1.1. Padres de la IA. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.1. Plano de la casa del problema de las llaves perdidas. . . . . . . . . . . 69
2.2. Grafo que describe la trayectoria en el problema de las llaves perdidas. 70
2.3. Ilustracion del juego conocido como 8-puzzle . . . . . . . . . . . . . . 76
2.4. Ilustracion de la clasicacion de los espacios de estados (EE). . . . . . 83
2.5. Ejemplo de un grafo de espacio de estados deterministas. . . . . . . . 83
2.6. Ejemplo de un grafo de espacio de estados no deterministas. . . . . . 84
2.7. Ilustracion de los diferentes algoritmos de b usqueda. . . . . . . . . . . 85
2.8. Operacion del algoritmo de b usqueda primero en amplitud . . . . . . 90
2.9. Algoritmo de b usqueda primero en anchura en arboles. . . . . . . . . 91
2.10. 8 puzzle: Ilustracion de 3 movimientos . . . . . . . . . . . . . . . . 93
2.11. Ilustracion del algoritmo Grafo O. . . . . . . . . . . . . . . . . . . . . 95
2.12. Ilustracion del algoritmo A*. . . . . . . . . . . . . . . . . . . . . . . . 97
2.13. Aplicacion del algoritmo A* . . . . . . . . . . . . . . . . . . . . . . . 98
2.14. Grafo del problema: 3 coloraci on de un grafo. . . . . . . . . . . . . 103
2.15. Grafo de restricciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
2.16. Pseudocodigo del algoritmo BT. . . . . . . . . . . . . . . . . . . . . . 105
2.17. Grafo de restricciones para un CSP [13]. . . . . . . . . . . . . . . . . 107
2.18.

Arbol de b usqueda que explora BT . . . . . . . . . . . . . . . . . . . 107
2.19. Matriz del juego para elegir la calidad del servicio . . . . . . . . . . . 116
2.20.

Arbol que representa el juego eleccion de calidad . . . . . . . . . . . . 117
v
vi

INDICE DE FIGURAS
2.21. Juego extensivo con informacion imperfecta . . . . . . . . . . . . . . 120
3.1. Cadena DIKW ((DataInformationKnowledgeWisdom)) . . . . . 132
3.2. Arquitectura de un Sistema Basado en Conocimiento (KBS). . . . . . 133
3.3. Desarrollo de un sistema KBS . . . . . . . . . . . . . . . . . . . . . . 134
3.4. Ordenacion de conceptos . . . . . . . . . . . . . . . . . . . . . . . . . 145
3.5. Mapa conceptual del tema generico: Animales. . . . . . . . . . . . . 146
3.6. Mapa conceptual del tema Mapa conceptual [43]. . . . . . . . . . . 147
3.7. Descripcion de temas, relaciones y ordinalidad. . . . . . . . . . . . . . 151
3.8. Ilustracion de una red semantica . . . . . . . . . . . . . . . . . . . . . 152
3.9. Ilustracion de una red semantica desde una perspectiva de POO. . . . 154
3.10. Estructura de la forma normal prenexa . . . . . . . . . . . . . . . 171
3.11. Proceso de solucion mostrado en forma de arbol . . . . . . . . . . . . 176
3.12. Esquema de solucion mostrado en forma de grafo . . . . . . . . . . . 178
3.13. Ilustracion de una red de creencia . . . . . . . . . . . . . . . . . . . . 188
3.14. Clasicacion usando un arbol de decision . . . . . . . . . . . . . . . . 196
3.15. Esquema de una RNA . . . . . . . . . . . . . . . . . . . . . . . . . . 198
3.16. Ilustracion del algoritmo de boost. . . . . . . . . . . . . . . . . . . . . 199
3.17.

Algebra de Heyting con tablas de verdad . . . . . . . . . . . . . . . . 203
3.18. Logica de Lukasiewics en tablas de verdad . . . . . . . . . . . . . . . 205
3.19. Ilustracion de funcion caracterstica para un Conjunto preciso. . . . . 208
3.20. Ilustracion de funcion caracterstica para un Conjunto Difuso. . . . . 209
3.21. Ilustracion de la variable ling ustica caracterstica A. . . . . . . . . . 213
4.1. componentes basicos de un sistema basado en reglas . . . . . . . . . . 230
4.2. Ciclo de reconocimientoaccion de un SBR . . . . . . . . . . . . . . 235
4.3. Relacion de 13 objetos. . . . . . . . . . . . . . . . . . . . . . . . . . . 237
4.4. Representacion graca de relaciones de 13 objetos. . . . . . . . . . . . 238
4.5. Estrategia de encadenamiento de 13 objetos. . . . . . . . . . . . . . . 239
4.6. Otro ejemplo del algoritmo de encadenamiento de reglas. . . . . . . . 240
4.7. Ilustracion del encadenamiento de reglas orientado a objetivo. . . . . 246

INDICE DE FIGURAS vii


4.8. Arquitectura de un sistema basado en reglas. . . . . . . . . . . . . . . 254
4.9. Ilustracion de una base de datos con tres atributos binarios . . . . . . 262
4.10. Algoritmos del motor de inferencias . . . . . . . . . . . . . . . . . . . 266
4.11. Mecanismo de resolucion. . . . . . . . . . . . . . . . . . . . . . . . . . 269
4.12. Mecanismo de resolucion del CA. . . . . . . . . . . . . . . . . . . . . 271
4.13. Arquitectura del sistema Mycin. . . . . . . . . . . . . . . . . . . . . . 280
4.14. Formato de regla utilizado por MYCIN. . . . . . . . . . . . . . . . . . 281
4.15. Segmento de consulta con Mycin. . . . . . . . . . . . . . . . . . . . . 282
4.16. Sistema de control de traco. . . . . . . . . . . . . . . . . . . . . . . 286
5.1. Ilustracion de DoF . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301
5.2. Diferentes tipos de locomocion en robots . . . . . . . . . . . . . . . . 302
5.3. Robot que utiliza ruedas para desplazarse . . . . . . . . . . . . . . . 303
5.4. Ilustracion de un robot que utiliza una conguracion diferencial . . . 304
5.5. Ilustracion de la conguracion estilo triciclo . . . . . . . . . . . . . . 305
5.6. Ilustracion de la conguracion tipo carro . . . . . . . . . . . . . . . . 305
5.7. Desplazamiento con respecto a un eje de referencia. . . . . . . . . . . 306
5.8. Ilustracion de un robot que se desplaza con patas. . . . . . . . . . . . 307
5.9. Grupo de robots trabajando en el ensamble de piezas. . . . . . . . . . 308
5.10. Imagenes de diferentes robots de servicio. . . . . . . . . . . . . . . . . 311
5.11. Imagenes que muestran robots utilizados con nes de exploracion. . . 313
5.12. Componentes del sistema robotico Da Vinci. . . . . . . . . . . . . . . 315
5.13. Ilustracion de protesis roboticas. . . . . . . . . . . . . . . . . . . . . . 318
5.14. Sistema robotico Pi Zymark. . . . . . . . . . . . . . . . . . . . . . . . 319
5.15. Proyectos de sistemas roboticos en CMU. . . . . . . . . . . . . . . . . 322
5.16. Manipulacion y control de la trayectoria. . . . . . . . . . . . . . . . . 324
5.17. Planicacion autonoma de movimientos. . . . . . . . . . . . . . . . . 325
5.18. Robots utilizados en la industria automotriz. . . . . . . . . . . . . . . 327
5.19. Sistema robotico Sonic-Flashlight. . . . . . . . . . . . . . . . . . . . . 329
5.20. WaterStrider sistema robotico bioinspirado. . . . . . . . . . . . . . . 330
viii

INDICE DE FIGURAS
5.21. Boss Vehculo autonomo no tripulado. . . . . . . . . . . . . . . . . . 331
5.22. Robot de inspeccion visual Explorer . . . . . . . . . . . . . . . . . . . 332
5.23. Neurona biologica y su modelo matematico. . . . . . . . . . . . . . . 342
5.24. Arquitectura de las redes neuronales. . . . . . . . . . . . . . . . . . . 344
5.25. Ilustracion del perceptron clasico. . . . . . . . . . . . . . . . . . . . . 349
5.26. Arquitectura del perceptron. . . . . . . . . . . . . . . . . . . . . . . . 351
5.27. Conservacion de la topologoa de una red Kohonen. . . . . . . . . . . 353
5.28. Arquitectura del modelo ART-1 [140]. . . . . . . . . . . . . . . . . . . 354
5.29. Estructura de RNAs basada en bloques. . . . . . . . . . . . . . . . . 360
5.30. Procesamiento de imagenes y vision articial. . . . . . . . . . . . . . 365
5.31. Tareas que componen un proyecto de vision articial. . . . . . . . . . 366
5.32. Niveles de gris en una imagen monocromatica. . . . . . . . . . . . . . 368
5.33. Efecto del muestreo y cuantizacion en una imagen digital. . . . . . . . 369
5.34. Operaciones comunes en el mejoramiento de la imagen. . . . . . . . . 371
5.35. Ejemplos de texturas en imagenes. . . . . . . . . . . . . . . . . . . . 373
5.36. Formas basicas de segmentacion. . . . . . . . . . . . . . . . . . . . . 374
5.37. Tecnicas basicas de segmentacion. . . . . . . . . . . . . . . . . . . . . 375
5.38. Ilustracion de segmentacion por crecimiento de regi on. . . . . . . . . 376
5.39. Ejemplo de segmentacion basada en histogramas. . . . . . . . . . . . 378
5.40. Ejemplo de segmentacion basada en division y agrupamiento. . . . . . 379
5.41. Ejemplo de aplicacion del codigo de cadena. . . . . . . . . . . . . . . 380
5.42. Aprendiendo una metrica para alinear imagenes [163]. . . . . . . . . . 385
5.43. Ejemplo de analisis de escenas. . . . . . . . . . . . . . . . . . . . . . 385
5.44. Ilustracion de luz estructurada: convencional y difusa. . . . . . . . . . 389
5.45. Reconstruccion de la forma en objetos reales. . . . . . . . . . . . . . . 390
5.46. Ejemplo de vericacion de rostros. . . . . . . . . . . . . . . . . . . . . 392
5.47. Grados de pertenencia a un conjunto. . . . . . . . . . . . . . . . . . . 397
5.48. Ejemplo de conjunto difuso . . . . . . . . . . . . . . . . . . . . . . . . 398
5.49. Conjuntos difusos del universo X = edad. . . . . . . . . . . . . . . . . 399

INDICE DE FIGURAS ix
5.50. Arquitectura de un sistema basado en Logica Difusa. . . . . . . . . . 403
5.51. Arquitectura para un controlador difuso de aire acondicionado. . . . . 404
5.52. Funciones de pertenencia de la variable difusa: temperatura. . . . . . . 405
5.53. Funciones de pertenencia de la variable de salida: velocidad. . . . . . 405
5.54. Imagen que muestra la pertenencia a subconjuntos difusos. . . . . . . 407
5.55. Imagen que muestra la activacion de operadores mnimo y maximo. . 409
5.56. Ilustracion de los diferentes niveles del lenguaje. . . . . . . . . . . . . 417
5.57. Esquema de un PLN simbolico. . . . . . . . . . . . . . . . . . . . . . 421
5.58. Esquema general de utilizacion del corpus. . . . . . . . . . . . . . . . 428
5.59. Etapas de un sistema PLN. . . . . . . . . . . . . . . . . . . . . . . . 432
5.60. Componentes de un Sistema Experto. . . . . . . . . . . . . . . . . . . 446
5.61. Etapas sugeridas para desarrollar un sistema experto. . . . . . . . . . 449
5.62. Ilustracion del modelo de sntomas dependientes. . . . . . . . . . . . 456
5.63. Ejemplo de aplicacion del modelo MSD. . . . . . . . . . . . . . . . . 458
5.64. Red Bayesiana como un grafo acclico dirigido. . . . . . . . . . . . . . 462
5.65. Red Bayesiana para el problema de diagnosticar una falla mecanica. 464
5.66. Algoritmo de propagacion de la evidencia en redes tipo arbol. . . . . 467
5.67. Ejemplo de la propagacion a traves de mensajes. . . . . . . . . . . . . 468
x

INDICE DE FIGURAS

Indice de cuadros
2.1. Calculo de la complejidad de un algoritmo unidimensional (1 D). . 74
2.2. Matriz bimatricial correspondiente al juego del Dilema del prisionero. 111
3.1. Tipos de conocimiento. . . . . . . . . . . . . . . . . . . . . . . . . . . 131
3.2. Tabla de equivalencias. . . . . . . . . . . . . . . . . . . . . . . . . . . 172
3.3. Ejemplo de una base de reglas difusa . . . . . . . . . . . . . . . . . . 212
4.1. Razonamiento progresivo . . . . . . . . . . . . . . . . . . . . . . . . . 241
4.2. Razonamiento dirigido por objetivos . . . . . . . . . . . . . . . . . . . 251
4.3. Variacion de la memoria de trabajo . . . . . . . . . . . . . . . . . . . 257
4.4. Conjunto de valores que pueden tomar los objetos . . . . . . . . . . . 259
4.5. Reglas para el cajero automatico . . . . . . . . . . . . . . . . . . . . 260
4.6. Base de datos mostrando cuatro objetos y sus valores. . . . . . . . . . 263
4.7. Ejemplo de sustitucion de reglas . . . . . . . . . . . . . . . . . . . . . 264
4.8. Equivalencias de reglas . . . . . . . . . . . . . . . . . . . . . . . . . . 269
4.9. Equivalencias de reglas con tablas de verdad . . . . . . . . . . . . . . 270
4.10. Objetos y sus correspondientes valores. . . . . . . . . . . . . . . . . . 286
4.11. Objetos y sus correspondientes valores. . . . . . . . . . . . . . . . . . 288
5.1. Calculo de la frecuencia probabilstica en un corpus. . . . . . . . . . . 423
5.2. Ejemplo de calculo de la probabilidad condicionada. . . . . . . . . . . 423
5.3. Funciones de probabilidad requeridas para especicar el MSD. . . . . 459
5.4. Funcion de probabilidad condicionada. . . . . . . . . . . . . . . . . . 459
xi
xii

INDICE DE CUADROS
Prefacio
La b usqueda de la inteligencia articial empieza con un sue no (tal como inicia toda
b usqueda). La gente ha imaginado por largo tiempo m aquinas con habilidades humanas,
aut omatas con movimiento y dispositivos que razonan. M aquinas parecidas a humanos
son descritas en muchas historias y mostradas en pinturas, esculturas, y dibujos...
Nils J. Nilsson, THE QUEST FOR ARTIFICIAL INTELLIGENCE
Este libro de texto contiene el programa de la materia: Inteligencia Arti-
cial, la cual forma parte de la currcula de la carrera de Ingeniera en Sistemas
Computacionales (ISIC-2010) que se imparte en los Institutos Tecnologicos depen-
dientes de la Subsecretara Nacional de Educacion Superior Tecnologica (SNEST).
El contenido tematico esta integrado por cinco captulos los cuales coinciden con
los indicados en la retcula y son los siguientes. Captulo 1: Fundamentos de la
Inteligencia Articial, en el cual se muestra la evolucion historica de lo que cono-
cemos como Inteligencia Articial

o IA

. En este captulo se realiza un recorrido


a traves del fundamento historico de la IA hasta llegar a la etapa moderna, la cual
da inicio con los trabajos de McCulloch y las neuronas articiales, el estudio con-
tinua mostrando los campos de interes actual que forman parte de este interesante
campo de investigacion de las ciencias computacionales. El Captulo 2 se dedica a
las Tecnicas de b usqueda, en este se muestra uno de los campos de interes de la
IA enfocado a la solucion de problemas a traves de la b usqueda, indicando algunas
de las tecnicas aplicadas tales como Primero en anchura

, Grafos O

, y Grafos
A

. Asimismo, se muestran algunos conceptos relacionados con la solucion de prob-


lemas, tales como la satisfaccion de restricciones y la teora de juegos. En el Captulo
3 se aborda el aspecto relacionado con la Representacion del conocimiento y
razonamiento. En este captulo se muestran algunos lenguajes com unmente uti-
lizados para la representacion del conocimiento tales como los mapas conceptuales
y las redes semanticas, as como otros que abordan ademas de la representacion el
aspecto de razonamiento tal como la Logica de predicados. Asimismo, se muestra
de una manera supercial el aspecto de la incertidumbre en la representacion y ra-
zonamiento y algunos enfoques para manejarla. El Captulo 4 muestra a uno de los
enfoques principalmente utilizados por los sistemas expertos para la representacion
xiii

INDICE DE CUADROS 1
del conocimiento y razonamiento: Reglas de produccion. Finalmente, el Captulo
cinco muestra los principales campos de trabajo (Aplicaciones), estudio e investi-
gacion que contribuyen con la IA, indicando los trabajos que se estan desarrollando
actualmente en el ambito internacional al respecto. Las areas que se indican son
las siguientes: Robotica, Redes Neuronales, Vision Articial, Logica Difusa, Proce-
samiento del Lenguaje Natural y Sistemas Expertos.
Como es de esperar, esta es la primer version de este texto y por lo tanto
es susceptible de mejorar. Por lo tanto, agradezco de antemano las aportaciones y
sugrerencias de la comunidad academica involucrada con este material y que tengan
como n mejorar el contenido del mismo.
Mi intencion es continuar trabajando en este libro en colaboracion de alumnos
y colegas con el n de complementar algunos de los captulos con ejercicios y mate-
rial adicional.
Dr. Jose Antonio Montero Valverde
2

INDICE DE CUADROS
Captulo 1
Fundamentos de la Inteligencia
Articial (IA)
La b usqueda de la inteligencia articial (IA) es tan moderna como las fronteras
de las ciencias computacionales y a la vez tan antigua como la misma historia de
la humanidad. El concepto de maquina pensante inicio por el a no 2500 A. de C.,
cuando los egipcios consultaban estatuas de dioses parlantes
1
para su asesoramien-
to. Asimismo, la existencia de automatas predecesores de los robots actuales se
remontan al dise no de antiguas guras egipcias con miembros articulados como los
encontrados en la tumba de Tutankamon [5]. Sin embargo, fue hasta 1833 con la
invencion de la maquina analtica de Charles Babbage, que la inteligencia articial
se convirtio en una posibilidad real. No obstante, fue necesario transitar mas de
un siglo hasta que la primera computadora digital hizo su debut, para que tanto
la ciencia como el termino fueran acu nados. A partir de entonces y hasta nuestros
das, la IA ha tenido una fuerte inuencia en nuestras vidas, y sin duda alguna
continuara manteniendo un impacto cada vez mayor en los a nos venideros.
Algunas de las deniciones que se han dado para este campo de estudio son
las siguientes:
1. Inteligencia articial es el estudio de como los sistemas de computo pueden
simular procesos inteligentes como el aprendizaje, razonamiento y comprension
simbolica de informacion en contexto. La IA es inherentemente un campo mul-
tidisciplinario. Aunque es mas com un verla como un subcampo de las ciencias
1
Ubicado en el Museo de el Cairo se encuentra el busto de uno de estos dioses Re-Harmakis,
cuyo cuello revela el secreto de su genialidad: una abertura en la nuca lo sucientemente grande
para albergar a un sacerdote.
3
4 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


computacionales, tomando en cuenta trabajos con algoritmos, bases de datos y
teora relacionada con las ciencias computacionales, as tambien mantiene una
conexion cercana con neurociencias, ciencias cognitivas y psicologa cognitiva,
logica matematica, e ingeniera [IBM Centro de Investigacion de Inteligencia
Articial, 2012].
2. IA, es la ciencia e ingeniera de crear maquinas inteligentes, especialmente
programas inteligentes para computadoras. Esta relacionada con la tarea de
usar computadoras con el n de entender la inteligencia humana, pero no
tiene que limitarse a los metodos que son biologicamente observables [John
McCarthy, 1956].
3. Una de las grandes aspiraciones de las ciencias computacionales ha sido com-
prender y emular las capacidades que reconocemos como especcas de la in-
teligencia en humanos. La investigacion en este campo se ha enfocado a tareas
desde sensores (vision, voz, movimiento) para interactuar con el mundo hasta
aspectos cognitivos (analisis, juegos, resolvedores de problemas). Esta b usque-
da para entender la inteligencia humana en todas sus formas tambien estimula
la investigacion en otros campos de las ciencias computacionales [Computer
Science and Telecommunications Board, 2004].
4. IA, es un campo de las ciencias computacionales e ingeniera concerniente con
la capacidad computacional de lo que se conoce com unmente como compor-
tamiento inteligente, as como con la creacion de dispositivos que exhiben tal
comportamiento [66].
1.1. Historia de la IA
Tal vez el punto de inicio para la historia de la IA empieza con la genialidad
de Aristoteles, quien con su disciplina y cuidadoso analisis fundo en su natal Gre-
cia lo que mas tarde se convirtira en un estandar para la ciencia moderna. Para
Aristoteles el aspecto mas sorprendente de la naturaleza es el cambio. En su obra
titulada Physics, denio su losofa de la naturaleza como el estudio de las cosas que
cambian. Asimismo, manejo la distincion entre la materia y la forma de las cosas:
una escultura de un humano hecha de bronce puede cambiar cuando el bronce es
moldeado a una nueva forma. De esta manera, el binomio materia-forma propor-
ciona la base losoca para algunos aspectos modernos, tales como: computacion
simbolica y abstraccion de los datos. En computacion, manipulamos patrones que
son las formas de material electromagnetico, donde los cambios en la forma de este
material representan aspectos del proceso de solucion. La abstraccion de la forma en
su medio de representacion no solo permite su manipulacion computacional, sino,
1.1. HISTORIA DE LA IA 5
tambien proporciona la base de una teora para la estructura de los datos corazon
de la ciencia computacional. En su obra titulada Metaphysics, Aristoteles aporta
las bases para la creacion de la inteligencia articial al iniciar con la frase: Todos
los hombres por naturaleza desean conocer, Aristoteles desarrollo una ciencia de
las cosas que nunca cambian, incluyendo su cosmologa y teologa. Un aspecto rele-
vante para la IA se encuentra plasmada en su obra titulada Logic, donde menciona
que la logica es la base de todo conocimiento. En este tratado, Aristoteles indica
que ciertas proposiciones son verdaderas si estan relacionadas a otras cosas que
son verdaderas, de esta reexion se desprende lo siguiente: si sabemos que todos
los hombres son mortales y que Socrates es un hombre, entonces podemos con-
cluir que Socrates es mortal. Este argumento es un ejemplo de lo que Aristoteles
llamo silogismo usando la forma deductiva modus ponens de la logica. Aunque la
formalizacion de tal razonamiento tuvo que esperar dos mil a nos, con los trabajos
de Gottlob Frege, Bertrand Russell, Kurt Godel, Alan Turing, Alfred Tarski y otros,
sus races fueron los trabajos de Aristoteles [5].
Con la llegada del Renacimiento, inicio la etapa de una forma diferente de
pensar acerca de la relacion que sostiene la humanidad y el mundo natural. La
ciencia empezo a reemplazar al misticismo como un medio para comprender y ex-
plicar la naturaleza. Las ciencias sociales y fsicas se basaron en la nocion de procesos
naturales o articiales, los cuales podan ser matematicamente analizados y com-
prendidos. Los cientcos y losofos comprendieron que el conocimiento se representa
y manipula en la mente humana, la cual deba ser un sujeto de estudio cientco,
difcil pero esencial. Tal vez, el evento principal en esta etapa desde el punto de
vista del mundo moderno fue la revoluci on Copernica, donde se menciona el rem-
plazo de la antigua concepcion de que la tierra era el centro del universo, con la
idea de que la tierra y otros planetas orbitan alrededor del sol. Despues de siglos
de un orden obvio, en el cual la explicacion cientca de la naturaleza del cosmos
era consistente con las ense nanzas de la religion y el sentido com un, se propuso un
modelo diferente y no tan obvio para explicar el movimiento de los cuerpos celestes.
Por primera vez, las ideas acerca del mundo fueron diferentes de su apariencia. Esta
division entre la mente humana y la realidad circundante, resulto esencial para el
moderno estudio de la mente y su organizacion. Esta brecha fue a un mas marca-
da por Galileo, cuyas observaciones cientcas contradijeron las verdades obvias,
acerca de la naturaleza del mundo. Galileo se baso en las matematicas como una
herramienta para describir el mundo y nuestras ideas acerca de el.
Fue a partir de estas observaciones que la nocion moderna de la mente evolu-
ciono, la introspeccion se convirtio en una forma com un de literatura, los losofos
empezaron a estudiar epistemologa y matematicas, y la aplicacion sistematica del
6 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


metodo cientco se convirtio en la herramienta para entender el mundo. Algunos
hechos historicos que resultaron relevantes en el desarrolo de la IA se mencionan a
continuacion.
En 1620, Francis Bacon en su famoso escrito Novum Organun expuso un con-
junto de tecnicas para la emergente metodologa cientca. Basado en las ideas de
Platon y Aristoteles acerca de que la forma de una entidad era equivalente a la
suma de sus caractersticas necesarias y sucientes, Bacon cre o un algoritmo para
determinar la esencia de una entidad. Primero, realizo una coleccion organizada de
todas las instancias de la entidad, enumerando las caractersticas de cada entidad en
una tabla. Despues realizo otra lista similar, indicando las instancias negativas de
la entidad, enfocandose en aquellas instancias cercanas a la misma, es decir, aquel-
las que se derivan de su forma por caractersticas simples. Posteriormente, Bacon
realizo de forma sistematica este paso no es muy claro una lista de todas las
caractersticas esenciales a la entidad, es decir, aquellas que son comunes a todas las
instancias positivas de la entidad. Es interesante la similitud entre el enfoque prop-
uesto por Bacon y el concepto de aprendizaje, observado en los actuales algoritmos
de IA relacionados con el espacio de b usqueda. Una extension a los algoritmos de
Bacon, es parte de un programa de aprendizaje en IA conocido como Bacon este
programa es capaz de inducir varias leyes fsicas a partir de colecciones de datos
relacionados con el fenomeno.
Aunque la primera maquina para realizar calculos el abaco fue creada por
los chinos en el siglo XVI A. de C., la mecanizacion de estos procesos algebraicos
aguardaron las habilidades de los europeos del siglo XVII. En 1614 el matematico
escoces John Napier creo los logaritmos, una transformacion matematica que per-
mitio a la multiplicacion y la exponenciacion ser reducidas a operaciones de suma y
multiplicacion. Los trabajos de Napier, permitieron al matematico y clerigo aleman
Wilhelm Schickard inventar un reloj calculadora en 1623, capaz de hacer opera-
ciones de suma y resta. Otra famosa maquina para realizar calculos fue la Pascalina,
inventada por el losofo y matematico frances Blaise Pascal en 1642. Aunque los
dispositivos creados por Schickard y Pascal se limitaron a las operaciones de suma
y resta, su principal aportacion consistio en demostrar que los procesos que inicial-
mente se supona requeran habilidad humana podran ser completamente autom-
atizados. El exito de Pascal y su maquina de calcular, inspiro en 1694 a Gottfried
Wilhelm von Leibnitz, a construir una maquina de calculo m as compleja, capaz de
realizar operaciones de multiplicacion y division. Aplicando los trabajos de Bacon,
Leibnitz dise no una maquina capaz de utilizar el conjunto de caractersticas que
dene a una entidad y generar conclusiones logicas correctas. Los siglos XVI y XVII
se vieron plagados con discusiones relacionadas con aspectos epistemologicos; tal
1.1. HISTORIA DE LA IA 7
vez, el trabajo mas relevante en esas fechas fue el de Rene Descartes, gura central
en el desarrollo de conceptos modernos relacionados con teoras del pensamiento
y la mente. En su obra Meditation realizada en 1680, Descartes intento encontrar
una base para explicar la realidad a traves de la introspecci on, llegando a puntos
de vista como la dualidad entre la mente y el mundo fsico, enfoque en el que se
apoyan todos sus trabajos, incluyendo el desarrollo de la geometra analtica. De
que otra manera poda haber unicado una rama de la matematica aparentemente
tan mundana como la geometra con un esquema matematico tan abstracto como el
algebra?. Los debates en torno a la dualidad mentecuerpo aportaron a la IA entre
otras cosas, el fundamento de su metodologa, la cual se fortalecio con aportaciones
de los siguientes campos: epistemologa, psicologa, gran parte de las matematicas y
de la literatura [5].
Aunque existen numerosos escritos relacionados con el problema mentecuerpo
y varias soluciones han sido propuestas, ninguna ha explicado de manera satisfacto-
ria la interaccion obvia entre los estados mentales y las acciones fsicas. La respuesta
mas ampliamente aceptada para este problema y la que proporciona una base funda-
mental para el estudio de la IA, sostiene que la mente y el cuerpo no son en absoluto
entidades totalmente diferentes. Bajo esta perspectiva los procesos mentales son de-
terminados por sistemas fsicos como el cerebro. Asimismo, los procesos mentales al
igual que los procesos fsicos pueden ser en ultima instancia representados a traves
de las matematicas, o como lo menciono el losofo ingles Thomas Hobbes en su obra
Leviatan escrita en 1651: Por raciocinio, me reero a la computacion, como una
forma de referirse en ese tiempo a la realizacion de operaciones matematicas.
Aspectos racionales y empricos en la IA. Los aspectos actuales de investigacion
en la IA al igual que otras disciplinas cientcas, se han formado y evolucionan a
traves de una combinacion de historia, sociedad y presiones culturales. Dos de los
aspectos que mas han inuenciado en la evolucion de la IA son: el raciocinio y
el empiricismo. En el aspecto racional, el mundo externo se representa a traves de
ideas claras basadas en las matematicas. Muchos programas de IA estan construidos
basados en este enfoque. De acuerdo con Fikes y otros, los primeros planicadores
para robots podan describir su dominio de aplicacion o mundo a traves de un
conjunto de declaraciones de predicados a partir de los cuales se determina un plan
para tomar una accion. Otros trabajos que son representativos del enfoque racional
son los realizados por Newell y Simon. Algunos detractores de este enfoque, tales co-
mo Searle y Brooks, sostienen que parte del fracaso de la IA en la solucion de tareas
complejas (comprension del lenguaje natural) se debe a este sesgo racionalista. Sin
embargo, existen fuertes representantes de la corriente racional, tales como: Pascal,
Descartes y Leibnitz, quienes han demostrado con sus trabajos, que este enfoque es
8 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


relevante para el creciente desarrollo experimentado por la IA.
Por otro lado, mas que armar como real el mundo representado por las ideas
claras, los investigadores de la corriente emprica sostienen que nada entra por la
mente, sino, a traves de los sentidos. Esta restriccion conduce a otras interrogantes
acerca de como el humano es capaz de percibir conceptos generales. Aristoteles fue
uno de los primeros representantes de este enfoque, el cual, enfatiza en uno de sus
trabajos las limitaciones del sistema de percepcion humano. Empiristas mas ac-
tuales como: Hobbes, Locke y Hume, hacen hincapie en que el conocimiento debe
ser explicado a traves de una psicologa emprica. Para esto, ellos distinguen dos
tipos de procesos mentales: (i) percepciones, y (ii) pensamiento. En esta direccion,
el losofo escoces David Hume, realiza una distincion entre: impresiones e ideas, in-
dicando que las impresiones reejan la presencia y existencia de un objeto externo,
no sujeto al control voluntario, en cambio las ideas estan sujetas al control humano.
Dada esta distincion entre impresiones e ideas, cabe la pregunta Como surge el
conocimiento?, para Hobbes, Locke y Hume, el mecanismo fundamental para la ex-
plicacion es: Asociaci on. Las propiedades particulares percibidas, se asocian a traves
de la experiencia repetida. Las asociaciones repetidas, crean de esta forma, una dis-
posicion en la mente con el n de asociar las ideas correspondientes. Este enfoque
resulto ser un antecedente para el estudio del comportamiento en el siglo XX. Un
aspecto relevante en este enfoque se presenta con el escepticismo de Hume, donde
ofrece un analisis descriptivo acerca del origen de las ideas, y que tales ideas no
pueden apoyar la creencia en la causalidad. Incluso el uso de la logica y la induccion
no pueden ser racionalmente compatibles con esta forma radical del pensamiento.
En otra de sus obras (Una investigacion sobre el entendimiento humano) escrita
en 1748, el escepticismo de Hume se extendio hacia el analisis de los milagros, y
aunque no se rerio directamente a la naturaleza de los mismos, s genero una duda
acerca de los testimonios basados en milagros, esto por supuesto hizo que la iglesia
lo viera como una amenaza. Como una respuesta a las aseveraciones de Hume, el
reverendo Thomas Bayes, matematico y ministro de la iglesia en 1763, en su obra tit-
ulada Ensayo hacia la Solucion de un Problema en la Ense nanza de Posibilidades
, abordo matematicamente algunas de las interrogantes de Hume (causalidad). El
teorema de Bayes, demuestra de manera formal como a traves del aprendizaje y las
correlaciones en los efectos de las acciones, podemos determinar la probabilidad de
sus causas.
Actualmente sabemos que el aspecto en la asociacion del conocimiento, juega
un papel signicativo en el desarrollo de programas y estructuras representacionales
en IA. Por ejemplo, las redes semanticas aplicadas en la organizacion de memorias,
redes de conexion en el aprendizaje de maquinas, herramientas de analisis estocasti-
1.1. HISTORIA DE LA IA 9
co tales como las redes de creencia . Asimismo, las herramientas bayesianas son
aplicadas de manera exitosa en diversos campos de la investigacion, entre otros:
aprendizaje de maquinas, razonamiento, y comprension del lenguaje natural.
El Desarrollo de la Logica Formal. Una vez que el pensamiento fue considera-
do como una forma de calculo, su formalizacion y mecanizacion eran evidentes. En
este sentido, Leibnitz propuso en 1887 el primer sistema de logica formal, as como
una herramienta para la automatizacion de tareas, donde los pasos y etapas em-
pleados en la solucion fueron representados como estados a traves de un arbol o
grafo
2
. Asimismo, en 1775 Leonard Euler presento un estudio relacionado con rep-
resentaciones abstractas, capaz de capturar la estructura de relaciones en el mundo
as como el calculo de tales relaciones. Por otro lado, Charles Babbage matematico
del siglo XIX, es considerado como el creador de la primera maquina de computo
programable (utilizada para calcular los valores de ciertas funciones polinomiales)
precursora de su maquina analtica, la cual aunque no se construyo fue dise nada
como una maquina de calculo de proposito general. La principal aportacion de es-
ta maquina, es que en ella subyacen muchos de los aspectos de las computadoras
digitales modernas, tales como: i) la separacion entre el procesador y la memoria, y
ii) programacion basada en la ejecucion de una secuencia de operaciones codicadas
en ese tiempo en tarjetas perforadas. El dise no de esta maquina, es un ejemp-
lo de implementacion relacionado con la abstraccion y manipulacion de la forma
descrito inicialmente por Aristoteles y Leibitz. El objetivo de crear una descrip-
cion formal para el pensamiento, aparece tambien en los trabajos de George Boole,
matematico del siglo XIX, cuyas aportaciones deben ser consideradas obligatorias
en cualquier debate relacionado con las races de la IA. Aunque hizo varias contribu-
ciones en el area de las matematicas, su trabajo mas conocido se relaciona con la
formalizacion de las leyes de la logica, dando origen a la conocida algebra que lleva
su nombre. En su trabajo Una Investigacion de las Leyes del Pensamiento, sobre
las que se basan las Teoras Matematicas de la Logica y Probabilidades, escrito en
1854, Boole describio sus objetivos como: Investigar las leyes fundamentales de las
operaciones mentales mediante las cuales se crea el pensamiento: darles expresion a
traves del lenguaje simbolico con el n de establecer la ciencia de la logica e instruir
sus metodos; . . . y nalmente obtener de los diversos elementos de verdad trados a
la vista en el curso de estas investigaciones, as como algunas insinuaciones proba-
bles, relacionadas con la naturaleza y estructura de la mente humana.
2
La formalizaci on de la teora de grafos ofrecio la posibilidad de b usqueda en el espacio de estados
la cual se considera un aspecto relevante dentro de la IA. Los grafos son utilizados en una variedad
de tareas: modelar la estructura de un problema en profundidad, medir la estructura y complejidad
de un problema, posibles etapas en la soluci on de un problema, problemas de inferencia, b usqueda
y planicaci on, entre otras.
10 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


La importancia del algebra Booleana radica en su extraordinario poder y sim-
plicidad, pues solamente consta de tres operaciones basicas: AND (denotada por
o ), OR (denotada por + o ), y NOT (denotada por ), las cuales forman la
base de este calculo logico. Asimismo, Boole indico que estos smbolos logicos se su-
jetan a leyes especiales. Por ejemplo, para cualquier elemento X, una de estas leyes
declara que: X X = X, es decir, una vez que se conoce que algo (X) es verdadero,
la repeticion no incrementa dicho conocimiento. Estas leyes dieron como resultado
los caractersticos valores booleanos a solamente dos n umeros que pueden satisfacer
la ecuacion anterior: 1 y 0. Las operaciones restantes se sujetan a leyes similares.
Tal vez la gran aportacion de Boole, no fue solamente proporcionar las bases para
la aritmetica binaria, sino, que demostro que un sistema formal extremadamente
simple permite capturar la potencia de la logica en su totalidad.
Siguiendo el razonamiento de Boole en la formalizacion de la logica, as co-
mo los trabajos de Turing y Godel, Russell y Whitehead en su trabajo Principios
Matematicos presentado en 1950, muestran modernos sistemas de razonamiento au-
tomatizados, para lo cual desarrollaron una sintaxis para su logica, as como reglas
de formalizacion para inferencias. Estos mecanismos formales, son actualmente la
base para la prueba de teoremas de los sistemas automatizados. En el mismo sen-
tido, Gottlob Frege en su trabajo Fundamentos de Aritmetica, creo un lenguaje
de especicacion matematico para describir las bases de la aritmetica en una forma
clara y precisa. Con este lenguaje, Frege formalizo varios de los aspectos enfoca-
dos inicialmente en la logica de Aristoteles. Actualmente el lenguaje de Frege es
conocido como calculo de predicados de primer orden, herramienta muy util para
describir proposiciones y asignaciones con valores de verdad que forman los elemen-
tos del razonamiento matematico, y a la vez, describe las bases axiomaticas para el
signicado de estas expresiones. Este lenguaje desempe na un papel importante, al
crear una teora con los elementos necesarios para representar la automatizacion del
razonamiento, aspecto relevante dentro de la IA.
Alfred Tarski fue otro de los matematicos cuyo trabajo result o esencial para
la formacion de la IA. Tarski creo una teora de referencia precisa para las formulas
bien formadas. En la actualidad algunos investigadores (Scott, Strachey, Burstall)
de las ciencias computacionales han aplicado esta teora en el dise no de lenguajes
de programacion y otras especicaciones utilizadas en esta area.
Aunque los siglos XVIII, XIX y principios del XX sentaron las bases para el
nacimiento de la IA con trabajos relacionados con la formalizacion de la ciencia y
las matematicas , no fue sino hasta mediados del siglo XX con la introduccion de la
computadora digital que la IA se convirtio en una disciplina cientca viable.
1.1. HISTORIA DE LA IA 11
1.1.1. IA: Etapa Moderna (desarrollos losocos)
Uno de los primeros trabajos realizados para abordar el tema de la maquina
inteligente en relacion con la computadora digital moderna, fue un artculo escrito
en 1950 por el matematico britanico Alan Turing para la revista Mind [67]. Turing,
conocido principalmente por sus contribuciones a la teora de la computacion, ex-
amino en este trabajo la cuestion acerca de si una maquina realmente poda pensar.
Esta prueba se describe como sigue: un entrevistador (fsicamente aislado) se comu-
nica va textual, usando dispositivos de entrada y salida (similar a las actuales salas
de chat) con un sistema de IA (computadora) y con otra persona que participa en la
prueba. El entrevistador no se da cuenta de cual respuesta viene del computador y
cual de la otra persona, si despues de hacer sucientes preguntas el entrevistador no
puede diferenciar entre el hombre y la maquina, entonces el sistema pasa la prueba
y se considera inteligente.
El test de Turing proporciona una base para muchos de los enfoques utilizados
actualmente para evaluar programas de IA. Un programa que muestra inteligencia
en alg un area de experiencia, se eval ua (comparando su desempe no con un humano),
al resolver un determinado conjunto de problemas. Esta tecnica de evaluacion es sim-
plemente una variacion de la prueba de Turing: a un grupo de seres humanos se les
asla y se compara el rendimiento de la computadora con el de una persona al re-
solver un grupo particular de problemas. Esta metodologa se ha convertido en una
herramienta esencial para el dise no y vericacion de modernos sistemas expertos.
A pesar de ser intuitiva, la prueba de Turing, es vulnerable a una serie de crticas.
Una de las mas importantes se reere a su sesgo en resolver problemas puramente
simbolicos, es decir, no maneja aspectos que requieren habilidad perceptual o de-
streza manual, los cuales son aspectos importantes de la inteligencia humana. A
veces se sugiere que el test de Turing restringe innecesariamente la inteligencia de
la maquina para adaptarse a un molde humano.
El trabajo de Turing fue continuado en los Estados Unidos por John Von Neu-
mann durante la decada de los cincuentas. Su contribucion central fue la idea de
que las computadoras deberan dise narse tomando como modelo al cerebro humano.
Von Neumann fue el primero en antropomorzar el lenguaje y la concepcion de la
computacion al hablar de: memoria, sensores, etc., de las computadoras. Con-
struyo una serie de maquinas basandose en lo que se conoca en ese tiempo acerca
del cerebro humano, y dise no los primeros programas almacenados en la memoria
de una computadora. Sin embargo, el enfoque manejado por Newman pronto encon-
tro serias limitaciones, ya que en la tarea de imitar la constitucion fsicoqumica del
cerebro, no le permitio ver, que la analoga sera mucho m as eciente si se analizaran
12 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


las funciones del cerebro, es decir, su capacidad como procesador de informacion.
Corresponde a McCulloch a mediados de los cincuentas formular una posi-
cion radicalmente distinta, al sostener que las leyes que gobiernan al pensamiento
deben buscarse entre las reglas que gobiernan a la informacion y no entre las que
gobiernan a la materia. Esta idea abrio grandes posibilidades a la IA, y en 1959
Marvin Minsky, uno de los fundadores de la IA modico su posici on y sostuvo que
la imitacion del cerebro a nivel celular debera ser abandonada.
Hasta este momento, el enfoque al problema de crear maquinas inteligentes
ha sido desde el punto de vista de las matematicas, con la implcita creencia del
razonamiento logico como paradigma de la inteligencia en s. Esta manera de ver
el conocimiento, el lenguaje y el pensamiento, reeja la tradicion racionalista de
la losofa occidental y su evolucion desde Galileo, Descartes, Leibniz y muchos
otros. Tambien reeja la base ideologica de Turing, especialmente su enfasis en el
razonamiento simbolico como una prueba de inteligencia y su creencia de que una
comparacion directa con el comportamiento humano era suciente para conrmar
la inteligencia de la maquina. La dependencia de la logica como una forma de rep-
resentacion de conocimiento y de inferencia logica como el principal mecanismo
de razonamiento inteligente son tan dominantes en la losofa occidental que su
verdad a menudo parece obvia e inexpugnable. No es de sorprender entonces, que
los enfoques basados en estos supuestos han dominado la ciencia de la inteligencia
articial desde sus inicios hasta la actualidad.
Sin embargo, la segunda mitad del siglo XX ha presenciado numerosos desafos
a la losofa racionalista. Diversas formas de pensar cuestionan la base objetiva del
lenguaje, ciencia, sociedad y al propio pensamiento. Los trabajos de Godel y Turing
han puesto en duda los mismos fundamentos de las matematicas. El pensamiento
post moderno ha cambiado nuestra comprension del signicado y valor en las artes
y la sociedad. La IA no ha sido inmune a estas crticas, de hecho, las dicultades
que la IA enfrenta en el logro de sus objetivos a menudo se toman como evidencia
del fracaso del punto de vista racionalista [55, 4].
Dos tradiciones losocas:,(i) la de Wittgenstein (1953), y (ii) la de Husserl
(1970, 1972) y Heidegger (1962), son de fundamental importancia para el replanteamien-
to de la tradicion losoca occidental. En su obra, Wittgenstein cuestiona muchas
de las hipotesis de la tradicion racionalista, incluidas las bases del lenguaje, la cien-
cia y el conocimiento. El lenguaje Humano fue una de las principales actividades
de analisis de Wittgenstein, al mostrar su desacuerdo a la nocion de que lenguaje
1.1. HISTORIA DE LA IA 13
deriva su signicado de alguna clase de fundamento objetivo. Para Wittgenstein, el
signicado de cualquier enunciado depende de su situacion en un contexto humano y
cultural. Por ejemplo, para comprender el signicado de la palabra silla, depende
de tener un cuerpo fsico que se ajusta a una postura de sentarse y a las convenciones
culturales para el uso de sillas. Basado en sus crticas, sostuvo que deberamos ver
el uso del lenguaje en terminos de decisiones y acciones tomadas bajo un contexto
cultural cambiante. Por otro lado, tanto para Husserl como para su alumno Heideg-
ger, la inteligencia no consiste en saber lo que es verdadero, sino mas bien, en saber
como hacer frente a un mundo en constante cambio. Gadamer tambien estuvo de
acuerdo con este punto de vista, para el, la inteligencia es vista como un aspecto
de supervivencia en el mundo, mas que como un conjunto de proposiciones logicas
(combinado con alg un esquema de inferencia) acerca del mundo. Muchos autores,
entre ellos Dreyfus, Winograd y Flores, han usado los trabajos de Wittgenstein y de
Husserl/Heidegger, como base de sus crticas hacia la IA [6].
El laureado Premio Nobel: Herbert Simon, argumenta que la mayor parte de
la originalidad y variabilidad en el comportamiento mostrado por criaturas vivas es
debido a la riqueza de su ambiente, mas que en la complejidad de sus propios pro-
gramas internos. En su trabajo: Las Ciencias de lo Articial, escrito en 1981, Simon
describe a una hormiga que se mueve con gran dicultad a lo largo de una exten-
sion dispareja y desordenada de terreno. Aunque el camino de la hormiga parezca
completamente complejo, Simon sostiene que el objetivo de la hormiga es muy sim-
ple: volver a su colonia tan pronto como sea posible. Las torceduras y vueltas
observadas en sus movimientos, son causadas por los obstaculos que encuentra en
su camino. Simon concluye lo siguiente: Una hormiga, vista como un sistema de
comportamiento, es completamente simple. La aparente complejidad de su compor-
tamiento, con el tiempo se convierte en un reejo de la complejidad del ambiente
en el que se encuentra. Es interesante observar que si se aplica este enfoque a los
seres humanos, se convierte en un fuerte argumento a favor de la importancia de la
cultura en la formacion de la inteligencia. En lugar de crecer en la oscuridad como
los hongos, la inteligencia parece depender de una interaccion con un entorno ade-
cuadamente rico. La cultura es tan importante en la creacion de los seres humanos
como los seres humanos en la creacion de la cultura. De hecho, la idea de que la
inteligencia surge a partir de las interacciones con los elementos individuales de una
sociedad, es una de las revelaciones que apoyan el desarrollo de la tecnologa de IA.
Aunque muchos investigadores de IA contin uan trabajando basados en el es-
quema racional y logico, un n umero creciente de nuevos investigadores estan inte-
grando novedosos modelos de inteligencia inspirados en la naturaleza.
14 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


IA inspirada en modelos biologicos. La investigacion en el aprendizaje conex-
ionista, enfatiza la logica y el funcionamiento de la mente racional en un esfuerzo
por lograr la inteligencia al modelar la arquitectura del cerebro fsico. En este senti-
do, Warren McCulloch y Walter Pitts desarrollaron un trabajo combinando ideas de
logica, computacion y el sistema nervioso humano, dando como resultado un modelo
conocido actualmente como: Redes Neuronales Articiales. Los modelos neuronales,
enfatizan la capacidad del cerebro para adaptarse a su entorno mediante la modi-
cacion de conexiones entre neuronas individuales. La representacion del conocimien-
to en este modelo se realiza a traves de conexiones entre varias capas de neuronas
individuales. Actualmente, investigadores de diferentes disciplinas aplican redes neu-
ronales para resolver una variedad de problemas en campos como: reconocimiento
de patrones, prediccion, optimizacion, memoria asociativa y control [68].
Otro caso de modelo basado en organismos biologicos, se centra en el anali-
sis de los procesos mediante los cuales las especies se adaptan a su ambiente, un
ejemplo de estos modelos son los conocidos como: Algoritmos Geneticos, propuestos
por Holland en 1975. Los algoritmos geneticos, aplican los principios de la evolucion
natural con el n de encontrar soluciones a problemas complicados. Este enfoque
no obtiene una solucion a traves del razonamiento logico; en su lugar obtiene una
poblacion de soluciones candidatas las cuales compiten con el n de obtener la mejor
solucion siguiendo los principios de la evolucion biologica: las soluciones mas fuertes
sobreviven y contin uan su reproduccion, mientras que las soluciones debiles tienden
a desaparecer. Este modelo se aplica generalmente en la solucion de problemas
relacionados con b usqueda y optimizacion [69].
Los sistemas sociales proporcionan otro ejemplo para inspirar el desarrollo
de modelos inteligentes, ya que su comportamiento grupal les permiten solucionar
problemas que no podran ser resueltos por cualquiera de sus miembros de forma
individual. Por ejemplo, es poco probable que una sola lnea del metro, un solo sitio
de taxis, o una sola lnea de autobuses, pueda satisfacer la demanda de transporte
p ublico en la Ciudad de Mexico en un da determinado. Sin embargo, con el con-
junto de estos transportes trabajando de manera colectiva s es posible satisfacer
esta demanda. Los individuos que trabajan en universidades, en la industria o en
el gobierno, generalmente se limitan a resolver problemas especcos, sin embar-
go, su trabajo en conjunto contribuye a resolver problemas comunes. Los ejemplos
mencionados comparten dos aspectos comunes relacionados con la inteligencia: (a) la
inteligencia tiene sus races en la cultura y la sociedad, y (b) la inteligencia se obser-
va en el comportamiento colectivo a traves de la interacci on entre individuos. Ya sea
que estos individuos sean las celulas neuronales, los miembros individuales de una
especie, o una persona en la sociedad, la interaccion entre ellos genera inteligencia.
1.1. HISTORIA DE LA IA 15
1.1.2. IA: Etapa Moderna (desarrollos practicos)
Muchos investigadores coinciden en el hecho de que la inteligencia articial
como tal tuvo su nacimiento en la Conferencia de Darmouth, llevada a cabo en el
Colegio de Dartmouth (en Hanover, New Hampshire), durante el verano de 1956
3
.
Tal conferencia estuvo organizada por John McCarthy a quien se le atribuye haber
acu nado el termino: Inteligencia Articial, el cual fue el tema principal de los
trabajos a desarrollar en esa reunion. Entre los asistentes al evento estuvieron: (i)
Claude Shannon, ingeniero y matematico, quien en ese tiempo se encontraba re-
alizando investigacion en la empresa telefonica Bell, y a quien se le recuerda como
el Padre de la teora de la informacion, (ii) Marvin Minsky, considerado uno de
los padres de las ciencias computacionales y quien ha realizado importantes aporta-
ciones en ling ustica computacional, psicologa cognitiva, matematica, robotica y
optica, (iii) Nathaniel Rochester, Investigador de la Corporacion IBM y creador
de la primera computadora de la serie IMB (IMB 701) de proposito personal, quien
en ese tiempo estaba dirigiendo el grupo de investigacion de: Reconocimiento de pa-
trones y Teora de la informacion, en tal empresa, y (iv) John McCarthy, profesor
investigador (en ese tiempo del Colegio de Dartmouth) quien realizo importantes
aportaciones al desarrollo de la IA y se hizo merecedor en 1971 al premio Turing.
A estos cuatro personajes (ver Figura 1.1) se les consideran los padres de la IA.
Asimismo, asistieron a este evento otros investigadores de notable inuencia en este
campo, tales como: Herbert Simon y Allen Newell, quienes ya haban implemen-
tado el programa Logic Theorist para muchos es considerado el primer programa
de IA. Posteriormente, mientras Minsky y McCarthy fundaban el Laboratorio de
Inteligencia Articial en el M.I.T; Simon y Newell hacan lo mismo en la Universidad
de Carnegie Mellon. Mas tarde John McCarthy se fue a trabajar a la Universidad
de Stanford, donde fundo el Laboratorio de IA. Estas tres universidades, junto con
la Universidad de Edimburgo, en la cual Donald Michie fundo el Departamento
de Maquinas Inteligentes (machine intel ligence), fueron las primeras instituciones
academicas en realizar investigacion en el campo de la IA. Otros datos interesantes
relacionados con la etapa moderna de la IA son los siguientes:
En 1963 McGraw-Hill publico el primer libro de texto relacionado con el campo
de la IA, titulado: Computers and Thought, escrito por Edward Feigenbaum y
Julian Feldman. Este texto estuvo integrado por una coleccion de 21 artculos,
as como versiones cortas de tesis doctorales de los primeros investigadores en
3
Otros sostienen que el nacimiento de la IA inici o en 1950 con el trabajo de Alan Turing
Computing Machinery and Intel ligence, Boden a su vez, indica que la IA tuvo su orgen en 1943
con el trabajo de McCulloch y Pitts A Logical Calculus of the Ideas Immanent in Nervous Activity
.
16 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


Figura 1.1: En esta imagen se muestran a los que se consideran precursores o
padres de la IA moderna. (a)John McCarthy (4/09/1927 - 24/10/2011) prominente
informatico que recibio el Premio Turing en 1971 por sus importantes contribu-
ciones en el campo de la Inteligencia Articial, (b) Claude E. Shannon (30/04/1916-
24/02/2001), ingeniero electronico y matematico estadounidense, recordado como el
padre de la teora de la informacion. (c): Marvin Lee Minsky (9/08/1927- ) cient-
co estadounidense considerado uno de los padres de las ciencias de la computacion y
cofundador del laboratorio de inteligencia articial del Instituto Tecnologico de Mas-
sachusetts o MIT, y (d): Nathaniel Rochester (14/01/1919-8/06/2001), dise nador de
la primera computadora de proposito personal (IBM 701) y fundador del campo de
IA.
1.1. HISTORIA DE LA IA 17
esta area.
A mediados de la decada de 1960, dieron inicio las primeras conferencias en
este campo.
En 1965, comenzaron en Edimburgo una serie de talleres relacionados con
maquinas inteligentes.
En la primavera de 1968, en una conferencia realizada en Case Western Uni-
versity, se reunio la mayora de los investigadores en el campo de la IA de ese
entonces, un a no despues, en Mayo de 1969 se llevo a cabo en Washington
D.C., el International Joint Conference on Articial Intel ligence (IJCAI), el
cual sigue siendo hasta ahora uno de los foros mas importantes en el ambito
de la IA.
La revista Articial Intel ligence, la cual a un sigue siendo la principal revista
con temas de investigacion relacionadas con el campo de la IA, inicio su pub-
licacion en 1970.
Desde su nacimiento, la IA se ha extendido y multiplicado en distintas direc-
ciones. La capacidad simbolica de las computadoras ha sido estudiada, entre otros,
por Shanon (1950) y por Newell, Shaw y Simon (1958), quienes dise naron el primer
programa inteligente basado en un modelo de procesamiento de informacion. Este
programa pronto se convertira en un modelo muy utilizado para la teora de psi-
cologa cognoscitiva. Asimismo, desde sus inicios la IA se relaciono con juegos como
el ajedrez y las damas, probablemente debido a que los juegos de mesa constituyen
modelos de situaciones reales en las que hay que calcular, solucionar problemas,
tomar decisiones, corregir errores, recordar, etc. A pesar de que esta lnea de investi-
gacion ha sido casi totalmente abandonada en la actualidad, muchos de los avances
teoricos y metodologicos de la IA se deben a ella. Por ejemplo, Arthur Samuel (IBM)
dise no en 1961 un programa que jugaba damas y que era capaz de aprender de sus
errores, es decir, era capaz de adaptar su comportamiento en relacion a eventos
pasados, tal era su capacidad de aprendizaje que en poco tiempo este programa
consiguio vencer a su creador. El mismo resultado fue obtenido por Bernstein a
traves de un programa que jugaba ajedrez. Los grandes retos entre computado-
ras y seres humanos se multiplicaron, siendo uno de los mas importantes el que
ocurrio entre Dreyfus (fuerte crtico de la IA) y el programa Machack, en el que
Dreyfus fue derrotado en un juego de ajedrez de varias horas. Sin duda alguna, el
reto mas famoso que se dio en la historia moderna fue el que ocurrio en 1997, entre
el campeon ruso de ajedrez Garry Gasparov y el programa de computadora: Deep
Blue, en el cual Gasparov resulto derrotado. En este mismo sentido, Gerry Tesauro
crea en 1996, D-Gammon, un programa para Backgammon en el que demuestra
18 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


que el aprendizaje por refuerzo es una tecnica lo sucientemente poderosa para for-
mar jugadores de clase mundial.
Procesamiento del Lenguaje Natural. Hacia mediados de los sesentas, la
IA se convierte en un area en la que interact uan especialistas de diversas disciplinas,
tales como: Logicos, Psicologos, Matematicos, Ling uistas y Filosofos, entre otros.
Uno de los grandes temas de IA en esta decada fue el estudio del lenguaje natural.
Y uno de los principales retos al que se enfrentaron los investigadores con respecto
a este tema consistio en dise nar una maquina que fuera capaz de traducir un idioma
a otro. Los investigadores pronto descubrieron que traduccion no es lo mismo que
comprensi on, as pues, de alguna manera la maquina tendra que entender un texto
antes de poder traducirlo. Los esfuerzos entonces se orientaron hacia una denicion
de la comprension que pudiera simularse en una computadora. Con este objetivo
en mente, en 1965, Joseph Weizenbaum (MIT) construyo ELIZA, un programa in-
teractivo que permite manejar dialogos en ingles relacionados con cualquier topico.
En esta decada se desarrollaron una multitud de programas, tal como SHRDLU,
el cual formo parte del proyecto de micromundos, en este proyecto liderado por
Marvin Minsky (MIT) se demostro que si la investigacion se centraba al estudio
de objetos en dominios restringidos (micromundos) se podan resolver problemas
espaciales y logicos. Otros programas que aparecieron en este tiempo fueron: STU-
DENT enfocado a resolver problemas de algebra, y SIR el cual poda entender
sencillas oraciones en ingles. El resultado de estos programas fue un renamiento en
la comprension del lenguaje y de la logica. El programa Articial Linguistic Internet
Computer Entity (A.L.I.C.E.) gano el premio Loebner al Chatbot mas humano en
2000, 2001 y 2004, y en 2007 el programa: Ultra Hal Assistant, gano este premio.
En 2010 el programa: Suzette, resulto ganador al premio Loebner. Siguiendo con los
desarrollos relacionados con PLN, en el a no 2011, la supercomputadora conocida co-
mo Watson, especializada en el procesamiento del lenguaje natural, fue dise nada y
congurada (basada en un sistema de inteligencia articial creado por IBM) para re-
sponder a preguntas abiertas acerca de cualquier dominio del conocimiento humano,
participo en un conocido concurso (Jeopardy) contra los humanos mejor capacitados
en esta area y resulto vencedora.
Robotica. Otra de las areas en las que la IA ha tenido una gran inuencia,
es sin duda alguna la robotica. A principios de los sesentas, la IA comienza una
fase distinta de desarrollo. En 1962, McCarthy y Raphael inician sus trabajos sobre
el dise no y la construccion de un robot movil que llamaron Shakey. Un aspecto
relevante que tuvo que enfrentar este robot en ese entonces fue el reto de interactuar
con el mundo real en terminos de espacio, tiempo, y movimiento, para esto el robot
deba tener alguna forma de conocimiento del mundo que lo rodeaba. Este reto ini-
1.1. HISTORIA DE LA IA 19
cio una fuerte preocupacion en la IA por el estudio de la epistemologa y los procesos
cognoscitivos. La discusion se centro alrededor de los problemas de la representacion
mental o interna del conocimiento, la percepcion y los problemas del signicado. La
idea basica de Raphael, era reunir en una sola, distintas maquinas con las siguientes
capacidades: i) aprender en base a la experiencia, ii) reconocer patrones visuales, y
iii) modelar y manipular smbolos, y esperar que el modelo resultante fuera mejor
que las partes. El resultado del experimento no fue el exito que Raphael esperaba,
pero fue un logro sin precedente que hizo posible avances muy importantes. El apren-
dizaje mas importante de esta experiencia fue la comprension de que el problema
mas difcil por resolver en IA era el de construir una maquina capaz de funcionar
con altos niveles de incertidumbre, de forma similar a como lo hace un humano.
Resulto comprensible entonces, que construir una maquina incapaz de manejar de
forma efectiva la incertidumbre, sera o bien trivial por la simpleza de la tarea, o
imposible por la complejidad de la misma. En 1973 el grupo de rob otica de la Uni-
versidad de Edimburgo construyo a Freddy, el famoso robot Escoces, capaz de usar
vision para localizar y ensamblar modelos. Con el inicio de los trabajos enfocados
a dise nar y construir robots moviles para diferentes aplicaciones tambien surgieron
empresas para comercializarlos, de esta forma, en 1962 se fundo Unimation, primera
compa na enfocada a la comercializacion de robots industriales. En 1996 el grupo de
trabajo de Rod Brook lder del proyecto COG (MIT), muestra signicativos pro-
gresos en la construccion de un robot humanoide. En agosto de 1997 se llevo a cabo
en Nagoya, Japon, el primer torneo mundial de f utbol soccer entre robots (RoboCup)
donde participaron 40 equipos (real y simulado). Este evento crecio con gran rapidez,
ya que el a no siguiente en Pars se registraron cerca de 100 equipos. Este evento es
una iniciativa para impulsar la investigacion hacia la creacion de robots inteligentes
donde una variedad de tecnologas puedan ser integradas y analizadas. Asimismo
RoboCup ofrece una plataforma para realizar investigacion relacionada con el dise no
de software. Con el n de que un equipo de robots moviles pueda planicar sus
movimientos en un ambiente dinamico, debe incorporar diferentes tecnologas tales
como: principios de dise no de agentes autonomos, esquemas de colaboracion entre
multiples agentes, manejo y planeacion de estrategias, razonamiento en tiempo real,
robotica, y fusion de sensores. En 2011, el centro de investigaciones del Pentagono
desarrollo un robot de cuatro extremidades, llamado Cheetah, el cual es capaz
de correr 29 kilometros por hora, el objetivo de este robot es ofrecer asistencia a
militares en el campo de batalla. La Agencia de Investigacion de Proyectos Avan-
zados de Defensa de Estados Unidos (DARPA), informo que este felino robotico
ha batido el record marcado en 1989 por otro automata creado por cientcos del
Instituto Tecnologico de Massachusetts (MIT) de 21 kilometros por hora. Otro de
los proyectos conjuntos entre DARPA y Boston Dynamics incluyen el LS3, un
robot cuadr upedo que puede moverse libremente por el terreno, y el BigDog un
sabueso articial capaz de explorar terrenos de difcil acceso. Por otro lado, investi-
20 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


gadores de la Universidad de Harvard crearon un robot exible, capaz de arrastrarse,
cambiar su modo de avanzar y sortear obstaculos con mas facilidad que los robots
moviles creados hasta ahora. Basado en la estructura de animales invertebrados co-
mo los gusanos, los calamares y las estrellas de mar, que no tienen un esqueleto
duro, los autores utilizaron una tecnica llamada litografa blanda para fabricar un
robot cuadr upedo con forma de X que puede gatear y hacer movimientos ondulados.
Los avances en la robotica han involucrado la participaci on de grupos de in-
vestigadores de diferentes pases, por ejemplo, recientemente marzo de 2012 un
grupo de investigadores de la Universidad Central de la Provincia de Buenos Aires,
liderados por Gerardo Acosta crearon un prototipo de robot llamado Carpincho,
el cual es capaz de tomar decisiones y trabajar en equipo en actividades como la
agricultura o la vigilancia de edicios. Asimismo en Mexico, cientcos del Cen-
tro de Investigacion y de Estudios Avanzados (Cinvestav) liderados por Eduardo
Bayro dise naron e implementaron el robot humanoide mas avanzado en su tipo en
Iberoamerica, este androide almacenara experiencias y aprendizajes, mejorando su
capacidad cognitiva gracias a la aplicacion de la computacion evolutiva, redes neu-
ronales, logica difusa y otros metodos de aprendizaje de maquina. De igual manera,
en Mexico existen grupos de investigacion relacionados con robotica, tal como el
liderado por E. Sucar y E. Morales, profesores-investigadores del Departamento de
Ciencias Computacionales en el Instituto Nacional de Astrofsica,

Optica y Elec-
tronica (INAOE), Puebla. As como el grupo de investigacion enfocado a la plani-
cacion de movimientos y percepcion para robotica movil encabezados por J. Mar-
roqun y E. Murrieta del Centro de Investigacion en matematicas A. C. (CIMAT),
Guanajuato, entre otros.
Sistemas Expertos. El campo de estudio relacionado con sistemas expertos,
es otro en los que la IA ha tenido grandes aportaciones. En 1974 Ted Shortlie desar-
rollo como tesis doctoral (Universidad de Stanford) el programa MYCIN
4
, donde
demostro el poder de los sistemas basados en reglas, como un metodo para la repre-
sentacion del conocimiento e inferencia, aplicado al dominio de diagnostico medico
y terapia. Los sistemas expertos aparecieron en el mercado para apoyar diversas
actividades: diagnosticar enfermedades, y tutores inteligentes en educacion, entre
otros. En la decada de 1980 se observo un incremento en los trabajos relacionados
con la IA, as como una mayor presencia en el sector corporativo. compa nas como
Digital Electronics utilizaron XCON, un sistema experto dise nado para programar
las computadoras VAX. Otras compa nas que hicieron uso de estos sistemas fueron:
DuPont, General Motors, y Boeing.
4
MYCIN es conocido como el primer sistema experto.
1.1. HISTORIA DE LA IA 21
Vision Computacional. Otro campo que mostro un fuerte impulso en es-
ta decada fue el de vision computacional. El trabajo iniciado por Minsky y Marr
en 1976, y conocido como Frames, es un esquema basico de representacion del
conocimiento y el de primal sketch o la descomposicion de una imagen en sus com-
ponentes basicas, resultaron ser elementos fundamentales para el uso de las camaras
y computadoras en las lneas de ensamblaje con el n de realizar tareas de control
de calidad. En la actualidad este campo es de gran interes por la amplia gama de
aplicaciones en las que esta involucrado, as como su integracion con diferentes areas
de la IA, tal como la Robotica. Por ejemplo, en 1996, en el Laboratorio de IA del
M.I.T, y liderado por Rodney A. Brooks, se realizo la demostracion de un cuarto
inteligente. La idea de este trabajo es introducir a la computadora en el mundo
real de las personas, para esto se combinaron varias areas de IA tales como: vision,
robotica, procesamiento del lenguaje natural y arquitecturas multi-agentes.
Aplicacion Militar. Sin duda alguna, el area de aplicacion donde mas se
ha reejado el uso de la IA es la belica, a principios de la decada de 1990 durante
la guerra Storm-Dessert, la tecnologa IA utilizada para dirigir misles a objetivos
denidos y para mostrar informacion en tiempo real en pantallas integradas en los
cascos de los soldados.
Asimismo, en la decada de 1990, se alcanzaron importantes avances en todas
las areas de la IA, tales como: aprendizaje de maquinas, tutores inteligentes, ra-
zonamiento basado en casos, planeacion multi-agente, calendarizacion, razonar bajo
incertidumbre, minera de datos, comprension del lenguaje natural, vision, realidad
virtual, juegos, y otros. Los programas que extraen y analizan informacon basados
en IA se convierten en esenciales para la operacion de la Web.
En la actualidad se esta tan lejos de cumplir la famosa prueba de Turing,
formulada como: Existira Inteligencia Articial cuando no seamos capaces de dis-
tinguir entre un ser humano y un programa de computadora en una conversacion a
ciegas.
A decir del futurista Ray Kurzweil, la IA ha realizado mas de lo que las per-
sonas pueden hacer, pues ha permeado la infraestructura econ omica. Cada vez que
se realiza una llamada telefonica a traves de un telefono movil o se enva un correo
electronico, existen programas de IA subyacentes dirigiendo la informacion. La tec-
nologa de IA es aplicada por los bancos para detectar transacciones fraudulentas,
por las compa nas de telefonos celulares para el reconocimiento de voz, y por los
motores de b usqueda para organizar datos en la Web. Mas alla de los negocios, hay
22 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


programas de IA que ayudan a los medicos a realizar el diagn ostico y tratamiento de
pacientes, programas de IA basados en tecnicas de vision son instalados en playas y
albercas con el n de alertar a los salvavidas cuando detectan signos de que alguien
requiere ayuda. Sin embargo, y a pesar de estos avances, la IA a un se encuentra
en una etapa de pleno desarrollo, y sin duda seguira ofreciendo una variedad de
aportaciones en el futuro. De acuerdo con McCarthy (Universidad de Stanford),
Tomo mas de 100 a nos entre Mendel y descifrar el codigo genetico, y sin embargo
a un no es el nal de la genetica.
1.2. Conceptos y tecnicas (Estado del arte)
De acuerdo con Alonso, la prioridad de investigacion en IA debe ser enfoca-
da al dise no de sistemas autonomos e interactivos, es decir, hacia: Agentes, ya que
las tecnologas emergentes as lo demandan. Se ha notado en desarrollos recientes
relacionados con agentes, que la investigacion en este ambito, se ha acercado mas
al objetivo original de la IA, es decir, a la construccion de sistemas inteligentes de
competencia general. Sin embargo, los agentes no son la panacea a este objetivo, ya
que antes de que sean universalmente aceptados como el futuro de la IA, deben de-
sarrollarse algunas areas relacionadas con la descripcion del dise no, implementacion,
reusabilidad y seguridad [71].
Sistemas Multi-Agentes. A principios de la decada de 1980 la comunidad de
IA dedico sus esfuerzos a una nueva area: Inteligencia Articial Distribuida, la cual
surgio como una combinacion de IA y Computacion Distribuida. A partir de esta
nueva area surgieron a la vez nuevos paradigmas: Agentes Inteligentes y Sistemas
Multi-Agentes. El objetivo de los mismos, es la creacion del concepto de Agentes, los
cuales deben soportar entre otras las siguientes caractersticas: capacidad de sensar,
autonoma, razonamiento reactivo y proactivo, habilidad social, y aprendizaje. Los
sistemas Multi-Agentes enfatizan algunas habilidades sociales, tales como: comuni-
cacion, resolucion de conictos, cooperacion, negociacion, argumentacion, y manejo
de emociones. Considerando las caractersticas anteriores, los sistemas Multi-Agentes
se convirtieron en el paradigma principal de la IA, y despues del boom de la WWW
en la decada de 1990, estos sistemas recibieron mayor atencion. Los sistemas Multi-
Agentes son apropiados para modelar procesos del mundo real, donde los problemas
son resueltos de una forma concurrente y cooperativa sin la necesidad de obtener
soluciones optimas (problemas de traco, manufactura). En el dise no de Sistemas
Inteligentes, los Agentes se mantienen como una buena opcion en la modelacion de
entidades, tales como: personas, habitaciones, y vehculos. La mayora de las insti-
tuciones academicas y centros de investigacion relacionados con IA, tienen grupos
1.2. CONCEPTOS Y T

ECNICAS (ESTADO DEL ARTE) 23


de trabajo enfocados a la investigacion tanto de las tecnologas de agentes como de
sus aplicaciones.
Ambientes Inteligentes. Otro concepto que ha recibido en fechas recientes
la atencion de la comunidad cientca de IA as como de otras relacionadas, es el
de ambientes Inteligentes. Este novedoso campo de investigacion ha despertado el
interes de varios grupos de investigacion. Los ambientes inteligentes son un nuevo
enfoque en el cual los dispositivos de computo se encuentran dispersos en un entorno,
esto permite que una persona interact ue en escenarios fsicos de una manera natural
y no intrusiva. Estos ambientes deben ser capaces de entender las necesidades de las
personas, satisfacer sus requerimientos y predecir sus comportamientos. Los escenar-
ios en que estos ambientes se presentan pueden ser muy diversos, tales como: casas,
ocinas, escuelas, hospitales, tiendas, instalaciones deportivas y salas de juntas. Con
el n de integrar estos entornos en la vida cotidiana, los investigadores recomiendan
agregarles cada vez mayores dosis de inteligencia, para que puedan interactuar de
una forma natural con las personas y les apoyen a tomar mejores decisiones cuando
la situacion lo requiera. El concepto de ambientes inteligentes fue introducido en el
2001 por el Grupo Consultivo de la Comision Europea IST (ISTAG) [73, 74].
El ISTAG considera que es necesario un enfoque holstico a los ambientes inteligentes
tomando en cuenta no solo la tecnologa, sino tambien al conjunto formado por la
innovacion como una cadena de suministro de la ciencia al usuario nal, y las dis-
tintas caractersticas del medio academico, industrial y administrativo que facilitan
o dicultan la realizacion de este enfoque [75]. Otros conceptos que se relacionan
con los ambientes inteligentes son: Computaci on Ubicua y Sistemas Embebidos. A
continuacion se indican algunos hechos relacionados con el campo de los ambientes
inteligentes.
En la Universidad de Bielefeld, Alemania, se encuentra el Centro de Excelencia
en Tecnologa Cognitiva y de Interaccion (CITEC), en el cual, se creo recientemente
Mayo del 2008 el grupo de ambientes inteligentes dirigido por el Dr. T. Her-
mann, donde se realiza investigacion en las siguientes areas: i) computacion usable,
ii) computacion pervasivaubicua, iii) realidad aumentada, iv) interaccion humano
computadora multimodal, y v) minera de datos.
En el Laboratorio de Medios del M.I.T., se creo en 1985 un grupo de trabajo
conocido como: Interfaces Fluidas, dirigido por el Dr. Pattie Maes, cuyo principal
interes consiste en realizar investigacion enfocada a integrar el mundo de la informa-
cion y servicios digitales de una forma natural en nuestra vida cotidiana. Es decir, la
creacion de ambientes aumentados donde se ofrezcan oportunidades de aprender e
interactuar enriqueciendo con esto la manera de vivir. En este mismo laboratorio se
24 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


encuentra el grupo de trabajo dirigido por la Dra. Rosalinda Picard, cuyo trabajo se
enfoca hacia la computaci on afectiva, es decir, de que manera las nuevas tecnologas
pueden ayudar a las personas a comunicarse mejor, y a entender y responder a la
informacion afectiva.
En la Universidad de Alicante, Espa na, existe el Grupo de Investigacion Domotica
y Ambientes Inteligentesperteneciente a la Unidad Singular de Investigacion In-
formatica Industrial y Redes de Computadores del Departamento de Tecnologa In-
formatica y Computacion. El esfuerzo de este grupo se enfoca a generar investigacion
en el ambito de la aplicacion de las Tecnologas de la informacion, las Comunica-
ciones y el Control (TICC).
Ademas de grupos de investigacion localizados en diferentes instituciones academi-
cas y centros de investigacion, existen tambien foros academicos con el n de pro-
mover la investigacion en este topico, tal como los siguientes: a) Cuarta Edicion del
Taller en Redes de Sensores y Ambientes Inteligentes (SeNAmI) que sera organiza-
do este a no (2012) por la Universidad de Madrid, b) Ambient Intel ligent Workshops
organizado por la Conferencia Europea de Inteligencia Articial en 2006 y por el
IJCAI (International Joint Conference on Articial Intel ligence) en 2007, c) Special
Issue on Ambiente Intel ligence organizado por la IEEE Intel ligent Systems Maga-
zine en 2008 [72].
Computacion ubicua. Es un concepto introducido por Mark Weiser [76], y se
relaciona con el acceso a dispositivos computacionales en cualquier sitio de una for-
ma integrada y coherente. La diferencia entre ambiente inteligente y computacion
ubicua, consiste en que los ambientes inteligentes generalmente se restringen a un
espacio fsico, mientras que los dispositivos ubicuos son aparatos moviles (PDAs y
notebooks) que pueden usarse en cualquier lugar. Un concepto que a veces es visto
como sinonimo de computacion ubicua es el de computacion omnipresente (pervasive
computing). De acuerdo con Teresa Dillon, la computacion ubicua es considerada
como el marco subyacente sistemas embebidos, redes y displays el cual esta en
todas partes y nos permite el uso de herramientas y dispositivos plug-and-play.
Por otro lado, la computaci on omnipresente esta relacionada con dispositivos fsicos
que utilizamos, tales como: computadora portatil, telefono movil y, ropa inteligente
[77]. En estos conceptos es necesario que el sistema tenga conocimiento del contex-
to, esto signica que el sistema este consciente de la situacion actual en la cual se
encuentra. Un ejemplo de esto es la deteccion automatica del entorno actual en un
centro de control inteligente, esto permitira reconocer entre una situacion normal y
una crtica [78]. Un ejemplo de este concepto se presenta actualmente en la indus-
tria automotriz, donde se trabaja en el dise no de sistemas sensibles al contexto, los
1.2. CONCEPTOS Y T

ECNICAS (ESTADO DEL ARTE) 25


cuales tienen entre sus aplicaciones, la deteccion de posibles causas que conducen a
un accidente. El conocimiento del contexto, es un tema de interes en la comunidad
de IA, ya que es fundamental para el buen desempe no de un sistema inteligente. La
computacion ubicua, es un campo que esta generando interes por parte de algunas
comunidades cientcas, tal como lo indican los trabajos presentados en el Tercer
Tal ler Internacional de Computaci on Ubicua, evento academico realizado en la In-
dia, los das 25 al 27 de Mayo del 2012.
Sistemas Embebidos. En los sistemas embebidos los dispositivos electronicos y de
computacion se encuentran integrados en objetos y bienes de uso cotidiano, tales co-
mo: automoviles, lavadoras, refrigeradores, juguetes, etc. Los trabajos relacionados
con este campo han recibido un fuerte impulso debido a los avances alcanzados en la
electronica y la automatizacion. Asimismo, se observa una clara tendencia de incor-
porar a estos elementos en los Ambientes Inteligentes. Los trabajos relacionados con
este topico se han incrementado en diferentes partes del mundo, prueba de ello es la
existencia de mas de 100 eventos academicos de relevancia internacional relaciona-
dos, tales como: (a) Reunion Internacional de Sistemas Embebidos y Comunicacion
en Tiempo Real (IJERTCS), y (b) Conferencia Internacional de Compiladores, Ar-
quitecturas y Sntesis de Sistemas Embebidos (CASES), el cual es un foro en donde
investigadores, desarrolladores, y principiantes intercambian puntos de vista acerca
de tecnologas emergentes y ultimos avances en compiladores y arquitecturas aplica-
dos en el dise no y sntesis de sistemas embebidos de alto rendimiento. En este mismo
sentido, se presenta este a no (2012) la Segunda Edicion del Taller de Sistemas Em-
bebidos con Linux (EwiLi 2012). El proposito de este taller es presentar proyectos
de investigacion, experimentos, y desarrollos originales basados en el sistema opera-
tivo Linux tanto en aplicaciones industriales como academicas. Cabe mencionar que
el sistema operativo Linux durante estos ultimos a nos se ha posicionado como una
alternativa estable a soluciones propietarias yo comerciales en el campo de sistemas
embebidos, el cual se ha aplicado en varios dominios tales como multimedia, tele-
fona, y transportes entre otras.
Representacion del conocimiento. La representacion del conocimiento es otra
de las areas importantes en el campo de la IA. Despues de los tropiezos por los que
la IA paso en la decada de 1960, la comunidad cientca empezo a darse cuenta
que el conocimiento era una pieza fundamental para el exito de los sistemas in-
teligentes. Por lo tanto, en la decada de 1970 y debido al exito alcanzado por algunos
sistemas basados en conocimiento tales como: MYCIN [79] y ASSISTANT [80],
inicio lo que se ha manejado como: el renacimiento de la IA. Durante la decada
de 1990, y con un fuerte desarrollo de la Internet y el nacimiento de la WWW,
el humano se enfrento con un problema crtico: el manejo de la informacion, ya
26 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


que esta alcanzo grandes dimensiones, por lo que el mapeo entre la informacion y
el conocimiento se convirtio en un aspecto que requera atencion urgente. Para en-
frentar este reto, la comunidad de IA volteo la mirada hacia la Semantica y Ontologa
relacionadas con la Web, el manejo de tecnicas para tratar los aspectos menciona-
dos dio origen al nacimiento de dos nuevas areas, conocidas como: Recuperaci on de
Informacion y Minera de Textos. Por lo tanto, y con el n de atender estas areas,
han surgido centros de trabajo enfocados al dise no de tecnologa para este n, tal
como ha ocurrido en Londres donde se creo en el 2004 el Laboratorio de Investi-
gacion de Representacion del Conocimiento y Semantica Web, liderado por el Dr.
Richard Noss, y cuyo proposito es el dise no de tecnicas sosticadas para la repre-
sentacion del conocimiento y mecanismos de razonamiento, con el n de permitir
nuevas formas de manipular y analizar la informacion. Asimismo, en la Universidad
de Stanford y dependiente del Laboratorio de IA, se crea el Laboratorio de Sistemas
y Representacion del Conocimiento, liderado por Edward Feigenbaum, y donde se
trabaja en habilitar tecnologas para la Semantica en la Web, razonamiento hbrido,
representacion y razonamiento en m ultiples contextos, agregacion del conocimiento,
y la ingeniera de la ontologa entre otras. Ademas, existen mas de una veintena
de revistas especializadas para atender este topico, tal como: Knowledge-Based Sys-
tems, donde se publican los avances relacionados con esta area.
Aprendizaje en Maquinas. El campo de trabajo conocido como: Aprendizaje
en Maquinas, recibio la atencion de la comunidad de IA desde sus inicios. La con-
struccion del primer modelo y el hardware para una neurona articial, derivado de
los trabajos de Pitts y McCullock [68], as como el sistema SNARC desarrollado
por Minsky y Edmonds, marcan los inicios de la IA. A partir de ese momento, los
trabajos relacionados con Redes Neuronales han tenido grandes exitos, sobretodo
despues de la decada de 1970, donde se han aplicado a una variedad de problemas
reales, en su mayora relacionados con clasicacion. Otras tecnicas que han sido apli-
cadas con exito en este campo, y las cuales utilizan descripciones de alto nivel, son
las siguientes: Aprendizaje Inductivo, Razonamiento Basado en Casos, y

Arboles
de Decision. El termino Minera de Datos comenzo a escucharse en la decada de
1980, donde mucha gente relacionada con las bases de datos empezo a preferir el
uso de este termino para hacer referencia a las tecnicas de aprendizaje en maquinas
(junto con metodos estadsticos como K-medias) en un esfuerzo para especicar el
Descubrimiento del Conocimiento. La Minera de Datos es una fase en el des-
cubrimiento del conocimiento (seleccion, limpieza y preprocesamiento son etapas
previas, mientras que la interpretacion y la evaluacion son etapas posteriores). A
nes de 1990, aparecio el termino: Negocios Inteligentes (Business Intel ligence),
relacionado con los sistemas de informacion, el cual no solo considera aspectos de
minera de datos y descubrimiento del conocimiento, sino que tambien considera los
1.2. CONCEPTOS Y T

ECNICAS (ESTADO DEL ARTE) 27


siguientes: almacen de datos, planicacion de recursos empresariales, y gestion de
clientes. Al igual que otros campos de la IA, en el aprendizaje de maquinas existen
foros y eventos academicos que se realizan de forma perodica, as como publica-
ciones tal como la revista Machine Learning, la cual se empezo a publicar desde
1986 y en el 2001 cambio su nombre a Journal of Machine Learning Research.
Incompletez e Incertidumbre. Una caracterstica que distingue a la gran may-
ora de los problemas del mundo real, es que se encuentran sujetos a condiciones de
incertidumbre e incompletez. Generalmente tratamos con informacion, donde parte
de la misma es correcta, otra parte puede ser incorrecta o incompleta. La IA tiene
varias tecnicas para manejar este problema, algunas son las siguientes: (i) Redes
Bayesianas, y (ii) Logica Difusa. En la mayora de las universidades y centros de
investigacion se tienen areas destinadas a enfocar este tema, por ejemplo, la edito-
rial del M.I.T., mantiene un espacio dedicado a publicar trabajos relacionados con
razonamiento bajo incertidumbre a cargo de Joseph Halpern. Asimismo, la Universi-
dad del Estado de Mississippi, cuenta con el Laboratorio de Razonamiento Incierto,
dirigido por C. Yuan, cuya investigacion se enfoca al desarrollo de metodos y her-
ramientas para razonar y tomar decisiones bajo incertidumbre. De igual manera,
existen eventos academicos dedicados a promocionar los trabajos relacionados con
incertidumbre, tal como la Conferencia Anual sobre Incertidumbre en Inteligencia
Articial, evento organizado desde 1985 por la Asociacion para la Incertidumbre en
Inteligencia Articial, donde se promueven trabajos relacionados con representacion
del conocimiento, aprendizaje y razonamiento bajo incertidumbre. Este a no el even-
to se va a realizar en la isla Catalina, cerca de los Angeles, Ca, los das 15 al 17 de
Agosto del 2012.
Reconocimiento de Voz y Lenguaje Natural. Las formas mas comunes de
interaccion entre los humanos son a traves del lenguaje, la voz y la escritura. Los
problemas relacionados con el procesamiento del lenguaje natural y el reconocimien-
to de la voz, son diferentes, por lo que deben enfocarse con tecnicas diferentes. En
reconocimiento de voz, el problema basico consiste en identicar los fonemas (patron
de se nales electricas) provenientes de un microfono, por lo que este es un trabajo
que cae en los campos de procesamiento de se nales y reconocimiento de patrones.
En este proceso, la siguiente actividad consiste en la union de fonemas y la iden-
ticacion de palabras. Existen varios sistemas dise nados para el reconocimiento de
voz tales como: (1) Dragon Dictate para maquinas Mac, desarrollado por Nuance
Communications en 2010, (2) Voice Finger, software creado por Microsoft para las
plataformas basadas en Windows Vista y Windows 7, y (3) DriveSafe.ly, recono-
cedor de voz para dispositivos moviles, creado por iSpeech en 2009. Por otro lado,
la entrada para el proceso de reconocimiento del lenguaje natural es una secuencia
28 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


escrita, obtenida a partir de un sistema de reconocimiento de voz, de un teclado, o
incluso de un documento escrito. El objetivo en este proceso consiste en entender
dicha entrada. Para esto, es necesario realizar de manera inicial un analisis sintacti-
co, posteriormente sigue el analisis de la semantica. Entender el lenguaje escrito es
una tarea complicada, debido a la inherente ambig uedad del lenguaje. Si la am-
big uedad se detecta en una oracion, el problema es mas complicado, ya que para
entender a la oracion en proceso, se requiere comprender las oraciones anteriores o
bien las posteriores. En esta tarea, la representacion del conocimiento desempe na
un rol importante. El dise no de sistemas automaticos aplicados a la comprension
del lenguaje natural, es una de las areas mas estudiadas por diferentes comunidades
relacionadas con IA. De manera reciente se han desarrollado sistemas de traduccion
basados en metodos estadsticos. Aunque estos sistemas son rapidos y faciles de im-
plementar, los resultados obtenidos no son del todo satisfactorios. Debido a esto,
los enfoques basados en metodos estadsticos combinados con tecnicas orientadas al
conocimiento empiezan a ser exploradas. En la Laboratorio de Investigacion para
el Procesamiento del Lenguaje Natural de la Universidad Simon Fraser en Canada,
se realizan estudios de frontera para el analisis automatico de lenguajes humanos
de diferentes idiomas (

Arabe, Chino, Checo, Ingles, Espa nol, Frances, Ind u y Core-


ano) a traves de algoritmos computacionales. En 1999 los investigadores de este
laboratorio fundaron la compa na Axonwave Software Inc. Otro grupo que realiza
investigaciones en este tema es el Grupo para el Procesamiento del Lenguaje Nat-
ural de la Universidad de Stanford liderados por C. Manning y D. Jurafsky. Este
grupo incluye entre sus investigadores a miembros del Departamento de Ling ustica
y del Departamento de ciencias computacionales. Ademas del estudio de algoritmos
computacionales para el procesamiento y comprension del lenguaje natural, sus in-
vestigaciones tambien incluyen: extraccion de informacion biomedica, comprension
de oraciones, induccion gramatical, analisis de ambiguedades y automatizacion de
preguntas y respuestas. De manera reciente se han creado grupos de investigacion
relacionados con este campo en la Universidad de Teheran (2006), en la Universi-
dad de Corea (1999) y, Centro de Investigacion en Computaci on (CIC) del Instituto
Politecnico Nacional (1996), entre otros.
Vision por Computadora. La vision es el sensor de entrada mas usado por los
humanos, asimismo, es el de mayor riqueza debido a la cantidad de informacion
que proporciona.El objetivo que persigue la vision por computadora es el manejo
de tecnicas, metodos y algoritmos con la intencion de imitar automaticamente esta
habilidad humana con la nalidad de detectar objetos e interpretar imagenes. Por
lo tanto, los trabajos relacionados con la automatizacion de la vision son muy im-
portantes dentro de la IA. Basicamente, la Vision por Computadora es un problema
de razonamiento geometrico, la cual comprende varias areas, tales como: Adquisi-
1.2. CONCEPTOS Y T

ECNICAS (ESTADO DEL ARTE) 29


cion y Procesamiento de Imagenes, Reconocimiento de Objetos (2D y 3D), Analisis
de Escenas, y Analisis de Flujo de Imagenes. Por la importancia que reviste, la
Vision Computacional se utiliza en una amplia variedad de aplicaciones (Vigilan-
cia y Monitoreo, Seguridad, Aplicaciones Medicas, Lenguaje de Se nas, Sistemas de
Entrenamiento, Realidad Virtual, Ambientes Inteligentes) relacionadas con el de-
sarrollo de sistemas inteligentes. De acuerdo con Richard Selinsky, para formular y
resolver problemas relacionados con vision computacional es importante considerar
los siguientes enfoques de alto nivel: 1) Cientco, se reere a la construccion en
detalle de modelos de los fenomenos que crearon las imagenes y desarrollar tecnicas
matematicas que inviertan el proceso con la nalidad de recuperar los elementos de
interes (siempre que sea posible, realizar las simplicaciones necesarias para hac-
er la matematica mas tratable), 2) Estadstico, utilizar tecnicas estadsticas para
cuanticar la probabilidad a priori de las variables desconocidas as como de los
procesos ruidosos que se generan por las imagenes de entrada, despues inferir lo
mejor posible las estimaciones de las variables deseadas y analizar la incertidumbre
resultante. Los mecanismos de inferencia utilizados son muy parecidos a los emplea-
dos en trabajos de optimizacion y se aplican para invertir el proceso (cientco) de
formacion de la imagen y, 3) Ingeniera, desarrollar tecnicas que sean sencillas de
describir e implementar, pero que tambien sean conocidas por trabajar bien en la
practica. Evaluar estas tecnicas para entender sus limitaciones, fallas y sus costos
computacionales promedio (rendimiento durante su ejecuci on). Los trabajos realiza-
dos en este campo son importantes, prueba de ello es la existencia de centros de
investigacion y laboratorios de instituciones academicas especializados en realizar
investigacion en el mismo, tales como: (a) Laboratorio de Visi on por Computadora,
adscrito al Departamento de Tecnologa de la Informacion e Ingeniera Electrica en
Zurich, (b) Laboratorio de Vision por Computadora y Centro de Automatizacion
en la Universidad de Maryland, (c) Laboratorio de Vision por Computadora de
la Universidad de Suecia, (d) Laboratorio de Vision por Computadora de la Uni-
versidad de Columbia, entre otros. Asimismo, existen academicos que impulsan y
muestran los trabajos realizados al respecto, por ejemplo: (i) Conferencia Europea
sobre Vision por Computadora (ECCV), (ii) Conferencia Internacional de Vision por
Computadora (ICCV), (iii) Vision por Computadora y Reconocimiento de Patrones
(CVPR), (iv) Conferencia Internacional de Sistemas de Vision por Computadora
(ICVS), y (v) Talleres sobre Vision por Computadora (WACV), algunas revistas es-
pecializadas que promueven estos trabajos son las siguientes: Revista Internacional
de Vision por Computadora (IJCV por Springer), Vision por Computadora y Com-
prension de Imagenes (CVIU- por Elsevier), Analisis de Patrones e Inteligencia en
Maquinas (por IEEE Transactions).
Planeacion. La Planeacion es la actividad a traves de la cual se puede resolver un
30 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


problema y se caracteriza en que la solucion tiene la estructura de un plan (secuencia
de acciones). Se considera que el programa: General Problem Solver (Solucionador
General de Problemas), realizado por Allen Newell, denio algunos aspectos im-
portantes relacionados con este campo de estudio. Sin embargo, el primer sistema
dise nado exclusivamente para este campo fue STRIPS, el cual se enfoco a resolver
problemas especcos, conocidos bajo el nombre generico de Blocks World (Mundo
de Bloques). Posteriormente, despues de la decada de 1980, la IA dirigio sus esfuer-
zos a la solucion de problemas del mundo real, aunque de forma restringida ya que
las soluciones ofrecidas estuvieron sujetas a restricciones tanto de tiempo como de
recursos. Los planes pueden denirse para ser considerados despues de la ejecucion
(fueradelnea) o durante la ejecucion (enlnea) del programa. Desde otro en-
foque, los planes pueden caer en uno de los siguientes tipos: a) Deliberativos, se hace
el plan y se ejecuta sin considerar eventos imprevistos, b) Reactivos, se considera
una accion en base a los estmulos de una forma basica, o c) Hbridos, seleccionando
lo mejor de las polticas anteriores. La Planeacion es un aspecto fundamental en
varias areas de la IA. Por ejemplo, en Robotica, la planeacion es esencial para re-
alizar una serie de tareas, por ejemplo, para determinar la trayectoria a seguir, para
seleccionar los movimientos de los brazos del robot, para evitar colisiones el cual se
trata como un problema de razonamiento geometrico. La planeacion es una de las
actividades mas relacionadas con la IA. Es realmente difcil convencer a alguien de
que un sistema es inteligente sin que posea la habilidad de generar un plan para
resolver un problema. Bajo este enfoque, los Sistemas Inteligentes deberan tener la
capacidad de generar planes con el n de operar en diferentes escenarios. Por ejem-
plo, en aviacion, la existencia de sistemas inteligentes apoyan a los pilotos a tomar
decisiones durante un vuelo, en vehculos terrestres inteligentes que planean la ruta
para llegar a un destino considerando varios aspectos (traco, tiempo, costo). La
planeacion es una habilidad clave en el dise no de sistemas inteligentes, ya que les
permiten incrementar su autonoma y exibilidad mediante la construccion de se-
cuencias de acciones para alcanzar sus objetivos. Las tecnicas de planeacion se han
aplicado en una variedad de tareas entre las que destacan: robotica, planeacion de
procesos, manejo de informacion basada en la web, agentes aut onomos y control de
misiones espaciales. Asimismo, la planeacion incluye la representacion de acciones y
modelos del mundo, razonar acerca de los efectos de las acciones, y tecnicas para una
b usqueda eciente en el espacio de posibles planes. Algunos aspectos relacionados
con la planeacion son los siguientes: sistemas reactivos, planeacion basada en casos,
planeacion en el aprendizaje de maquinas, planeacion en sistemas multiagentes,
planeacion bajo incertidumbre y la planeacion en los servicios web. Algunos even-
tos que resaltan la importancia de este campo de la IA son los siguientes: a) en la
Universidad de Valencia, se creo en 2006 el Grupo de Inteligencia Articial y Opti-
mizacion, el cual entre sus tareas se encuentra el estudio tecnologico en planicacion,
calendarizacion y asignacion optimizada de recursos, b) el grupo de investigacion en
1.3. DESARROLLOS ACTUALES 31
Inteligencia Articial del Laboratorio de Propulsion (NASA) liderado por S. Chien,
realizan investigacion basica en las areas de planeacion inteligente y calendarizacion,
aplicadas al analisis de las ciencias, comando en vuelos espaciales, operaciones en
redes espaciales, y sistemas de transportacion aeroespacial.
Empieza a quedar claro que la Inteligencia debe ser proporcionada a nuestro
entorno cotidiano. Cada da la sociedad esta mas consciente de la existencia de casas
inteligentes, vehculos inteligentes, sistemas de transporte inteligentes, ya se habla
incluso de ciudades inteligentes [72]. Para ello ha sido necesario que la comunidad
cientca de IA haya integrado sus tecnicas con las de otras comunidades cientcas
(Automatizacion, Reconocimiento de Voz y del Lenguaje Natural, Vision, y Comu-
nicaciones entre otras).
1.3. Desarrollos actuales
En esta seccion se van a presentar algunos campos de estudio relacionados
con la IA, en los cuales el enfoque hacia la solucion de los problemas vara desde
tratamientos muy especcos hasta la consideracion de amplias areas de investi-
gacion. Los investigadores que trabajan en cada una de estas areas, se pueden ver
como investigadores que intentar resolver el problema de la IA desde distintas di-
recciones.
1.3.1. Procesamiento de Lenguaje Natural (PLN)
Uno de los objetivos en el campo de la inteligencia articial consiste en crear
programas capaces de entender y reproducir el lenguaje humano. Se ha realizado
un gran esfuerzo por parte de la comunidad cientca de IA para dise nar progra-
mas destinados al procesamiento del lenguaje natural, aunque estos programas han
tenido un exito moderado, los sistemas capaces de usar el lenguaje natural con la
exibilidad y generalidad que caracteriza al humano a un estan fuera del alcance de
las metodologas actuales. La comprension del lenguaje natural implica mucho mas
que el analisis sintactico de oraciones en sus componentes individuales y la b usque-
da de tales componentes en un diccionario. La verdadera comprension depende de
un profundo conocimiento sobre el dominio de discurso y los modismos asociados
al mismo, as como de la capacidad de aplicar los conocimientos contextuales con
el n de resolver omisiones y ambig uedades que son aspectos comunes del lenguaje
humano. Considere por ejemplo, la dicultad de mantener una conversacion acerca
32 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


de un deporte, con una persona que entiende el lenguaje pero desconoce las reglas,
jugadores o historia del mismo. Aunque la persona comprenda de forma individual
cada palabra del entrenador a sus jugadores, la expresion en su conjunto resultara
incomprensible para tal persona, ya que desconoce el contexto (deporte). La tarea
de recopilar y organizar este conocimiento de tal manera que pueda aplicarse a la
comprension del lenguaje constituye el principal problema para la automatizacion
del mismo. Con la nalidad de resolver esta dicultad, los investigadores han de-
sarrollado tecnicas utilizadas para estructurar el signicado semantico utilizado en
inteligencia articial. Sin embargo, debido a la enorme cantidad de conocimien-
to requerido para la comprension del lenguaje natural, la mayora de los trabajos
relacionados con este tema, se desarrollan en areas especializadas y bien denidas
conocidas como micro mundos. Uno de los primeros programas en aprovechar la
metodologa de micro mundos fue SHRDLU realizado por Winograd en 1973, el
cual, es un sistema dise nado para conversar acerca de una conguracion sencilla
con bloques de diferentes formas y colores. SHRDLU poda responder a preguntas
como: de que color es el bloque que esta sobre el cubo azul? , tambien poda
planicar acciones simples como mover la piramide roja hacia el tabique verde.
Los problemas de este tipo, que implican la descripcion y manipulacion de simples
arreglos de bloques, se presentaron de forma frecuente en los inicios de la investi-
gacion en IA y fueron conocidos como los problemas del mundo de los bloques.
A pesar del exito logrado por SHRDLU para mantener una conversacion relaciona-
da con arreglos de bloques, esta metodologa no generaliza a partir del dominio en
cuestion. Las tecnicas de representacion utilizadas en este programa, fueron muy
simples para capturar de una manera util la semantica de dominios mas complejos.
Gran parte de los trabajos actuales relacionados con el procesamiento del
lenguaje natural se enfocan al dise no de metodologas, tecnicas, algoritmos, paradig-
mas y heursticas de representacion que sean lo sucientemente generales para ser
utilizados en una amplia variedad de aplicaciones, y tambien, que tengan la capaci-
dad de adaptarse a dominios especcos. Un n umero considerable de tecnicas (la
mayora son extensiones o modicaciones de las redes semanticas) son exploradas
para este n y usadas en el desarrollo de programas capaces de entender el lengua-
je natural en dominios de interes. Investigaciones recientes han recurrido al uso de
modelos estocasticos tanto para para describir como las estructuras del lenguaje y
las palabras ocurren, como para caracterizar los aspectos sintactico y semantico
del lenguaje. Sin embargo, como mencionamos antes, la comprension computacional
del lenguaje natural permanece hasta el momento mas alla del actual estado del arte.
1.3. DESARROLLOS ACTUALES 33
1.3.2. Reconocimiento de patrones
En un sentido amplio, el reconocimiento de patrones ha sido parte de nuestra
existencia, desde el momento en que nuestros primeros antepasados aprendieron a
distinguir a que animales podan acercarse para cazar y de cuales deberan de huir.
Aunque ellos probablemente nunca se detuvieron a realizar un analisis meticuloso,
sino que, basaban su clasicacion en rasgos como el tama no, longitud de los di-
entes, rugido, etc. A estos aspectos que permitan a los primeros cazadores humanos
clasicar a los animales en dos categoras: peligrosos y no peligrosos, se les cono-
cen como: rasgos o caractersticas. Otro ejemplo se puede ofrecer en la actualidad
durante los primeros a nos de nuestra vida, a la edad de cinco a nos, la mayor parte
de los ni nos pueden reconocer n umeros, letras, caracteres impresos o manuscritos,
as como imagenes de objetos conocidos aunque estas presenten oclusion parcial
los humanos poseemos esta habilidad de manera inherente, sin embargo, nos gustara
ense narle a las maquinas hacer lo mismo. Reconocimiento de patrones es el estudio
enfocado a hacer que las maquinas observen el ambiente, aprendan a distinguir pa-
trones de interes y a tomar decisiones razonables relacionadas con las categoras de
los patrones observados. A pesar de que se han realizado trabajos de investigacion
en este campo por mas de 60 a nos, el dise no de un sistema de reconocimiento de
patrones que sea de uso general, se mantiene a un como un problema por resolver.
Hasta el momento, el mejor reconocedor de patrones en la mayora de las
instancias es el humano, aunque por el momento a un no se tenga una completa
comprension en como se lleva a cabo este proceso. Ross enfatiza el trabajo de Her-
bert Simon, cuya aportacion principal fue armar que el reconocimiento de patrones
es un factor clave en la tarea humana de tomar decisiones [81]. En este sentido, se
puede denir el reconocimiento de patrones como la mejor forma de utilizar los
sensores disponibles (se nales, audio, vdeo), procesadores, y el conocimiento del do-
minio para tomar decisiones automaticas. De acuerdo con Watanabe, un patron es
lo opuesto alcaos [82]. Asimismo, Watanabe cita como ejemplos de patrones los
siguientes: una imagen de huella dactilar, un rostro humano, una palabra escrita, y
una se nal de voz. Dado un patron, el proceso de reconocerlo/clasicarlo consiste de
dos tareas: (1) clasicacion supervisada, donde el patron de entrada es identicado
como miembro de una clase denida previamente, y (2) clasicacion no supervisada,
donde el patron se asigna o agrupa en una clase desconocida. En el segundo caso,
el problema de reconocimiento se maneja como una tarea de clasicacion, donde las
clases son, ya sea denidas por el dise nador del sistema (clasicacion supervisada)
o aprendidas basadas en la similitud de patrones (clasicacion no supervisada). El
interes de la comunidad cientca hacia este campo se vio renovado a nes de la
decada de 1990 debido al surgimiento de aplicaciones emergentes las cuales ademas
de ser desaantes eran computacionalmente demandantes, algunos ejemplos de tales
34 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


aplicaciones son: el analisis de secuencia en protenas o ADN, b usqueda de infor-
macion signicativa en espacios multidimensionales, identicacion personal en base
al analisis de rostros y b usqueda de textos en Internet. Un aspecto com un en estas
aplicaciones es que las caractersticas disponibles (en el orden de los miles) no son
generalmente determinadas por expertos en el dominio del problema, sino que son
extraidas y optimizadas a traves de procedimientos y tecnicas. El rapido desarrol-
lo y poder de computacion disponible en la actualidad, ha facilitado el manejo y
procesamiento de grandes vol umenes de datos, as como la clasicacion y analisis de
los mismos aplicando diversos metodos. Al mismo tiempo, la demanda de sistemas
automatizados relacionados con este campo ha crecido enormemente debido a la
disponibilidad de grandes bases de datos y estrictos requerimientos de operacion
(velocidad, exactitud y costo).
Resulta evidente que en muchas de las aplicaciones emergentes es necesario
aplicar m ultiples metodos de clasicacion con el n de obtener resultados optimos.
En trabajos recientes, es com un observar la integracion de varios sensores y tecnicas
de clasicacion [137]. El dise no de un sistema reconocedor de patrones generalmente
incluye las siguientes etapas: 1) adquisicion y preprocesamiento de datos, 2) repre-
sentacion de datos, y 3) toma de decisiones. Generalmente, estas etapas as como las
tecnicas a utilizar en cada una de ellas son determinadas por el dominio del proble-
ma que se pretende resolver. Sin embargo, es de todos sabido, que un problema bien
denido y con las restricciones sucientes (peque nas variaciones intraclase y grandes
variaciones entre clases) conducen a un sistema de reconocimiento de patrones com-
pacto y a una estrategia de toma de decisiones sencilla. Los enfoques mas frecuentes
en el dise no de sistemas reconocedores de patrones son: 1) correspondencia de plan-
tillas, 2) clasicacion estadstica, 3) corespondencia estructural o sintactica, y 4)
redes neuronales. Una breve descripcion de cada uno de estos metodos se propor-
ciona a continuacion.
Correspondencia de plantillas. Fue uno de los primeros enfoques utilizados para
el reconocimiento de patrones. La correspondencia es una operacion generica y con-
siste basicamente en comparar dos entidades (puntos, curvas, formas) del mismo tipo
en busca de similitudes. En esta operacion, una plantilla (generalmente, una forma
en 2D) se compara con un conjunto de plantillas almacenadas, al mismo tiempo se
consideran aspectos que pueden variar, tales como: rotaci on, traslacion y escala. La
medida de similitud utilizada mas seguido bajo este enfoque, es la correlacion, la
cual puede ser optimizada basada en un conjunto de entrenamiento. Resulta una
practica com un en muchos trabajos que la plantilla sea aprendida de un conjunto de
entrenamiento. La tarea de comparar plantillas es un proceso computacionalmente
demandante, sin embargo, la disponibilidad de procesadores r apidos hacen factible
1.3. DESARROLLOS ACTUALES 35
este trabajo. Aunque esta tarea resulta conveniente en muchos casos, presenta al-
gunas desventajas, la principal consiste en la generacion de resultados eroneos, lo
cual puede ocurrir en los siguientes casos: (i) si los patrones sufren alguna distorsion
durante el proceso de captura, (ii) si hay cambios en los puntos de vista, o (iii) si
existen grandes variaciones entre las clases.
Enfoque estadstico. En este enfoque, cada patron es representado por d carac-
tersticas de mediciones y visto como un punto en un espacio ddimensional. En
este caso, el objetivo consiste en seleccionar aquellas caractersticas que permitan
a vectores de patrones pertenecientes a diferentes clases ocupar de forma compacta
regiones disjuntas en este espacio de caractersticas. La efectividad del espacio de
representacion (conjunto de caractersticas) se determina considerando que tan bi-
en los patrones de diferentes clases pueden ser separados. A partir de un conjunto
de entrenamiento formado por patrones de distintas clases, el objetivo consiste en
establecer lmites de decision en el espacio de caractersticas con el n de separar a
los mismos. Las decisiones establecidas en este enfoque, son determinadas a partir
de las distribuciones de probabilidad de los patrones pertenecientes a cada clase, los
cuales pueden ser aprendidos o especicados [84, 85].
Enfoque sintactico o estructural. En muchos problemas de reconocimiento que
involucran patrones complejos, es mas apropiado aplicar un enfoque jerarquico, es
decir, un patron se considera formado por sub-patrones y estos a su vez formados
por otros sub-patrones [86, 87]. En este caso, el patron mas simple o elemental se le
conoce como primitivo, y el patron complejo se representa como una relacion entre
patrones primitivos. El reconocimiento de patrones bajo este enfoque, se basa en
una analoga formal entre la estructura de los patrones con la sintaxis de un lengua-
je donde, los patrones son comparables a las oraciones que forman un lenguaje, las
primitivas son el alfabeto del lenguaje, y las oraciones son generadas de acuerdo a una
gramatica. De esta manera, una gran coleccion de complejos patrones puede ser de-
scrito por un n umero limitado de primitivas y reglas gramaticales. La gramatica para
cada patron debe ser inferida a traves de conjuntos de entrenamiento. El enfoque
estructural resulta muchas veces atractivo, ya que ademas de realizar la clasicacion,
proporciona una descripcion acerca de como los patrones se construyen a partir de las
primitivas. Este paradigma se ha utilizado en situaciones donde los patrones exhiben
una estructura denida la cual puede ser facilmente capturada como un conjunto de
reglas, tales como las observadas en imagenes con textura, y en el analisis de formas
y contornos. A pesar de sus ventajas, la implementacion de este enfoque tiene algu-
nas complicaciones, originadas en principio durante la segmentacion de ruido en los
patrones (deteccion de primitivas), y posteriormente en inferir la gramatica a partir
de datos de entrenamiento. Asimismo, el enfoque sintactico produce una explosion
36 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


combinatoria de posibilidades que deben ser analizadas, lo cual demanda grandes
conjuntos de entrenamiento y esfuerzo computacional.
Redes Neuronales. Las redes neuronales son modelos computacionales que in-
tentan imitar el comportamiento de las neuronas biologicas, y pueden verse como
un sistema computacional formado por un conjunto masivo de procesadores individ-
uales interconectados y trabajando en paralelo. Este enfoque intenta modelar algunos
principios organizacionales (aprendizaje, generalizaci on, adaptabilidad, procesamien-
to, tolerancia a fal los y representacion distribuida) en una red a traves de grafos pon-
derados con pesos, donde los nodos representan neuronas articiales y los enlaces
entre los nodos indican conexiones (entradas o salidas) entre neuronas. La carac-
terstica principal de este enfoque es que tienen la habilidad de aprender relaciones
no lineales complejas de entrada y salida, emplean procedimientos secuenciales de
entrenamiento y se adaptan a los datos. La creciente popularidad de estos modelos
para resolver problemas de reconocimiento de patrones se debe a su aparentemente
baja dependencia de conocimiento especco del dominio (a diferencia de los en-
foques basados en reglas y basados en modelos), asi como a la disponibilidad de
ecientes algoritmos de aprendizaje. Sin embargo, en la opinion de Ripley y An-
derson, a pesar de sus principios fundamentales, la mayora de los modelos de redes
neuronales articiales son de manera implcita similares o equivalentes a los metodos
de reconocimiento de patrones aplicados por la estadstica clasica [88, 89]. A pesar
de las ventajas que este enfoque ofrece en el dise no de sistemas aplicados en una var-
iedad usos, tambien es susceptible a algunas desventajas, tales como: 1) naturaleza
de caja negra, 2) mayor carga computacional, 3) propension al sobreajuste, y 4) la
naturaleza emprica en el desarrollo del modelo.
Las aplicaciones relacionadas con este campo son variadas seg un lo demuestra
un estudio realizado por Larry OGorman en el a no 2003, en el cual examino los
temas de 105 artculos enviados a revistas especializadas (Pattern Recognition Let-
ters, Pattern Recognition, Machine Vision and Applications, and IEEE transac-
tions on Pattern Analysis and Machine Intel ligence) en este campo en el a no 2001.
Los resultados obtenidos muestran las aplicaciones principales en el campo de re-
conocimiento de patrones y son las siguientes: 35 % reconocimiento de personas, 28 %
reconocimiento de caracteres, 11 % robotica y navegacion, 6 % inspeccion industrial,
6 % satelital y aerea, 5 % biomedica, y 9 % otras. Con este sencillo analisis se puede
indicar la gran variedad de aplicaciones relacionadas con este campo, participando
en areas tan diversas como la economa, medicina, qumica y psicologa. Un estudio
similar fue realizado para determinar las tecnicas mas utilizadas en este campo. En
este caso, se dio una revision al ndice de todos los temas de la revistaIEEE Trans-
actions on Pattern Analysis and Machine Intel ligence, desde su primera publicacion
1.3. DESARROLLOS ACTUALES 37
en Enero de 1979, hasta el a no 2000. Los resultados obtenidos arrojaron datos de
350 artculos revisados, donde apoximadamente 300 de los artculos se relacionaron
con el enfoque estadstico categorizados en los siguientes temas: a) reduccion de
dimensionalidad, b), dise no de clasicadores, c) combinacion de clasicadores, d)
estimacion del error, y e) clasicacion supervisada.
Con los datos anteriores se proporciona una idea de lo relevante que es este
campo en el estudio de la IA. Asimismo, mientras el estudio de tecnicas aplicadas
en el mismo siguen siendo un tema de de investigacion, los investigadores logran
innovar a traves de explorar problemas novedosos e interesantes.
1.3.3. Robotica
La robotica es una disciplina que combina todas aquellas actividades rela-
cionadas con el estudio, dise no, construccion, operacion y mantenimiento de robots.
Es un campo de trabajo que combina diferentes disciplinas como: Ingeniera Electri-
ca, Electronica, Mecanica, Ciencias de la Computacion, Matematicas, Fsica, Bi-
ologa y Neurociencias entre otras. El termino robot fue introducido por el checo
Karel Capek en 1921, y se origina de la combinacion de las palabras checas robota
que signica trabajo obligatorio y robotnik que signica siervo. Por lo tan-
to, podemos dar la siguiente denicion para este termino: Los robots son agentes
fsicos que realizan tareas mediante la manipulacion del mundo fsico y estan equipa-
dos con sensores para percibir su entorno y efectores para actuar sobre el mismo.
La palabra robotica fue utilizada por primera vez por el cientco y escritor de
ciencia ccion Isaac Asimov en 1942, quien ademas propuso las conocidas leyes de
la robotica:
Ley 0: Un robot no puede realizar ninguna accion, ni por inaccion permitir que nadie
la realice, que resulte perjudicial para la humanidad, a un cuando ello signique en-
trar en conicto con las otras leyes.
Ley 1: Un robot no puede da nar a un ser humano ni, por inaccion, permitir que este
sea da nado.
Ley 2: Un robot debe obedecer las ordenes dadas por los seres humanos excepto
cuando estas ordenes entren en conicto con las leyes anteriores.
38 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


Ley 3: Un robot debe proteger su propia existencia hasta donde esta proteccion no
entre en conicto con las leyes anteriores.
De acuerdo con la actividad para la cual fueron dise nados, los robots se clasi-
can en: (i) Robots Industriales, (ii) Robots de Servicio, (iii) Robots de Exploracion,
y (iv) Otras aplicaciones. En seguida se proporciona una breve descripcion de cada
tipo.
Robots Industriales. Los robots industriales se utilizan para realizar trabajos repeti-
tivos, pesados o peligrosos. En el mundo existen actualmente mas de 740.000 robots
de este tipo, utilizados principalmente en la industria automotriz.
Robots de Servicio. Los robots de servicio ayudan a los hombres a realizar distintos
tipos de labores. Se estima que en el mundo existen mas de 6000 de estas unidades,
de los cuales el 50 % son robots domesticos, el 14 % son robots submarinos, el 12 %
son robots medicos, el 6 % son robots de limpieza y el 23 % restante corresponde
a alguno de los siguientes tipos: (a) Robots Medicos, (b) Robots Domesticos, (c)
Robots de Ayuda a Discapacitados, (d) Robots de Limpieza y, (e) Robots de Vigi-
lancia.
Robots de Exploracion. Permiten explorar lugares inaccesibles para el hombre como
por ejemplo otros planetas (ej. Marte), el fondo del mar (ej. Titanic) o la antartica.
Otras Aplicaciones. Ademas de las anteriores, los robots se utilizan en diversas tar-
eas tales como: fumigar, abastecer combustible, jugar, limpiar tuberas y levantar
muros en la construccion.
Los primeros robots industriales modernos fueron conocidos como Unimates,
y fueron desarrollados por George Devol y Joe Engelberger a nales de la decada
de 1950 y principios de la decada de 1960. En base a desarrollos posteriores a En-
gelberger se le considera el padre de la robotica. A nales de la decada de 1970 y
principios de la decada de 1980 el desarrollo de los robots industriales tuvo un gran
desarrollo, debido principalmente a fuertes inversiones realizadas por la industria
automotriz.
La robotica se basa principalmente en dos areas: Manipulaci on remota y capaci-
dad de control numerico en maquinas. La manipulacion remota o telemanipuladores,
se reere a las maquinas que son controladas de manera remota, las cuales general-
1.3. DESARROLLOS ACTUALES 39
mente se forman por un brazo y unas pinzas cuyos movimientos siguen las instruc-
ciones que un humano les da a traves de un dispositivo de control. Los primeros ma-
nipuladores se utilizaron para el manejo de material radioactivo. El control numerico
permite controlar maquinas de forma precisa en relacion con un sistema de coorde-
nadas dado, este tipo de control fue utilizado por primera vez en 1952 en el MIT y se
considero como el primer lenguaje de programacion para maquinas (llamado APT:
Herramientas automaticas programadas (por sus siglas en ingles)). La combinacion
de las tecnicas mencionadas hizo posible el dise no del primer telemanipulador pro-
gramable. El primer robot industrial que utilizo estos principios fue instalado en
1961. Los robots basados en los esquemas anteriores son principalmente emplead-
os en las plantas de ensamble automotriz. Asimismo, la necesidad de automatizar
transporte en los sistemas de produccion impulso el desarrollo de unidades roboticas
moviles. Actualmente, la mayora de los robots moviles se han construido basados
en la arquitectura de los insectos, es decir, con muchas patas, con el n de ser uti-
lizados en una gama de aplicaciones. A otros mas se les suministraron ruedas para
usarse en diferentes tipos de servicios, tales como: Localizar y traer. Los robots
humanoides hicieron su aparicion en 1975, cuando Wabot-I se presento en Japon. El
actual Wabot-III ya tiene algunas capacidades cognitivas simples. Cog. Otro robot
con caractersticas de humanoide fue desarrollado en 1994 en el Laboratorio de In-
teligencia Articial del MIT. El popular robot humanoide de Honda fue presentado
al p ublico por primera vez en 1999. A pesar de ser operado a control remoto, este
humanoide puede caminar (en el piso y escaleras) de forma autonoma. Actualmente
este robot realiza una mayor variedad de tareas (reconocer rostros, comunicarse con
humanos).
Finalmente, no se puede hablar de robotica sin mencionar el aspecto de plan-
icacion, ya que la investigacion relacionada con la planicacion inicio como un
esfuerzo para dise nar robots que pudieran realizar sus tareas con alg un grado de
exibilidad y respuesta. En la planicacion se asume que un robot es capaz de re-
alizar ciertas acciones basicas las cuales ejecutadas en secuencia les permitira com-
pletar una tarea de alto nivel, tal como, moverse a traves de un cuarto evitando los
obstaculos (navegacion) [4].
1.3.4. Sistemas Expertos
Desde hace alg un tiempo, los problemas mas recurrentes con los que se en-
frenta la industria tienen que ver con la falta de personas capacitadas en campos
muy especcos y al elevado costo de sus servicios. Con esto podemos establecer que
uno de los bienes mejor valuados es el conocimiento humano, y con el viene apare-
40 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


jada la capacidad para tomar decisiones. Un sistema automatizado que almacene
el conocimiento de personas especializadas en un area especca y que permita la
interaccion con humanos con el n de ofrecer puntos de vista a cierta situacion
de estudio, se le conoce como sistema experto. Los sistemas expertos forman parte
de la ciencia de la computacion y dentro de esta se ubican como un subcampo de
la inteligencia articial.

Este termino fue usado por primera vez por Edward A.
Feigenbaum, profesor de la Universidad de Stanford. Feigenbaum determino que el
poder de resolucion de un problema por un programa de computadora viene del
conocimiento de un dominio especco, no solo de las tecnicas de programacion y el
formalismo que contiene. Antes de eso casi todos los investigadores en inteligencia
articial haban tratado de desarrollar metodos generales de programacion que re-
solveran grandes problemas conceptuales, pero estos programas solamente resolvan
y de manera muy limitada algunos problemas individuales.
La idea para dise nar sistemas expertos surgio de los trabajos relacionados
con resolucion de problemas, donde se observo la importancia del conocimiento en
un dominio especco. Un medico por ejemplo no es ecaz en el diagnostico de la
enfermedad solo porque posee una habilidad general e innata para la solucion de
problemas, sino que, es ecaz porque tiene un gran conocimiento relacionado con la
medicina. Del mismo modo, un geologo es ecaz en el descubrimiento de depositos
minerales debido a que es capaz de aplicar una buena dosis de conocimientos teori-
cos y empricos sobre la geologa del problema en cuestion. El conocimiento experto
es una combinacion de una comprension teorica del problema y una coleccion de
reglas heursticas hacia la solucion de problemas que la experiencia ha demostrado
son ecaces en este dominio. Los sistemas expertos son construidos por la obtencion
del conocimiento de un experto humano y la codicacion del mismo en una forma
que una computadora pueda entender y aplicar a problemas similares.
La conanza en el conocimiento de un dominio por un experto humano como
estrategia de un sistema en la resolucion de problemas es una caracterstica im-
portante de los sistemas expertos. Aunque algunos programas son escritos por un
dise nador que a la vez es la fuente del conocimiento en el dominio de interes, es mas
com un ver este tipo de programas con la colaboracion entre un experto en el dominio
como un medico, qumico, geologo o ingeniero, y un especialista de la inteligencia
articial. El experto de dominio proporciona los conocimientos necesarios sobre el
dominio de interes, as como los metodos utilizados para la resolucion de proble-
mas, demostrando estas habilidades en un conjunto cuidadosamente seleccionado de
problemas de ejemplo. Una vez que un programa se ha escrito como resultado de
esta colaboracion, es necesario perfeccionarlo a traves de un proceso de aprendiza-
je basado en ejemplos, donde el experto del dominio eval ua su comportamiento y
1.3. DESARROLLOS ACTUALES 41
realiza las observaciones necesarias para ajustar los parametros del programa. Este
proceso se repite hasta que el programa alcanza el nivel de rendimiento deseado.
Uno de los primeros sistemas que explotaron el conocimiento especco del do-
minio en la solucion de problemas fue DENDRAL, desarrollado en Stanford en la
decada de 1960 [Lindsay et al. 1980]. Este sistema fue dise nado con el n de inferir
la estructura de moleculas organicas a partir de sus formulas qumicas e informacion
de la masa espectrograca presente en las moleculas. Mientras DENDRAL fue uno
de los primeros programas en utilizar de manera efectiva conocimiento especco del
dominio para alcanzar un rendimiento similar a un experto humano, MYCIN es-
tablecio la metodologa para sistemas expertos contempor aneos [79]. Mycin utiliza
conocimiento medico experto para diagnosticar y prescribir el tratamiento para la
meningitis espinal e infeccion en la sangre causada por bacterias. Este programa,
desarrollado en Stanford a mediados de 1970, fue uno de los primeros en enfocar los
problemas de razonar con incertidumbre o con informacion incompleta. Asimismo,
proporciono una explicacion logica precisa acerca de su razonamiento, utilizando una
estructura de control apropiada al dominio del problema e identico de manera con-
able los criterios para la evaluacion del rendimiento. Algunos sistemas expertos ac-
tuales utilizan tecnicas que fueron aplicadas por vez primera en el proyecto MYCIN.
Otro de los primeros sistemas expertos incluyen el programa PROSPECTOR, el
cual determina la probable ubicacion y el tipo de depositos minerales basados en la
informacion geologica de un sitio. INTERNIST es un sistema experto utilizado en
medicina interna para realizar diagnosticos, DIPMETER ADVISOR otro pro-
grama perteneciente a los primeros sistemas expertos, fue utilizado para interpretar
los resultados de los registros de perforacion en pozos de petroleo [Smith y Baker,
1983]. Actualmente existe un buen n umero de sistemas expertos que resuelven prob-
lemas en diversas areas, tales como: medicina, educacion, negocios, dise no y ciencias
[Durkin 1994]. A pesar del exito logrado por varios programas en esta area, sera un
error sobreestimar la habilidad de esta tecnologa, algunas de sus deciencias son
las siguientes:
1. Dicultad para representar un profundo conocimiento en el dominio del prob-
lema. Como ejemplo de este aspecto, podemos citar al programa Mycin, el cual
carece de conocimiento real de un siologo humano. Por lo tanto, no sabe la
funcion de la sangre o de la espina dorsal, en otro caso, cuando selecciona algu-
na medicina para tratar la meningitis, le pide al paciente si esta embarazada,
a un cuando en principio se le dijo el sexo del mismo.
2. Falta de robustez y exibilidad. Si a las personas se les presenta una instancia
de un problema que no pueden resolver de manera inmediata, generalmente
regresan a examinar los principios para estos y as regresar con una estrategia.
42 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


Los sistemas expertos generalmente carecen de esta habilidad.
3. No proporcionan una explicacion detallada. Debido a que los sistemas expertos
carecen de un conocimiento detallado del dominio, sus explicaciones general-
mente se restringen a una descripcion de pasos para llegar a una solucion. Por
ejemplo, no pueden explicar porque se tomo un cierto camino para llegar a
una conclusion.
4. Dicultades en la vericacion. A pesar de la dicultad encontrada en probar
la correccion de cualquier sistema informatico de gran tama no, los sistemas
expertos son particularmente difciles de vericar. Este es un problema serio,
sobretodo cuando el sistema experto se usa en aplicaciones crticas tal como
en control del traco aereo, operaciones con reactores nucleares, y sistemas de
defensa militar.
5. Poco aprendizaje de la experiencia. Los sistemas expertos actuales estan hechos
a la medida del problema que tratan; una vez que el sistema esta terminado,
su rendimiento no va a mejorar sin atencion de parte de sus programadores,
esto origina algunas dudas respecto a la inteligencia de tales sistemas.
A pesar de estas limitaciones, los sistemas expertos han demostrado su utilidad
en un n umero importante de aplicaciones.
1.3.5. Logica Difusa
En a nos recientes se ha observado un crecimiento en el n umero y variedad de
aplicaciones basadas en l ogica difusa. Esta logica, la cual pertenece a un conjunto de
metodologas conocidas bajo el nombre de computacion suave (soft computing) tiene
la habilidad de imitar la manera de pensar del humano y aplica de forma efectiva,
modos de razonamiento que producen resultados aproximados mas que exactos.
Se debe al profesor Lofti A Zadeh, profesor de la Universidad de Berkeley,
la introduccion del termino: logica difusa, en su trabajo Fuzzy Sets, en el cual de-
scribio en 1965 las matematicas utilizadas en la teora de conjuntos difusos [90]. A
diferencia de la logica clasica o tradicional, la logica difusa permite el manejo de
m ultiples valores. La idea de tener una logica con m ultiples valores no es nueva,
Platon sento las bases de lo que se convertira mas tarde en l ogica difusa, cuando
indico que haba una tercera region mas alla de Verdadero y Falso. Algunos losofos
de la epoca moderna, retomaron las ideas de Platon, particularmente Hegel, Marx y
Engels. Sin embargo, fue Lukasiewics quien propuso por primera vez una alternativa
a la logica bivaluada de Aristoteles, al proponer la posibilidad de manejar un tercer
valor (numerico) situado entre Verdadero y Falso [91]. Posteriormente, Lukasiewics
1.3. DESARROLLOS ACTUALES 43
exploro la propuesta de manejar una logica con cuatro y cinco valores, declarando
despues que no haba nada que evitara manejar una logica con valores innitos. La
logica difusa modela condiciones denidas de forma imprecisa y provee un marco
para la toma de decisiones en forma de razonamiento aproximado. La permisividad
de tolerancia en el proceso de pensamiento humano sugiere que gran parte de la
logica que gua a este proceso no es la logica tradicional de dos valores o incluso
la de m ultiples valores, sino, debe ser una logica que permita manejar verdades
parciales, conectividad difusa, conjuntos difusos y reglas de inferencia difusas. Un
conjunto difuso es una extension de un conjunto preciso. Los conjuntos precisos per-
miten manejar solo dos valores en relacion a los elementos del mismo: pertenece y
no pertenece, mientras que los conjuntos difusos permiten el manejo de pertenencia
parcial hacia un conjunto de valores. Mientras que en la computacion tradicional
tipo dura, las decisiones o acciones se basan en resultados exactos y precisos
lo cual tiene un costo en la computacion suave las decisiones se basan en la
tolerancia y la imprecision [90].
La explotacion de la tolerancia por imprecision e incertidumbre es la base de
la notable capacidad humana para entender voces distorsionadas, descifrar palabras
mal escritas, comprender matices del lenguaje natural, resumir textos, y clasicar
imagenes. Con logica difusa es posible el mapeo de reglas en terminos de palabras
en lugar de n umeros, ello es posible, ya que el computo con palabras explota la im-
precision y la tolerancia. Otro concepto basico que maneja es el uso de la regla del
tipo si entonces. Aunque los sistemas basados en reglas tienen una larga historia
de uso en inteligencia articial, lo nuevo aqu es que se tiene el mecanismo para
trabajar con antecedentes y/o consecuentes difusos. En la mayora de las aplica-
ciones, una solucion con logica difusa es una traduccion de una solucion humana.
Otro aspecto de interes en esta logica, es que puede modelar funciones no lineales
de complejidad arbitraria a un grado de precision deseado. Asimismo, es una her-
ramienta que permite modelar un sistema de m ultiples entradas a m ultiples salidas.
La computacion suave incluye ademas de la logica difusa a las siguientes tecnicas:
redes neuronales articiales, algoritmos geneticos y razonamiento probabilstico. Es-
tas tecnicas abordan aspectos distintos y en general son complementarias mas que
competitivas. Actualmente estas tecnicas son aplicadas de manera individual o com-
binadas con el n de dise nar sistemas inteligentes. La logica difusa generalmente
aborda aspectos relacionados con el razonamiento a nivel sem antico y ling ustico y
existe una variedad de trabajos donde se combina con las redes neuronales las cuales
ofrecen algoritmos que abordan aspectos de aprendizaje, clasicacion y optimizacion.
A decir de Zadeh, La computacion suave no es una simple metodologa, en vez
de ello, es un conjunto de metodologas, cuya directiva principal consiste en explotar
44 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


la tolerancia para imprecision, la incertidumbre y la verdad parcial para alcanzar
la tratabilidad, robustez y soluciones de bajo costo. La principal aportacion de la
logica difusa en este conjunto es proveer una metodologa para representar el razon-
amiento aproximado, y en particular, para al computo con palabras. Por otro lado,
mientras las redes neuronales ofrecen tecnicas para el aprendizaje y la identicacion
de sistemas los algoritmos geneticos ofrecen metodos para tareas de b usqueda y op-
timizacion.
Hasta la fecha, Zadeh y otros investigadores han continuado con el desarrollo
de la logica difusa. Sin embargo, a pesar de ser una tecnica exitosa en varias apli-
caciones, sobretodo en sistemas de control de electrodomesticos y equipos elec-
tronicos, esta logica no cuenta con la total aceptacion de muchos academicos,
quienes sostienen que la principal debilidad de este enfoque es que se basa en aspec-
tos matematicos poco explorados.
Debido a esta situacion, las primeras aplicaciones de la logica difusa tuvieron
un lento desarrollo en muchos pases, sin embargo, en otros su desarrollo fue difer-
ente, por ejemplo en Japon, esta logica fue totalmente aceptada y puesta en practica
en diversos productos simplemente porque funcionaba, sin tomar en cuenta que los
matematicos estuvieron de acuerdo o no. El exito de muchos productos basados en
la logica difusa dio inicio en Japon a principios de la decada de 1980 y fue aceptada
en los EE.UU a nales de esa decada. Desde entonces varios pases de America han
estado compitiendo con los de otros continentes en desarrollos relacionados con esta
area.
1.4. Modelos de agente inteligente
Bajo el nombre de agentes se le conoce a un nuevo paradigma en el desarrol-
lo de programas para computadoras. Lo que hace atractiva la tecnologa software
basada en agentes es que ofrece algunos de los siguientes aspectos: a) habilidad para
resolver problemas que caen fuera del alcance de la automatizacion (porque no existe
la tecnologa que pueda ser utilizada, o porque resulta demasiado costosa difcil,
riesgosa, consume mucho tiempo para el desarrollo de soluciones usando la tec-
nologa existente), y b) habilidad para resolver problemas tal vez ya resueltos
de una forma signicativamente mejor (mas economicos, mas sencillos, mas faciles,
mas natural, o mas rapidos). El computo basado en agentes ha sido aclamado como:
el siguiente salto signicativo en el desarrollo del software [Sargent, 1992], y la
nueva revolucion en el software [Ovum, 1994]. Actualmente, el estudio de agentes
1.4. MODELOS DE AGENTE INTELIGENTE 45
base principal del paradigma es uno de los principales temas de investigacion en
algunas areas de las ciencias computacionales y de la IA, debido a la amplia amplia
variedad de aplicaciones en las que se pueden utilizar, las cuales van desde peque nos
sistemas, tales como los ltros utilizados en los correos electronicos hasta los elabora-
dos y complejos sistemas utilizados para el control del traco aereo. De acuerdo con
Russell y Norvig un agente es cualquier ente que pueda percibir su entorno a traves
de sensores y actuar sobre el mismo mediante actuadores [94]. Un agente humano
posee ojos, odos, y otros organos que funcionan como sensores, as como brazos,
piernas y boca, que act uan como actuadores. Un agente robot posee camaras, GPS,
y odometros entre otros elementos como sensores y varios servomecanismos como
actuadores. Un agente software almacena cadenas de bits codicados como elemen-
tos de percepcion y accion.
Aunque no existe una denicion universalmente aceptada para el termino
agente, la mayora de los investigadores estan de acuerdo con las siguientes propiedades
de los mismos [105]:
Primera. Un agente es un sistema de computo ubicado en un ambiente en el cual es
capaz de realizar acciones autonomas sin intervencion humana o de otros agentes,
con el n de alcanzar sus objetivos, manteniendo en todo momento el control sobre
sus acciones y hacia su estado interno. Sin embargo, el que un programa computa-
cional sea autonomo no signica que sea inteligente. Por ejemplo, cualquier sistema
de control que monitorea su ambiente y realiza acciones para modicarlo al cam-
biar ciertas condiciones (simple termostato hasta sistemas de control en reactores
nucleares) posee autonoma, asimismo tienen esta propiedad los demonios software,
los cuales son peque nos programas que monitorean un ambiente software y reaizan
acciones que lo modican bajo ciertas condiciones (programa xbi de UNIX). A
los sistemas anteriores se les puede denominar agentes, pero no agentes inteligentes.
Para que un programa de computadora reciba esta connotacion debe exhibir una
autonoma exible al tomar acciones con el n de alcanzar los objetivos de dise no.
Por exibilidad, el agente debe tener al menos las siguientes tres caractersticas:
1. Reactivos (capacidad de respuesta). Los agentes deben percibir su ambiente
(que puede ser el mundo fsico, un usuario, una coleccion de agentes, la Inter-
net, etc.) y responder de manera oportuna a cambios que ocurren en el.
2. Proactivos. Los agentes no solo deben responder a los cambios ambientales,
sino, que ademas deben hacerlo de forma oportuna, mostrar un comportamien-
to basado en objetivos y tomar la iniciativa cuando sea necesario.
3. Sociales. Los agentes deben ser capaces de interactuar con otros agentes:
46 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


articiales y humanos, con el n de resolver sus problemas y ayudarles a los
demas con sus actividades.
Segunda. Un sistema basado en agentes debe ser dise nado e implementado en termi-
nos de agentes, es decir, las herramientas utilizadas para su creacion deben haber
sido explcitamente desarrolladas para este n. Por ejemplo, en el dise no de agentes
cognitivos es muy com un utilizar el enfoque de la Teora del Espacio de Trabajo
Global (GWT), el cual es un esquema propuesto por Baars y ofrece una base para
comprender el alto nivel de abstraccion de la conciencia y conocimiento humano
[95, 96]. GWT permite manejar varias arquitecturas de memoria para el dise no de
este tipo de agentes, una de ellas es LIDA(Learning Intel ligente Distribution Agent)
desarrollada recientemente por Baars y Ramamurthy, este modelo incluye modulos
para percepcion, varios tipos de memoria (corto plazo y largo plazo), seleccion de
acciones, as como varios tipos de metodos de aprendizaje [97, 98]. Al igual que la
anterior, existe un n umero importante de herramientas software que permiten a un
usuario implementar sistemas software basados en agentes, y como sociedades de
agentes cooperativos. Los sistemas multi-agentes caso mas general y signicativa-
mente mas complejo que el de un solo agente se reere a arquitecturas dise nadas
para que varios agentes interact uen con la nalidad de alcanzar sus objetivos.
Generalmente, cuando en la literatura de las ciencias computacionales se hace
referencia al termino agente, de manera implcita se reeren al concepto de agente
inteligente, el cual se considera posee las capacidades mencionadas. Algunos inves-
tigadores enfatizan algunos aspectos de los agentes tales como: movilidad y adapt-
abilidad. Es com un observar caractersticas adicionales en los agentes dependiendo
del tipo de aplicacion, en algunos casos unos atributos son m as importantes que
otros. Sin embargo, muchos autores consideran que las propiedades mencionadas
(integradas en un software) son sucientes para distinguir a un sistema basado en
el paradigma de agentes de otros paradigmas software, por ejemplo: sistemas orien-
tados a objetos, sistemas distribuidos, y sistemas expertos.
La tecnologa de agentes nos proporciona las herramientas para construir apli-
caciones que previamente haban sido incapaz de desarrollarse. Asimismo, los agentes
proporcionan un medio para conceptualizar y/o implementar una aplicacion de-
terminada. De acuerdo a los trabajos de Bond y Gaser [99], existen tres razones
importantes para adoptar la tecnologa de agentes: (1) los recursos, los datos y el
control son inherentemente distribuidos, (2) el sistema es naturalmente visto como
una sociedad de componentes autonomos y cooperantes, y (3) el sistema maneja la
herencia de componentes, lo cual hace posible la interaccion con otros componentes.
1.4. MODELOS DE AGENTE INTELIGENTE 47
Por otro lado, de acuerdo al comportamiento que muestra un agente al inter-
actuar con su entorno se les clasica en 4 tipos basicos:
1. Agente reactivo. Tal vez la manera mas simple de que un agente muestre
un comportamiento reactivo es mediante el uso de reglas del tipo: condi-
cionaccion. En cualquier momento, el agente puede buscar una correspon-
dencia entre la condicion de sus reglas y los datos de entrada obtenidos a
traves de observar el ambiente y en base al resultado ejecutar una accion. Si
mas de una regla satisfacen la condicion, se tiene que seleccionar una de las ac-
ciones resultantes aplicando un mecanismo para la solucion de conictos. Estos
agentes no cuentan con un modelo simbolico de su entorno, tampoco poseen
la capacidad para realizar procesos de razonamiento complejos. La razon de
estas restricciones es con el objetivo de crear agentes compactos, tolerantes a
fallos y exibles. Asimismo, no cuentan con un modelo interno para obtener su
conocimiento, este lo obtienen a traves de interactuar con su entorno. Por lo
tanto, en el dise no de agentes reactivos el interes se centra en incrementar sus
propiedades de interaccion, de tal manera que las acciones sean seleccionadas
como una propiedad emergente. Un agente puramente reactivo no tiene reglas
explcitas. Cualquiera que sea el objetivo alcanzado debe estar implcito en su
comportamiento. Este agente puede carecer de una base de conocimientos en
la que almacene sus observaciones. El ambiente en el cual se situa puede ser su
propio modelo del mundo. En un caso extremo, pudiera no experimentar cam-
bios en su estado interno entre un ciclo y otro. Por ejemplo, el comportamiento
de un agente reactivo podra estar gobernado por una sencilla regla como: si
hay un intruso entonces activa la alarma, sin que tenga alguna meta explcita,
creencia o estado interno. Un buen ejemplo de agentes reactivos son los robots
clasicos, los cuales tienen sensores que les permiten observar su entorno y en
base a lo observado tomar acciones. Algunas caractersticas de estos agentes
son las siguientes: 1) uso limitado de los recursos que utilizan a diferencia
del agente racional que usa recursos practicamente ilimitados, 2) no utiliza
un esquema de representacion formal del conocimiento, en su lugar emplea
reglas, de manera opcional en algunos casos aplica una base de conocimiento
para vericar las condiciones de las reglas, 3) no cuenta con mecanismos de
comunicacion, por lo tanto no es capaz de interactuar con otros agentes, lo cual
indica que no son apropiados para usarse en arquitecturas multiagentes, y
4) no poseen la capacidad de desarrollar planes, esto signica que sus tareas
no pueden ser completamente determinadas [102, 103].
2. Agentes logicos (cognitivos o racionales). Cuando a un agente articial lo
equipan con versiones computacionales de caractersticas cognitivas humanas
48 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


tales como: m ultiples sentidos, percepcion, varios tipos de memoria, apren-
dizaje, movimiento y emociones, se le llama Agente Cognitivo [100]. Este tipo
de agentes son mas parecidos al humano a diferencia de los clasicos sistemas
de software debido a su habilidad para aprender y manejar nuevas situa-
ciones. Asimismo, muy seguido se les dota de mecanismos para el manejo de
intenciones [4]. Estos agentes se basan en la logica y por consiguiente la toma
de decisiones la manejan como un proceso de deduccion logica. Tienen como
ventajas poseer la claridad semantica y demas aspectos relacionados con la
logica. Sin embargo, tienen la desventaja de no ser apropiados en escenarios
con restricciones temporales (respuestas en tiempo real). Pueden ser utilizados
en ambientes donde una falla o un comportamiento incorrecto resulta negativo
para el mismo. En este modelo, se asume que el estado observado por el agente
esta estructurado por una base de datos representada con formulas de pred-
icados de primer orden. La base de datos contiene la informacion del agente
acerca del entorno, a su vez, el proceso para la toma de decisiones se modela
a traves de un conjunto de reglas de deduccion (reglas de inferencia). De esta
forma, el comportamiento del agente se determina por reglas de deduccion y
una base de datos.
Las representaciones obtenidas a traves de la logica son elegantes y cuentan
con una semantica clara (la semantica del formalismo logico), sin embargo,
presentan las siguientes desventajas:
No son instantaneas. La complejidad computacional inherente a la de-
mostracion de teoremas hace cuestionable si estos agentes puedan operar
ecazmente en entornos con restricciones temporales. La toma de deci-
siones en este tipo de agentes se basa en la suposicion de un entorno sin
variaciones signicativas.
Representacion del entorno. Este tipo de agentes utiliza una repre-
sentacion simbolica del entorno en forma de un conjunto de f ormulas en
un lenguaje de representacion del agente, la cual, para entornos complejos
y dinamicos, este tipo de correlacion no es obvia.
Razonamiento sobre el entorno. La representacion del conocimiento
procedimental simple puede no ser intuitiva y hasta resultar laboriosa en
la logica tradicional. El razonamiento acerca de la informacion temporal
(como cambia una situacion con el tiempo) resulta ser en extremo difcil.
Los siguientes tipos de logicas se utilizan en el dise no de agentes logicos:
i)Proposicional y de predicados, es la mas simple y utilizada de las logicas,
1.4. MODELOS DE AGENTE INTELIGENTE 49
en ella, las formulas se construyen a partir de proposiciones atomicas que ex-
presan hechos atomicos, y conectivas logicas, ii) Modal, se utiliza para darle
signicado a conceptos relacionados con creencia y conocimiento, permite ex-
tender la logica proposicional con los operadores de: posibilidad y necesidad,
iii) Deontica, esta logica permite indicarle a un agente lo que esta obligado a
hacer, para esto, cuenta con un operador de obligatoriedad el cual se indica
a traves del axioma principal, por ejemplo, el agente es obligado a hacer p
solo si no esta obligado a hacer p, iv) Dinamica, en esta logica las acciones
son manejadas como expresiones regulares, donde las acciones atomicas son las
que el agente puede realizar de forma directa, y v) Temporal, permite la in-
corporacion del tiempo en los modelos de agentes, el tiempo puede ser tratado
de diferentes formas: se puede observar como un curso de la historia o varios
posibles cursos de la historia.
3. Agentes BDI (Believe-Desiree-Intention). En la IA un tema de estu-
dio relacionado con la capacidad de razonamiento de los agentes son las de-
nominadas actitudes mentales. Estas actitudes estan relacionadas con la ob-
servacion y deteccion de capacidades ligadas con estados mentales humanos
(conocimiento, creencias, deseos y metas). Estos estados pueden representarse
por medio de actitudes que pueden ser: informativas, de motivacion o sociales.
Las actitudes informativas consideran lo que se debe hacer con la informa-
cion a la cual tienen acceso los agentes, incluyendo la relativa con su entorno.
Entre estas actitudes destacan el conocimiento y las creencias. Las actitudes
de motivacion estan directamente relacionadas con las posibles acciones que
un agente pueda llegar a tomar. Finalmente, las actitudes sociales son exter-
nas y estan relacionadas con los permisos y obligaciones, ya sean de caracter
poltico, moral o racional. El modelo BDI [101] limita estas actitudes mentales
de los agentes a tres [104]: 1) Creencias (believes), conjunto de proposiciones
que el agente acepta como verdaderas, 2) Deseos (desires), tambien llamados
frecuentemente metas u objetivos, representa alg un estado nal deseado, y 3)
Intenciones (intentions), conjunto de acciones planicadas por el agente que
le permiten llegar a un estado deseado.
4. Agentes Deliberativos. Estos agentes se basan en la hipotesis enunciada
por Newell y Simons, seg un la cual un sistema capaz de manipular estructuras
simbolicas puede exhibir una conducta inteligente. El problema a resolver en
principio es como realizar la traduccion del nivel de conocimiento al nivel
simbolico. En esta arquitectura las decisiones se toman aplicando metodos de-
ductivos, tales como: correspondencia de patrones y formalismos logicos. Las
arquitecturas para este tipo de agentes suelen basarse en la teora clasica de
50 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


planicacion en IA; es decir, dado un estado inicial, un conjunto de planes y un
estado objetivo, la deliberacion del agente consiste en determinar la secuencia
de pasos que debe realizar para permitirle alcanzar sus objetivos. Se pueden
distinguir dos clases de modelos pertenecientes a agentes deliberativos: (a) In-
tencionales, se distinguen por tener la capacidad de razonar sobre sus creencias
e intenciones, y (b) Sociales, se denominan de esta manera a los agentes que
se les agrega un modelo explcito de otros agentes y son capaces de razonar
sobre estos modelos.
Modelos mixtos. Estas arquitecturas pretenden combinar aspectos cogni-
tivos y reactivos, mediante la combinacion de modulos reactivos con modulos
deliberativos. Los modulos reactivos se encargan de procesar las observaciones
que no requieren deliberacion, mientras que los modulos deliberativos determi-
nan que acciones deben realizarse para satisfacer los objetivos locales y coop-
erativos de los agentes. Entre los modelos mixtos mas conocidos se encuentra
el de arquitectura por capas, en el cual la toma de decisiones esta segmentada
en capas, cada una de las cuales trata con el entorno del agente a diferente
nivel de abstraccion. Ya que estos modelos combinan caractersticas de com-
portamientos diferentes, es comprensible que existan subsistemas que maneje
a cada uno de ellos. Por lo tanto, resulta natural una division en capas en la
que cada subsistema pueda interactuar entre s. No existe un lmite en cuanto
al n umero de capas que puedan manejarse, sin embargo, cuantas mas capas
haya, mas util es la topologa de tales modelos por el ujo de informacion y
control que hay entre ellas. Generalmente se distinguen dos tipos de capas: 1)
Horizontales, en donde cada capa de software esta directamente conectada a
las entradas sensoriales y a las salidas actuadoras, por lo que cada capa act ua
como un agente sugiriendo la accion a realizar, y 2) Verticales, donde una capa
se encarga de manipular las entradas sensoriales y salidas actuadoras. Algunos
ejemplos de arquitecturas por capas son: Maquinas de Touring e InterRap. En
este caso, las capas bajas representan comportamientos mas simples los cuales
compiten para su ejecucion. Asimismo, estas capas tienen prioridad sobre las
capas altas. Esta arquitectura se han probado ampliamente (Steels en Mars
Robots) [102].
La mayora de las areas y conceptos mostrados con anterioridad se van a
mostrar con mayor detalle en los siguientes captulos, sin embargo, el concepto
de heurstica no se va a tratar en alguno de los siguientes captulos. Por lo
tanto, este tema se va a explicar con mayor amplitud en la siguiente seccion.
1.5. HEUR

ISTICA 51
1.5. Heurstica
Es bien sabido que el concepto de heurstica ha sido y sigue siendo relevante
para el desarrollo de la IA. Lo que es menos conocido, es el hecho de que
este concepto ha tenido asociado una serie de distintas interpretaciones a lo
largo de la historia. En esta seccion, se van a presentar los diferentes signi-
cados de heurstica considerando los siguientes enfoques: (i) incertidumbre en
las respuestas, (ii) conocimiento incompleto, (iii) mejora del desempe no, y (iv)
orientaci on en la toma de decisiones. De acuerdo con Marc y Pelletier, es
necesario que se tenga una idea clara de este concepto por lo siguiente: (a)
para que los investigadores tengan una base com un para la comparacion de
sus trabajos contra otros aparentemente diferentes, y (b) para que los recien
llegados a este campo tengan un mejor juicio para comparar proyectos que
utilizan heursticas y de esta forma, estar capacitados para poder juzgar que
el exito de tales trabajos se debe realmente al uso de heursticas y no de al-
guna otra tecnica [107]. La palabra heurstica se compone de los terminos:
heuriskein (griego antiguo) y heurisricus (latn), y se puede interpretar como:
averiguar o descubrir [107].
Seg un lo mencionado por Feigenbaum y Feldman en su trabajo escrito en 1963
[108]: una heurstica (regla heurstica, metodo heurstico) es una regla, estrate-
gia, truco, simplicacion o cualquier otro tipo de elemento que limita drasti-
camente la b usqueda de soluciones en problemas con grandes espacios. Las
heursticas no garantizan soluciones optimas; de hecho, no garantizan ninguna
solucion todo lo que puede decirse de una heurstica util, es que ofrece solu-
ciones que la mayora de las veces son sucientes para sus usos.
Esta denicion combina muchas de las caractersticas presentes en la mayora
de las deniciones encontradas al respecto. Contiene los elementos de la fal-
ta de garanta, mecanismo arbitrario, reduccion del esfuerzo, eliminacion de
opciones y de una solucion satisfactoria. Asimismo, Feigenbaum y Feldman
tambien plantean un nuevo elemento: dependencia de dominio. Indican que al-
gunas heursticas son de proposito especial y especcas del dominio, tal como
las aplicadas en el ajedrez, mientras que otras, como las heursticas aplicadas
en la planicacion, se aplican a una clase mucho mas amplia de dominios del
problema. El concepto de heurstica se ha ido transformando desde su intro-
duccion por vez primera en la comunidad de IA a traves de Polya [?]. Polya
fue quien uso por primera vez el termino heurstica en el contexto de logica o
psicologa del descubrimiento. Sus metodos heursticos deban aplicar procesos
de razonamiento utiles, tales como: manera de hacer ciertas preguntas, dibu-
52 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


jar diagramas, manejar suposiciones, mirar el problema desde una perspectiva
diferente, etc. De alguna manera, estos metodos encuentran una solucion. La
palabra descubrimiento, bajo este concepto se utiliza como un sinonimo de
invencion, y supone una especie de exploracion o tanteo previos a una solu-
cion. Posteriormente, el concepto de heurstica introducido por Polya se ha
reformado. En lugar de una vaga explicacion psicologica de una solucion, se
presenta la idea de una exploracion guiada (basada en una estructura formal)
dentro del espacio de solucion del problema.
En IA, el esfuerzo realizado para introducir nuevas heursticas, se hace con la
nalidad de mejorar el rendimiento de un programa en un dominio espec-
co del problema. En contraste, para Polya la razon para manejar heursticas
era para que los estudiantes de matematicas aprendieran a pensar, es decir, a
adquirir la psicologa necesaria para hacer buenas matematicas. Desde luego,
existe una razon para esta diferencia. En IA, las heursticas casi siempre se
generan de la frustracion al manejar algoritmos exhaustivos, mientras que para
Polya, las tecnicas heursticas deben ser aplicadas cuando se esta trabajando
con un problema completamente desconocido, cuya solucion puede resultar
en una tecnica con solucion algortmica. Es por esta razon, que, algoritmo
y heurstica no son terminos opuestos para Polya, quien considera que sim-
plemente no hay algoritmos para estudiar problemas nuevos por lo que este
analisis debe ser dominio de la heurstica. Los algoritmos, si existen, vienen
despues de que se haya resuelto el problema y analizado la solucion. Por lo
tanto, de acuerdo con Polya, el analisis e invencion de un algoritmo es resul-
tado de los metodos heursticos.
En la decada de 1960, despues que se introdujeron las primeras deniciones
de heurstica en la IA, aparecio otro uso para este concepto derivado de la
frase: b usqueda heurstica. Se hizo tan popular esta acepcion del concepto
que algunos autores (entre ellos, Barr y Feigenbaum, 1981) prerieron usar
el termino heurstica solamente de esta forma. De acuerdo con Newell y
Simon (1972), en 1965 Ernst y Newell introdujeron el concepto: b usqueda
heurstica, simplemente como un intento de formular lo que pareca com un
en muchos de los primeros programas de IA. Posteriormente, en 1969, Ernst y
Newell escribieron lo siguiente acerca de la b usqueda heurstica:
Esta investigacion se enfoca a la construccion de un resolvedor general de
problemas (GPS) por medio de un paradigma general de solucion de proble-
mas: b usqueda heurstica (Newell y Ernst, 1965). De manera simplicada el
paradigma de b usqueda heurstica postula objetos y operadores, donde un op-
1.5. HEUR

ISTICA 53
erador puede aplicarse a un objeto para producir un nuevo objeto o una se nal
que indica su inaplicabilidad. Los operadores son reglas para generar objetos
y denen as un arbol de objetos. ... un metodo para resolver un problema
de b usqueda heurstica es buscar a traves del arbol, denido por la situacion
inicial y los operadores, por una ruta de acceso a la situacion deseada.
Actualmente, es mas com un llamar a la b usqueda heurstica de Ernst y Newell
como: b usqueda en el espacio de estados, y reservar el termino de b usqueda
heurstica, para la b usqueda en el espacio de estados basada en procesos de de-
cision heursticos. En otras palabras, el termino: b usqueda heurstica, como
es usado actualmente, no involucra un uso novedoso del concepto heurstica.
Despues de los inicios de la IA, se han introducido muy pocas deniciones
relacionadas con heurstica, excepto cuando los autores dan una platica a una
audiencia, en ese caso, el termino se dene de una manera supercial, tal como
lo demuestran los siguientes parrafos:
. . . metodos heursticos, es decir, las caractersticas que mejoran la eciencia
para resolver problemas o un rango de capacidad de los sistemas. Estas van
desde trucos ad hoc para un determinado tipo de problemas, a principios muy
generales de asignacion y administracion eciente de recursos [112].
Una heurstica es una regla, estrategia, metodo o truco usado para mejorar
la eciencia de un sistema que intenta descubrir las soluciones de problemas
complejos [6].
Una heurstica, es cualquier estrategia usada para mejorar el rendimiento de
un programa de inteligencia articial. El enfoque de programacion heurstica en
la inteligencia articial es quizas el mas popular por el momento. En contraste
con otros enfoques importantes... la simulacion del pensamiento humano. En
este enfoque, el objetivo es mas para comprender y utilizar la inteligencia hu-
mana que para aplicar cualquier tecnica que funciona [4].
A principios de la decada de 1980 aparecieron mas deniciones relacionadas
con la heurstica, lo cual parecio ser la segunda generaci on de ideas. Desafor-
tunadamente, estos conceptos no fueron denidos y explicados con precision,
una de estas ideas fue propuesta por Albus en 1981, quien dene a las heursti-
cas como: Procedimientos para decidir que estrategias de b usqueda y funciones
de evaluacion hay que aplicar en determinadas situaciones. Otra denicion
fue proporcionada por Pearl en 1984, y dene a las heursticas de la siguiente
forma: Heursticas son criterios, metodos o principios para decidir cual de var-
ios cursos alternativos de accion promete ser el mas ecaz para alcanzar alg un
54 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


objetivo. Representan compromisos entre dos requisitos: la necesidad de hacer
tales criterios simples y al mismo tiempo, el deseo de verlos discriminar cor-
rectamente entre buenas y malas decisiones. En este sentido, en 1982, Lenat
tiene la siguiente idea de heurstica: Heurstica en retrospectiva: son trozos de
sabidura que, si s olo los hubieramos tenido antes, nos habra l levado a nuestro
estado actual mucho mas rapido. Esto signica que algunos de los cal lejones
sin salida que hemos perseguido se habran evitado, y algunos de los grandes
descubrimientos se habran hecho antes.
Despues de mostrar las diferentes connotaciones para el concepto de heursti-
ca en los ultimos 40 a nos, los autores identican los siguientes puntos de co-
incidencia de los diferentes investigadores al se nalar que un proceso es una
heurstica: (1) incertidumbre en el resultado, (2) base de conocimien-
tos incompleta, (3) mejora del rendimiento, y (4) guiar la toma de
decisiones. A continuacion se va a mostrar el concepto de heurstica con-
siderando cada uno de los puntos de coincidencia.
El papel de la incertidumbre: heurstica versus algoritmos
En varias de las deniciones de heurstica, se ha observado a este concepto
opuesto a terminos como: algortmica, garantizar, y completo. Marc y
Pelletier sostienen que las heursticas existen en un contexto de incertidumbre
subjetiva comparable al exito de sus aplicaciones [107]. Asimismo, coinciden
con Minsky quien menciono que las heursticas son perfectamente compati-
bles con los algoritmos, a un cuando exista un genuino conicto entre estos dos
conceptos. Como se mostro con anterioridad, aunado al concepto de heurstica
esta presente la nocion de algoritmo. El termino algoritmo, tiene muchos
signicados, aunque algunos dudosos por la ambig uedad que han causado var-
ios desacuerdos en su denicion. Si se dene el termino algoritmo como: un
conjunto de reglas (formalmente denidas y con unica interpretacion) que nos
indican en todo momento, de forma precisa como comportarnos, [112, 5],
entonces cualquier procedimiento utilizado para la toma de decisiones es un
algoritmo, as mismo, todas las heursticas implementadas en una computa-
dora y estrictamente formuladas, seran algoritmos. Sin embargo, cuando el
termino heurstica se considera opuesto a algoritmo, a este ultimo, siempre se
le otorga una connotacion mas fuerte la cual incluye la garanta de encontrar
una solucion. Korfhage caracteriza a un algoritmo de la siguiente manera:
a) La aplicacion de un algoritmo a un conjunto de entrada particular o
1.5. HEUR

ISTICA 55
descripcion del problema resulta en una secuencia nita de acciones.
b) La secuencia de acciones tiene una accion inicial unica.
c) Cada accion en la secuencia tiene una unica sucesora.
d) La secuencia naliza ya sea cuando se encuentre la solucion al problema
o cuando una sentencia del mismo sea irresoluble.
Para algunos problemas siempre existe un algoritmo que los resuelva, por ejem-
plo: sumar dos enteros, a estos algoritmos se les conoce como algoritmos
simples. La heurstica ha generado controversia entre algunos investigadores,
ya que unos ven a la heurstica como un concepto opuesto al de algoritmo, otros
como opuesto a solo una clase de algoritmos sobretodo a la de algoritmos
simples, y algunos mas no ven diferencia alguna. Dada esta mezcla de opin-
iones, se podra hacer simplemente como indican Barr y Feigenbaum [110],
es decir, declarar que heurstica es un termino ambiguo y para mantener las
cosas claras, se podran utilizar cada una de sus deniciones. Sin embargo, esta
respuesta no es apropiada, ya que ignora varias razones para creer que existe
una denicion correcta. El hecho de que varios autores de IA han asignado
tanto peso teorico a este concepto, y al hecho de que otros mas, no han dado
sus deniciones al azar, por la conveniencia de utilizar el termino..., se con-
sidera que un analisis adecuado de heurstica debe resultar en una denicion,
la cual debe mostrar una apreciacion adecuada para todas las ideas vincu-
ladas a ella, asimismo, debe ser capaz de explicar cualquier incompatibilidad
entre las mismas. Para aclarar estas ideas con puntos de vista encontrados
hay que precisar algunos aspectos relacionados con algoritmos, por ejemplo,
la siguiente denicion: Un algoritmo asume un problema y un procedimiento
preciso que indica paso a paso como resolverlo o mostrar que no tiene solucion.
En este sentido, si tenemos un problema y un algoritmo para resolverlo, en-
tonces, no deberamos tener ning un problema. As que, por que Newell y otros
no estuvieron satisfechos con el algoritmo de fuerza bruta?, la respuesta es sim-
ple: porque obviamente no resuelve el problema real, es decir, proporciona una
solucion con recursos limitados [111]. Tales recursos incluyen: tiempo, espa-
cio y tipo de procesador, y por parte del usuario, el esfuerzo por utilizar y
recordar como se emplea este algoritmo. Por lo tanto, el verdadero problema
resulta mas complicado que proporcionar pruebas con recursos limitados. Una
vez comprendido que los verdaderos problemas son los problemas practicos,
podemos intentar resolver el conicto entre algoritmo y heurstica: la heurstica
y los algoritmos normalmente no se oponen porque generalmente son aplica-
bles a diferentes clases de problemas. Las heursticas se aplican a problemas
reales o pr acticos mientras los algoritmos se aplican a problemas abstractos o
56 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


te oricos.
La heurstica nunca estuvo destinada a ser distinguida de los algoritmos ex-
cepto en aquellos casos donde: (a) el algoritmo proporciona una pobre solucion
para un problema practico y (b) el algoritmo pretende garantizar la solucion
a un problema practico. Por lo tanto, Minsky y otros estaban en lo cierto al
indicar que los algoritmos practicos pueden ser heursticas [112].
Slagle a su vez, en su denicion de heurstica, hizo hincapie en la propiedad de
no saber si la siguiente accion era la mejor opcion en el momento actual [113].
Si se conociera esta informacion el programa escogera la mejor accion en cada
paso, entonces claramente un programa con esta caracterstica no sera una
heurstica. Las heursticas son, entre otras cosas, reglas que ofrecen compro-
misos: un peque no costo (con frecuencia es la omision de la garanta) con la
esperanza de una mayor ganancia. Pero si en cada paso sabemos que nuestro
programa se esta desempe nando de forma optima, entonces los compromisos y
expresiones de esperanza quedaran fuera de la cuestion, por lo tanto, no podra
ser un programa heurstico. Por supuesto esto no signica que una estrategia
optima no pueda ser una heurstica, solo que si sabemos que es optima entonces
no puede ser una heurstica. Si mas tarde se descubriera que tal heurstica es
optima, entonces nuestra unica excusa para seguirla llamando heurstica sera
la costumbre, ya que para ese momento todo su caracter habra cambiado.
Esta informacion ha establecido un lmite claro entre estrategias optimas y no
optimas en cuanto a la utilizacion del termino heurstica.
Marc y Pelletier consideran que los comentarios anteriores son sucientes para
establecer una denicion apropiada del termino heurstica. Basado en esto,
sostienen que la heurstica es incompatible con el conocimiento de la toma
de decisiones optimas y que esta es una propiedad esencial de la heurstica.
Las heursticas solo se oponen a aquellos algoritmos que garantizan proveer
una solucion practica a un problema, de ning un modo se oponen a los algorit-
mos que simplemente garantizan una solucion sin garantizar que la misma sea
realizable [107]. Con estos datos se puede entender la tendencia de oponer la
heurstica con los algoritmos. Los algoritmos son frecuentemente asociados con
conanza y ciertas toma de decisiones. Si todo lo que se pretende es una solu-
cion para un problema abstracto, entonces no existe ninguna incertidumbre
acerca de como obtenerla: aplicar un algoritmo. Sin embargo, para un proble-
ma real y practico, la certeza para arrivar a una solucion podra estar ausente,
entonces, incluso un algoritmo puede ser una heurstica.
1.5. HEUR

ISTICA 57
Heurstica basada en conocimiento incompleto
En el extremo opuesto de la toma de decisiones conable se encuentra la toma
de decisiones aleatoria, ciega, e ignorante. En este caso, la heurstica ofrece ori-
entacion, soluciones plausibles, y conjeturas inteligentes que indiquen al menos
una vision parcial de la situacion del problema. Una vision o idea parcial, es
lo que hace a la heurstica de gran interes para la ciencia cognitiva en la IA.
Si se tiene cierta informacion acerca de la estructura del dominio del proble-
ma pero no la suciente como para proporcionar un algoritmo eciente para
resolverlo, entonces, esta informacion se puede utilizar en forma de heurstica
para mejorar el rendimiento de la solucion. Dado que muchos problemas del
mundo real son de esta forma, no es de extra nar que la heurstica haya llegado
a ser tan popular. Lenat menciona lo siguiente en relacion a la aplicabilidad
de la heurstica: En una fase previa (de conocer un dominio), haba muy poco
conocido como para expresarlo con muchas heursticas; mucho mas tarde, el
medio ambiente pudo entenderse lo sucientemente bien como para ser al-
goritmizado; mientras tanto, la b usqueda heurstica es un paradigma util. La
prediccion de eclipses ha pasado a la fase nal de algoritmizacion; el diagnosti-
co medico se encuentra en la etapa intermedia donde la heurstica es util; la
creacion de programas para buscar nuevas representaciones del conocimiento
es a un preheurstico [114].
En base a lo descrito por Lenat se observa una amplia gama de niveles de con-
anza en la toma de decisiones. En un extremo se encuentran los algoritmos
ecientes y procesos de decision que consideramos optimos (garanticen o no
una solucion), y en el otro extremo estan los algoritmos inecientes y proce-
sos poco conables. La heurstica cae en un punto intermedio: son plausibles
sin llegar a ser ciertas. Sin embargo, la ubicacion de un determinado proce-
so en este espectro es relativo a la percepcion que se tenga de los extremos.
Como un elemento basico en la heurstica se puede mencionar el conocimien-
to o percepcion parcial, el cual le ofrece conanza y es su razon de ser. Una
heurstica especca esta representada por un enfoque muy particular; sin una
comprension de alg un aspecto del problema, una estrategia no puede con-
tribuir en lo mas mnimo a su solucion. Es bajo este aspecto de signicado
de heurstica, que Polya, Gelemter, Slagle, y Jackson, basaron sus deniciones
[109, 113]. Asimismo, bajo esta perspectiva, la heurstica puede representar el
conocimiento parcial del dominio de un problema.
Por ejemplo, en logica simbolica sabemos que negar una proposicion negada
equivale a su armacion. Se trata pues, de una parte de conocimiento que nos
indica como se relacionan entre s las formulas logicas. Tambien sabemos que
58 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


los demostradores de teoremas se pueden estancar cuando tratan con un gran
n umero de formulas complejas, y que una buena parte de las demostraciones
se basan en buscar correspondencias con patrones similares en otras formulas.
Se pueden emplear estos conocimientos para construir una heurstica que sim-
plique la correspondencia de patrones, podra ser algo parecido a: bajo tal
o cual circunstancia eliminar el exceso de negaciones. De esta manera, otra
heurstica se podra apoyar en equivalencias similares (por ejemplo, las expre-
sadas por las reglas de De Morgan) con el n de recomendar la conversion de
formulas a alg un tipo de forma normal.
Como se puede observar, las posibilidades para generar heursticas son practi-
camente ilimitadas. El procedimiento puede ser el siguiente: alguien descubre
algo sobre un problema y dise na una estrategia para aplicar tal informacion.
El metodo as obtenido es plausible y si no tenemos suciente informacion
aceca del problema para asegurar que el metodo es optimo, entonces se puede
considerar una heurstica.
Cuando se analiza el conocimiento se observa que viene en una variedad de for-
mas. Existe por ejemplo, un conocimiento simple que puede ser representado
en terminos simples, un ejemplo de este tipo de conocimiento es la expresion
logica para representar la equivalencia de la negacion de una proposicion ne-
gada. Asimismo, hay conocimientos que no se expresan facilmente y que sin
embargo estan presentes. Por ejemplo, en el programa para jugar damas crea-
do por Samuel [108], el autor empleo en el programa una funcion polinomial
para la evaluacion, la cual inclua caractersticas como: el centro de control,
movimientos permitidos, n umero de cambios forzados, etc., dando origen a una
funcion polinomial con 16 elementos la cual representa un conocimiento de los
elementos del juego, pero hay alguna forma de expresar de manera simple
este conocimiento?. Por un lado sabemos que el conocimiento es muy depen-
diente del programa concreto creado por Samuel as como de las muestras
utilizadas en la prueba. Por lo tanto, se puede argumentar que este programa
en particular expresa solamente el conocimiento acerca de como jugar bien
a las damas. Sin embargo, el conocimiento debe ser universal, es decir, debe
indicarnos, entre otras cosas, que la posicion de cierta cha en el centro es mas
relevante de lo que podramos esperar. Estas observaciones nos sugieren que
algunos conocimientos se conocen previos a sus heursticas mientras otros se
descubren al examinar las heursticas. Por consiguiente, estas dos formas de
conocimiento: conocer los aspectos de un problema (conocimiento factual ), y
saber como usar estos aspectos (conocimiento procedimental ), pueden existir
de forma independiente.
1.5. HEUR

ISTICA 59
Algunos investigadores han reexionado sobre la naturaleza abstracta del conocimien-
to heurstico, por ejemplo, el caso de, moverse desde un estado inicial hasta
un estado nal (objetivo) evitando trayectorias in utiles a traves de vericar
un indicador para saber si se esta acercando o alejando de la meta [115, 108].
Otras reexiones provenientes de Boden [115], Minsky [112], Pearl [172] y Polya
[109], se reeren a la relevancia entre: analogas y modelos. Al respecto mencio-
nan lo siguiente: (i) las analogas pueden ser tan complicadas o a un mas que el
problema original, si existe suciente paralelismo entre ambos casos entonces
es posible transferir tanto el conocimiento como la heurstica basadas en ellos,
ii) los modelos son una forma de analoga, iii) los modelos son representaciones
simplicadas que permiten enfocarnos a un problema o hacer visible algunos
de sus aspectos mas relevantes, iv) los modelos son representaciones compactas
de los aspectos esenciales de un problema y por lo tanto una forma de repre-
sentacion parcial de conocimiento, v) su simplicidad puede facilitar descubrir
nuevos conocimientos los cuales son probablemente los aspectos mas esenciales
del problema.
La heurstica como mejoradora del conocimiento
Las heursticas pueden mejorar el rendimiento de un sistema enfocado a la solu-
cion de problemas. En este sentido, se pueden ver como herramientas usadas
para arreglar o mejorar un sistema, con el n de incrementar su eciencia, es
decir: mayor benecio con menor esfuerzo. Este aspecto puede explicar muchas
de las formas en las que la heurstica se presenta. Sin embargo, no es lo mismo
decir que un dispositivo es util y que a la vez mejora el rendimiento, por ejem-
plo, el volante de un automovil es un accesorio estandar util pero no mejora
el rendimiento del vehculo; el encendido electronico, por otra parte, siendo
una opcion superior a la norma de ignicion electromecanica, puede decirse
que mejora el rendimiento. Al parecer hay dos opiniones distintas en IA: si la
heurstica va a ser un metodo para mejorar el rendimiento, o si simplemente
debe ser util. Minsky y Sampson de manera explcita incluyeron la mejora
del rendimiento en sus deniciones [112, 117]. Es por ellos, que la mejora del
rendimiento se considera una propiedad importante en las heursticas. Asimis-
mo, se incluyen otros investigadores que consideran la reduccion en el esfuerzo
o de la b usqueda como mejora del rendimiento [110, 108, 118].
60 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


Un segundo grupo de investigadores mencionan que la heurstica no es intro-
ducida para mejorar un sistema, sino, que existe por derecho propio desde
un principio. Para ellos, las heursticas son mecanismos estandares, no car-
actersticas superiores introducidas de manera reciente [115, 119, 172, 109].
Es interesante notar que en este grupo se encuentran los investigadores cuyo
principal interes es el aspecto cognitivo de la IA, es decir, el uso de una com-
putadora para simular la psicologa humana, mientras que en el primer grupo
se encuentran los investigadores que se enfocan en el dise no y creacion de pro-
gramas que realicen tareas tradicionalmente realizadas por humanos (enfoque
tradicional de la IA). Se debe a la forma de manejar el concepto de heurstica
por estos grupos de investigadores, las diferentes interpretaciones que se tienen
del mismo. Ya que, mientras unos la dirigen a la solucion de problemas practi-
cos y orientados a tareas, otros la enfocan hacia la solucion de problemas mas
teoricos y generales.
Sin embargo, se observa que la mayora de los investigadores de la comunidad
de IA emplea el termino heurstica para referirse a un mecanismo aplicado
con el n de mejorar el rendimiento de un sistema. Por lo tanto, la mejora del
rendimiento es una propiedad incluida en la mayora de los usos de la heursti-
ca.
De acuerdo con Marc y Pelletier, existen algunos trabajos de investigacion ex-
perimental en el marco de la IA que no manejan de manera apropiada el uso
de terminos que caracterizan las propiedades asociadas al uso de las supuestas
heursticas que emplean. Por ejemplo, estas propiedades suponen agregar al
sistema algo que no estaba antes, y se lo atribuyen a las heursticas. Asimismo,
dichas propiedades usan los siguientes adjetivos para describir a las heursticas:
practico (como opuesto a teorico), especco del dominio, ad hoc, y emprico,
ademas utilizan como sinonimos de heurstica: truco, parche, y herramienta.
Generalmente, en IA existen trabajos que muestran una forma elegante de
resolver un problema. Sin embargo, cuando dicho trabajo se implementa en
forma de un programa de computadora, usualmente presenta fallas, ocasion-
adas a veces por no poder manejar algunas formulaciones del problema. Con
el n de resolver estas dicultades, el investigador empieza a revisar y mod-
icar su teora para que su rendimiento mejore. De hecho, esto ocurre tan
com unmente en IA que se ha adoptado un termino especial para indicar es-
tas mejoras ad hoc y empricamente introducidas: heurstica. Esta situacion
es justicable, ya que la heurstica carece de la certeza formal y conabilidad
que se le da a un mecanismo de decision derivado formalmente. Asimismo,
1.5. HEUR

ISTICA 61
las heursticas utilizan informacion parcial y partes de ideas para llegar a una
solucion. Su principal justicacion consiste en la manera pr actica para resolver
problemas, y no en la elegancia o adecuacion a la teora subyacente.
Otra situacion muy com un y en la cual un tipo de mejora del rendimien-
to ocurre, es la siguiente: al escribir un esqueleto de programa que incluye
heursticas para un tipo particular de dominio de problema. En este caso, las
heursticas son llamadas ad hoc y empricas, lo cual no es visto de manera
negativa, mas bien de forma positiva, como parte de su propiedad de mejorar
el rendimiento de un sistema. Un gran n umero de sistemas de IA adoptan el
esquema de esqueleto con la nalidad de obtener heursticas. Generalmente,
todos los llamados sistemas experto, son dise nados para facilitar y anexar un
mecanismo con el n de mejorar el rendimiento. Estos sistemas son construidos
de tal forma que la experiencia humana pueda transferirse facilmente a ellos.
Muy seguido tal experiencia esta en forma de heursticas, un ejemplo de esto,
lo ofrece el programa AM creado por Duglas Lenat para descubrir conceptos
matematicos, el cual, en un momento conto con 250 heursticas codicadas
como reglas de produccion [114].
Se ha notado que la mejora del rendimiento es una actividad popular en IA y
como las heursticas son asociadas con esta idea. Cualquier area donde se pue-
da manejar el uso de recursos por una ligera perdida del n umero de problemas
que se puedan resolver o la calidad de las soluciones, es un area potencial para
mejorar su rendimiento aplicando metodos heursticos. Asimismo, si de alguna
manera podemos incrementar los costos de utilizacion de los recursos, a cos-
ta de tener un incremento sustancial en el n umero de problemas que pueden
ser resueltos, o un incremento signicativo en la calidad de las soluciones, en-
tonces este mecanismo calica como heurstica que mejora el rendimiento. En
este sentido la frase mas exacta que abarca todos los casos de una mejora rel-
ativa en costos y benecios es: mejora del rendimiento.
La heurstica como guiadora de decisiones
Las heursticas se han presentado en una variedad de formas: metodos, sugeren-
cias, consejos, principios, reglas de produccion, criterios, programas, estrate-
gias, procedimientos, y simplicaciones. Sin embargo, que tienen en com un
estas formas?, en este apartado se muestra otra propiedad de las heursticas,
la cual tiene que ver con la solucion de un problema a traves de servir como
gua para ir de un estado inicial hasta un estado nal u objetivo.
62 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


En el perodo inicial de la IA, la heurstica se utilizo para guiar la b usqueda a
traves del espacio del problema. Esto aplica a todos los autores mencionados,
ya que al igual que Polya, Newell y otros, dejaron abierta la posibilidad de que
las heursticas podan ser procesos utiles durante la solucion de un problema.
De hecho, ellos todava las usan para inuir en el orden de desarrollo en la
trayectoria de solucion a lo largo del arbol del subproblema. La importancia
de la heurstica se explica por su efecto en decidir la trayectoria a seguir a
traves del arbol del subproblema.
Gelernter empleo un paradigma similar al de b usqueda en arbol y utiliza una
heurstica para ltrar las opciones de decision menos prometedoras [120]. Tonge
aplico heursticas para simplicar en medida de lo posible el modelo de activi-
dad utilizado para equilibrar las lneas de ensamblaje [121]. Minsky introduce
las heursticas en un contexto de b usqueda donde guan al resolvedor gradual-
mente a una solucion [112]. Feigenbaum y Feldman mencionan la reduccion de
la b usqueda en el espacio de estados y muestran a manera de ejemplo diversas
reglas empricas [108]. Para esto, el solucionador es descrito como un proceso
que intenta una cosa en vez de la otra y de esta manera se conduce por un
camino de solucion diferente.
Durante el auge en el desarrollo de los sistemas expertos, el paradigma de
b usqueda se menciona con menos frecuencia, pero no por eso es menos rele-
vante. Estos sistemas generalmente trabajan en colaboracion con un experto
humano, donde el sistema le puede solicitar informacion tal como: porque se
realizan ciertas pruebas, o porque se descartan ciertas hipotesis. Consideran-
do lo anterior, las heursticas de un sistema experto pueden ser vistas como
una gua para que el solucionador de problemas tome decisiones y conducir
a un diagnostico satisfactorio, ya sea en el area medica (MYCIN), estructura
molecular (DENDRAL), o analisis geologico (PROSPECTOR).
Ademas de estos usos, existe una gama de terminos que evidencian la denicion
de la heurstica como una eleccion que inuencia la solucion de un problema,
tales como: sugerencias, criterio, reglas basicas, principios, maxima, y reglas,
todas ellas son propiedades que controlan la conducta y en el caso de un re-
solvedor de problemas, esta conducta es seleccionada de manera consciente.
Tales conductas pueden surgir en perodos de tiempo y ser manejadas por re-
glas, es decision del solucionador de problemas seguir la conducta seleccionada
o no. Otros nombres que han recibido las heursticas son: ltros, simplicado-
ras, y transformadoras, y como estos nombres indican tienen como proposito,
1.5. HEUR

ISTICA 63
la reestructuracion de un problema o servir como un conjunto de opciones
(para guiar una decision). Servir de apoyo para la toma de decisiones ha sido
un objetivo basico de las heursticas, sin embargo, existen algunas confusiones
con esta tarea. Con respecto a la toma de decisiones, existen maneras difer-
entes en que este concepto es manejado en la literatura. Esto se debe a la
forma erronea en que algunos autores han usado la denicion de heurstica.
Con relacion a la funcion principal de la heurstica, la cual determina la direc-
cion de cualquier actividad, una heurstica puede ser aplicada de forma activa
para decidir cual de varias reglas, sugerencias, movimientos en un juego, o
soluciones, seleccionar. Asimismo, puede ser referida para que de forma pasiva
muestre alguna de las reglas, sugerencia, movimiento en un juego, o solucion,
para ser seleccionada. Estas dos formas en que se presenta la heurstica no
son mutuamente exclusivas, tampoco es necesario que una heurstica deba
pertenecer por lo menos a una de estas categoras. No se puede asegurar que
una de las categoras se aplica mas, por ejemplo, en los sistemas expertos o
en los sistemas de produccion que cuentan con extensas tablas de b usqueda,
donde un elemento supervisor (heurstica gua) es el que decide cual de las
heursticas se va a utilizar. Por lo tanto, debemos concluir que ambos usos son
validos y que ninguno predomina.
La heurstica como elemento que decide la siguiente heurstica en un esquema
jerarquico de toma de decisiones, no indica claramente si es pasivo o activo.
Por ejemplo, la denicion de Slagle requiere que todas las heursticas sean
activas. Sin embargo, esto no siempre se cumple, ya que en algunos casos la
heurstica principal no decide que hacer a continuacion. En un tono similar,
Albus indica que Una heurstica es una estrategia para seleccionar reglas, es
decir, una regla de alto nivel que selecciona reglas de bajo nivel [Albus, 1981].
Aqu nuevamente se ve a las heursticas como parte de un esquema principal
que decide que hacer enseguida. Asimismo, al hablar de b usqueda exhausti-
va, Albus menciona que las heursticas son un conjunto de reglas que deciden
que hipotesis se deben evaluar y en que orden. En este sentido, todas las ex-
presiones declarativas (en oposicion a las procedimentales) de heursticas con
conocimiento de un dominio, tal como en MYCIN: Si se tiene la evidencia
E entonces elegir A con un factor de conanza CF, son heursticas que no
eligen que hacer enseguida. En el caso de MYCIN, un algoritmo modicado
del tipo primero profundidad, es quien hace la eleccion [110].
A este respecto Marc y Pelletier, indican que las heursticas pueden ser mane-
jadas de forma activa en la toma de decisiones, o de forma pasiva mostrando
las diferentes opciones que se pueden usar, y en este sentido algunos autores
64 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


se equivocan al creer que las heursticas deben escoger el curso a seguir en la
solucion de problemas.
Despues de mostrar las diferentes deniciones para el concepto de heurstica
que se han manejado a traves de los a nos, Marc y Pelletier concluyen con lo
siguiente: Una heurstica en IA es cualquier elemento, ya sea un programa,
regla, parte de conocimiento, etc. El cual, aunque no estemos completamente
seguros de su utilidad para proporcionar una solucion pr actica, tenemos mo-
tivos para pensar que sea util, y que al ser agregado a un sistema de solucion de
problemas se tiene la esperanza que el rendimiento en promedio va a mejorar.
1.6. Ejercicios
a) Crea y justica una denicion para IA. Discuta las deniciones existentes.
b) Mucho del pensamiento occidental tiene que ver con la relacion mente-
cuerpo. son la mente y el cuerpo:
a) Entidades distintas que interact uan, o
b) Es la mente una expresion de procesos fsicos, o
c) Es el cuerpo tan solo una ilusion de la mente racional?
c) Discutir en equipo algunos razonamientos referentes al problema mente-
cuerpo as como su importancia para la IA.
d) Hacer una crtica del trabajo de A. Turing relacionado con programas
inteligentes.
e) Reunirse en equipos y discutan aplicando sus propias ideasel siguiente
tema:criterios para que un programa de computadora sea considerado
inteligente.
f ) Aunque la computacion es una disciplina relativamente nueva, losofos
y matematicos han pensado desde hace miles de a nos los aspectos rela-
cionados con la automatizacion en la solucion de problemas. Describa su
opinion acerca de la importancia de estos aspectos losocos en el dise no
actual de un metodo inteligente para resolver problemas a diferencia
de una solucion automatizada, justique su respuesta.
g) Basandose en las diferencias arquitecturales entre las modernas computa-
doras y el cerebro humano, que tan relevante es la investigacion acerca
de la estructura siologica y funcion de los sistemas biologicos en el dise no
de programas de IA?, justique su respuesta.
1.6. EJERCICIOS 65
h) Seleccione un problema para el cual considere que vale la pena esforzarse
en dise nar la solucion con un sistema experto. Muestre con un poco de de-
talle el problema en cuestion. Basandose en su propia intuici on, Que as-
pectos del problema considera que seran los mas difciles de automatizar?
i) Mencione tres ventajas en el uso de sistemas expertos y disc utalas en
terminos de resultados intelectuales, sociales y nancieros.
j) Discutir lo siguiente: por que es difcil el problema de aprendizaje en las
maquinas?
k) Discuta las dicultades que enfrenta una computadora para comprender
y usar el lenguaje humano.
l ) Considera que existen efectos potencialmente negativos en la sociedad
ocasionados por el desarrollo de tecnologas inteligentes?, justique su
respuesta.
m) Discutir en clase el paradigma de agentes.
n) Discutir en clase tres tecnicas IA para manejar aspectos relacionados con
incertidumbre.
n) Discutir en clase el concepto de heurstica, intente dar un ejemplo de este
termino.
o) Buscar grupos de investigacion en las areas de: robotica, vision articial,
aprendizaje de maquina, y comprension del lenguaje natural. Presentar
en clase lo siguiente en relacion a la b usqueda anterior: (a) donde se
encuentran (b) quienes integran al equipo, (c) que estan haciendo, (d)
cuales son sus proyectos actuales, y (e) presentar uno de sus trabajos
en equipo.
p) Busque datos actuales de los fundadores de la IA moderna.
66 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


Captulo 2
Tecnicas de B usqueda
La resolucion de problemas se describe a menudo como una b usqueda en un
gran espacio de posibles alternativas. Para resolver exitosamente un problema
se requiere explorar este espacio de forma ecaz y reducirlo a proporciones
manejables. Actualmente las computadoras a un no tienen la capacidad para
reducir automaticamente los problemas a proporciones manejables, es por ello
que los humanos deben de caracterizar y describir a estos problemas y pro-
poner estrategias para encontrar su solucion. En algunos tipos de problemas,
lo importante es encontrar una solucion aunque no sea la mejor debe ser una
solucion aceptable. En otros casos es necesario encontrar el camino que nos
lleva a esa solucion. De manera general, cualquiera que sea la estrategia de
b usqueda que se utilice el objetivo consiste en tratar de resolver problemas.
La resolucion de problemas es fundamental para la mayora de las aplicaciones
de IA. De hecho, la capacidad de resolver problemas suele usarse como una
medida de la inteligencia tanto para el ser humano como para la computadora.
Durante el proceso de solucion de problemas se requiere una forma de represen-
tarlo, as como de algoritmos que muestren soluciones mediante la aplicacion
de estrategias. De manera general se pueden distinguir dos tipos de problemas:
a) Los que se resuelven aplicando algoritmos simples. Existen problemas
tales como: (a) calcular el seno de un angulo, (b) obtener la raz
cuadrada de un n umero real, y (c) calcular el volumen de un cuer-
po geometrico, los cuales se caracterizan porque se resuelven aplicando
alg un tipo de procedimiento determinista y su solucion esta garantizada.
Resulta usualmente sencillo representar estos metodos matematicos a un
algoritmo computacional que pueda ser ejecutado por una computadora.
b) Problemas que se resuelven aplicando mecanismos de b usqueda. La may-
ora de los problemas del mundo real caen dentro de esta categora y
67
68 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
encontrarles una solucion satisfactoria no resulta trivial. El estudio y de-
sarrollo de metodos para resolver este tipo de problemas es de lo que se
ocupa la IA.
En este captulo se van a mostrar algunos de los principales enfoques que se
utilizan para la solucion de problemas a traves de la b usqueda.
2.1. Solucion de problemas con b usqueda
La experiencia com un nos indica que un problema de b usqueda esta asociado
con dos aspectos importantes: (1) Que buscar?, y (2) Donde buscar?.
Al primer aspecto se le identica generalmente como la clave de la b usqueda,
mientras que al segundo se le conoce como el espacio de b usqueda. En IA,
al espacio de b usqueda se le reere como una coleccion de estados conocido
como el espacio de estados. A diferencia de un espacio de b usqueda com un, el
espacio de estados en la mayora de los problemas de IA no es completamente
conocido antes de resolver el problema. De tal manera que, resolver un prob-
lema en IA se estructura en dos etapas: (1) generar el espacio de estados, y
(2) buscar el estado deseado dentro de este espacio. Sin embargo, ya que el
espacio de estados completo para un problema puede resultar muy extenso, la
generacion previa de este espacio antes de iniciar la b usqueda puede causar un
problema de almacenamiento signicativo dejando muy poco espacio para la
parte relacionada con la b usqueda. Para resolver este problema, el espacio de
estados se genera (expande) por etapas y el estado deseado (estado objetivo o
estado meta) se busca en el espacio de estados generado en cada etapa. De-
pendiendo de la metodologa utilizada en la generacion (expansion) del espacio
de estados y de la forma en que estos estados son visitados, los problemas de
b usqueda son conocidos con nombres diferentes. Por ejemplo, si el espacio de
estados toma la forma de un arbol y la b usqueda se realiza a lo largo de cada
rama hasta llegar a las hojas (nal de la rama), este metodo recibe el nombre
de: b usqueda primero en profundidad. Asimismo, la b usqueda puede tambien
realizarse a traves de recorrer varias ramas del mismo nivel, en este caso al
proceso de b usqueda se le conoce como: b usqueda en amplitud.
Por otro lado, y dependiendo de la forma de recorrer el arbol el proceso de
b usqueda puede ser de dos tipos: 1) determinista, y 2) no determinista. Se dice
que una b usqueda es determinista, cuando se conoce el orden en que se deben
visitar los nodos de un arbol que representa el espacio de b usqueda. Cuando no
se sabe con precision que nodo del arbol es el que se debe visitar a continuacion
en un momento determinado sin examinar en detalle los datos arrojados por
2.1. SOLUCI

ON DE PROBLEMAS CON B

USQUEDA 69
Figura 2.1: Plano de la casa del problema de las llaves perdidas.
el algoritmo tenemos una b usqueda del tipo no determinista. La mayora de
los problemas de b usqueda en IA son del tipo no determinista. Por ejemplo
1
,
imagine que ha perdido las llaves de su coche. Sabe que estan en alg un lugar
de la casa (ver Figura 2.1), la X indica que usted esta en la puerta principal
punto de partida. Al empezar la b usqueda primero se dirige a la sala, luego va
por el salon hacia el primer dormitorio, despues vuelve al salon y va al segundo
dormitorio, regresa nuevamente al salon para ir al dormitorio principal. Como
a un no ha encontrado las llaves, vuelve hacia atras pasando por la sala hacia la
cocina, donde encontrara sus llaves. En este ejemplo, el estado deseado (estado
objetivo) del problema consiste en: encontrar las llaves del coche. Asimismo,
y tomando en consideracion los posibles sitios de la casa donde buscar las llaves
se traza una trayectoria supuesta (Ver Figura 2.2). Resulta comprensible que
la trayectoria mencionada con anterioridad pudo haber sido distinta, es decir,
los estados visitados pudieron haber seguido un orden diferente.
La Figura 2.2 es un grafo que representa el espacio de b usqueda del problema
mencionado. El hecho de que se pueda representar la solucion a esta clase de
problemas en forma de grafos es importante ya que ofrece una forma graca
para observar como funcionan las diferentes tecnicas de b usqueda.
1
Ejemplo tomado de las Notas del Curso: Inteligencia Articial Unidad III: Solucion de prob-
lemas por b usqueda, realizado por el M. en IA Daniel Alejandro Garca Lopez, 19 de enero de
2009.
70 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
Figura 2.2: Grafo que describe la trayectoria en el problema de las llaves perdidas.
Tal como se mostro en el ejemplo anterior, se observa que la b usqueda de
soluciones en IA diere de la b usqueda convencional sobre estructuras de datos
(por ejemplo, buscar un nombre y direccion en un registro), esencialmente en
que se busca en un espacio de posibles soluciones todos los sitios posibles
de la casa donde puedan estar las llaves, no en una pieza de dato particular.
En este sentido, lo que se intenta es buscar una trayectoria que conecte la
descripcion inicial (estado inicial ) del problema estamos en la puerta de la
casa y sin las llaves del coche con una descripcion del estado deseado para
el problema encontrar las llaves del coche, es decir: solucion del problema.
La especicacion de la trayectoria que nos conduce de un estado inicial hacia
un estado objetivo, representa los pasos en la solucion del problema.
Existen diferentes estrategias que se pueden aplicar para realizar una b usque-
da, usualmente caen dentro de algunas de las siguientes opciones: (a) aleatoria,
(b) a ciegas, y (c) dirigida o informada, cada una posee sus propias carac-
tersticas. A continuacion se mostrara un ejemplo con el n de ilustrar estas
alternativas. Suponga que se encuentra en la entrada sur de la Ciudad de
Mexico, sin un mapa y no habla espa nol, Como le hara para llegar a la Torre
Latinoamericana?. En este caso, el estado inicial es: entrada sur de la Ciudad
de Mexico, mientras que el estado deseado u objetivo es: l legar a la Torre Lati-
noamericana. La b usqueda de la solucion aplicando las opciones mencionadas
seran de la siguiente manera:
B usqueda aleatoria. En este caso se puede iniciar con elegir una calle de
manera aleatoria, esperando que en alg un momento lo conduzca a su destino.
Esta forma de iniciar la b usqueda puede llevarlo a encontrar la torre, pero
tambien puede requerir de una cantidad innita de tiempo por la forma arbi-
traria en la cual se esta seleccionando la ruta (el mismo camino puede tomarse
m ultiple veces).
2.1. SOLUCI

ON DE PROBLEMAS CON B

USQUEDA 71
B usqueda a ciegas. Esta estrategia, al igual que la anterior no utiliza alg un
tipo de conocimiento para determinar cuan cerca o lejos se esta del objetivo
y de esta forma corregir la trayectoria. Esta estrategia consiste en seleccionar
cada una de las calles de inicio a n. Cuando se alcanza el nal de una calle,
se busca una calle paralela y se sigue en direccion opuesta sin importar si nos
acercamos o alejamos del objetivo. Eventualmente, esta variante considerara
todas las posiciones de nuestro espacio del problema.
B usqueda dirigida o informada. A diferencia de las alternativas de b usque-
da anteriores, en este caso se puede usar el conocimiento disponible acerca del
problema con el n de ayudar en la solucion y mejorar la eciencia de la
b usqueda. Suponiendo que el extremo superior de la torre puede ser visto des-
de cualquier lugar de la Ciudad de Mexico, se puede utilizar esa informacion
para seleccionar la ruta que le indique conducirlo en esa direccion. Es hacia esta
estrategia de b usqueda en la cual se enfocan la mayora de las investigaciones
relacionadas con este topico.
2.1.1. Terminos relacionados con b usqueda
Uno de los aspectos mas importantes de la b usqueda tiene que ver con la no-
cion de estado. Un estado es la representacion de un problema en un instante
dado. Para denir el espacio de estados o espacio de b usqueda no es necesario
hacer una enumeracion exhaustiva de todos los estado validos, sino que es posi-
ble denirlo de manera mas general. El estado inicial consiste en uno o varios
estados en los que puede comenzar el problema. El estado objetivo o estado
meta consiste en uno o varios estados nales que se consideran una solucion
aceptable. Las reglas describen las acciones u operadores que permiten ir de
un estado a otro. Se puede ver a una regla como una expresion compuesta por
dos partes: izquierda y derecha. La parte izquierda determina la aplicabilidad
de la regla, es decir, indica el estado o los estados posibles de un sistema a
los que puede aplicarse la regla, en tanto, la parte derecha describe la op-
eracion que se lleva a cabo cuando se aplica la regla (accion). En un problema
de b usqueda resulta relevante determinar los siguientes elementos: espacio de
estados, estado inicial, estado objetivo o estado nal, y reglas. Con el n de
ilustrar y claricar los elementos anteriores me voy a referir al juego del ajedrez:
Espacio de estados. Este elemento contiene todas las conguraciones posi-
bles de los objetos relevantes a un problema, en algunos casos se incluyen
tambien los estados imposibles. En el caso del ajedrez, el espacio de estados se
72 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
forma por la totalidad de combinaciones en que se puede encontrar el tablero
en un momento dado.
Estado Inicial. El estado inicial, indica la situacion inicial de uno o mas esta-
dos a partir de la cual la solucion del problema puede comenzar. En el ejemplo
del problema de jugar ajedrez, este estado se determina por la disposicion de
las piezas en el tablero al empezar el juego.
Estado objetivo o estado nal. La especicacion de uno o mas estados que
representan una solucion aceptable al problema en cuestion se les conoce como
estado objetivo o nal. En el caso del ajedrez, es cualquier conguracion del
tablero en la que el adversario no puede realizar ning un movimiento permitido
y su rey este amenazado.
Reglas. Las reglas describen el conjunto de acciones u operadores disponibles,
las cuales, al ser aplicadas permiten pasar de un estado a otro. En el ejemplo del
ajedrez, las reglas son los movimientos legales que pueden describirse mediante
una parte patron para ser contrastado con la posicion actual del tablero, y
otra parte que describe el cambio que debe producirse en el tablero. Dado que
escribir todas las posiciones del tablero como una regla especca en la cual se
asocien los movimientos permitidos es una tarea complicada, las reglas deben
escribirse de la manera mas general posible.
Solucion. Es una trayectoria que parte de un estado inicial hasta un estado
nal. Esta trayectoria se determina al ir aplicando de manera sucesiva las
reglas hacia el conjunto de estados en un momento dado. Para el ejemplo
que estamos presentando, esta trayectoria se describe como el conjunto de
movimientos legales que nos conduce hasta un estado nal.
Ademas de los elementos descritos que forman parte de todo proceso de b usque-
da, existen otros relacionados con las estrategias utilizadas en el proceso. Como
ya se menciono con anterioridad, la palabra b usqueda en IA se reere a en-
contrar la solucion de un problema dentro de su espacio, para ello es necesario
que la b usqueda sea guiada por una estrategia, la cual a su vez se encarga de
denir el orden en el que los nodos de un grafo, que representa el problema, van
a ser visitados. Usualmente las estrategias de b usqueda se eval uan de acuerdo
con criterios de rendimiento y complejidad.
Rendimiento y complejidad del algoritmo. De manera ideal, se busca
una medida com un con la nalidad de comparar y seleccionar el algoritmo
mas apropiado para una situacion determinada. El rendimiento es uno de ls
factores que mas se considera al momento de seleccionarlo. El rendimiento de
un algoritmo, es un aspecto que depende tanto de factores internos (tiempo de
ejecucion, espacio de memoria requerido durante su ejecuci on) como externos
2.1. SOLUCI

ON DE PROBLEMAS CON B

USQUEDA 73
(tama no de los datos de entrada, caractersticas de la computadora, calidad
del compilador). El comportamiento de los factores externos e internos con-
ducen generalmente a un compromiso que determinan en ultima instancia la
eleccion de un algoritmo. Asimismo, la complejidad, la cual es una medida
del rendimiento de un algoritmo (usualmente relacionada con el tiempo de
ejecucion), es otro elemento relevante en la eleccion.
Complejidad computacional. La complejidad computacional es una me-
dida de los recursos utilizados por un algoritmo, principalmente: espacio y
tiempo. Si A es un algoritmo que resuelve el problema de decision f, entonces
el tiempo de ejecucion de A viene determinado por el n umero de pasos realiza-
dos para una entrada de longitud n. A su vez, la complejidad temporal T(n)
de un problema de decision f, esta determinada por el tiempo de ejecucion del
mejor algoritmo A que resuelve a f. La complejidad espacial S(n) relaciona-
da con un problema de decision f, se determina por la cantidad de memoria
utilizada por el mejor algoritmo A que resuelve a f.
Otro aspecto importante relacionado con los algoritmos consiste en la notacion
utilizada para describirlos, tal como la notacion Big-O.
Notacion BigO. Esta notacion proporciona una medida aproximada
de la eciencia obtenida durante la ejecucion de un algoritmo. Generalmente
indica el tiempo o la memoria requerida durante la solucion de un problema
de longitud n. La letra O indica el orden de magnitud de las operaciones real-
izadas o el espacio utilizado durante la ejecucion. Si un algoritmo A requiere
un tiempo proporcional a f(n) a esta funcion se le conoce como la tasa de
crecimiento del algoritmo para resolver un problema de decision f, entonces
se dice que este algoritmo es de orden f(n) y se denota como O(f(n)). En
este sentido, si el mencionado algoritmo requiere tiempos de ejecucion propor-
cionales a n
1
y n
2
para resolver un problema, entonces el orden del algoritmo
se indica respectivamente como O(n
1
) y O(n
2
). De esta manera, si se determi-
na que la complejidad de un algoritmo es O(n), esto signica que su tiempo
de ejecucion t es directamente proporcional a n, usualmente este aspecto se
representa como t = kn, donde k es una constante de proporcionalidad. En-
seguida se muestra un ejemplo para claricar el aspecto de notacion.
Ejemplo. Determine la notacion Big O para el siguiente algoritmo unidi-
mensional: Calcular la suma de los n elementos almacenados en un arreglo
de n umeros enteros a[0, 1, . . . , n 1].
El algoritmo se describe en la Tabla 2.1, se observa que el n umero total de
74 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
Cuadro 2.1: Calculo de la complejidad de un algoritmo unidimensional (1 D).
Lnea Instrucciones Pasos de ejecuci on
1 sum = 0 1
2 for (i=0; in; i++) n+1
3 sum+=a[i] n
4 print sum 1
pasos de ejecucion es de 2n + 3, la notacion Big O es dominada por el
primer termino el de orden mayor, en este caso n, por lo que ignorando las
constantes que aparecen en el termino, se puede determinar que la notacion
Big O del algoritmo es O(n).
Una vez que se conocen los elementos que describen a un problema de b usque-
da, el paso siguiente consiste en caracterizar a dichos elementos para formular
a un problema de esta manera.
2.1.2. Formulacion de un problema de b usqueda
El primer paso para dise nar un programa que resuelva un problema relaciona-
do con b usqueda, consiste en crear una descripcion formal y manejable del
propio problema. Sera adecuado contar con programas que produzcan de-
scripciones formales a partir de descripciones informales, proceso denominado
operacionalizacion. Dado que actualmente no se cuenta con estos programas
este proceso debe hacerse manualmente. Existen algunos problemas, los cuales
debido a su estructura y descripcion son faciles de especicar (por ejemplo:
el ajedrez, las torres de Hanoi). Sin embargo, existen otros problemas (prin-
cipalmente relacionados con el mundo real) que no resultan tan simples de
especicar, por ejemplo: la comprension del lenguaje humano.
Ya sea que se trate de un problema de uno u otro tipo, para la descripcion
formal del mismo se deben denir los siguientes elementos:
Espacio de estados validos.
Estado inicial del problema.
2.1. SOLUCI

ON DE PROBLEMAS CON B

USQUEDA 75
Estado objetivo o nal. Descrito por un conjunto de metas (objetivos)
que cumplen los requisitos sucientes para ser consideradas soluciones
aceptables.
Reglas que describan las acciones (operadores). Son un conjunto de oper-
adores que denen las operaciones permitidas entre estados. En el espacio
de estados, no todas las operaciones denidas van a ser aplicables siem-
pre. As, en un momento dado, el conjunto de estados que representa
la situacion actual del problema es quien determina el subconjunto de
operadores aplicables (o relevantes), del conjunto de operadores pre-
viamente denido.
Una vez que se tienen denidos estos elementos, el problema se resuelve apli-
cando las reglas descritas en combinacion con una estrategia de control ade-
cuada. La idea consiste en encontrar una trayectoria que permita enlazar el
estado inicial con el estado nal. A este proceso se le describe formalmente
como b usqueda. La representacion de un problema empleando los elementos
anteriores forma parte de la mayora de los metodos de Inteligencia Articial.
La estructura formada con estos elementos corresponde con la descrita para la
resolucion de problemas debido a los siguientes aspectos: (a) Permite denir
formalmente el problema mediante la necesidad de convertir una situacion
dada en una situacion deseada a traves de un conjunto de operaciones permi-
tidas, y (b) Permite denir el proceso de resolucion de un problema como una
combinacion de tecnicas conocidas y b usqueda.
El ejemplo del ajedrez mostro estos elementos. A continuacion se va a mostrar
otro ejemplo, en este caso me voy a basar en el juego conocido como: 8-puzzle
(ver Figura 2.3). El 8-puzzle es un tablero de 3 3 que esta constituido por
ocho chas numeradas (del 1 al 8) y un hueco vaco que permite llevar a cabo
los movimientos de las chas para alcanzar el objetivo (Ver Figura 2.3). Se pre-
tende que, partiendo de un estado inicial, es decir, una situacion determinada
del tablero (Figura 2.3(a)) se llegue con un mnimo de movimientos al estado
nal (Figura 2.3(b)). En este caso la regla del juego para realizar movimientos
se nala que, en cada movimiento, se permite desplazar una unica cha y solo
se autorizan aquellos movimientos realizados entre casillas que cumplan las
siguientes restricciones:
a) Las casillas deben ser adyacentes.
b) Las casillas deben estar en la misma la o en la misma columna, es decir,
ser ortogonales.
c) La casilla destino debe estar vaca.
76 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
Figura 2.3: Ilustracion del juego conocido como 8-puzzle: (a) estado inicial, (b) estado
meta.
Los elementos que permiten caracterizar a este juego quedan denidos de la
siguiente manera:
Espacio de estados. El espacio de estados se representa por el n umero de
conguraciones posibles de las 8 teclas en el tablero. Por ejemplo, en la Figura
2.3(a) se muestra una de estas conguraciones. El n umero total de las posi-
bles combinaciones formadas por las teclas en el tablero forman el espacio de
estados, que en este caso sera igual a 9! (nueve factorial).
Estado inicial. Cualquier conguracion presente en el tablero al momento de
iniciar los movimientos, por ejemplo, la que se muestra en la Figura 2.3(a).
Estado nal. Las teclas en un orden especco (Figura 2.3(b)).
Accion. Es el conjunto de movimientos validos que se pueden realizar con las
teclas respetando ciertas reglas, en este caso los movimientos permitidos son
los siguientes: Mover la tecla en blanco, mover la tecla hacia la izquierda, hacia
la derecha, hacia arriba y hacia abajo.
Solucion. Se representa en este caso por la secuencia de movimientos partien-
do de un estado inicial hasta llegar al estado nal, en este proceso se busca en
todo momento optimizar la secuencia de movimientos.
2.2. Espacio de estados
Como se indico en la seccion anterior, el espacio de estados es una descripcion
formal del problema de b usqueda constituido por un conjunto de estados ini-
2.2. ESPACIO DE ESTADOS 77
ciales, un conjunto de operadores validos, un conjunto de metas y un conjunto
de reglas.
La identicacion del espacio de estados es importante, ya que permite de-
scribir formalmente un problema como un conjunto de transformaciones, con
el n de transitar de una conguracion inicial hasta una conguracion deseada
mediante la aplicacion de un conjunto de operaciones permitidas. De manera
mas especca, el espacio de estados permite analizar el proceso de resolver un
problema en base a la aplicacion de:
(a) Un conjunto de reglas conocidas, cada una de ellas denida como un paso
simple en el espacio de estados, y
(b) Un proceso de b usqueda o estrategia general de exploracion del espacio de
estados.
Descripcion formal del espacio de estados. Si I dene al conjunto de
estados iniciales, tal que I = i
1
, i
2
, ..., i
n
, O dene al conjunto de operadores
potencialmente utiles, tal que O = o
1
, o
2
, ..., o
m
, y M indica al conjunto de
metas o estados nales, tal que M = m
1
, m
2
, ..., m
t
. La b usqueda se dene co-
mo el proceso de exploracion del espacio de estados, de tal forma que produce
O : (I M), expresion que podemos interpretar como una evolucion desde
los estados iniciales hasta los estados nales obtenida tras la aplicacion de un
conjunto de operadores. En este mismo contexto, una transicion simple en el
espacio de estados puede representarse como:
o
x
: (i
z
i
w
), con i
z
, i
w
I, o
x
O
Ademas, si i
w
M, entonces i
w
representa una solucion aceptable para el
problema en cuestion. Con el n de determinar si un estado generado se trata
o no de un estado deseado, se aplica La llamada prueba de meta o test de real-
izacion. Es conveniente mencionar que cualquier estado alcanzado durante la
b usqueda y que no pertenezca al conjunto de metas se puede considerar como
un nuevo estado inicial del problema. Este formalismo de resolucion normal-
mente se traduce en la creacion de programas menos ecientes que los conven-
cionales, pero, mucho mas exibles y generales. En cualquier caso, la resolucion
de problemas en inteligencia articial requiere siempre una descripcion formal
y manejable del problema. En otras palabras, para abordar un problema des-
de la perspectiva de la IA se tiene que elaborar un modelo computacional del
78 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
universo de discurso o dominio del problema
2
nilson1. El espacio de estados,
aunque imprescindible para la representacion formal de un problema de IA,
solo nos proporciona lo que podramos llamar el soporte fsico del dominio.
El aspecto dinamico, necesario para la obtencion de soluciones, se materializa
a traves de los llamados procesos de b usqueda, los cuales basicamente son
los mecanismos generales para la exploracion del espacio de estados.
El concepto de b usqueda estantimamente ligado a la aplicacion de operadores
relevantes. Mas generalmente, la b usqueda resulta similar a los procesos de
control que guan la ejecucion de un programa de IA, seg un los cuales, el sis-
tema debe de ser capaz en todo momento de decidir cual sera su proximo
movimiento dentro del espacio de estados. Conviene que la b usqueda sea sis-
tematica (para evitar dar rodeos innecesarios), y que la aplicacion de cada
operador provoque un movimiento que genere la transicion a un estado nuevo
nilson2. Para ilustrar estas ideas, se mostrara un ejemplo conocido como el
problema de las dos jarras de vino, el cual se describe como sigue nilson2:
Se tienen dos jarras de vino vacas, una de cuatro litros de capacidad y otra
de tres. Ninguna de el las tiene marcas de medici on. Asimismo, se tiene una
bomba conectada a un dep osito con vino suciente que permite l lenar las jarras.
Con las jarras se pueden realizar las siguientes acciones: llenarlas, vaciarlas
y traspasar el contenido de una jarra a otra. En este problema se busca lo
siguiente: Como se puede tener exactamente dos litros de vino en la jarra de
cuatro litros de capacidad?
Se va a describir la solucion al problema mencionado como uno de b usqueda,
por lo tanto, su representacion consiste de los siguientes elementos:
Espacio de Estados. En este caso, el espacio de estados va estar formado por
el conjunto de pares ordenados (x, y), de forma que x = (0, ..., 4), y = (0, ..., 3),
donde X representa el n umero de litros de vino que hay en la jarra de 4 litros
de capacidad y Y el n umero de litros de vino que hay en la jarra de 3 litros de
capacidad. En base a lo anterior, el espacio de estados del problema esta for-
mado por: (0,0), (0,1), (0,2), (0,3), (1,0), (1,1), (1,2), (1,3), (2,0), (2,1), (2,2),
(2,3), (3,0), (3,1), (3,2), (3,3), (4,0), (4,1), (4,2), (4,3).
Estado inicial (I): (0, 0)
2
Los conceptos de universo de discurso y dominio del problema son practicamente equiva-
lentes y se reeren a un determinado ambito de aplicaci on (por ejemplo: el dominio de la Medicina)
2.2. ESPACIO DE ESTADOS 79
Estado nal (M): (2, Y ), Y [0,..,3]
Conjunto de acciones (O):
Op1 = Llenar X,
Op2 = Llenar Y ,
Op3 = Vaciar X,
Op4 = Vaciar Y ,
Op5 = Vaciar X en Y
Op6 = Vaciar Y en X,
Op7 = Llenar X con Y
Op8 = Llenar Y con X
Reglas (condiciones para realizar cada accion):
Op1 X ,= 4
Op2 Y ,= 3
Op3 X ,= 0
Op4 Y ,= 0
Op5 X ,= 0 Y ,= 3 X +Y 3
Op6 X ,= 4 Y ,= 0 X +Y 4
Op7 X ,= 4 Y ,= 0 X +Y 4
Op8 X ,= 0 Y ,= 3 X +Y 3
Con estos elementos se tiene la representacion del problema para ser manejado
como una b usqueda. El paso siguiente, es aplicar alguna de las tecnicas de b usqueda
existentes de tal forma que nos permita resolverlo. Por el momento, solamente se va
a comentar la forma de operar de algunas estrategias donde se observa la generacion
de nuevos estados.
Estrategia 1. Se puede considerar como una estrategia inicial la eleccion de oper-
adores (acciones) de acuerdo a un orden secuencial, vericando en todo momento
que se cumplan las condiciones para aplicarlos. De acuerdo con esta estrategia, el
primer estado que se considera es el estado inicial (0,0) y el primer operador aplica-
ble es Op1. La aplicacion de Op1 al estado inicial nos conduce a un nuevo estado,
en este caso: (4,0), sobre el que se puede aplicar Op2 (Op1 ya no puede ser aplicado
puesto que la jarra X esta llena). La aplicacion de Op2 conduce el proceso a un
nuevo estado: (4,3), sobre el que se puede aplicar la accion Op3 la cual conduce al
estado (0,3). En este estado, s es posible aplicar nuevamente Op1, el cual vuelve a
generar el estado (4,3). En este caso nos damos cuenta que el proceso se encuentra
80 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
en un ciclo. Ante esta situacion, el proceso puede continuar de manera indenida en
el ciclo al aplicar los operadores Op1 y Op3, con lo cual generara respectivamnete
los estados (4,3) y (0,3). La secuencia de estados generados se observara como sigue:
(0,0)
Op1
(4, 0)
Op2
(4, 3)
Op3
(0, 3)
Op1
(4, 3)
Op3
...
Esta estrategia de b usqueda es sistematica, pero no observa la condicion de generar
nuevos estados. Ademas, hay operadores cuya aplicacion se repite, lo cual no es de-
seable. Por lo tanto, se tiene que buscar una nueva estrategia que trate de solucionar
los inconvenientes encontrados.
Estrategia 2. Esta estrategia intenta corregir los errores encontrados en la Estrate-
gia 1. Por lo tanto, se trata de evitar la aplicacion repetitiva de operadores. La nueva
estrategia podra seguir el siguiente esquema:
Seleccionar los operadores que veriquen las precondiciones del estado
actual.
Descartar aquellos operadores que ya han sido aplicados.
Aplicar el primero de los operadores supervivientes.
Se debe notar que esta estrategia obliga a denir estructuras adicionales que per-
miten vericar si un operador ya ha sido aplicado. La aplicaci on de esta estrategia
genera la siguiente secuencia de estados:
(0, 0)
Op1
(4, 0)
Op2
(4, 3)
Op3
(0, 3)
Op1
(0, 0)
Se observa al aplicar esta estrategia, que la b usqueda se detiene sin haber encontra-
do una solucion. No es posible aplicar mas operadores puesto que Op1, Op2, Op3
y Op4 ya han sido aplicados, y Op5, Op6, Op7 y Op8 no cumplen con las restric-
ciones impuestas por el estado actual. Ademas, todava no se ha conseguido evitar
la generacion de estados ya generados. Por lo tanto, se requiere una nueva estrategia.
Estrategia 3. Al utilizar esta estrategia, se trata de evitar de forma explcita los
inconvenientes observados al aplicar la primera estrategia. Para este n, se denira el
siguiente esquema:
Seleccionar los operadores que veriquen las condiciones del estado actual.
2.2. ESPACIO DE ESTADOS 81
Descartar aquellos operadores que ya hayan sido aplicados.
Descartar aquellos operadores cuya aplicacion no genere un estado nuevo.
Aplicar el primero de los operadores supervivientes.
En este caso, independientemente de saber que operadores se han aplicado se debe
comprobar si un estado es nuevo o no. La secuencia de estados que resulta de aplicar
esta estrategia es la siguiente:
(0, 0)
Op1
(4, 0)
Op2
(4, 3)
Op3
(0, 3)
Op6
(3, 0)
Se observa que el proceso inicia con la aplicacion de los operadores Op1, Op2 y Op3
lo cual conduce al estado (3,0). Al llegar al estado (3, 0), el proceso nuevamente se
detiene ya que los operadores Op1, Op2, Op3 y Op6 ya han sido aplicados, y los
operadores Op4, Op7 y Op8 no pueden aplicarse porque no verican las condiciones
del estado actual. El operador Op5, que todava no ha sido aplicado, y que verica
las precondiciones del estado actual no puede ser ejecutado porque el esquema de
control prohbe la utilizacion de operadores que generen estados ya existentes en la
secuencia (por ejemplo: (3, 0)
Op5
(0, 3)).
Ante los resultados obtenidos resulta evidente que es necesario sacricar algo si se
pretende encontrar una solucion razonable. Analizar la siguiente estrategia.
Estrategia 4. Cada vez que se propone una nueva estrategia, se deben tomar en
cuenta los problemas encontrados por las anteriores. Por lo tanto, en esta ocasion
se va a considerar el siguiente esquema:
Seleccionar los operadores que veriquen las condiciones del estado actual.
Descartar aquellos operadores que no generen estados nuevos.
Aplicar el primero de los operadores supervivientes, independiente-
mente de que ya haya sido aplicado en alg un paso anterior.
La aplicacion de esta estrategia genera la siguiente trayectoria:
(0,0)
Op1
(4, 0)
Op2
(4, 3)
Op3
(0, 3)
Op6
(3, 0)
Op2
(3, 3)
Op7
(4, 2)
Op3
(0, 2)
Op6
(2, 0)
Al aplicar esta estrategia si se consigue llegar al estado meta (2, 0), y con esto se en-
cuentra una trayectoria de estados y operadores que conduce a una solucion correcta
al problema planteado. Durante este proceso, es comprensible que el sistema ha
realizado operaciones internas, por ejemplo, si el estado de inicio es (0,0), el sistema
82 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
permite la aplicacion de Op1 debido a que cumple con las restricciones, esto conduce
al estado (4, 0) el cual a un no es un estado objetivo. En este momento, el estado
inicial es (4, 0) y el sistema aplica el operador Op2 ya que verica restricciones, esto
conduce al estado (4,3), el cual a un no es un estado objetivo. En este momento, el
estado actual es (4, 3) y despues de vericar restricciones se aplica Op3 conduciendo
al sistema al estado (0, 3). Siguiendo con este proceso, es decir, observar los estados
y vericar las restricciones con el n de permitir o no la aplicabilidad de operadores,
se va a llegar al estado meta (2, 0).
Con el ejemplo anterior se intenta ofrecer un panorama de los elementos involucra-
dos en un problema de b usqueda. Especcamente se trata de comprender como se
determina el espacio de estados. Asimismo, se indica que las estrategias son mecan-
ismos de control que dirigen la b usqueda de soluciones utilizando los elementos que
conforman un problema de b usqueda. Enseguida se mostraran algunas de estas es-
trategias, las cuales haran que el proceso de b usqueda se realice de forma automatica
y se obtengan en lo posible soluciones aceptables y/o optimas.
2.2.1. Estados determinsticos y no determinsticos
Como ya se menciono, el espacio de estados involucra todas las posibles situaciones
que se pueden presentar en la solucion del problema. Los espacios de estados se
pueden clasicar en dos tipos (ver Figura 2.4): (a) implcitos, y (b) explcitos .
Los espacios de estados implcitos, normalmente utilizan un sistema de produccion
con el n de generar durante la ejecucion los posibles estados siguientes a partir de
un estado inicial. Los juegos suelen crear un espacio de estados implcito ya que un
juego puede variar dependiendo de las reglas que lo describen. A la vez, los espacios
de estados explcitos, son aquellos en los cuales se denen previo al inicio de la
b usqueda todos los estados posibles y las relaciones entre ellos.
La representacion de los espacios de estados explcitos se puede dar de forma de-
terminsta o no determinsta. El espacio de estados determinsta (ver Figura 2.5)
contiene un unico estado inicial, y sigue una secuencia de estados hasta llegar a
la solucion, es decir, el siguiente estado esta totalmente determinado por el estado
actual y la posible accion a tomar. En estos espacios de estados no existe incer-
tidumbre en relacion al siguiente estado alcanzado al encontrarse el sistema en un
estado actual y se aplica un operador o accion. Por otro lado, el espacio de estados
no determinsta (ver Figura 2.6) contiene un amplio n umero de estados iniciales y
le sigue una secuencia de estados relacionados con el estado inicial. En estos estados
esta presente la incertidumbre, es decir, a partir de un estado actual y al tomar
una accion, el estado siguiente no se conoce de forma anticipada. Usualmente, los
2.3. M

ETODOS DE B

USQUEDA 83
Figura 2.4: Ilustracion de la clasicacion de los espacios de estados (EE).
espacios de estados determinsticos son usados en el dise no de sistemas expertos,
mientras que los no determinsticos son empleados por sistemas basados en logica
difusa y sistemas de razonamiento probabilstico.
2.3. Metodos de b usqueda
Muchos de los algoritmos tradicionales de b usqueda son aplicados en IA. Sin em-
bargo, cuando se aplican a problemas complejos estos algoritmos son incapaces de
Figura 2.5: Ejemplo de un grafo de espacio de estados deterministas.
84 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
Figura 2.6: Ejemplo de un grafo de espacio de estados no deterministas.
encontrar una solucion adecuada, sobretodo cuando se manejan restricciones tanto
en espacio como en tiempo. Por consecuencia, muchas tecnicas han sido desarrol-
ladas, la mayora de ellas apoyadas por funciones heursticas. La Figura 2.7 muestra
un diagrama de la mayora de los algoritmos de b usqueda, y como se puede observar,
existen dos tipos de b usqueda: informada y no informada. Esta clasicacion se basa
a si el algoritmo aplica funciones heursticas o no. Los algoritmos de b usqueda infor-
mada utilizan funciones heursticas especcas al problema, y las aplican para guiar
la trayectoria de la b usqueda a traves del espacio de estados con el n de reducir
el tiempo invertido en la misma. Aunque el uso de funciones heursticas no garanti-
zan encontrar la mejor solucion, si permiten encontrar una respuesta en un tiempo
razonable. Los algoritmos que utilizan funciones heursticas son llamados algorit-
mos heursticos. Algunas caractersticas de estos algoritmos son las siguientes: a) los
algoritmos heursticos no son realmente inteligentes, ellos parecen ser inteligentes
debido a que obtienen un mejor rendimiento, y b) los algoritmos heursticos son
mas ecientes porque toman ventaja de retroalimentacion de los datos para dirigir
la b usqueda.
A diferencia de los anteriores, los algoritmos de b usqueda no informada tambien
conocidos como algoritmos de b usqueda exhaustiva o de fuerza bruta, no utilizan
informacion relacionada con el problema a n de guiar la b usqueda, por consiguiente
no son muy ecientes.
Un aspecto importante que se debe considerar al elegir un algoritmo de b usqueda,
es la estrategia
3
de control que utiliza. En base a la estrategia empleada algunos son
mas apropiados para resolver un tipo de problemas que otros. Sin embargo, este as-
pecto puede establecerse analizando un conjunto de cuatro caractersticas esenciales
que condicionan el proceso de b usqueda:
3
Metodos que se pueden utilizar para guiar una b usqueda a traves del espacio de estados.
2.3. M

ETODOS DE B

USQUEDA 85
Figura 2.7: Ilustracion de los diferentes algoritmos de b usqueda.
a) Direccion del proceso de b usqueda,
b) Topologa del proceso de b usqueda,
c) Representacion de los estados,
d) Criterios y procedimientos para la seleccion sistematica de los operadores
relevantes en funcion de los estados alcanzados.
Enseguida se proporciona una descripcion de tales caractersticas.
1. Direccion del proceso de b usqueda. Existen dos direcciones fundamentales
que podemos denir a la hora de congurar un proceso de b usqueda determinado:
B usqueda hacia adelante. La direccion de la b usqueda en este caso parte
de los estados iniciales hacia los estados meta, durante este proceso se
generan estados intermedios obtenidos mediante la aplicacion sucesiva de
operadores relevantes, a este tipo de b usqueda tambien se le conoce como
razonamiento hacia adelante o dirigido por los datos.
B usqueda hacia atras. En este caso, la direccion de la b usqueda inicia en
los estados meta y se desplaza hacia los estados iniciales, investigando
que estados previos al estado (o estados) meta, y que operadores aplica-
bles, nos producen una transicion deseada. Este tipo de b usqueda se basa
en un razonamiento hacia atras o dirigido por los objetivos.
86 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
B usqueda sistematica o exhaustiva. En situaciones donde el espacio de
b usqueda es peque no, un metodo de b usqueda sistematico o exhausti-
vo puede ser utilizado para explorar el espacio total del problema. Dos
metodos que aplican esta estrategia de control son el de b usqueda en
profundidad y el de b usqueda en anchura o amplitud. Una b usqueda es
exhaustiva si esta garantiza la generacion de todos los estados alcanz-
ables, as como las trayectorias para alcanzarlos antes que termine con
una falla. Una representacion graca de esta situacion son los arboles de
decisi on.
B usqueda heurstica. En estos metodos, se utiliza el conocimiento del do-
minio del problema como informacion para guiar el proceso de b usqueda.
Asimismo, estos metodos no garantizan encontrar la mejor solucion, pero
si una buena solucion en un tiempo razonable. Estos metodos o heursti-
cas siguen el siguiente proceso: Primero, generan una posible solucion la
cual puede ser un punto en el espacio del problema o una trayectoria
desde el estado inicial. Despues, verican si esta posible solucion es una
solucion real, comparando el estado alcanzado con el conjunto de esta-
dos objetivos. Finalmente, si una solucion real es obtenida, regresan, sino
repiten el proceso.
En algunos casos, sobretodo cuando se trata de elegir entre los primeros dos tipos
de direccion en la b usqueda, se utilizan otros elementos, tales como:
Tama no relativo de los conjuntos I (estados iniciales) y M (metas). El
tama no relativo de los conjuntos I y M es fundamental, pues es preferible
explorar el espacio de estados de forma que progresemos desde un con-
junto inicialmente peque no de informacion de partida, hacia un conjunto
mayor de estados. Aqu la interrogante que surge es: que conjunto es
mayor?, el conjunto I de estados iniciales, o el conjunto M de metas?.
Factor de ramicacion
4
. Este parametro inuye en la ecacia del proceso
de b usqueda, de forma que siempre trataremos de explorar el espacio de
estados en la direccion del menor factor de ramicacion
5
2. Topologa del proceso de b usqueda. Este aspecto tiene que ver con la ecien-
cia en el proceso de b usqueda a traves de la generacion y exploracion del espacio de
4
Factor de ramicacion es el promedio de estados que se pueden alcanzar directamente desde
un estado previo.
5
Cuanto menor sea el factor de ramicacion, menor sera el n umero de alternativas posibles que
deberemos explorar.
2.3. M

ETODOS DE B

USQUEDA 87
estados. Una forma sencilla de explorar el espacio de estados es generar dinamica-
mente un arbol
6
partiendo de un determinado estado (inicial o nal), y expandirlo
tras la aplicacion de operadores relevantes. Sin embargo, un aspecto frecuente que
ocurre durante la generacion automatica de este tipo de representacion es la duplici-
dad de estados en diferentes trayectorias. Este hecho, ademas de requerir un esfuerzo
adicional de computacion reduce la eciencia del proceso de b usqueda. Una forma de
resolver este inconveniente consiste en cambiar la topologa del proceso y convertir
el arbol en un grafo, lo cual puede hacerse por diferentes tecnicas rich. Resulta claro
que en los procesos de resolucion de problemas, la utilizacion de grafos de b usqueda
reduce los esfuerzos de exploracion en el espacio de estados. Sin embargo, este en-
foque presenta el inconveniente de que obliga a comprobar si cada nuevo estado
pertenece ya al conjunto de estados generados en pasos anteriores. Las topologas
en arbol suelen causar problemas de memoria, pero la b usqueda puede ser mas rapi-
da. Por el contrario, las topologas en grafo, aparte de ser conceptualmente mas
correctas minimizan los problemas de memoria. Sin embargo, al tener que efectuar
comprobaciones frecuentes, la eciencia del sistema puede disminuir. Ambos esque-
mas tienen ventajas e inconvenientes. En ultimo termino, la eleccion de una u otra
alternativa depende del dominio del problema planteado.
3. Representacion de los estados. De acuerdo con las estructuras denidas en
el espacio de estados, el problema de la representacion puede estudiarse desde tres
perspectivas diferentes:
Representacion de los objetos, entidades relevantes o hechos del dominio.
Este aspecto tiene que ver con la forma de representacion de los nodos.
Representacion de las relaciones entre objetos, entidades relevantes o he-
chos del dominio. Se reere al modo de representacion de las estructuras
que nos permiten transitar por el espacio de estados.
Representacion de las secuencias de estados surgidas durante la b usqueda.
Trata de la representacion de la estrategia y de los mecanismos de control
necesarios para organizar convenientemente la b usqueda.
Aunque de las perspectivas mencionadas, la que guarda mayor relacion con la
b usqueda es la representacion de las secuencias de estados, todas estan estrechamente
vinculadas, y normalmente, la eleccion de determinados esquemas de representacion
para entidades y relaciones suele condicionar el esquema de representacion apropiado
para las secuencias de estados.
4. Seleccion sistematica de operadores relevantes. Ya se ha comentado como
la aplicacion de un determinado operador sobre un estado genera un nuevo estado,
6
Es importante la caracterstica de generacion din amica del arbol. En IA, los arboles de decision
son siempre implcitos, s olo se materializan cuando se ejecuta un determinado proceso inferencial.
88 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
pero... como podemos reconocer, de entre el conjunto global de operadores po-
tencialmente utiles, aquellos que realmente son aplicables a nuestro estado actual?
Dicho de otra forma: dado un estado como podemos extraer del conjunto global de
operadores un subconjunto de operadores relevantes?. El problema planteado dene
lo que en inteligencia articial se conoce como: emparejamiento
7
, que constituye
una de las tareas mas costosas y lentas de los programas de IA. Existen varios tipos
de emparejamiento, cada uno con sus ventajas e inconvenientes, y su eleccion suele
depender del esquema utilizado para representar el conocimiento. Algunos de estos
tipos son: el emparejamiento literal y el emparejamiento con variables.
El emparejamiento literal consiste en realizar una b usqueda simple a traves de todos
los operadores del conjunto, analizando las precondiciones de cada operador en el
contexto del estado actual considerado, y extraer aquellos operadores que veriquen
dichas precondiciones.
Este emparejamiento presenta varios problemas: i) su eciencia es sensible al n umero
de operadores denidos en el conjunto, los problemas reales en IA utilizan general-
mente una gran cantidad de operadores, ii) para un estado particular, no siempre es
evidente que un operador sea aplicable, es decir, a veces es difcil saber si un estado
actual satisface o no las precondiciones del operador. El emparejamiento literal es
util en dominios peque nos, en los que la exploracion de patrones, costosa y lenta, se
ve compensada por un conocimiento compacto.
Por otro lado, el emparejamiento con variables, es util cuando el problema que
tratamos de resolver requiere una b usqueda extensa en la que haya variables in-
volucradas. En el caso de que exista mas de un operador aplicable a nuestro estado
actual, debemos ser capaces de poder elegir al operador que a priori nos ofrezca mas
garantas de exito en la b usqueda de un camino adecuado hacia la meta. Un enfoque
correcto de este problema, denominado resolucion de conictos, es fundamental en
la construccion de sistemas inteligentes. Durante la estrategia de resolucion de con-
ictos debemos considerar los siguientes criterios generales: (a) evitar en lo posible
la aplicacion de operadores ya utilizados, (b) tratar de aplicar en primera instan-
cia operadores con precondiciones mas restrictivas (operadores mas especcos), que
operadores de naturaleza mas general, (c) si no se dan las condiciones anteriores,
proceder a una seleccion aleatoria.
De acuerdo a lo mencionado, cuando se trate de elegir un algoritmo de b usqueda,
se tienen que tomar en cuenta las caractersticas de cada uno, ya que son estas
caractersticas las que marcan las ventajas y desventajas entre ellos, casi siempre
en terminos de: (i) La rapidez con que se encuentra la solucion, y (ii) La calidad
de la solucion. Tampoco hay que olvidar el papel que juega el problema que se
7
B asicamente, el emparejamiento es el proceso de seleccion de operadores relevantes.
2.3. M

ETODOS DE B

USQUEDA 89
intenta resolver, pues en la mayora de las veces, es el problema quien sugiere el
algoritmo apropiado para resolverlo. A continuacion se van a describir algunos de
los algoritmos de b usqueda mas utilizados.
2.3.1. Primero en anchura (breadth-rst)
En esta seccion se va a mostrar la operacion del algoritmo de b usqueda conocido
como: primero en anchura o primero en amplitud, el cual pertenece al tipo de algo-
ritmos que no utiliza informacion para guiar el proceso de la b usqueda (ver Figura
2.7), es decir, son metodos que realizan un recorrido del espacio de b usqueda de
una forma sistematica, pero sin tomar en cuenta ning un tipo de informacion sobre
el dominio del problema que se esta resolviendo. La estrategia de b usqueda se va
a describir con respecto a un tipo especco de grafo, es decir, a un arbol
8
. Por
lo tanto, en este algoritmo todos los nodos de la capa mas alta de un arbol son
visitados antes de proceder con los de la siguiente capa (ver Figura2.8). Asimismo,
ninguna solucion viable es omitida y por lo tanto, garantiza que la solucion optima
si es que existe es encontrada. No se recomienda esta estrategia para problemas
con espacios de b usqueda grandes. Esta es una tecnica de b usqueda exhaustiva con
las siguientes caractersticas:
El proceso de b usqueda genera todos los nodos de un nivel especco
antes de proceder con el siguiente nivel del arbol.
La b usqueda de forma sistematica procede a analizar cada nodo alcan-
zable a partir de un nodo padre antes de expandirse a cualquier nodo
hijo.
El esquema de control garantiza que el espacio de posibles movimientos
sea sistematicamente examinado; esta b usqueda requiere considerables
recursos de memoria.
El espacio examinado es muy extenso y la solucion puede estar a miles
de pasos desde el nodo inicial. Sin embargo, este procedimiento garantiza
que si se encuentra una solucion esta sera la mas corta posible.
La b usqueda naliza cuando una solucion es encontrada y la prueba re-
torna verdadera.
Antes de proceder a una descripcion mas detallada del algoritmo, se va
a ofrecer una descripcion intuitiva apoyandonos en la Figura 2.8. Como
ya mencionamos, este algoritmo realiza una b usqueda exhaustiva en am-
plitud iniciando por la capa superior del arbol y descendiendo (ver lnea
8
Para ver la operaci on de la estrategia de b usqueda en su caso general (grafos), vease las
siguientes referencias: nilson3, pearl
90 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
Figura 2.8: Operacion del algoritmo de b usqueda primero en amplitud, la direccion
de la b usqueda se indica por la lnea curvada en color rojo.
roja curvada en la Figura 2.8) hasta encontrar un nodo objetivo o no
encontrarlo. De acuerdo a lo mencionado, y tal como se observa en la
Figura 2.8, los nodos son explorados en el siguiente orden: A B C D E F
G H I J K L M N O P Q. Una vez que se encuentra el nodo A se procede
con el nodo B y as de forma sucesiva hasta alcanzar alguno de los nodos
objetivos (J, N) o el ultimo nodo.
Enseguida se va a proporcionar una descripcion de este algoritmo, in-
tentando ofrecer una notacion clara que facilite la comprension e imple-
mentacion del mismo. El algoritmo de b usqueda primero en amplitud se
ilustra en la Figura 2.9, en el mismo se utiliza una lista ordenada denom-
inada ABIERTA que contiene al principio de cada iteracion los estados
candidatos a ser desarrollados o expandidos. El desarrollo o expansion de
un estado, consiste en calcular todos sus sucesores mediante la aplicacion
de todos los operadores posibles, para ello se aplica la funcion Sucesores
que para un determinado estado retorna una lista con todos sus estados
sucesores. Asimismo, se observa el empleo de otra estructura denomina-
da TABLAA, que es en realidad un conjunto ordenado implementada
generalmente mediante una tabla hash. Esta estructura es utilizada para
registrar toda la informacion necesaria acerca de cada uno de los nodos
encontrados en el proceso de b usqueda, por ejemplo el padre de cada uno
2.3. M

ETODOS DE B

USQUEDA 91
Figura 2.9: Algoritmo de b usqueda primero en anchura en arboles.
de los nodos, o el costo desde el estado inicial hasta cada nodo. El resto
de las operaciones y estructuras muestran un signicado comprensible.
El algoritmo opera de la siguiente manera. En primer lugar se coloca en
la lista ABIERTA el estado inicial. Este estado se genera a partir de los
datos del problema, por ejemplo en el problema de las dos jarras de vino,
el estado inicial esta formado por la pareja (x, y) = (0, 0); en el problema
8 puzzle el estado inicial esta determinado por la conguracion inicial
mostrada en la Figura 2.3(a), o en el conocido problema del agente viajero
el estado inicial sera una secuencia que solamente incluye a la ciudad de
partida. Una vez que se indica el estado inicial, el algoritmo comienza a
expandir nodos, de forma que en cada iteracion el nodo que se expande se
inserta al nal de la lista ABIERTA. De este modo, la estrategia de con-
trol viene denida por el criterio que utilicemos para ordenar ABIERTA,
es decir, por la forma de insertar los nodos en esta lista [4, 172].
En este algoritmo, los nodos sucesores siempre se insertan al nal de la
lista ABIERTA. Por lo tanto, esta lista se trata realmente como una cola.
Un dato importante en este algoritmo, es que, tanto el tiempo de ejecucion
como el espacio de memoria necesario, crecen de forma exponencial al
tama no del problema. Una explicacion a esto es la siguiente. Suponga ue
se tiene un factor de ramicacion o n umero medio de sucesores, b y que
existe una unica solucion a una profundidad d, siendo la profundidad de
92 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
un nodo el numero de arcos que hay en el camino desde el inicial hasta el
nodo, el n umero de nodos visitados se puede aproximar por la expresion
siguiente. Hasta el nivel b 1 tendremos
1 +b +b
2
+... +b
d1
=
_
b
d
1
_
/ (b 1) ,
Si se tienen visitados la mitad de los nodos del nivel d, se tendran tambien
b
d
/2.
El n umero total de nodos visitados, considerando un arbol con una d
grande, se aproxima por
_
b
d+1
+b
d
_
/ (2 (b 1)) .
De igual forma, el espacio requerido por las estructuras ABIERTA y
TABLAA se puede aproximar como sigue. En el caso de ABIERTA se
tiene la mitad de los nodos del nivel d y la mitad de los del nivel d 1,
es decir
_
b
d
+b
d1
_
/2.
Mientras que en la TABLAA se tendran todos los nodos hasta el nivel
d 2 y la mitad de los del nivel d 1, es decir
_
b
d
1
_
/ (b 1) +
_
b
d1
_
/2

=
_
b
d
+b
d1
_
/ (2 (b 1))
Resulta claro que este algoritmo necesita una cantidad de tiempo y de
espacio para su ejecucion, el cual resulta ser, exponencial a la profundidad
d del espacio de b usqueda.
2.3.2. Grafos O
En la mayora de los problemas reales, los algoritmos tradicionales (b usque-
da exhaustiva o b usqueda ciega) son incapaces de encontrar una solu-
cion en lmites razonables de tiempo y espacio. En consecuencia, muchas
tecnicas se han desarrollado aplicando funciones heursticas. Las heursti-
cas son reglas que no garantizan la mejor solucion, pero s una solucion
adecuada si se aplican de forma apropiada. Estas funciones, como ya
se ha mencionado usan informacion especca del dominio (problema en
cuestion), lo cual se traduce en mejorar la eciencia del proceso de b usque-
da. Asimismo, la funcion heurstica, cuando se aplica a un estado regresa
un valor indicando que tan cerca nos encontramos del estado objetivo.
2.3. M

ETODOS DE B

USQUEDA 93
Figura 2.10: 8 puzzle: Ilustracion de 3 movimientos: izquierda, derecha, y arriba
realizados en el tablero y las nuevas conguraciones obtenidas.
Para entender de una forma muy general el uso de las funciones
heursticas en el proceso de b usqueda de soluciones, se va a presentar
nuevamente el ejemplo de 8 puzzle. En este problema, se intenta lle-
gar a una conguracion nal (estado meta) a partir de una conguracion
inicial (estado inicial) del tablero de 3 3 (ver Figura 2.10), realizando
el menor n umero de movimientos
9
de las casillas con n umeros a la casil-
la vaca. En la Figura 2.10, se pueden observar las tres conguraciones
obtenidas cuando al estado inicial se le aplican respectivamente los oper-
adores de: mover a la izquierda, mover a la derecha y mover hacia arriba.
El problema consiste en decidir, cual de los 3 posibles movimientos resulta
ser el mejor y que heurstica lo puede indicar. En este caso se van a
mostrar dos enfoques:
a) Contar el n umero de posiciones correctas. Este n umero se obtiene al
comparar la conguracion obtenida despues de aplicar el operador
contra la conguracion objetivo. En la Figura 2.10 se muestran es-
tos n umeros en la parte inferior (h=6, h=4, h=5) de las respectivas
9
Los movimientos se reeren al desplazamiento de la casilla vaca, ocasionado por el desplaza-
miento de las casillas con n umeros.
94 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
conguraciones. Bajo este enfoque, se elige el operador (movimiento)
que proporcione el n umero mayor, en este caso: Mover a la izquierda
(h=6).
b) Contar el n umero de posiciones incorrectas. Este es un enfoque op-
uesto al anterior, es decir, en este caso se cuentan las posiciones incor-
rectas al comparar las conguraciones obtenidas despues de aplicar
los operadores contra la conguracion deseada. Bajo este enfoque se
busca el n umero que minimice las diferencias. Este n umero se obtiene
al restar el n umero total de posiciones correctas (8) contra el n umero
de posiciones correctas alcanzadas al aplicar el operador. Por ejemp-
lo, cuando h = 6, el n umero de posiciones incorrectas es 8 6. Con
lo cual se elige nuevamente el operador de: Mover a la izquierda.
De acuerdo con lo descrito, la tarea de las funciones heursticas es propor-
cionar estos n umeros de acuerdo al enfoque utilizado y a la informacion
que indican. Por lo tanto, una vez que se tiene la nocion de como operan
las funciones heursticas se va a mostrar uno de los algoritmos que hacen
uso de estas funciones: Grafo O. Este algoritmo pertenece a un grupo
de algoritmos conocidos como: Primero el mejor
10
(ver Figura 2.7). El
nombre del algoritmo se debe a que es representado por un grafo tipo
O, el cual utiliza un esquema de razonamiento hacia adelante (dirigido
por datos), donde un nodo en este grafo indica un estado del problema
y un enlace denota la transicion a otro estado mediante la aplicacion de
una regla. Cuando varias reglas pueden ser aplicadas a un estado actu-
al, se puede seleccionar el mejor estado entre los posibles estados hijos
como el siguiente. En este metodo, la b usqueda da inicio al seleccionar
un estado prometedor (conguracion con h = 6 en el ejemplo anterior),
y se generan los nodos hijos del mismo. El rendimiento de cada nodo se
examina a traves de una funcion de evaluacion (n umero de posiciones cor-
rectas/incorrectas en el ejemplo anterior) y el mas prometedor basado
en su rendimiento de estos nodos se selecciona para su expansion. El
nodo seleccionado se expande y el rendimiento de todos sus nodos descen-
dientes se mide nuevamente repitiendo el proceso. Sin embargo, en este
caso, en lugar de analizar solo los nodos hijos generados, se examinan to-
dos los nodos aunque no tengan hijos y el mas prometedor de estos nodos
es seleccionado para expandirse. El algoritmo en que se basa el Grafo O
se muestra en la Figura 2.11. Si consideramos que la funcion para evaluar
el rendimiento de cada nodo es la distancia al nodo meta, entonces se va a
seleccionar para su expansion el nodo con el valor mas bajo. La funcion de
evaluacion puede implementarse con una estructura de datos de tipo cola
10
Bajo este nombre se agrupan los siguientes algoritmos: Grafo O, Agendas, y A Estrel la
2.3. M

ETODOS DE B

USQUEDA 95
Figura 2.11: Ilustracion del algoritmo Grafo O.
con prioridad, ordenados por su valor de evaluacion en orden ascendente.
Aunque el nombre de esta tecnica parece indicar algo determinista, no es
as, ya que si realmente pudieramos expandir primero el mejor nodo, esto
ya no sera una b usqueda, sino mas bien, sera una trayectoria directa
al objetivo. Por lo tanto, todo lo que podemos hacer es escoger el nodo
que parece ser el mejor seg un la funcion de evaluacion. Si la funcion de
evaluacion es exacta, entonces ciertamente se escogera el mejor nodo. Sin
embargo, esto no siempre se cumple en la realidad y tal funcion puede
dirigir la b usqueda por mal camino.
El algoritmo de b usqueda Grafo O, es generico y requiere de muchas car-
actersticas adicionales para que sea eciente. Por ejemplo, como indicarle
el valor de f si no esta explcitamente denido en el algoritmo. Ademas,
que sucede si un hijo del nodo actual no es un nodo nal?.
Una extension al algoritmo anterior y que considera estos aspectos es el
algoritmo A* (lease A-estrel la), el cual se describira a continuacion.
2.3.3. Grafos A
El algoritmo A - estrel la
11
es un algoritmo de b usqueda para grafos que
encuentra el camino de menor costo entre un nodo inicial y un nodo meta.
Antes de pasar a describir este algoritmo se deben tener presente las sigu-
11
Algoritmo presentado por Peter E. Hart, Nils J. Nilsson y Bertram Rapale, en 1968.
96 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
ientes deniciones: (a) nodo abierto, un nodo se denomina abierto si ha
sido generado y se le ha aplicado una regla pero a un no se ha expandido
(no se han generado sucesores), y (b) nodo cerrado, un nodo se denom-
ina cerrado si ha sido expandido, los nodos generados son almacenados
en una lista con el n de evitar la creacion de ciclos en el proceso de
b usqueda. Este algoritmo emplea una funcion heurstica (denotada f(x),
es una aproximacion a f(x), funcion que proporciona la verdadera evalu-
acion de un nodo) para determinar el orden en que los nodos de un grafo
van a ser visitados. Dicha funcion, esta formada por la suma de otras dos:
h(x) = Costo de la heurstica.
g(x) = Costo de generacion.
El costo de la heurstica mide la distancia del nodo x actual con respecto
al nodo objetivo y es denotado por h(x). Por otro lado, el costo de gener-
ar un nodo x, denotado por g(x), mide la distancia del nodo inicial en el
grafo, hasta el nodo actual x. Por lo tanto, la funcion de costo total del
nodo x, indicada por f(x) es la suma de h(x) y g(x). El costo de generacion
g(x) puede ser medido con relativa facilidad conforme se genera el nodo
x a traves de unas pocas transiciones de estado. Por ejemplo, si el nodo
x fue generado con m transiciones a partir del nodo inicial, el costo g(x)
sera proporcional a m (o simplemente igual a m). Por su parte, para la
evaluacion de h(x) se tiene que predecir un costo, generalmente indica-
do por h(x), cualquier costo asignado para h(x) debe ser a traves de su
prediccion. El costo total se indica como f(x) = g(x) + h(x).
El procedimiento utilizado por el algoritmo A* se muestra en la Figura
2.12.
Empezando en un nodo inicial dado, el algoritmo expande el nodo con el
menor valor de f(x). Este algoritmo mantiene un conjunto de soluciones
parciales almacenadas en una cola de prioridad (Lista ABIERTOS), igual
que el Grafo O. La prioridad asignada a un camino x viene determinada
por la funcion f(x). El proceso contin ua hasta que un nodo objetivo tiene
un valor f(x) menor que cualquier otro nodo en la cola (o hasta que el
grafo ha sido completamente recorrido).
Por ejemplo, la Figura 2.13 muestra el procedimiento de b usqueda del al-
goritmo A*, para encontrar la solucion (trayectoria mas corta para ir de
un estado inicial a un estado objetivo) al problema 8-puzzle. En este algo-
ritmo, se puede dar marcha atras para explorar rutas mas prometedoras y
2.3. M

ETODOS DE B

USQUEDA 97
Figura 2.12: Ilustracion del algoritmo A*.
98 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
Figura 2.13: Aplicacion del algoritmo A* al problema 8-puzzle, la lnea roja indica
la trayectoria de los nodos visitados.
evitar las menos prometedoras (nodo encerrado, en la Figura 2.13). Este
caso ocurre cuando el valor del nodo es mayor al esperado o cuando se
repite. En esta Figura, se muestra a un lado de cada nodo (conguracion
del tablero) el valor de su funcion heurstica (f(n)). En este ejemplo, la
heurstica que se va a utilizar es la siguiente, h(n) = n umero de casil las
mal colocadas. Por lo tanto, se busca en todo momento el valor de f(n)
mnimo. En este caso, el grafo es un arbol, donde el nodo raz es el es-
tado inicial, en el nodo raz, as como en todos los demas se muestran
dos valores (0+4 en el nodo raz), el primer valor corresponde al costo de
generacion (g(n)) de los nodos, el cual se va asumir, que tiene el mismo
valor para todos los nodos, en este ejemplo igual a 1. Ya que el nodo
inicial se proporciona como parte del algoritmo su costo de generacion es
g(n) = 0. El segundo n umero corresponde al valor de la heurstica (ver
Figura 2.13).
La trayectoria que sigue el algoritmo se va a guiar por el valor de la
heurstica estimada (h(n)) y se indica por la lnea roja que se muestra en
la Figura 2.13. Ya que el valor para g(n) es unitario, se observa que su
2.3. M

ETODOS DE B

USQUEDA 99
incremento en cada profundidad del arbol es en incremento y secuencial.
En todo momento, se busca elegir para expander el nodo con el costo
mnimo. Si se detecta que los valores son repetitivos, se asume que esto
conduce a un ciclo repetitivo y se abandona ese nodo (este caso se observa
en la conguracion que se muestra encerrada). En este caso, se regresa al
nodo anterior y se elige otro camino.
Si la b usqueda se realizo a traves del camino mas corto, entonces se dice
que resulto optima, indicandose esta situacion con la siguiente expresion:
f

(n) = g

(n) +h

(n)
Complejidad. La complejidad computacional del algoritmo A* esta rela-
cionada con la calidad de la heurstica que se utilice en el problema. En el
peor caso, con una heurstica de pesima calidad, la complejidad sera ex-
ponencial, mientras que en el mejor caso, con una buena heurstica, el
algoritmo se ejecutara en tiempo lineal. Para que esto ultimo suceda, se
debe cumplir que h(n) h(n). Donde h* es una heurstica optima para
el problema, por ejemplo, el costo real de alcanzar el objetivo.
Caractersticas del algoritmo. Realiza la b usqueda informada tenien-
do en cuenta dos factores fundamentales: (i) el valor heurstico de los
nodos, y (ii) el coste real del recorrido.
Se utiliza en la b usqueda de un camino mas corto.
El Algoritmo no desarrolla un camino por interaccion, sino que desarrolla
varios caminos y elige los mas prometedores.
Si para todo nodo n del grafo, se cumple que g(n) = 0, nos encontramos
ante una b usqueda voraz. Si para todo nodo n del grafo se cumple h(n)
= 0, el algoritmo A* pasa a ser una b usqueda de costo uniforme no in-
formada.
Para garantizar la optimalidad del algoritmo, la funcion h(n) debe ser
admisible, esto quiere decir que no sobrestime el costo real de alcanzar el
nodo objetivo, si fuese as, el algoritmo pasa a denominarse simplemente
A, debido a que no se asegura que el resultado obtenido sea el camino de
costo mnimo.
100 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
Debido a que se tienen que almacenar todos los posibles siguientes nodos
de cada estado, la cantidad de memoria requerida sera exponencial con
respecto al tama no del problema.
El algoritmo A* gua el proceso de b usqueda a traves de una ruta optima
si la funcion heurstica h(n) es admisible. Se dice que h(n) es admisible
(garantiza la obtencion de un camino de coste minimo hasta un objetivo)
cuando nunca sobreestima el costo actual, en este caso se cumple:
h(n) h

(n)n
Donde: h

(n) es la funcion heurstica optima.


Asimismo se dice que es completo cuando naliza con una solucion, y
si esta solucion es la optima entonces es admisible. La principal carac-
terstica de este algoritmo es que utiliza de forma eciente el uso de una
funcion heurstica dada, en el sentido de que expande el menor n umero de
nodos en relacion con otros algoritmos similares. Sin embargo, su princi-
pal desventaja, y en general de cualquier algoritmo de b usqueda primero
el mejor, es su requerimiento de memoria. Ya que al menos la lista de
ABIERTOS debe ser almacenada. En la practica este algoritmo se ve muy
limitado en espacio, algunas veces no resulta mejor que el algoritmo de
b usqueda primero en amplitud, cuando ambos se ejecutan en equipos sim-
ilares. Por otro lado, debido que la complejidad temporal y espacial son
del mismo orden, en muchas ocasiones no se encuentra la ruta optima por
las limitaciones en tiempo y memoria de sus recursos computacionales,
por lo que se tedra que optar por una solucion satisfactoria.
Este algoritmo es aplicado en varias areas, tales como: Minera de datos,
procesamiento de imagenes, medicina, aeronavegacion y transporte, y
video juegos de estrategia.
2.4. Satisfaccion de restricciones
La satisfaccion de restricciones es un esquema para manejar situaciones
donde resulta relativamente facil indicarle a una computadora el resulta-
do esperado y un tanto complicado el proceso para obtenerlo. Estos casos
2.4. SATISFACCI

ON DE RESTRICCIONES 101
pueden ocurrir en problemas del mundo real surgidos en areas de vision
computacional, planeacion, calendarizacion y diagnosis. Los problemas
mencionados pueden ser manejados como problemas de satisfaccion de
restricciones (CSP). Bajo este enfoque, la representacion de los proble-
mas resulta natural y declarativa, formalizando lo que se tiene que resolver
sin necesidad de indicar como se tiene que satisfacer. En este esquema es
necesario comprender el aspecto relacionado con las restricciones.
Las restricciones surgen en la mayora de las areas del esfuerzo humano
y son una forma natural en que las personas expresan diversos proble-
mas. Ejemplos de problemas que emplean restricciones son la suma de
los angulos de un triangulo suman 180 grados, y la suma de los ujos
actuales en un nodo deben sumar cero. Una restriccion se puede enten-
der como una relacion logica entre variables, es decir, las restricciones
relacionan objetos sin hacer una especicacion precisa de sus posiciones
y al moverse alguno de ellos, la relacion a un se mantiene, por ejemplo:el
crculo dentro del cuadrado. Por satisfaccion de restricciones se denom-
ina al proceso de encontrar una solucion a un conjunto de restricciones,
es decir, encontrar un conjunto de variables que satisfacen todas las re-
stricciones.
Formalizacion. Un problema de satisfaccion de restricciones se dene
por la terna X, D, R, donde:
X = X
1
, X
2
, . . . , X
n

D = D1, D2, . . . , Dn
R = R1, R2, . . . , Rn
X indica un conjunto nito de variables, D es un conjunto nito de do-
minios, y R un conjunto nito de restricciones. Cada variable X
i
toma
valores en su correspondiente dominio D. Una restriccion entre un sub-
conjunto de variables X
i1
, X
i2
, . . . , X
ik
de X es un subconjunto del
producto cartesiano D
i1
. . . D
ik
que esta formado por las tuplas
de valores que satisfacen la restriccion; dicho de otra forma, contiene las
combinaciones de asignaciones de valores a variables que no violan la
restriccion. Una restriccion en la que interviene una unica variable se le
denomina restriccion unaria. Una restriccion binaria en la que intervienen
las variables X
i
y X
j
se representa como R
ij
. Un problema de satisfac-
cion de restricciones (CSP
12
) binario es aquel donde solo se presentan
12
Por sus siglas en inges: Constraint Satisfaction Problem.
102 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
restricciones unarias o binarias. En esta seccion solo se expondr an CSPs
binarios, esto sin embargo no es ninguna restriccion ya que cualquier CSP
puede convertirse a uno binario en tiempo polinomial [9].
Una asignacion de un valor del dominio a cada variable de un CSP repre-
senta una solucion del mismo si tal asignacion satisface todas las restric-
ciones. Por lo tanto, resolver un CSP equivale a encontrar una solucion,
encontrar todas las soluciones o encontrar una solucion optima con respec-
to a una funcion objetivo. Por ejemplo, el problema de la k coloraci on
de un grafo consiste en decidir si los nodos del grafo pueden colorearse
empleando k colores de manera que dos nodos adyacentes no tengan el
mismo color. En este caso, se van a manejar los colores: azul, rojo, y verde.
Por lo tanto, la representacion del problema anterior en CSP quedara de
la siguiente manera:
X es el conjunto de variables (en este ejemplo: nodos) formado por
X
1
, X
2
, X
3
.
D asigna el dominio azul, rojo, verde a cada variable.
R contiene la restriccion X
i
,= X
j
para cada par X
i
, X
j
de nodos
adyacentes. Por lo tanto, y de acuerdo con los datos anteriores, las
restricciones resultan ser en este ejemplo, las siguientes:
R
12
= (azul, rojo), (azul, verde), (rojo, verde)
R
13
= (azul, rojo), (azul, verde), (rojo, verde)
R
23
= (azul, rojo), (azul, verde), (rojo, verde)
La Figura 2.14 muestra el grafo que representa las variables del problema
de la 3 coloraci on de un grafo, mientras que la Figura 2.15 ilustra la
representacion del problema a traves del grafo de restricciones.
Generalmente, un CSP binario, se representa a traves de un grafo de re-
stricciones donde cada nodo del grafo describe una variable del problema
(ver Figura 2.14). Cada restriccion se representa por un enlace con el
nombre de la restriccion, la cual conecta los nodos de las variables que
intervienen en la misma (ver Figura 2.15). En el ejemplo mostrado, el en-
lace que conecta los nodos X
1
y X
2
implcitamente representa dos arcos:
el arco que va de X
1
a X
2
y el que va de X
2
a X
1
.
Una vez que se tiene la representacion de un problema a traves de un CSP,
se procede a la aplicacion de un algoritmo para resolverlo. La solucion se
puede obtener utilizando algoritmos de inferencia, algoritmos de b usque-
da, y combinando ambas alternativas. En esta seccion se va a mostrar la
solucion de un CSP aplicando tecnicas de b usqueda.
2.4. SATISFACCI

ON DE RESTRICCIONES 103
Figura 2.14: Grafo del problema: 3 coloraci on de un grafo.
Figura 2.15: Grafo de restricciones correspondiente al problema: 3 coloraci on de
un grafo.
104 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
2.4.1. B usqueda en CSP
El conjunto formado por todas las posibles asignaciones de un CSP tam-
bien conocido como espacio de estados, se representa mediante un arbol
de b usqueda. En cada nivel instanciamos una variable, y los sucesores de
un nodo son los valores de la variable asociada a este nivel. Cada camino
del nodo raz a un nodo terminal, denominado rama, representa una asig-
nacion completa. La raz (nivel 0) representa la asignacion vaca, y cada
camino del nodo raz a un nodo no terminal representa una asignacion
parcial. El n umero total de ramas es la cardinalidad del producto carte-
siano de los dominios de todas las variables. Cuando se crea el arbol de
b usqueda, se denomina variable actual a la que se le esta asignando un
valor, variables pasadas a las que ya tienen un valor asignado y variables
futuras a las que a un no tienen un valor asignado. La instanciacion de
variables sera en orden lexicograco, es decir, primero X
1
, luego X
2
y
as sucesivamente. Sin embargo, el rendimiento del algoritmo mejora con
el uso de heursticas, por ejemplo, una de las heursticas de seleccion de
variables mas exitosa consiste en instanciar primero a las variables con
menor dominio, si hay empates, elegir la variable que aparece en mas
restricciones [13].
Una vez seleccionada la variable, se le asigna uno de los valores del do-
minio. El orden de asignacion de los valores puede mejorar el rendimiento
cuando el objetivo es encontrar la primera solucion. Si este es el caso, una
heurstica popular consiste en asignar primero el valor que es consistente
con el mayor n umero de valores factibles del resto de las variables. Se han
desarrollado muchos algoritmos de b usqueda para resolver CSPs. En esta
subseccion, se van a mostrar dos algoritmos de b usqueda hacia atras
13
(basada en objetivos) para resolverlos y son: (a) Genera y Prueba (GT:
Generate-and-test) y Retroceso (BT: Backtracking).
Algoritmo genera y prueba (GT). La forma mas simple, aunque poco
eciente de encontrar todas las soluciones de un CSP es la que implemen-
ta el algoritmo GT, el cual genera de forma sistematica todas las posibles
asignaciones completas. Cuando naliza una asignacion, comprueba si es
una solucion (comprueba si satisface todas las restricciones). Este algo-
ritmo recorre el arbol aplicado la estrategia de b usqueda primero en pro-
fundidad. La ineciencia de este algoritmo se debe a que genera muchas
asignaciones completas que violan la misma restriccion.
13
A este tipo de algoritmos se les conocen como completos ya que realizan un recorrido exhaustivo
del espacio de estados, y cuando aplican alguna poda, lo hacen sobre regiones del espacio de estados
que no contienen ninguna soluci on
2.4. SATISFACCI

ON DE RESTRICCIONES 105
Figura 2.16: Pseudocodigo del algoritmo BT.
Algoritmo BT. El algoritmo BT [10] es un metodo basado en el analisis
sistematico de las posibles soluciones, se puede ver como un GT mejo-
rado, el cual funciona de la siguiente manera: cada vez que reasigna un
nuevo valor a la variable actual (X
i
), se comprueba si es consistente con
los valores asignados a las variables pasadas. Si no lo es, se abandona
esta asignacion parcial y se asigna un nuevo valor a X
i
. Si ya se agotaron
todos los valores de D
i
, se retrocede para probar otro valor, ahora para la
variable X
i1
. Si se ha agotado D
i1
, se retrocede al nivel i2, y as suce-
sivamente hasta encontrar una asignacion de un valor a una variable que
sea consistente con las variables pasadas o hasta que se demuestra que
no hay mas soluciones. Es decir, BT recorre el arbol utilizando b usqueda
primero en profundidad, y en cada nodo comprueba si la variable ac-
tual es consistente con las variables pasadas. Si detecta inconsistencia,
descarta la asignacion parcial actual, puesto que no es parte de ninguna
asignacion completa que sea solucion. De esta manera, se ahorra recorrer
el subarbol que depende de esta asignacion parcial. BT es similar al GT
pero utiliza menos espacio, conservando solamente un estado de solucion
actual el cual actualiza. El pseudocodigo del algoritmo BT se muestra en
la Figura 2.16 [11].
En este algoritmo (pseudocodigo mostrado en la Figura 2.16), el parametro
106 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
de entrada i es la posicion de la variable actual en el orden estatico en
el que se instancian las variables, mientras que n representa el n umero
de variables del problema, el arreglo asignaciones[i] de tama no n guarda
el valor asignado a cada variable, la variable test(i, j) devuelve cierto si
la asignacion actual no viola ninguna restriccion entre las variables X
i
y
X
j
.
Por simplicidad, el pseudocodigo no distingue entre, no encontrar una
solucion, y no encontrar mas soluciones, en ambos casos devuelve falso.
Este algoritmo tiene el inconveniente de detectar inconsistencias en difer-
entes partes del espacio de b usqueda que se producen por la misma razon.
Por ejemplo, suponga que se tiene una restriccion entre la variable X
g
y
la variable X
i
, donde i > g + 1, la cual establece que, si se asigna a X
g
un valor a entonces ning un valor de X
i
es compatible con la asignacion
X
g
= a. Entonces, BT detecta al nivel i una inconsistencia en todas las
asignaciones parciales que contienen la asignacion X
g
= a. Cuando BT
detecta una de estas inconsistencias, retrocede al nivel i 1, cuando en
realidad podra retroceder al nivel g y asignar un nuevo valor a X
g
. Ob-
serve que si BT retrocede al nivel i 1, volvera a detectar inconsistencias
para cualquier valor de D
i1
al instanciar la variable X
i
, ya que todas
las asignaciones parciales que considera mantienen la asignacion X
g
= a.
Esto ocurrira para todos los niveles intermedios entre g e i. Por lo tan-
to, se podra podar el subarbol que depende de la asignacion parcial que
contiene X
g
= a.
Para solucionar este problema se han dise nado algoritmos que aplican
tecnicas de retroceso no cronologicas [12], las cuales al detectar alguna
inconsistencia, en lugar de retroceder a la variable instanciada reciente-
mente que a un tiene alternativas disponibles, contin ua la b usqueda en la
variable que ocasiono el fallo, evitando as que se repita la inconsistencia.
Con el n de ilustrar un ejemplo del uso de este algoritmo, la Figura
2.17 muestra una representacion en CSP de un problema con 4 variables,
en tanto, la Figura 2.18 muestra el arbol de b usqueda correspondiente
que explora el algoritmo BT para encontrar la primera soluci on del CSP
descrito. En este ejemplo, cada rama del arbol de b usqueda representa
una asignacion parcial (la cual es completa si se llega a instanciar la
variable X
4
). Cada nodo tiene como etiqueta el valor del dominio que se
asigna a la variable, los nodos huecos indican asignaciones en las que la
asignacion de la variable actual es inconsistente con las asignaciones de
las variables pasadas que aparecen en la misma rama. El comportamiento
de trashing corresponde a las regiones encerradas por el recuadro.
2.4. SATISFACCI

ON DE RESTRICCIONES 107
Figura 2.17: Grafo de restricciones para un CSP [13].
Figura 2.18:

Arbol de b usqueda que explora BT para el CSP de la Figura 2.17 [13].
108 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
2.5. Teora de juegos
La teora de juegos puede denirse como la rama de las matematicas en-
cargada del estudio y analisis de modelos formales de comportamiento es-
trategico, es decir, aspectos relacionados con el conicto y la cooperacion
entre agentes racionales e inteligentes. Sus conceptos teoricos se aplican
siempre que las acciones de varios agentes sean interdependientes. Estos
agentes pueden ser individuos, grupos, rmas, o alguna combinacion de
ellos. Asimismo, se puede ver a la teora de juegos como una herramienta
para el tomador de decisiones que aporta la metodologa para estruc-
turar y analizar problemas relacionados con estrategias
14
de seleccion. El
proceso de modelar formalmente una situacion como un juego requiere
la intervencion del tomador de decisiones para enumerar explcitamente
los jugadores y sus estrategias, considerando sus preferencias y reacciones.
Los orgenes de esta teora se remontan al siglo XV III, donde su objeti-
vo era analizar el comportamiento de los participantes en juegos de salon
que comenzaban a desarrollarse en las cortes europeas. Los estudios mod-
ernos de la misma, comienzan con los trabajos de Zermelo [14] y Borel
[15], pero no es sino hasta los trabajos de Neumman y Morgensen [16]
que esta disciplina comienza su desarrollo a un ritmo acelerado.
En el campo de las matematicas, esta disciplina esta asociada con areas
como la teora estadstica de la decision y algunos problemas de progra-
macion lineal. En las ciencias sociales, la incursion de la teora de juegos
como una metodologa de analisis es mas reciente. La economa es el area
que ha obtenido un mayor provecho de la misma, ya que desde inicios de
la decada de 1960 ha habido una gran aportacion en el desarrollo de la
teora economica
15
.
No obstante que algunas de las ideas basicas en teora de juegos fueron
integradas en 1950, estas ya haban sido presentadas en las ultimas
decadas del siglo XIX por economistas franceses que estudiaban el com-
portamiento de empresas en mercados no competitivos [18, 19]. De hecho,
14
Se entiende por estrategia de un jugador una regla o conjunto de reglas que establecen la
jugada a realizar por el jugador en cada momento.
15
De hecho, la idea de que la manera de formalizar el comportamiento racional fuese enfocado
a traves de la teora de juegos provoco un cambio dramatico en la manera de estudiar la microe-
conoma y mas recientemente, la macroeconoma ya que algunas de las teoras desarrolladas en
los a nos 50s no pudieron ser sostenidas al adoptarse este marco analtico. Recordar que el Premio
Nobel de Economa en 1994 fue otorgado a los autores que desarrollaron esta teora [17].
2.5. TEOR

IA DE JUEGOS 109
si bien hasta la decada de 1950 el desarrollo de la teora de juegos era
un asunto de los matematicos y no haba desarrollo originado por dis-
ciplinas empricas, a partir de la decada de 1960 la situaci on cambia.
Recientemente, los manuales mas conocidos de teora de juegos han sido
escritos por economistas o economistas matematicos, y se han enfocado
en aplicaciones de las ciencias sociales.
La teora de juegos recibio especial atencion en 1994 con la concesion del
Premio Nobel de economa a Nash, Harsanyi y Reinhard Selten
16
.
Al nal de la decada de 1990, una aplicacion de alto perl de la teora de
juegos ha sido el dise no de subastas. Destacados teoricos de juegos han
participado en el dise no de subastas al asignar derechos para el uso de
bandas del espectro electromagnetico a la industria de telecomunicaciones
moviles. La mayora de estas subastas fueron dise nadas con el objetivo
de asignar estos recursos de forma mas eciente que las practicas guber-
namentales tradicionales.
Ademas de las areas mencionadas, la teora de juegos ha sido aplicada
tambien a: modelos de evolucion biologica, conictos militares, campa nas
polticas, de publicidad y comercializacion, as como a una innumerable
lista de situaciones de competencia entre empresas.
2.5.1. Descripcion de juego
Denicion de juegos. El objeto de estudio de la teora de juegos es el
juego, el cual se puede describir como un modelo formal de una situacion
interactiva. Un juego tpicamente involucra a varios jugadores, a un juego
de un solo jugador se le denomina un problema de decision. La denicion
formal considera a los jugadores, sus preferencias, su informacion, las
acciones estrategicas disponibles, y como estos aspectos inuyen en el re-
sultado [20].
Representacion formal de juego. Un juego, descrito de manera nor-
mal o estrategica G = (S
1
, S
2
, . . . , S
n
; u
1
, u
2
, . . . , u
n
) o G(S, U), consta de
tres elementos esenciales:
16
El parrafo nal de los peri odicos anunciando el premio Nobel en Economa de 1994 mencionaba:
a traves de sus contribuciones al analisis de equilibrios en teora de juegos no cooperativos, los tres
laureados constituyen una combinacion natural: Nash dio los fundamentos para el analisis, Selten
los desarroll o con respecto a la din amica, y Harsanyi con respecto a la informacion incompleta.
110 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
a) Los n jugadores que participan en el juego.
b) Las estrategias disponibles para cada jugador, identicadas como
S = (S
1
, ....., S
n
), S
i
= (s
i1
, s
i2
, ....., s
iq
) indica el conjunto de es-
trategias con que cuenta el jugador i. La notacion suele simplicarse
designando por s
i
a un elemento arbitrario de S
i
, donde s
i
S
i
. De este modo (s
1
, ....., s
n
) representa una combinacion de estrate-
gias, una para cada jugador, que tambien se conoce como un perl
estrategico.
c) El conjunto de funciones de pago U = (u
1
, ....., u
n
), donde la funci on
de pago de cada jugador u
i
= u
i
(s
1
, ....., s
n
), s
i
S
i
representa la
utilidad o pagos obtenidos por el iesimo jugador, resultado de las
estrategias elegidas por el y sus rivales en el juego.
En un juego, generalmente los jugadores eligen sus estrategias de forma si-
multanea, es decir, cada jugador elige su jugada sin conocer las decisiones
de los demas. Asimismo, cada jugador recibe un pago u
i
= u
i
(s
1
, ....., s
n
),
dependiendo de las estrategias elegidas por los demas. Como ejemplo pro-
totipo de juegos en forma normal o estrategica, destacan los juegos con
dos jugadores, donde cada uno de ellos tiene un n umero nito de estrate-
gias, por lo que las funciones de pago pueden representarse en una doble
matriz. Un ejemplo de estos juegos es el conocido como El Dilema del
prisionero el cual se mostrara mas adelante.
Existen basicamente dos enfoques distintos para aproximarnos al analisis
de una situacion de interacciones entre individuos: (a) teora de juegos no
cooperativos, y (b) teora de juegos cooperativos [21].
2.5.2. Teora de juegos no cooperativos
La teora de juegos no cooperativos, es quizas, la teora dominante dentro
del ambiente de los economistas. En este enfoque, basicamente, tenemos
un conjunto de n jugadores, cada uno con S estrategias a su disposicion, y
unas asignaciones U de pagos que reciben por llevar a cabo tales estrate-
gias. La caracterstica no cooperativa estriba en la manera de como
eligen y lo que saben de los otros jugadores cuando eligen. En general, se
supone que los individuos toman sus decisiones independientemente unos
de otros, aunque conociendo a sus oponentes y las posibles estrategias que
estos tienen a su disposicion. Es decir, son individuos egostas que tratan
de predecir lo que los otros agentes haran, para trabajar entonces en con-
veniencia propia. En esta estructura de analisis los agentes no alcanzan
ning un nivel de cooperacion.
2.5. TEOR

IA DE JUEGOS 111
Cuadro 2.2: Matriz bimatricial correspondiente al juego del Dilema del prisionero.
prisionero 2 / prisionero 1 Cooperar No Cooperar
Cooperar -2 -2 -10 0
No Cooperar 0 -10 -6 -6
El Dilema del prisionero, es un ejemplo tpico que ilustra la manera de
operar de este tipo de modelos, en este caso se describe la conducta de
dos prisioneros (jugadores) que tienen la oportunidad de No Confesar
(estrategia 1) o Confesar (estrategia 2) un determinado delito. La de-
scripcion de este juego es la siguiente: dos individuos son detenidos debido
a que cometieron cierto delito. Ambos son separados en celdas diferentes
y son interrogados individualmente. Ambos tienen dos alternativas: coop-
erar uno con otro (noconfesar) o no cooperar (confesar el delito). Ellos
saben que si ninguno conesa, cada uno ira a prision por dos a nos. Pero
si uno de los dos conesa y el otro no, entonces al que conesa lo dejaran
libre y al que no conesa lo condenaran a 10 a nos. Si ambos conesan,
los dos iran a prision por 6 a nos. La situacion se resume en la siguiente
bimatriz (es decir, una matriz cuyos elementos son parejas de n umeros)
(ver Tabla 2.2):
En la matriz mostrada en la Tabla 2.2, las columnas indican las estrategias
para el jugador 1 (prisionero 1) y las las las estrategias que puede elegir
el jugador 2 (prisionero 2). Cada combinacion de estrategias determina
una utilidad, indicada por las parejas de n umeros en las celdas, donde
el primer dgito corresponde a la utilidad obtenida por el prisionero 2 y
el dgito 2 a la utilidad obtenida por el prisionero 1. Por ejemplo, si el
prisionero 1 elige la estrategia de cooperar y el prisionero 2 la estrategia
de no cooperar la celda seleccionada es la que tiene los valores de utilidad
(0 10), es decir, la mayor utilidad (0) corresponde al prisionero 2. En
este caso, la utilidad negativa de 10, obtenida por el prisionero 1 puede
interpretarse mas bien como un castigo.
Ante esta situacion, la pregunta natural es: que haran los detenidos?
cooperaran entre s (no confesaran)? o se traicionaran el uno al otro
(confesaran)?. Alguien desprevenido que este observando este juego po-
dra pensar que los dos jugadores cooperaran (no confesaran) puesto
que en ese caso ambos obtendran el menor castigo posible. Sin embargo,
la estructura no cooperativa del problema hace que este arreglo no sea
creble: si se pactara la noconfesion por parte de los dos, ambos tendran
incentivos particulares para romperlo, pues dejando al otro en cumplim-
112 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
iento del pacto de no confesar, el que rompe el pacto obtiene la libertad
mientras al otro lo condenaran a 10 a nos. De manera similar, estudiando
las otras tres posibilidades del juego (es decir, (C, NC), (NC, NC), (NC,
C)) observamos que el unico acuerdo creble (que signica que ninguno
de los dos querra romper el pacto unilateralmente porque perdera) es
(NC, NC). En denitiva, la prediccion de lo que ocurrira en el juego es
que ambos confesaran y permaneceran en la carcel 6 a nos.
La conclusion en situaciones similares a esta (que son comunes en la vida
diaria), es que la competencia egosta puede conducir a estados que son
inferiores (en terminos de benecio personal y social) a los estados coop-
erativos, pero que estos ultimos no podran implementarse a menos que
existan reforzamientos externos (contratos rmados por ley, vericacion,
etc.) que obliguen a las partes a cumplir con el acuerdo de cooperacion.
Esta es la idea esencial de Nash, al denir el concepto de equilibrio de
Nash en su tesis doctoral [23] en Matematicas: un equilibrio de Nash es un
acuerdo que ninguna de las partes puede romper a discrecion sin perder.
Es decir, si alguien quiere romper el pacto y lo hace unilateralmente, se
arriesga a ganar por debajo de lo que hubiese ganado dentro del pacto.
Sin embargo, como queda claro en el juego del dilema del prisionero, esto
puede no ser lo mejor socialmente para los jugadores. Uno de los resulta-
dos que hacen del equilibrio de Nash un punto de referencia para casi todo
analisis en el que las interacciones entre individuos esten involucradas es
que:
todo juego nito (es decir, nitos jugadores y nitas estrategias de cada
jugador) tiene al menos un equilibrio de Nash, aunque involucre ciertas
probabilidades objetivas de juego de las estrategias por parte de los ju-
gadores.
Este resultado se publico en un artculo [22] donde prueba, utilizando el
conocido teorema de punto jo de Brouwer, que un equilibrio de Nash es
un punto jo: las expectativas de las personas con respecto a lo que los
demas haran, coinciden todas en el equilibrio de Nash.
Equilibrio de Nash: descripcion formal. El equilibrio de Nash, es un
concepto muy amplio de solucion aplicable en numerosos juegos. Dado un
juego G = (S
1
, ....., S
n
; u
1
, ....., u
n
), las estrategias (s
1
, ....., s
n
) forman
un equilibrio de Nash en estrategias puras si, para cualquier i, s
i
S
i
2.5. TEOR

IA DE JUEGOS 113
es la mejor respuesta (o al menos una de las mejores) a las estrategias
(s
1
, ..., s
i1
, s
i+1
, ...s
n
) de los otros n 1 jugadores, es decir:
u(s
1
, ...., s
i1
, s
i
, s
i+1
, ...., s
n
) u(s
1
, ...., s
i1
, s
i
, s
i+1
, ...., s
n
)
Para cualquier jugador i y para cualquier s
i
S
i
. Esto implica que todos
y cada uno de los jugadores resuelven individualmente el problema
Max u(s
1
, ...., s
i1
, s
i
, s
i+1
, ...., s
n
), s
i
S
i
alcanzandose el equilib-
rio de Nash cuando todos, simultaneamente, obtienen el maximo resul-
tado. Es decir, que la estrategia predicha de cada jugador debe ser la
mejor respuesta de cada jugador a las estrategias predichas por los otros
jugadores. Tal prediccion se denomina estrategicamente estable o self-
enforcing. Todos elegiran las estrategias de equilibrio y a ninguno le
conviene desviarse de ella. De existir una desviacion rentable para (al
menos) un jugador, la situacion anterior dejara de ser un equilibrio de
Nash.
En otras palabras, si las estrategias (s

1
, ....., s

n
) no constituyen un equi-
librio de Nash, al menos un jugador tendra un incentivo para desviarse y
cambiar su estrategia. El equilibrio de Nash (s
1
, ..., s
n
) goza entonces de
la importante propiedad de que si el jugador i elige la estrategia s
i
S
i
del equilibrio, los otros jugadores no pueden hacer otra cosa mejor que
elegir tambien las estrategias del equilibrio (s
1
, ..., s
i1
, s
i+1
, ..., s
n
).
Para el juego G = (S
1
, S
2
; u
1
, u
2
), la pareja de estrategias (s
1
, s
2
) for-
man un equilibrio de Nash si:
s
1
es la mejor respuesta a la estrategia s
2
de II.
s
2
es la mejor respuesta a la estrategia s
1
de I.
Es decir, que: a) u
1
(s
1
, s
2
) u
1
(s
1
, s
2
)s
1
S
1
, b) u
2
(s
1
, s
2
)
u
2
(s
1
, s
2
)s
2
S
2
.
Por tanto, cada estrategia s
i
, i = 1, 2 debe ser solucion al problema de
optimizacion, dado por:
a) Max u
1
(s
1
, s
2
) , buscando la mejor respuesta de I ante la estrategia
s
2
de II. s
1
S
1
b) Max u(s, s), buscando la mejor respuesta de II ante la estrategia s
1

de I. s
2
S
2
114 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
Otra forma de interpretar el equilibrio de Nash es por medio de las curvas
de reaccion:
a) Para cada estrategia s
2
de II, el jugador I resuelve el problema Max
u(s
1
, s
2
), s1 S
1
, obteniendo una respuesta optima s
1
= R
1
(s
2
) llamada
curva de reaccion del jugador I.
b) Para cada estrategia s
1
de I, el jugador II resuelve el problema Max
u2(s
1
, s
2
), s
2
S
2
, obteniendo una respuesta optima s
2
= R
2
(s
1
) llama-
da curva de reaccion del jugador II.
El equilibrio de Nash es aquel o aquellos puntos de interseccion de las dos
curvas de reaccion de ambos jugadores, el decir, un par de estrategias s
1

y s
2
que verican las igualdades:
s
1
= R
1
(s
2
)
y
s
2
= R
2
(s
1
)
Dentro de la teora de juegos no cooperativos encontramos las siguientes
variantes: i) formas de juego estrategicas, ii) formas de juego extensivas,
y iii) juegos de suma cero. En el segundo caso se manejan situaciones con
informacion perfecta e imperfecta.
2.5.3. Formas de juego: estrategicas y extensivas
La forma de juego estrategica (tambien conocida como forma normal ),
es el tipo de juego basico estudiado en la teora de juegos no cooperativos.
En este juego, las estrategias de cada jugador son enlistadas, as como
los resultados obtenidos por cada combinacion posible de elecciones. Un
resultado se representa por una utilidad para cada jugador. La utilidad
es usualmente representada por un n umero que indica la preferencia del
jugador por el resultado.
A su vez, la forma extensiva tambien conocida como arbol de juego, es
una representacion del juego mas detallada que la anterior. Es una de-
scripcion detallada que muestra como el juego evoluciona con el tiempo.
Esto incluye el orden en el que los jugadores pueden tomar acciones, la
informacion que los participantes tienen en ese momento as como los
momentos en que se resuelve cualquier incertidumbre de la situacion. Un
2.5. TEOR

IA DE JUEGOS 115
juego en forma extensiva puede analizarse directamente, o se puede con-
vertir en una forma estrategica equivalente.
Juegos extensivos con informacion perfecta. Los juegos estrategicos
o normales, no manejan informacion temporal. En estos juegos, los ju-
gadores eligen sus estrategias de manera simultanea sin conocer la eleccion
de los adversarios. Un modelo mas detallado de este tipo de juegos es una
representacion en forma de arbol conocida como: juegos extensivos, en el
cual, los jugadores son informados en bases temporales de las estrategias
utilizadas por sus adversarios. A estos juegos se les identica por manejar
informacion perfecta. En un juego extensivo con informacion perfecta, ca-
da jugador es en todo momento consciente de las opciones seleccionadas
por los demas jugadores. Ademas, solo un jugador hace un movimiento a
la vez, de tal forma que no existen movimientos simultaneos. Para ilustrar
el mecanismo que sigue este juego se va a mostrar el siguiente ejemplo.
Eleccion de calidad con compromiso. Se va a plantear el juego para la
eleccion de calidad, el cual se forma por dos jugadores. Suponga que el
jugador 1 es un proveedor de servicios de Internet, y que el jugador 2 es
un cliente potencial, quienes consideran concertar un contrato de servi-
cio por un perodo de tiempo. El proveedor puede decidir por s mismo,
optar entre dos niveles de calidad en el servicio: alto o bajo. Es mas cos-
toso proporcionar servicio de alta calidad, y algunos de los costos son
independientes de si el contrato esta rmado o no. El nivel de servicio
no se puede vericar en el contrato. El servicio de alta calidad es mas
valioso para el cliente que el servicio de baja calidad, tanto es as, que
el cliente preferira no comprar el servicio si supiera que es de baja cali-
dad. Sus opciones son: comprar o no comprar el servicio (ver Figura 2.19).
La Figura 2.19 muestra las posibles utilidades que describen esta situacion.
El cliente preere comprar si el proveedor le suministra un servicio de al-
ta calidad, y no comprar en otra situacion. Independientemente de si el
cliente compre o no, el proveedor siempre preferira suministrar un servicio
de baja calidad. Por otro lado, el comprador asume que el proveedor es
un ente racional y por ende siempre va a preferir la estrategia de propor-
cionar un servicio de baja calidad, de tal manera que se puede anticipar a
esta estrategia y optar por No Comprar. De tal manera, que la racional-
idad de ambos jugadores concluyen que el proveedor siempre optara por
un servicio de baja calidad y como resultado no habra ning un contrato.
116 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
Figura 2.19: Matriz del juego para elegir la calidad del servicio (alta, baja) entre un
proveedor del servicio y un cliente.
La Figura 2.20 muestra otra variante del juego de eleccion de calidad.
Este es un arbol de juego con informacion perfecta. Cada terminacion
de la rama del arbol o nodo es asociado con un jugador quien hace un
movimiento y pasa al siguiente nodo. Las lneas que conectan los nodos se
etiquetan con la eleccion de los jugadores. El juego comienza en el nodo
inicial o raz del arbol, y naliza en el nodo terminal, el cual establece
el resultado y determina la utilidad de los jugadores. En esta gura, el
crecimiento del arbol es de izquierda a derecha, asimismo, el crecimiento
del arbol puede indicarse de abajo hacia arriba o viceversa.
El proveedor de servicio realiza el primer movimiento, escogiendo la cal-
idad del servicio: Alta o Baja. Enseguida, el cliente es informado acerca
de la eleccion del proveedor, por lo que puede decidir de manera separada
entre comprar o no comprar el servicio en cada caso. Las utilidades re-
sultantes son las mismas que se indicaron en la Figura 2.19. Sin embargo,
ahora el juego es un poco diferente, ya que el movimiento de los jugadores
es en secuencia mas que simultaneo.
Los juegos extensivos con informacion perfecta pueden ser analizados
aplicando la tecnica conocida como induccion hacia atras. Esta tecnica
resuelve el juego considerando en primer termino la ultima eleccion posi-
ble. En este caso, el cliente decide al nal, cuando lo hace ya sabe que
decision tomo el proveedor, por lo tanto, tomara la opcion que le resulte
mejor. De esta forma, si el proveedor opta por proporcionar un servicio de
alta calidad, entonces el cliente decide comprar, dando en este caso una
2.5. TEOR

IA DE JUEGOS 117
Figura 2.20:

Arbol que representa el juego eleccion de calidad, el jugador I se com-
promete a decidir entre calidad Alta o Baja, el jugador II debe actuar en consecuen-
cia. Las echas indican el la trayectoria del movimiento optimo determinado por la
tecnica de induccion hacia atras.
utilidad de 2, que es mayor al resultado obtenido si decidiera no com-
prar. La Figura 2.20 muestra las utilidades obtenidas por las decisiones
tomadas por el cliente.
La solucion propuesta por esta tecnica, especica la forma en que el juego
sera manejado. Iniciando en la raz del arbol, el juego contin ua a lo largo
de una ruta hasta llegar a un resultado. Cabe notar que este analisis
genera varias opciones a lo largo de la ruta. Debido a que este metodo
mira a cada nodo en el arbol, puede especicar para cada jugador un
plan completo que le permita determinar que hacer en cada momento en
el juego, donde el jugador pueda hacer un movimiento aunque ese pun-
to nunca pueda surgir en el curso del juego. A dicho plan se le conoce
como una estrategia del jugador. Por ejemplo, una estrategia del jugador
II en la Figura 2.20 es comprar si ofrecen servicio de alta calidad, no
comprar si ofrecen servicio de baja calidad. Esta es la estrategia del ju-
gador II obtenido por induccion hacia atras. Solo la primera opcion en
esta estrategia entra en efecto cuando se juega de acuerdo a la solucion
de induccion hacia atras.
Juegos extensivos con informacion imperfecta. En muchas situaciones los
118 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
jugadores no siempre tienen acceso a informacion completa antes de elegir
sus opciones. Los juegos extensivos con informacion imperfecta modelan
exactamente de que informacion disponen los jugadores antes de hacer sus
movimientos. Modelar y evaluar informacion relevante, es precisamente
una de las fortalezas de la teora de juegos. John Harsanyi fue pionero
en esta area, por tal razon sus trabajos fueron reconocidos por el premio
Nobel otorgado en 1994.
Para entender de manera general este enfoque de trabajo en la teora de
juegos, se va a considerar el siguiente escenario. Considere la situacion en-
frentada por una gran empresa de software despues de que una peque na
empresa ha anunciado el despliegue de una nueva tecnologa. La gran
empresa posee un amplio soporte en investigacion y desarrollo, y como
es de conocimiento general, tienen investigadores trabajando en una am-
plia variedad de innovaciones. Sin embargo, solo las grandes compa nas
saben con certeza si han hecho o no alg un progreso en un producto simi-
lar al que estan anunciando. La peque na empresa, considera que hay una
posibilidad de 50 por ciento que la gran empresa haya desarrollado un
producto capaz de competir con el suyo. En aras de la brevedad, cuando
la gran empresa tiene la capacidad para producir un producto capaz de
enfrentar la competencia, hara referencia a tener una posicion fuerte,
a diferencia de una debil.
Despues del anuncio, la gran empresa tiene dos opciones: (i) Puede con-
trarrestar el anuncio indicando que tambien dara a conocer un producto
similar, (ii) Puede optar por ceder el mercado al producto. La gran em-
presa seguramente condiciona su eleccion en relacion a sus conocimientos
del sector privado, y puede actuar de manera diferente cuando tiene una
posicion fuerte que cuando se tiene una debil. Si la gran empresa ha anun-
ciado un producto, la peque na empresa se enfrenta a una eleccion: puede
negociar la compra y se vende a la gran empresa, o puede seguir siendo
independiente y lanzar su producto. El peque no empresario no tiene ac-
ceso a la informacion de las empresas privadas respecto al estado de su
investigacion. Sin embargo, observa si la empresa grande anuncia su pro-
pio producto, y puede intentar deducir a partir de aqu la probabilidad
que la empresa grande ha avanzado en el desarrollo de su producto.
Cuando la empresa grande no tiene un producto fuerte, el peque no em-
presario preferira quedarse en el mercado a vender su producto. Cuando
la gran empresa realmente tiene un producto fuerte, lo opuesto es verdad,
y el peque no empresario decide que es mejor vender en vez de quedarse
2.5. TEOR

IA DE JUEGOS 119
en el mercado.
La Figura 2.21 muestra un juego extensivo que modela esta situacion.
Desde la perspectiva del peque no empresario, que la gran empresa haya
o no realizado investigacion en este campo es aleatorio. Con el n de cap-
turar los eventos aleatorios como el anterior mediante arboles de juegos,
se introducen los movimientos de oportunidad. En un nodo etiquetado
como movimiento de oportunidad, la siguiente rama del arbol es tomado
al azar y no estrategicamente por casualidad, o naturaleza, de acuerdo
a probabilidades incluidas en la especicacion del juego.
El juego en la gura 2.21 se inicia con un movimiento de oportunidad
en la raz. Con una probabilidad de 0.5, el movimiento de oportunidad
decide si la gran empresa de software (jugador I), esta en una posicion
fuerte (mover hacia arriba) o en una posicion debil (mover hacia aba-
jo). Cuando la empresa se encuentra en una posicion debil, puede elegir
Ceder el mercado para el peque no empresario, con recompensas (0, 16)
para los dos jugadores (recompensas en millones de dolares de ganancia).
Tambien puede Anunciar un producto para competir, con la esperanza
de que la empresa peque na (jugador II), vendera, con recompensas 12 y
4 a los jugadores I y II. Sin embargo, si el jugador II decide Quedarse, se
vera beneciado por la publicidad y obtendra una recompensa de 20, con
una perdida de 4 para la empresa grande.
En contraste, cuando la empresa grande se encuentra en una posici on
fuerte, ni siquiera considerara la opcion de ceder el mercado al principi-
ante, sino que simplemente anunciara su propio producto. En la Figura
2.21, esto se modela por una sola eleccion del jugador I en el nodo supe-
rior, lo cual se da por sentado (uno podra agregar la opcion adicional de
tener que ceder y posteriormente eliminarlo como una elecci on dominante
de la gran empresa). Entonces, la recompensa de los dos jugadores son
(20 4) si el principiante permanece y (12, 4) si vende.
Ademas de un arbol de juego con informacion perfecta, como el mostrado
en la Figura 2.21, los nodos de los jugadores estan encerrados por ovalos
llamados conjuntos de informacion. La interpretacion es que un jugador
no puede distinguir entre los nodos de un conjunto de informacion, da-
do su conocimiento en el momento que realiza el movimiento. Dado que
su conocimiento de todos los nodos en un conjunto de informacion es el
mismo, realiza la misma eleccion en cada nodo en el conjunto. Aqu, la
empresa peque na (jugador II), debe elegir entre quedarse o vender. Estas
120 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
Figura 2.21: Juego extensivo con informacion imperfecta entre jugador I (una gran
empresa de software), y jugador II (una empresa peque na). El movimiento de oportu-
nidad decide si el jugador I es fuerte (nodo superior) y tiene un producto competente,
o debil (nodo inferior) y no lo tiene. Los ovalos indican conjuntos de informacion.
El jugador II solo ve que el jugador I eligio Anunciar un producto competente, pero
no sabe si el jugador I es fuerte o debil.
2.5. TEOR

IA DE JUEGOS 121
son las dos opciones del conjunto de informacion del jugador II, que tiene
dos nodos de acuerdo con las diferentes historias del juego, las cuales el
jugador II no puede distinguir.
Debido que el jugador II no esta informado acerca de su posicion en el
juego, la induccion hacia atras no puede ser aplicada. Sera mejor vender
en el nodo superior y quedarse en el nodo inferior. En consecuencia, la
eleccion del jugador I cuando esta en la posicion debil no es clara, si el
jugador II permanece, entonces es mejor Ceder (ya que 0 es mejor que
-4), pero si el jugador II vende, entonces es mejor Anunciar.
Este tipo de juego no tiene un punto de equilibrio para estrategias puras:
el principiante respondera a Ceder vendiendo al ver un anuncio, desde
luego esto solo se observa cuando el jugador I es fuerte. Pero entonces
el jugador I respondera anunciando un producto incluso en la posicion
debil. A su vez, la igualdad de oportunidades de enfrentar a un oponente
fuerte o debil inducira al principiante a permanecer en el mercado, luego
entonces, la recompensa esperada de 0,5 4 0,5 20 = 8 supera en
4 cuando la opcion es vender.
Juegos de suma cero. El caso extremo de jugadores con intereses to-
talmente opuestos se materializa en la clase de dos jugadores con suma
cero (o suma constante). Ejemplos de este tipo de juegos son algunos
juegos de salon como ajedrez y damas. Estos juegos se pueden usar para
modelar estrategicamente el concepto de no determinismo en las ciencias
computacionales. Este concepto se basa en la suposicion de que, cuando
un ordenamiento de eventos no se ha especicado, se debe asumir que la
peor secuencia posible se llevara a cabo. Esto puede ser colocado en el
marco de la teora de juegos con suma cero tratando a la naturaleza (o
el medio ambiente) como un oponente antagonico. Mediante la aleator-
izacion, un oponente puede describir el peor escenario el cual puede servir
como referencia.
Un uso similar de la aleatorizacion se conoce en la teora de algoritmos
como el Teorema de Rao, y describe el poder de los algoritmos aleatorios.
Un ejemplo es el conocido algoritmo de ordenamiento rapido (quick-sort
algorithm), el cual tiene uno de los mejores tiempos de ejecucion ob-
servado en la practica para esta clase de algoritmos, pero puede estar
mal en el peor de los casos. Con un proceso aleatorio, estos pueden hac-
erse extremadamente improbables. Tanto los algoritmos aleatorios como
122 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
los juegos de suma cero se utilizan para analizar los problemas de com-
putacion en lnea. Esto, a pesar de su nombre, no esta relacionado con la
Internet, mas bien describe la situacion donde un algoritmo recibe como
entrada un dato en un momento y tiene que tomar decisiones, por ejemplo
en la programacion de actividades, sin ser capaz de esperar hasta que la
entrada se conozca en su totalidad. El analisis de algoritmos en lnea ha
revelado informacion sobre problemas de optimizacion y tambien parece
pertinente para el procesamiento masivo de datos que es de esperarse en
el futuro. En la actualidad, constituye un area de investigacion activa,
aunque mayormente connado a la ciencia computacional teorica.
2.5.4. Juegos cooperativos
En este enfoque todava existen los mismos agentes egostas, pero ahora
se asume que, si pueden obtener alg un benecio de la cooperaci on, no
dudaran en formar alianzas. Por supuesto, bajo una estructura como la
de juegos no cooperativos, un acuerdo de cooperacion puede no ser la
solucion, de manera que los agentes deben tener una estructura de in-
formacion diferente si queremos un comportamiento apropiado. En una
estructura cooperativa tenemos el mismo conjunto de jugadores egostas,
solo que ahora tienen informacion sobre cierta valoracion a priori de las
coaliciones. Es decir, se reconoce cuales alianzas son mas valiosas y
cuales menos valiosas. Para concretar ideas, se va a presentar un mod-
elo que muestra bien el poder predictivo que puede tener este tipo de
estructura y las soluciones asociadas. El modelo del Peque no Mercado
muestra una estructura de mercado en la que hay un vendedor (jugador
1) de cierto bien que no podemos dividir en partes (por ejemplo, un au-
tomovil), y dos compradores (jugador 2 y jugador 3) que desean comprar
ese bien. Las valoraciones que a priori se le asignan a las coaliciones
seran, en este caso un reejo del exito o fracaso de la negociacion entre el
vendedor y el comprador, dependiendo de como se entiendan, y no una
prediccion sobre quien de los dos obtendra el bien (este problema tiene
otra valoracion). En este caso, asignamos la valoracion a todas las posi-
bles coaliciones de la siguiente forma:
V(1,2,3) = V(1,2) = V(1,3) = 1 (si hay vendedor y comprador, el
negocio se lleva a cabo).
V(1) = V(2) = V(2,3) = 0 (si solo hay compradores o vendedores,
no se realiza el negocio).
2.5. TEOR

IA DE JUEGOS 123
Existen varias soluciones al tipo de juegos en forma cooperativa. Por
supuesto, una solucion debe signicar una reparticion de la riqueza o
valoracion total de todo el grupo de jugadores como gran coalicion, de tal
manera que a cada jugador le corresponda su aporte a ella. La forma
de determinar el nivel de este aporte es un aspecto que se analiza con las
dos mas importantes soluciones a juegos cooperativos: el n ucleo y el valor
de Shapley.
N ucleo del juego cooperativo [25]. La idea de reparticion detras de
la solucion de n ucleo es que si esta le asigna x
1
al vendedor (jugador 1),
x
2
al comprador 1 (jugador 2), y x
3
al comprador 2 (jugador 3), entonces
debemos por lo menos tener que:
x
1
+x
2
+x
3
= 1 (eciencia)
(los tres agentes se reparten el poder del mercado que esta a priori en
la union de los tres).
V (1, 2) x
1
+x
2
,
V (1, 3) x
1
+x
3
,
V (2, 3) x
2
+x
3
,
V (1) x
1
,
V (2) x
2
,
V (3) x
3
(lo que los agentes reciben a traves de la asignacion de n ucleo es mejor
que lo que recibiran antes de la asignacion a priori V, y esto sucede en
cualquier coalicion que formen). Observese que la asignacion de n ucleo
es un acuerdo muy basico. Es una invitacion a formar coaliciones: si
usted forma alguna coalicion ganara mas de lo que gana en cualquier
coalicion del status quo determinado por la asignacion a priori V. Un
poco de aritmetica nos muestra que la unica asignacion de n ucleo en nue-
stro Peque no Mercado es x
1
= 1, x
2
= x
3
= 0. En otras palabras, el
n ucleo esta pronosticando que la importancia total del mercado la tiene
el vendedor y que los compradores no tienen ninguna.
Valor de Shapley [26]. Otra forma de distribucion con consideraciones
mas sutiles que las de n ucleo, es el valor de Shapley. Podra decirse que el
valor de Shapley es a los juegos cooperativos lo que el equilibrio de Nash
es a los juegos no cooperativos.
124 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
Como se describio en el ejemplo anterior, un juego cooperativo consiste
en un conjunto de jugadores N(N = n) y una asignacion monetaria V (S)
para cada subcoalicion S N. El problema que se intenta resolver es:
Como distribuir la riqueza total V (N) entre todos los participantes?. El
valor de Shapley busca solucionarlo imponiendo ciertas condiciones a la
distribucion: Si x
i
, i N, es la asignacion que recibira en la distribucion
de Shapley el jugador i, entonces
(Eciencia) x
1
+x
2
+...x
n
= V (N)
(Jugador dummy o fantasma) Si para alg un i N, V (SI) = V (S)
para toda coalicion S, entonces x
i
= 0
(Simetra) Si las valoraciones de las coaliciones no cambian cuando
se reemplaza un jugador por cualquier otro, entonces, todos reciben
lo mismo. Es decir, x
1
= ... = x
n
.
(Aditividad) Si V y W son dos valoraciones distintas sobre el mismo
conjunto N de jugadores, entonces la asignacion de cualquier jugador
para la valoracion V y para la valoracion W es aditiva. Es decir, para
todo i N, x
i
(V +W) = x
i
(V ) +x
i
(W).
Solo el valor de Shapley satisface estas cuatro condiciones. Y m as a un, ex-
iste una formula explcita sobre como calcularlo, basada en las contribuciones
marginales (es decir, una medida de cuanto un jugador le aporta a las
coaliciones en donde esta):
x
i
=

r
(
i
(S
i
(r)))
n!
(2.1)
donde es el conjunto de los n! ordenes de N, S
i
(r) = conjunto de ju-
gadores que preceden a i en el orden r,
i
(S) = V (S i)/V (S) =
contribucion marginal del agente i a la coalicion S.
Como un ejemplo de la mejor distribucion total de la riqueza del juego
entre los participantes que el valor de Shapley realiza, es facil calcular
que en el juego del Peque no Mercado que analizabamos antes, el valor de
Shapley es:
x
1
= 2/3, x
2
= 1/6, x
3
= 1/6.
A diferencia del n ucleo, cuya asignacion es (1, 0, 0), el valor de Shapley
s le asigna importancia a los compradores, aunque reconoce un poder
2.5. TEOR

IA DE JUEGOS 125
mayor al vendedor.
Una importante categora en el estudio de la teora de juegos clasica con-
siste en una subdivision de la teora de juegos cooperativos: los Modelos
de Negociaci on. En estos juegos, dos o mas jugadores buscan ganar a
traves de la cooperacion, pero deben negociar el procedimiento y la for-
ma en que se dividiran las ganancias de esta cooperacion. Un modelo de
negociacion especica como y cuando se alcanzan los acuerdos y como se
dividiran las ganancias, dependiendo de las reglas de negociacion y de las
caractersticas de los negociadores.
John Nash realizo contribuciones fundacionales a la teora de juegos de ne-
gociacion. En su artculo de 1950 [24], se aparta radicalmente de la teora
economica ortodoxa que consideraba indeterminados los problemas de
negociacion. En contraste, Nash asume que la negociacion entre agentes
racionales conduce a un unico resultado, y lo determina imponiendole
al modelo ciertas propiedades deseables. La formulacion de Nash del
problema de negociacion y su solucion (la solucion de negociacion de
Nash) constituyen el fundamento de la teora moderna de la negociaci on.
Para aclarar un poco el problema de negociacion de Nash, suponga que
se tienen dos jugadores egostas que buscan dividirse una cantidad de
dinero M y que no estan de acuerdo en que los dos no obtengan nada
de la negociacion, pero que si no llegan a un acuerdo, entonces s les
correspondera irse con las manos vacas. John Nash mostro que, bajo
ciertas condiciones plausibles, los dos jugadores acordaran la reparticion
(x1, x2) que maximiza el producto de los dos. Es decir, resuelven
Max x
1
x
2
, sujeto a la condicion x
1
+x
2
= M.
La solucion a esto es, como se ve facilmente, (x
1
) = (x
2
) = 1M. Esta es
la solucion de negociacion de Nash para este simple problema: distribucion
equitativa de la cantidad de dinero disponible.
Las propiedades deseables mencionadas anteriormente, que satisfacen
la solucion de negociacion de Nash son las siguientes:
a) Eciencia: las soluciones de negociacion de Nash agotan todas las
oportunidades de mejorar las ganancias de ambos jugadores.
b) Simetra: si el cambio de un jugador por otro no cambia el problema
de negociacion, en la solucion ellos deben obtener lo mismo.
c) Invarianza: la solucion no puede depender de las unidades arbitrarias
en las que se midan los benecios de la negociacion.
126 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
d) Independencia de alternativas irrelevantes: es la hipotesis mas
sutil. Establece que el resultado de una negociacion no puede depen-
der de alternativas de negociacion que los negociadores no escogen
aunque pudieran hacerlo.
Estas cuatro hipotesis conducen al conocido teorema de negociaci on de
Nash. La solucion de negociacion de Nash es la unica que satisface las
propiedades a), b), c), d) en un modelo de negociacion.
Cooperar o competir. Nash aseguraba que la teora de juegos cooper-
ativa y no cooperativa eran complementarias, que cada una ayudaba a
justicar y claricar la otra. Si una solucion cooperativa poda ser obteni-
da a partir de un conjunto convincente de hipotesis, esto indicaba que
tambien poda ser apropiada en una variedad de situaciones mas amplia
que las encontradas en un modelo no cooperativo simple. Adem as, si re-
formulamos los juegos cooperativos como no cooperativos y buscamos los
equilibrios de Nash de estos ultimos, la discusion abstracta sobre lo ra-
zonables que puedan ser los principios o los resultados se reemplazan por
una discusion mas mundana acerca de lo apropiadas que resulten las re-
glas del juego. El programa Nash buscaba la posibilidad de la unicacion
teorica, y algunos logros ya se tienen en este sentido. Uno de ellos es el
famoso teorema de Aumann [27] que arma, en terminos elementales y a
la vez un tanto vagos lo siguiente:
En un grupo conformado por muchos agentes que tratan de disputarse
cierta cantidad de dinero, las distribuciones de equilibrio de Nash, de
n ucleo, de valor de Shapley y de negociaci on de Nash coinciden.
Aqu, la palabra muchos intenta capturar la idea de que cada jugador,
por s mismo, tiene un poder estrategico practicamente nulo. Solo tienen
poder, para la asignacion, grupos verdaderamente grandes, no individ-
uos aislados. Una implicacion directa de este teorema es que cuando las
interacciones individuales tienden a anularse, la competencia y la coop-
eracion conducen a los mismos resultados!!
Otro modelo basico muy importante en la direccion del programa Nash
es el de Rubinstein [28], que muestra que cualquier resultado de nego-
ciacion Nash entre pocos agentes, puede aproximarse mediante equilib-
rios de Nash de juegos no cooperativos secuenciales. Pero, por encima de
esto, el gran impulso del programa Nash se recibio en 1994 en el semi-
nario Nobel sobre el trabajo de John Nash en la Universidad de Princeton
(publicado en Les Prix Nobel 1994). Despues de estos, se han obtenido
resultados que involucran otros valores diferentes al de Shapley en es-
2.6. EJERCICIOS 127
tructuras de juegos mas sosticadas que muestran que la armacion de
Shapley en el sentido de que ambas teoras (cooperativa y no cooperati-
va) son, no solo complementarias, sino que realmente son una sola teora
vista con dos lentes diferentes [21, 29].
El razonamiento de la teora de juegos, es ahora el fundamento de im-
portantes areas de la teora economica, y esta rapidamente entrando en
disciplinas aparentemente dismiles como: nanzas, ciencias polticas, so-
ciologa, derecho y biologa. Las contribuciones de John Nash (junto con
Harsanyi, Selten, Aumann y Shapley) constituyen importantes aporta-
ciones en el desarrollo de la teora de juegos y en el establecimiento de
una metodologa com un para analizar la interaccion estrategica dentro
de todas las ciencias sociales, e incluso (este es el reto) en otras ciencias.
2.6. Ejercicios
a) Resuelva el problema de las dos jarras de vino aplicando el algoritmo
A*, dena sus heursticas.
b) Muestre la representacion mediante un CSP del problema de las n
reynas, para un valor de n = 4.
c) Comprobar que existe un equilibrio de Nash en el ejemplo del dilema
del prisionero.
d) Dos personas entran a un autob us. Hay dos asientos adyacentes libres.
Cada persona debe decidir entre sentarse o seguir de pie. Sentarse solo
es mas confortable que tener al lado una persona, sin embargo, esto
ultimo es mas confortable que seguir de pie.
a) Suponga que cada persona busca su propio confort. Modele esta
situacion como un juego estrategico. es este juego equivalente al
dilema del prisionero?, busque el equilibrio de Nash si es que
este existe.
b) Suponga que cada persona es altruista, clasique los resultados
seg un la comodidad y cortesa de la otra persona, la cual preere
estar de pie a sentarse si la otra persona esta de pie. Modele esta
situacion como un juego estrategico. es este juego equivalente al
dilema del prisionero?, busque el equilibrio de Nash si es que
este existe.
e) Dos personas eligen una poltica que afecta a ambos mediante el veto
alternado de polticas hasta que solo una permanezca. La persona I
veta una poltica. Si a un queda mas de una poltica, entonces la per-
sona 2 veta una poltica. Si mas de una poltica todava permanece,
128 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
entonce la persona 1 entonces veta otra poltica. El proceso sigue
hasta que solo quede una poltica. Suponga que hay tres polticas
posibles: X, Y, y Z, la persona 1 preere X a Y a Z, y la persona 2
preere Z a Y a X. Modele esta situacion como un juego extensivo
y encuentre el equilibrio de Nash.
f ) . Un prisionero analiza las posibilidades para escaparse ya sea esca-
lando la barda de la prision o cavando un t unel desde su celda. El
supervisor de la carcel a su vez, evita que el prisionero trepe por la
barda asignado guardias a lo largo de la pared y tambien evita que
cave un t unel realizando inspecciones constantes a su celda. Sin em-
bargo, el supervisor solamente tiene guardas sucientes para una de
las dos tareas pero no para ambas.
a) Elegir (justique) una utilidad numerica para este juego, luego
representelo en forma normal. Aseg urese de etiquetar las estrate-
gias y jugadores en la matriz de juego. es este un juego de suma
cero?, justique su respuesta.
b) Exprese este juego en forma extensiva, asumiendo que tanto el
prisionero como el supervisor eligen su decision al mismo tiempo.
c) Modele este juego en forma extensiva considerando que el super-
visor toma su decision primero, y que el prisionero la toma una
vez que conoce la estrategia del supervisor.
g) . Suponga que un inversionista esta pensando abrir un restaurante. El
tiene $100,000 para invertir. Si el abre el restaurante, la probabilidad
de que el restaurante tenga exito es de 0,35 y obtenga una ganancia
de $300,000 (incluyendo la inversion inicial). La probabilidad de que
el restaurante fracase y que pierda la inversion es de 0,65. Si no abre
el restaurante mantiene su capital inicial.
a) Modele lo descrito como un juego de forma extensiva consideran-
do que la decision del inversionista entre abrir y no abrir el restau-
rante se hace primero, y el azar interviene despues. Asegurarse
de etiquetar a los 2 jugadores, sus acciones elegidas, asimismo
incluya las recompensas esperadas en los nodos terminales.
b) Repita el proceso anterior suponiendo que el orden de las deci-
siones se invierte, es decir, el azar act ua primero, pero el inver-
sionista no sabe lo que el azar tiene para el al tomar su decision
de abrir/no abrir el restaurante.
h) En cada uno de los arboles de juego mostrados, cuantas estrate-
gias puras (planes de accion completos) estan disponibles para cada
jugador?. Liste todas las estrategias puras para cada jugador.
Captulo 3
Representacion del
conocimiento y razonamiento
En este captulo se va a describir uno de los temas relevantes en IA, me
reero al concepto de conocimiento, caracterstica humana en torno a la
cual ha girado gran parte de la investigacion cientca y losoca desde los
tiempos de Aristoteles. La inteligencia, resulta ser con toda seguridad uno
de los fenomenos mas complejos y misteriosos que conocemos. Un aspecto
llamativo del comportamiento inteligente es que claramente se encuentra
condicionado por el conocimiento: para una amplia gama de actividades
tomamos decisiones basandonos en lo que sabemos acerca del mundo, de
manera inconsciente y sin esfuerzo. Otro aspecto tan importante como el
mismo conocimiento consiste en su representacion, ya que es a traves de
este mecanismo computacional que se tiene la posibilidad de manipular
(de forma automatizada) al conocimiento. El manejo automatizado del
conocimiento se realiza generalmente a traves de programas de razon-
amiento. Comprender el conocimiento y poder manipularlo, es una forma
de abordar la inteligencia, ya que en lugar de tratar de comprender y
construir cerebros bajo un enfoque de abajo hacia arriba (bottom-up),
se trata de entender o dise nar el comportamiento inteligente de arri-
ba hacia abajo (top-down). Existen diferentes maneras de representar el
conocimiento. Una de ellas consiste pensar en terminos de un lenguaje
de representacion tal como logica simbolica y enfocarnos a describir la
forma en que esta logica puede ser utilizada en los problemas de IA. Otro
enfoque se basa en la especicacion y desarrollo de grandes sistemas basa-
dos en conocimiento, bajo este esquema surgen aspectos relacionados con
la ingeniera del conocimiento y ontologas. Un tercer enfoque se basa en
las ciencias cognitivas, el cual se centra en la representacion de estados
mentales humanos. Asimismo, existe ademas de los enfoques anteriores,
129
130CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


un cuarto esquema, el cual se basa en la interaccion entre el conocimiento
y el razonamiento. De hecho, se considera que es esta interaccion lo que
hace al area de representacion del conocimiento realmente atractiva y rel-
evante en la practica, ya que es tal sinergia, la que hace al conocimiento
estar disponible de una forma automatizada para el sistema que as lo
requiera [57].
En este captulo se van a presentar distintos enfoques relacionados con
el conocimiento, su representacion mediante smbolos formales dise nados
para este n y la manipulacion de los mismos a traves de tecnicas de
razonamiento.
3.1. Sistemas basados en conocimiento (KBS)
Datos, informacion, conocimiento y sabidura, son los principales ele-
mentos del pensamiento humano y del proceso de razonamiento. Exis-
ten diferencias distintivas entre estos elementos, los datos tienen que ver
con observaciones y hechos sin tratamiento, los cuales son in utiles sin
un procesamiento previo (ltrado, inferencia, comparacion,. . . ). Cuando
los datos son procesados se convierten en informacion, la cual a su vez,
cuando se le aplican procesos como sntesis, comparacion y an alisis con
el n de generar resultados signicativos se transforma en conocimiento
[31]. En esta misma secuencia, con el paso del tiempo y la experiencia
el conocimiento generado adicionado con el uso de juicios y valores se
convierte en sabidura (ver Figura 3.1).
El conocimiento puede clasicarse de varias maneras: conocimiento t acito,
explcito, heurstico, procedural, del sentido com un, conocimiento del do-
minio y meta conocimiento. En la Tabla 3.1 se proporciona una breve
descripcion de estos tipos de conocimientos.
El conocimiento puede ser representado a traves de estructuras como:
hechos, reglas y heursticas. La heurstica, como una regla general se con-
sidera una metodologa tactica en la solucion del problema. Por regla
general se puede mencionar que para cada uno de los problemas que
enfrentamos en la vida real, es posible que no se tengan reglas exactas y
procedimientos para una solucion deseada, pero si, de una regla emprica
que pueda aplicarse.
Estructura de un sistema basado en conocimiento (KBS
1
). Los
1
Por sus siglas en ingles: KnowledgeBased Systems.
3.1. SISTEMAS BASADOS EN CONOCIMIENTO (KBS) 131
Cuadro 3.1: Tipos de conocimiento.
Tipo de conocimiento Breve descripcion
Conocimiento del dominio Es un conocimiento valido para un dominio especicado.
Los especialistas y expertos desarrollan su propio conocimi-
ento del dominio y lo aplican en la solucion de problemas.
Metaconocimiento Puede denirse como el conocimiento acerca del coocimiento.
Conocimiento del sentido com un Es un conocimiento de prop osito general que se espera
este presente en cualquier humano. Las ideas del sentido
com un se relacionan con eventos de la experiencia
humana.
Conocimiento heurstico Es un conocimiento expresado por reglas o argumentos
obtenidos de la experiencia.
Conocimiento explcito Es un conocimiento que puede ser expresado
en n umerospalabras y compartidos en forma de dato,
formula cientca, especicaci on, manuales,
y principios universales. Es m as formal y sistematico.
Conocimiento tacito Es el conocimiento almacenado en el subconsciente de
expertos y que no resulta facil documentar. Es altamente
personal, difcil de formalizar y de representar formalmente
en un sistema. Ejemplos de este conocimiento son: emociones,
modelos mentales, intuiciones, valores y acciones,
entre otros.
132CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Figura 3.1: Cadena DIKW ((DataInformationKnowledgeWisdom))
KBS son uno de los miembros principales que integran la familia de la
IA. Con la disponibilidad de facilidades de computacion avanzada as co-
mo de otros recursos, la atencion se centra ahora en tareas cada vez
mas demandantes, las cuales pueden requerir de inteligencia. La sociedad
y las empresas se estan orientando al conocimiento y cada vez confan
mas en la habilidad de los expertos para tomar sus decisiones. Los KBS
pueden actuar como expertos y ser utilizados en cualquier momento y
lugar. De hecho un KBS es un sistema basado en computadora, el cual
usa y genera conocimiento a partir de datos, informacion y conocimiento.
Estos sistemas son capaces de comprender la informacion bajo proceso y
pueden tomar decisiones en base a la informacion y el conocimiento que
reside en el mismo, mientras que los sistemas de computo tradicionales
no conocen o no entienden los datos y la informacion que procesan.
Un KBS consiste de una Base de Conocimientos y un programa de
b usqueda conocido como motor de inferencias, el cual se encarga de in-
ferir el conocimiento almacenado en la Base de Conocimientos (ver Figu-
ra3.2). La base de conocimientos puede utilizarse como un repositorio
de conocimiento de varias maneras, puede ser un espacio utilizado para
almacenar resultados temporales yo trozos de informacionconocimiento.
Al igual que el poder de un experto humano radica en su capacidad
de explicacion y razonamiento, la credibilidad del sistema experto tam-
bien depende de la explicacion y razonamiento sugeridos por el sistema.
3.1. SISTEMAS BASADOS EN CONOCIMIENTO (KBS) 133
Figura 3.2: Arquitectura de un Sistema Basado en Conocimiento (KBS).
Asimismo, simula la habilidad de aprendizaje de un humano, lo que re-
sulta esencial para aprender nuevo conocimiento y desechar los obsoletos.
La vida de un KBS vara dependiendo del grado de simulacion, estos sis-
temas pueden ser actualizados de forma manual o de manera automatica
a traves de tecnicas de aprendizaje. De manera ideal, la estructura basica
de un KBS, rara vez debe modicarse. Asimismo, es conveniente dispon-
er de una interfaz de usuario para poder comunicarse con el sistema de
forma natural (ver Figura 3.2).
De acuerdo al esquema de clasicacion propuesto por Tuthill y Levy ex-
isten 5 tipos de KBS [32]:
a) Sistemas Expertos,
b) Sistemas Manipuladores de Hipertexto,
c) Sistemas Basados en Casos,
d) Bases de Datos Integrada con una Interface de Usuario Inteligente, y
e) Sistemas Tutores Inteligentes.
Ventajas y limitaciones de un KBS. Los KBS son mas utiles en
muchas situaciones que los tradicionales sistemas de informacion basados
en computadora. Algunas de estas situaciones son las siguientes:
Cuando no se tiene disponible a un experto humano.
Cuando la experiencia va a ser almacenada para uso futuro o va a
ser multiplicada.
Cuando se necesita un asistente inteligente y/o un entrenamiento
para tomar decisiones.
Cuando se necesita reunir el conocimiento de varios expertos en una
plataforma.
134CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Figura 3.3: Esquema que muestra el proceso de desarrollo de un Sistema Basado en
Conocimiento (KBS).
Con una apropiada utilizacion del conocimiento estos sistemas incremen-
tan la productividad, y mejoran la capacidad de resolucion de problemas
de una forma mas exible. Sin embargo, por la escasez y la naturaleza
del conocimiento hacen que el proceso de desarrollo de un KBS sea difcil
y complejo. Esto se debe principalmente a la naturaleza transparente y
abstracta del conocimiento. Ademas, este campo necesita mas directrices
para acelerar su proceso de desarrollo. Algunas de las principales limi-
tantes que presentan actualmente estos sistemas son las siguientes:
La adquisicion, representacion y manipulacion de grandes vol umenes
de datos/informacion/conocimiento.
La naturaleza abstracta del conocimiento.
Limitaciones de las ciencias cognitivas y de otros metodos cientcos.
Desarrollo de un KBS. La Figura 3.3, muestra el esquema del proceso
de desarrollo que sigue un sistema basado en conocimiento. El conocimien-
to de los expertos se almacena en sus mentes de una forma abstracta.
Ademas, cualquier experto humano puede no estar familiarizado con la
terminologa utilizada en los KBS as como en el proceso de desarrollo
de un sistema inteligente. Por lo que, el ingeniero del conocimiento es la
persona encargada de adquirir, transferir y representar el conocimiento
del experto en la forma de un sistema para computadora.
El proceso de adquisicion del conocimiento integra tpicos metodos tales
como: entrevistas, cuestionarios, registros, y observaciones con el n de
3.1. SISTEMAS BASADOS EN CONOCIMIENTO (KBS) 135
adquirir conocimiento explcito. Sin embargo, estos metodos no son efec-
tivos para obtener conocimiento tacito, el cual reside en el subconsciente
de los expertos y se reeja en los modelos mentales, ideas, valores, y ac-
ciones de los mismos. Para obtener esta informacion se requieren otras
tecnicas, tales como: ordenamiento de conceptos, mapeo de conceptos,
y analisis de protocolos. El conocimiento adquirido debe representarse
aplicando tecnicas apropiadas para tal n, tales como: reglas, frames, y
redes semanticas. Es responsabilidad del ingeniero del conocimiento elegir
el metodo (o una combinacion) apropiado que resulte natural, eciente,
transparente, y amigable con el desarrollador.
3.1.1. Concepto de conocimiento
El conocimiento es un aspecto humano que ha sido discutido por los an-
tiguos losofos griegos y que hasta la fecha no ha sido desmiticado. Lo
cierto es que tampoco se intentara aqu, pero para tener una idea general
acerca de lo que se entiende por conocimiento, nos sera de utilidad obser-
var como nos referimos a el de manera informal. En primer lugar, debemos
observar que cuando decimos algo como Juan sabe que..., generalmente
llenamos el espacio faltante con una simple sentencia declarativa. Por lo
que podramos decir que Juan sabe que Mara viene al partido o que
Juan sabe que los tigres son carnvoros. Esto sugiere que, entre otras
cosas, el conocimiento es una relacion entre un conocedor como Juan
y una proposicion, es decir, la idea expresada por una simple sentencia
declarativa como Mara llegara al partido.
Parte del misterio que rodea al conocimiento se debe a su naturaleza
proposicional. A este respecto, lo que importa sobre las proposiciones es
que son entidades abstractas que pueden tomar dos valores: verdadera o
falsa, correcta o incorrecta
2
. Por lo tanto, al decir que Juan sabe que p,
podemos indicar que Juan sabe que es verdad que p, decir que Juan
sabe algo es establecer que Juan se ha formado un juicio de alg un tipo
y ha llegado a comprender que el mundo es de una manera y no de otra
(conclusion que se desprende del valor que tome la proposicion). Al hablar
acerca de este juicio se estan empleando proposiciones para clasicar los
casos.
Una historia similar se puede decir acerca de una sentencia como Juan
confa en que Mara llegara a la esta. En este caso, tambien se uti-
liza una proposicion, pero la relacion que Juan muestra en la misma es
2
Estrictamente hablando, podemos decir que las oraciones que expresan la proposici on son
verdaderas o falsas y que por s misma, las proposiciones son hechos o no lo son.
136CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


diferente. Verbos como Conocer, Conar, Lamentar, Temer, y
Dudar denotan proposiciones de actitud. En todos los casos, lo que
importa sobre la proposicion es la verdad: si Juan confa en que Mara
llegara a la esta entonces Juan espera que el mundo sea de una manera
y no de otra, como se establece (clasica) en la proposicion.
Asimismo, tambien existen sentencias que involucran conocimiento y no
necesariamente implican a una proposicion. Por ejemplo, Juan sabe a
quien Mara esta llevando a la esta o Juan sabe como llegar all,
en estos casos las proposiciones implcitas son: Juan sabe que Mara
va acompa nada a la esta, y Juan sabe que para llegar a la esta,
debe caminar dos cuadras, pasar la avenida principal, doblar a la izquier-
da,. . . ,, y as sucesivamente. Por otro lado, cuando decimos que Juan
tiene una habilidad, tal como Juan sabe tocar el piano, o bien, que
posee un profundo conocimiento de alguien o algo, por ejemplo: Juan
conoce bien a Ricardo, en estos casos no resulta claro que alguna proposi-
cion este involucrada, y aunque es evidente que se esta implicando una
forma de conocimiento, la manera de manejarlo es hasta el momento un
tema que resulta desaante.
Un aspecto que guarda relacion con lo que se esta tratando y que interesa
a la comunidad cientca de IA es el concepto de creencia. La proposicion
Juan cree que p se encuentra muy relacionada con la proposicion Juan
sabe que p. Se utiliza la primera expresion cuando no se desea armar
que el juicio de Juan sobre el mundo es necesariamente exacto o apoyado
por razones apropiadas o bien cuando Juan no esta totalmente conven-
cido. De hecho, se cuenta con una amplia variedad de proposiciones de
actitud, tales como: Juan esta realmente convencido de que p, Juan
es de la opinion que p, Juan sospecha que p, y otras mas, las cuales
solo dieren en el grado de conviccion que emplean.
Un aspecto com un en las proposiciones mostradas y es lo que interesa en
todo caso, es que todas comparten una idea basica: Juan considera que
el mundo es de una manera y no de otra, es decir, es el conocimiento que
Juan tiene acerca del mundo.
En este momento solo se presenta una percepcion de conocimiento desde
un enfoque proposicional, sin embargo, se van a presentar en las secciones
siguientes distintos aspectos relacionados con este concepto.
3.1. SISTEMAS BASADOS EN CONOCIMIENTO (KBS) 137
3.1.2. Lenguajes utilizados en la representacion de
conocimiento (RC)
En este espacio, mas que hablar de las diferentes tecnologas utilizadas
para representar al conocimiento, se van a describir algunos aspectos im-
portantes relacionados con este concepto, con la nalidad de que sean
considerados al momento de dise nar su representacion. De acuerdo con
Davis y otros [33], la representacion del conocimiento es m as compren-
sible si se presenta en terminos de los distintos roles que desempe na. La
comprension de los roles y reconocer su diversidad tiene varias consecuen-
cias utiles. Primero, cada rol requiere de algo ligeramente diferente para
una representacion, lo cual conduce a un interesante y diferente conjunto
de propiedades que se desea representar. Segundo, los roles proveen un
esquema util para caracterizar una amplia variedad de representaciones
revelando sus similaridades y diferencias esenciales. Tercero, los autores
consideran que presentar la representacion bajo estos roles tiene conse-
cuencias positivas tanto para la investigacion como para la practica. Para
la investigacion proporciona una forma directa de responder a la pregun-
ta fundamental en este campo. Asimismo, sugiere una amplia perspectiva
acerca de lo que es importante para la representacion, haciendo la obser-
vacion de que una parte signicativa del esfuerzo en la representacion
capturar y representar la riqueza del mundo natural no ha recibido la
debida atencion. La comprension de representacion del conocimiento en
termino de los 5 roles se describe a continuacion.
Rol I: La representacion del conocimiento como un Sustituto.
Cualquier entidad inteligente que desea razonar acerca de su mundo se
enfrenta ante un hecho ineludible: el razonamiento es un proceso que
sucede internamente, mientras que la mayora de las cosas sobre las que
razona existen externamente. Por ejemplo, una persona que planea el en-
samble de una bicicleta, tiene que razonar acerca de las diferentes piezas,
tales como: manubrio, cadena, llantas, bocina, etc., las cuales existen en
el mundo exterior. Esta dicotoma resulta un aspecto fundamental para
la representacion, funciona como un reemplazo dentro del pensador, un
suplente para las cosas que existen en el mundo, una sustitucion por in-
teraccion directa con el mundo. Bajo este punto de vista, el razonamiento
es en s un sustituto para la accion en el mundo, cuando no se quiere o
no se puede tomar cierta accion. Al considerar la representaci on como
un reemplazo, se deben tener en cuenta dos aspectos: (i) debe existir
una correspondencia determinada por la semantica entre el sustituto y
su referente en el mundo, y (ii) debe existir una delidad aceptable entre
138CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


el sustituto y el referente real que sustituye. Asimismo, la representacion
como sustituto debe funcionar tanto para objetos tangibles como para los
objetos intangibles (acciones, creencias, causas) permitiendo describirlas
como una entidad y poder razonar con ellas. Cuando se utilizan sustitu-
ciones imperfectas lo cual resulta inevitable se deben considerar sus
consecuencias. Por ejemplo, es com un considerar aspectos que no estan
presentes en el mundo real u omitir algunos que s lo estan. Otra con-
secuencia, consiste en el proceso de razonamiento utilizado acerca del
mundo real, el cual sin importar el metodo utilizado e independiente de
la representacion puede llegar eventualmente a conclusiones incorrectas.
Esto se debe a que toda representacion es incompleta y por ende es una
fuente de error. En todo caso, lo que se sugiere es seleccionar una buena
representacion para disminuir las consecuencias mencionadas.
Rol II: La representacion del conocimiento como un Conjunto
de Compromisos Ontol ogicos. Al seleccionar una representacion se
debe decidir que ver en el mundo y como verlo, es decir, que aspectos
del mundo debemos considerar y cuales ignorar. Por lo tanto, elegir una
representacion, signica hacer un conjunto de compromisos ontologicos,
los cuales pueden verse como la esencia de una representacion. Esto es
inevitable debido a las ineludibles imperfecciones presentes en una repre-
sentacion, y al mismo tiempo resulta provechoso ya que permite enfocar
la atencion hacia aspectos del mundo que consideramos relevantes. El
estudio de ontologas aplicadas a una variedad de tareas no es un tema
nuevo [34, 35].
Las ontologas pueden ser escritas en una gran variedad de lenguajes
y notaciones (Logica, LISP,. . . ); la informacion esencial no es la forma
del lenguaje sino el contenido, es decir, el conjunto de conceptos que
ofrece como una manera de pensar acerca del mundo. Por ejemplo, un
diagnostico medico visto en terminos de reglas (MYCIN) se observa sus-
tancialmente distinto en terminos de frames (INTERNIST). En este caso,
mientras MYCIN ve el mundo medico formado de asociaciones empri-
cas que conectan sntomas a enfermedades, INTERNIST ve a un con-
junto de prototipos, en particular: prototipos de enfermedades, que son
comparados con el caso de interes en ese momento. Existe un signica-
tivo e inevitable compromiso ontologico a un a nivel de las tecnologas
de representacion mas conocidas (logica, reglas, frames,. . . ), donde cada
una mantiene un punto de vista de las cosas que considera importantes
en el mundo. La logica por ejemplo, mantiene un compromiso para ver
al mundo en terminos de entidades individuales y relaciones entre el-
las. Los sistemas basados en reglas ven al mundo en terminos de tripletas
3.1. SISTEMAS BASADOS EN CONOCIMIENTO (KBS) 139
atributoobjetovalor y reglas de inferencia que los conectan, mientras
que frames nos mantienen pensando en terminos de objetos prototipos.
Cada una de estas tecnologas tiene su propio punto de vista de lo que
cree importante atender y lo que debe ser ignorado. Por lo que al selec-
cionar alguna de ellas conlleva a un grado de compromiso ontologico: la
eleccion tendra un impacto signicativo en nuestra percepcion de como
se enfoca una tarea y del mundo que esta siendo modelado.
Los compromisos ontologicos se implementan en capas en los diferentes
lenguajes de representacion, cada uno de ellos guiado por la premisa de
como ver al mundo pero no indican como instanciarlo. Por ejemplo, los
frames sugieren prototipos y taxonomas, pero no nos indican que cosas
debemos seleccionar como prototipos, las reglas sugieren pensar en termi-
nos de inferencia plausible, pero tampoco nos indican que inferencias hay
que atender. A su vez, la logica sugiere ver al mundo en terminos de
individuos y relaciones, pero no especica cuales individuos y relaciones
usar.
Rol III: La representacion del conocimiento (RC) como una
teora parcial del razonamiento inteligente. Bajo este enfoque, se
considera que la concepcion inicial de una representacion es motivada por
alguna idea acerca de como la gente razona de forma inteligente, o por
alguna creencia acerca de que signica razonar de manera inteligente. La
teora es parcial en dos sentidos: (i) la representacion solo integra parte
de la idea o creencia que la motiva, y (ii) esta idea o creencia son solo una
parte del complejo y multifacetico fenomeno del razonamiento inteligente.
Este aspecto, se relaciona con las inferencias las cuales pueden ser autor-
izadas o recomendadas por el metodo utilizado en la RC. Mientras que
las ontologas indican como ver al mundo, las inferencias sugieren como
razonar. El razonamiento inteligente en IA se deriva de cinco areas, las
cuales son:
a) Logica matematica, sostiene que el razonamiento inteligente es una
variedad de calculo formal, basicamente: deduccion, de aqu derivan
las RC basadas en Logica, PROLOG es una de ellas,
b) Psicologa, en este campo se mantiene que el razonamiento es una
caracterstica del comportamiento humano, capaz de resolver prob-
lemas, de aqu derivan las RC: SOAR, FRAMES y KBS,
c) Biologa, el razonamiento es una caracterstica de comportamiento
estmulorespuesta que surge de una interconexion en paralelo de
una gran coleccion de procesadores muy basicos, la RC derivada es
140CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


la conexionista,
d) Teora de la probabilidad, agrega a la logica la nocion de incer-
tidumbre en la cual el razonamiento inteligente obedece los axiomas
de la teora de la probabilidad, la RC derivada son las redes causales,
y
e) Economa, incluye los aspectos de valores y preferencias, generando
un enfoque de razonamiento inteligente guiado por la teora de la
utilidad, la RC derivada de este enfoque son los agentes racionales.
El punto aqu consiste en reconocer la legitimidad de una variedad de en-
foques usados para sancionar inferencias
3
, la teora de modelos aunque re-
sulta familiar no es el unico lenguaje, a un para sistemas formales. Asimis-
mo, las deniciones formales no son la unica forma para especicar las
respuestas. La eleccion de un vocabulario apropiado y su grado de formal-
idad, dependen de la concepcion basica del comportamiento inteligente.
Ademas de las inferencias sancionadas, las diferentes tecnologas de RC
tambien utilizan las inferencias recomendadas, las cuales son una indi-
cacion de inferencias apropiadas para realizar algo inteligente. Por ejem-
plo, las redes semanticas recomiendan una propagacion bidireccional a
traves de la red, inspirada en la habilidad humana de encontrar conex-
iones entre conceptos. Las reglas utilizadas en los sistemas basados en
conocimiento recomiendan inferencias inspiradas en la observacion del
razonamiento en expertos humanos. A su vez, la logica solo ofrece una
teora de inferencias sancionadas, sin indicar nada respecto a las inferen-
cias recomendadas, esto es motivado por un deseo de generalidad en la
maquinaria de inferencia y una forma declarativa de RC en el lenguaje.
Esta informacion debe ser declarada de forma explcita por el usuario en
el lenguaje.
Rol IV: la RC como un medio para realizar calculos ecientes.
Desde un enfoque puramente mecanico, el razonamiento en maquinas es
un proceso computacional, por lo que, el tema de eciencia computa-
cional es obligado en la RC. Este aspecto ha sido reconocido al menos
implcitamente por los dise nadores de lenguajes para la RC, y sugieren
ideas para organizar la informacion de forma que facilite el tratamiento
de las inferencias. Por ejemplo, las redes semanticas facilitan la propa-
gacion bidireccional proporcionando un conjunto de enlaces apropiados,
a su vez, los sistemas basados en reglas facilitan la inferencia suminis-
trando ndices de los objetivos a las reglas que activan (encadenamiento
3
Las inferencias sancionadas nos indican a que conclusiones nos est a permitido llegar, el cual es
un conjunto invariablemente grande.
3.2. MAPAS CONCEPTUALES 141
hacia atras) y desde los hechos a las reglas cuyas premisas corresponden
(encadenamiento hacia delante).
Rol V: La RC como un medio de expresion humano. La RC es
tambien una forma de expresar cosas acerca del mundo. Es el medio de
expresion y comunicacion a traves del cual le decimos a la maquina algo
acerca del mundo. Este aspecto genera algunas interrogantes: que tan bi-
en la representacion funciona como un medio de comunicacion?, que tan
general es?, que tan preciso?. La primera interrogante se reere a que
tan bien la representacion funciona como un medio de comunicacion, es
decir, que tan facil resulta para nosotros platicar o pensar en este lengua-
je?. Una representacion es el lenguaje a traves del cual nos comunicamos,
as que debemos ser capaces de utilizarlo sin aplicar un gran esfuerzo.
Aqu se mostraron algunos aspectos importantes relacionados con los
lenguajes utilizados para la RC, los cuales deben tomarse en cuenta en
la investigacion de este campo. Una representacion, es entre otras cosas:
una teora del razonamiento inteligente y una coleccion de mecanismos
para implementar tal teora. Randall y otros, consideran que una aten-
cion apropiada a estos dos aspectos, y en el orden apropiado, hace una
diferencia signicativa en el resultado de cualquier esfuerzo en combi-
nar representaciones. Por ejemplo, combinar reglas y frames [36], cuan-
do sabemos que son dos esquemas que representan diferentes tipos de
conocimientos. Mientras que las reglas son apropiadas para representar
implicaciones logicas, o para asociar acciones a condiciones bajo las cuales
las acciones deben tomarse, los Frames (o redes semanticas) son apropi-
ados para denir terminos y para describir objetos y sus relaciones tax-
onomicas. Debido a que las fortalezas y debilidades entre Frames y reglas
son complementarias, la combinacion de estos metodos en una repre-
sentacion se beneciara de las ventajas de ambos.
Aunque en esta seccion se mencionaron algunos lenguajes de uso com un
utilizados para representar el conocimiento, algunos de ellos se veran en
detalle mas adelante en este captulo.
3.2. Mapas conceptuales
A diferencia de la visualizaci on de la informacion, la cual es un area con
cierta madurez [37], la visualizaci on del conocimiento es un campo de
interes que ha recibido atencion reciente por parte de las comunidades
142CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


de investigacion y negocios. Burkhard y Meier [39] denieron la visual-
izacion del conocimiento como el uso de representaciones visuales con el
n de transferir conocimiento entre al menos dos personas. El reciente
interes en la administracion del conocimiento por parte de la comunidad
de negocios [38] , quien ha centrado su atencion a aspectos relacionados
con la representacion e intercambio efectivos de conocimiento, as como
una mayor conciencia al tema de la visualizacion del conocimiento. En
esta seccion, la interpretacion del conocimiento se va a fundamentar en
las teoras del conocimiento y aprendizaje de Ausubel y Novak [40, 41].
Novak propuso en su trabajo, que los elementos basicos del conocimiento
son los conceptos y las relaciones entre conceptos o proposiciones. Los
conceptos son tambien llamados nodos, y hacen referencia a cualquier
cosa que puede provocarse o que existe. Seg un Novak [42], los concep-
tos son las imagenes mentales que provocan en nosotros las palabras o
signos con que expresamos las regularidades. Las palabras de enlace un-
en los conceptos y se nalan los tipos de relacion existente entre ambos.
La proposicion es la unidad semantica que une los conceptos. Usando
estas proposiciones es posible generar nuevo conocimiento a partir de en-
lazar nuevos conceptos a conocimiento ya existente. Por lo tanto, y de
acuerdo con Ausubel [40], El conocimiento se construye a traves de un
aprendizaje signicativo (en contraste con el aprendizaje de memoria o
memorizacion), que tiene lugar cuando el alumno busca deliberadamente
relacionar e incorporar nueva informacion al conocimiento relevante que
ya posee .
Mapa conceptual: Un mecanismo para visualizar el conocimien-
to. Al realizar trabajo de investigacion relacionado con el aprendizaje
y la construccion del conocimiento, Novak y Gowin [43], desarrollaron
los Mapas Conceptuales, una herramienta graca que habilita a cualquier
persona a expresar su conocimiento de tal forma que sea facilmente com-
prensible por otros. El conocimiento es mostrado como a traves de concep-
tos, usualmente representados como rectangulos o crculos y conectados
por arcos indicando relaciones (frases) entre pares de conceptos. Estas
relaciones generalmente consisten de verbos, formando proposiciones o
frases para cada par de conceptos. Los mapas conceptuales pueden ser
tan simples como el formado por dos nodos conectados por un arco indi-
cando una sentencia como el pasto es verde, o bien pueden ser un poco
mas complicados tal como el que se muestra en la Figura 3.6, el cual ilus-
tra el mapa conceptual acerca del tema mapas conceptuales realizado
por Novak [44]. Los Mapas Conceptuales representan Conocimiento es
una de las proposiciones en este mapa, Conocimiento es necesario para
3.2. MAPAS CONCEPTUALES 143
Ense nanza Efectiva es otra proposicion. Por convencion, los enlaces se
dirigen de arriba hacia abajo, a menos que se indique de otra forma por
la cabeza de echa. El eje vertical indica un esquema jerarquico para los
conceptos. Generalmente, los conceptos inclusivos se localizan en los nive-
les mas altos. La estructura de un mapa conceptual depende del contexto,
por lo que, mapas con conceptos similares pueden mostrar variaciones de
un contexto a otro. La fortaleza de un mapa conceptual se basa en su
habilidad para medir el conocimiento particular de una persona acerca
de un tema especco en un contexto dado. De esta manera, los mapas
conceptuales elaborados por diferentes personas acerca del mismo tema
son necesariamente diferentes, ya que cada uno representa el conocimien-
to individual de su creador. De igual manera, no podemos indicar que
una representacion acerca de un tema es mejor que otra, ya que pueden
existir diferentes representaciones del mismo tema que son correctas.
La tecnica de mapas conceptuales han ayudado a personas de todas las
edades a examinar diferentes campos del conocimiento. Cuando los con-
ceptos y las palabras que los enlazan son cuidadosamente seleccionados,
estas representaciones se convierten en herramientas poderosas para ob-
servar varias interpretaciones. Su poder expresivo, se deriva de la ha-
bilidad de cada creador en usar un n umero virtualmente ilimitado de
palabras que enlazan los conceptos y mostrar como las interpretaciones
han sido desarrolladas. No existen restricciones acerca de que palabras
pueden ser usadas para formar conceptos o encadenar frases, sn embargo,
generalmente los conceptos son nombres y las palabras que enlazan con-
ceptos son usualmente verbos, lo recomendable es que ambos apliquen el
menor n umero de palabras. En un mapa bien construido hay que observar
lo siguiente:
a) Cada par de conceptos, as como la palabra que los enlaza, deben
poder leerse como una sentencia individual o proposicion que tiene
sentido, seg un Homan [45], esta tripleta concepto, palabra en-
lazadora, concepto debe formar una proposicion coherente.
b) Los conceptos y las palabras que los enlazan deben ser tan cortos
como sea posible, posiblemente palabras solas.
c) La estructura en el mapa es jerarquica y el nodo raz debe representar
el tema a tratar.
Los pasos que se recomiendan para elaborar un mapa conceptual son los
siguientes:
144CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


a) Seleccionar un tema del que se tenga conocimiento. Generalmente, el
tema se muestra desarrollado de manera textual.
b) Realizar un listado de los conceptos mas relevantes del tema selec-
cionado, o bien, se pueden subrayar en el texto.
c) Ordenar los conceptos (listados o subrayados) empezando por el mas
general y siguiendo por orden de especicidad de los mismos.
d) Situar el concepto mas general (representativo del tema) al inicio del
mapa (parte superior), enseguida ir colocando los conceptos restantes
hasta llegar a los mas concretos o especcos, los cuales se deben
situar en la parte inferior del mapa.
e) Unir los conceptos a traves de lneas usando palabras de enlace que
establezcan las relaciones entre los conceptos.
f ) Finalmente, indicar en la graca a traves de enlaces cruzados la
relacion entre conceptos pertenecientes a distintas ramas jerarquicas
del mapa conceptual.
A manera de ejemplo y siguiendo los pasos anteriores, se va a elaborar un
sencillo mapa conceptual relacionado con el tema: Animales. El mapa
conceptual, se va a realizar basado en el siguiente texto:
Los animales se van a clasicar en dos tipos principales: vertebrados o
invertebrados. Dentro de los invertebrados se encuentran los insectos y
aracnidos como la hormiga o el escarabajo y la ara na roja respectiva-
mente, los cuales son todos clasicados como artropodos.
Pasos 2 y 3. Realizar un listado de los conceptos mas importantes. Los
conceptos (nombres) se van a considerar de acuerdo al orden en que apare-
cen en el texto, y son los siguientes:
Animales,
Vertebrados,
Invertebrados,
Insectos,
Aracnidos,
Hormiga,
Escarabajo,
Ara na roja,
Artr opodos.
Paso 4. situar el concepto mas general al inicio del mapa hasta llegar a los
mas especcos (parte inferior del mapa). En este caso, el tema a tratar
3.2. MAPAS CONCEPTUALES 145
Figura 3.4: Ordenacion de conceptos relacionados con el tema generico: Animales.
es relacionado con animales, por lo tanto, este concepto es el que debe
iniciar el mapa, y los demas se deben ir colocando en orden descendente
o jerarquico (ver Figura 3.4).
Paso 5. Unir los conceptos a traves de lneas usando palabras de enlace
que establezcan las relaciones entre los conceptos. Se realiza este paso
basandonos en la redaccion del tema, quedando el mapa conceptual co-
mo se muestra en la Figura 3.5. En este caso, no existen enlaces entre
conceptos o enlaces cruzados, por lo tanto, en este caso no se hace ningu-
na accion en el Paso 6.
Los mapas conceptuales han demostrado ser un medio efectivo para rep-
resentar, visualizar, y comunicar el conocimiento. Desde la perspectiva
de la educacion, existe una investigacion creciente indicando que el uso
de esta herramienta facilita el aprendizaje signicativo [ nas]. Durante la
elaboracion de un mapa, la comprension del signicado ocurre conforme
el dise nador realiza un esfuerzo para enlazar conceptos y formar proposi-
ciones, cuya estructura reeja su comprension acerca del tema en cuestion.
Esta tecnica es utilizada para ayudar a los estudiantes a aprender como
aprender mediante la creacion de estructuras cognitivas y conocimiento
auto construido [43]. Asimismo, esta tecnica se ha utilizado como una
herramienta para la adquisicion del conocimiento tanto en sistemas ex-
pertos [47], y como un medio para adquirir y compartir conocimiento
experto [48]. En el contexto de este libro, los mapas conceptuales se van
a enfocar como una herramienta para visualizar el conocimiento, y el uso
de otros medios (sonido, imagenes, video, texto, etc.) como visualizacion
de informacion. Aunque en algunos casos los mapas conceptuales pueden
146CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Figura 3.5: Mapa conceptual del tema generico: Animales.
usarse para integrar de forma visual informacion y conocimiento [ nas].
Aunque la elaboracion de mapas conceptuales, puede realizarse con el-
ementos tan simples como lapiz y papel, podemos hacer uso de la tec-
nologa para facilitarnos este proceso, tal como la herramienta de software
conocida como Cmap Tools
4
[ nas2]. En la Figura 3.6 se muestra el ma-
pa conceptual que representa el tema mapas conceptuales dise nado por
Novak [43] utilizando la herramienta Cmaps.
3.3. Redes Semanticas
El concepto de red semantica como tal, fue introducido a la comunidad
de IA en 1968
5
por Ross Quilliam, como un modelo graco de la estruc-
tura de la memoria humana asociativa. Inicialmente, la idea de una red
4
La herramienta de software Cmap Tools se encuentra disponible de manera gratuita para uso
educativo en http://www.cmex.arc.nasa.
5
Sin embargo, de acuerdo con Anderson y Bower, la realizaci on de la primera red semantica
(conocida como el

Arbol de Porphiry) se remonta al siglo tercero de nuestra era y fue creada por el
losofo griego Porphiry con el n de ilustrar el metodo usado por Aristoteles para denir categoras
en tipos generales y subtipos.
3.3. REDES SEM

ANTICAS 147
Figura 3.6: Mapa conceptual del tema Mapa conceptual [43].
148CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


semantica red de conceptos enlazados asociativamente era que el sig-
nicado de una palabra podra ser representado por un conjunto de sus
asociaciones verbales con el n de indicar las propiedades de las cosas,
es decir, un conjunto de conceptos asociados por relaciones. Por lo tan-
to, este formalismo se puede concebir como una forma de representacion
de conocimiento ling ustico en la que los conceptos y sus relaciones se
representan mediante un grafo. Las redes semanticas son usadas, entre
otras cosas, para representar mapas conceptuales y mentales. Asimismo,
la implementacion computacional para estas redes se hicieron inicialmente
para el area de la IA. Actualmente,se han realizado versiones para ser us-
adas en losofa, psicologa y ling ustica [50].
El termino red semantica representa a una familia de esquemas repre-
sentacionales mas que a un simple formalismo. Lo que es com un a este
concepto es una representacion graca declarativa que puede usarse tanto
para representar el conocimiento, como para apoyar sistemas automati-
zados de razonamiento. Se identican seis tipos de redes semanticas, una
breve descripcion de cada una de ellas se ofrece a continuaci on [50]:
Redes de denicion. Estas redes enfatizan el subtipo o relacion es
u
n
entre un concepto y un subtipo denido recientemente. La red resultante,
tambien conocida como una generalizacion, soporta la regla de herencia
para copiar las propiedades denidas para un supertipo a todos los subti-
pos. Ya que las deniciones son verdaderas por denicion, la informacion
en estas redes se asumen necesariamente verdaderas.
Redes Asertivas. Son dise nadas para armar proposiciones. A difer-
encia de las redes de denicion, la informacion en una red asertiva se
supone verdadera de manera contingencial, a menos que explcitamente
se marque con un operador modal. Algunas redes de este tipo han sido
propuestas como modelos de estructuras conceptuales para la semantica
del lenguaje natural.
Redes de Implicacion. Utilizan la implicacion como la relacion pri-
maria para conectar nodos, son utilizadas para representar patrones de
creencias, causalidad, o inferencias.
Redes Ejecutables. Incluyen mecanismos para realizar inferencias, pa-
so de mensajes, o b usqueda de patrones y asociaciones.
3.3. REDES SEM

ANTICAS 149
Redes de Aprendizaje. Estas redes construyen su representacion a
traves de adquirir el conocimiento mediante ejemplos. Permiten reem-
plazar conocimiento viejo por nuevo a traves de agregar y borrar nodos
y enlaces, o mediante la modicacion de valores numericos (pesos) asoci-
ados a los nodos y arcos.
Redes hbridas. Formada por la combinacion de dos o mas de las ante-
riores en una sola red, o en forma de redes separadas pero interactuando
de manera cercana.
Algunas de estas redes han sido dise nadas para implementar hip otesis
relacionadas con mecanismos cognitivos de razonamiento humano, mien-
tras otras con nes de eciencia computacional. Algunas veces, las ra-
zones computacionales conducen a las mismas conclusiones que la evi-
dencia psicologica. Por ejemplo, la distincion entre redes de denicion y
redes asertivas tienen un parecido muy cercano con memoria semantica
y memoria episodica.
En esta seccion, se van a tratar aspectos generales de las redes semanticas
sin particularizar en alguno de los tipos mencionados.
3.3.1. Descripcion
De forma general, podemos indicar que las redes semanticas consisten de
estructuras gracas compuestas por nodos y enlaces mostrando relaciones
entre objetos utilizadas para la representacion del conocimiento. Los ob-
jetos pueden ser cualquier elemento fsico: un libro, un automovil, una
silla, o una persona. Tambien pueden ser conceptos, eventos o acciones.
Los conceptos se representan en el modelo como unidades independientes
que expresan relaciones de inclusion (es) y de propiedad (tiene). De man-
era general, se puede observar a una red semantica como un conjunto de
tripletas objeto atributo valor donde los atributos representan usual-
mente aspectos como: tama no, color, clase, origen, etc., en muchos casos
estos aspectos son determinados de forma subjetiva al dise nar una red
semantica.
Sin embargo, es recomendable, que en una red semantica, la especicacion
de nodos y enlaces deba realizarse de manera rigurosa y sistematica. Al
representar un area del conocimiento mediante este formalismo, debemos
150CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


ser claros respecto a que clase de cosas deben estar en los nodos y que
clases de relaciones deben indicarse en los enlaces. Es decir, debemos es-
pecicar la semantica de este formalismo.
De acuerdo con Grith [51], los nodos son sujetos atomicos, es decir,
no pueden dividirse. El concepto de subdivision se expresa en forma de
conjuntos o colecciones. Cada sujeto puede tener o puede no tener un
nombre, o puede tener varios nombres. Por lo tanto, los nodos en las re-
des semanticas son sujetos los cuales son delimitados por relaciones entre
los mismos. A su vez, cada relacion puede tener un sentido semantico de
direccion llamado ordinalidad. Entonces, los sujetos, sus relaciones, y la
ordinalidad, constituyen los elementos basicos para dise nar redes semanti-
cas. La Figura 3.7 ilustra de forma graca la representacion de algunos
sujetos, as como sus relaciones y su ordinalidad.
Las relaciones a su vez pueden ser binarias o de aridad n. En una
relacion binaria, existen semanticamente tres aspectos a considerar:
a) Debe existir entre dos objetos especcos, por ejemplo Juan y Sal
(ver Figura 3.7),
b) Debe tener una clase o tipo, expresado como una categoraa de la
relacion, por ejemplo: pertenece, contiene, utiliza, y
c) Debe tener una ordinalidad, o sentido semantico de direcci on. Por
ejemplo, Juan (utiliza) Sal.
Las propiedades com unmente conocidas de uno a uno, uno a muchos o
muchos a muchos se aplican a grupos de relaciones, no a las relaciones in-
dividuales. Aunque la clase de relacion es un concepto util y conveniente
para redes semanticas, este no es un concepto primitivo como el de sujeto
(aplicado a nodos). El trayecto entre nodos es simetrico, pero su semanti-
ca no lo es. Por ejemplo, en la Figura 3.7 tiene sentido que Juan (utiliza)
Sal (trayecto del sujeto Juan al sujeto Sal ) y no a la inversa, en senti-
do contrario (ir del sujeto Sal al sujeto Juan) la relacion cambia a: Sal
(es utilizada por) Juan. En algunos casos, la relacion puede ser simetrica,
tal como, X (igual ) Y, donde tambien se cumple que Y (igual ) X. Otro
tipo de ordinalidad que aparece en las redes semanticas se da en el orden
de los miembros en una coleccion.
En las redes semanticas, la ordinalidad se indica de manera explcita por
la cabeza de echa.
3.3. REDES SEM

ANTICAS 151
Figura 3.7: Descripcion de temas, relaciones y ordinalidad.
Los nodos pueden interpretarse de manera generica (referente a una clase
general o concepto) como un conjunto. Bajo este enfoque, se puede man-
tener un nivel de jerarqua entre nodos en la forma de subconjunto (si
pertenece a una clase) y superconjunto (tiene como miembros a subcon-
juntos). Por ejemplo, en la Figura 3.8 se indica que un Canario es un
Ave, lo que se esta en realidad declarando es que el conjunto de todos
los canarios es un subconjunto del conjunto formado por todas las aves,
el cual a su vez es un subconjunto del conjunto formado por todos los
animales.
Una segunda interpretacion de los nodos genericos es como prototipos.
En este caso, mas que describir a un individuo o clase de individuos, un
prototipo describe a que se parece el tpico ejemplar de una clase. Esta
descripcion se da en terminos de: caractersticas fsicas, comportamiento,
tipo de alimentacion, y habitat, entre otros. Los nodos que representan
individuos seran en alg un sentido mas o menos similares al prototipo. Por
ejemplo, los mamferos son prototpicamente pensados como animales ter-
restres que dan nacimiento a cras vivas; en este esquema una vaca o una
coneja son tpicos mamferos. Los canarios prototpicamente cantan y son
amarillos, as que Pioln que es amarillo y canta, es una tpica instancia
de un canario.
152CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Figura 3.8: Ilustracion de una red semantica mostrando aspectos de: clases de obje-
tos, relaciones entre objetos, instancias de objetos y propiedades de objetos.
Otra forma de ver a una red semantica es como un arbol taxonomico
(jerarqua es
u
n) donde cada nodo es conectado hacia arriba a un super-
conjunto y hacia abajo a un subconjunto. Bajo este esquema, un canario
es un ave y, mas generalmente, un animal. Asimismo, los enlaces que estan
a un lado del nodo indican propiedades que son verdaderas al nodo, las
aves tienen alas, los tigres tienen garras y los animales tienen piel (ver
Figura 3.8).
Las redes semanticas poseen la propiedad de herencia, es decir, la propiedades
de los nodos que estan a un nivel superior heredan las propiedades a los
nodos conectados que aparecen a un nivel inferior. Esta propiedad es util
para realizar inferencia en las redes semanticas, de esta forma al observar
la Figura 3.8 podemos inferir que Pioln tiene piel y alas.
La red semantica mas simple esta formada por dos nodos enlazados, in-
dicando que los nodos estan relacionados de alguna forma. Los nodos
pueden representar conceptos, conjuntos de individuos, o clases de algu-
na entidad. Cuando esta representando una red de conceptos se aplica la
terna objeto atributo valor, por ejemplo, en la Figura 3.8, la rama
de la red canario color amarillo, donde el objeto canario tiene una
caracterstica en este caso el color y el valor de la misma amarillo.
El enlace es
u
n nos indica un tipo diferente de informacion: instancias de
objetos, es decir, el objeto es instancia de una clase mas general o concep-
3.3. REDES SEM

ANTICAS 153
to. Este aspecto nos permite realizar sencillas inferencias basadas en la
propiedad de herencia. Por ejemplo, aplicando un tipo de razonamiento
deductivo hacia la red mostrada en la Figura 3.8 se puede hacer valida
la siguiente inferencia:
Todos los animales tienen las propiedades a,b,c,. . . ,n.
Las aves son animales.
Por lo tanto, las aves tienen las propiedades a,b,c,. . . ,n.
Tomando en consideracion la inferencia anterior podemos inferir que
el concepto Ave hereda la propiedad de tener piel del concepto Ani-
mal. Asimismo, la relacion es
u
n es transitiva, es decir si una relacion
se mantiene entre los conceptos A y B y entre B y C, entonces tamben se
mantiene entre A y C (pero, no necesariamente entre C y A). Por ejem-
plo, si un Canario es una clase de Ave y un Ave es una clase de Animal,
entonces un Canario es una clase de Animal. Si sabemos que Pioln es
un Canario, aunque no hayamos dicho algo especco respecto a Pioln,
podemos saber mucho acerca de el, por ejemplo, que al igual que otros
canarios es amarillo, que canta, que tiene alas y que tambien tiene piel.
Algunos enlaces pueden tener la propiedad de conmutatividad lo cual nos
permite hacer inferencias en ambos sentidos, por ejemplo si X es igual a
Y (ver Figura 3.7), entonces Y tambien es igual a X, si Juan es hermano
de Pedro, entonces Pedro es hermano de Juan. En una red semantica,
cuando existe la relacion de conmutatividad entre dos nodos, esta se in-
dica con un enlace bidireccional.
Las redes semanticas, tambien permiten ser enfocadas desde una perspec-
tiva de programacion orientada a objetos (POO). Bajo este enfoque, los
nodos representan :
Clases con sus propiedades,
Instancias, esto es, objetos de alguna clase, y los enlaces, que se
muestran etiquetados, indican relaciones entre clases, propiedades
e instancias.
Por ejemplo, en la Figura 3.9 se muestra el nodo clase Arteria el cual
tiene la propiedad de tener sangre Rica en oxgeno. Siendo las arterias:
Aorta, branquial, y pulmonar instancias de Arteria heredan la propiedad
de transportar sangre Rica en oxgeno. Por lo tanto, algunos ejemplos de
herencia y razonamiento (inferencia) obtenidos de la Figura 3.9, son los
154CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Figura 3.9: Ilustracion de una red semantica desde una perspectiva de POO.
siguientes:
Las arterias transportan sangre rica en oxgeno,
La aorta contiene sangre rica en oxgeno,
Los vasos sanguneos son parte del sistema cardiovascular,
El corazon es parte del sistema cardiovascular.
En esta seccion se mostro la red semantica como una alternativa de rep-
resentacion del conocimiento, en la cual se especica explcitamente el
conocimiento acerca de un dominio a traves de objetos representativos
y de sus relaciones mediante un grafo. Asimismo, es posible realizar
inferencias y razonamiento en esta representacion haciendo uso de sus
propiedades. La ventaja que presentan los esquemas gracos en relacion a
los que no lo son logica proposicional, logica de predicados, entre otros
como un medio de representacion, es su poder expresivo e intuitivo. Estas
caractersticas los hacen atractivos para muchas aplicaciones. Sin embar-
3.3. REDES SEM

ANTICAS 155
go, como cualquier otro esquema de representacion del conocimiento, la
red semantica presenta ventajas y desventajas:
Ventajas de las redes semanticas.
Permiten la declaracion de importantes asociaciones en forma explci-
ta.
Debido a que los nodos relacionados estan directamente conectados,
y no se expresan las relaciones en una gran base de datos, el tiempo
que toma el proceso de b usqueda por hechos particulares puede ser
signicativamente reducido.
La representacion es clara, simple y de facil lectura.
Desventajas.
No existe una interpretacion normalizada para el conocimiento ex-
presado por la red.
La interpretacion de la red depende exclusivamente de los programas
que manipulan la misma.
La dicultad de interpretacion a menudo puede derivar en inferencias
invalidas del conocimiento contenido en la red.
La exploracion de una red asociativa puede derivar en una explosion
combinatoria del n umero de relaciones que deben ser examinadas
para comprobar una relacion, sobre todo si la respuesta a una con-
sulta es negativa.
No hay manera de insertar alguna regla heurstica para explorar la
red de manera eciente.
Es necesario dotar de una base teorica al modelo de razonamiento.
Algunas de las limitaciones de las redes semanticas se pueden resolver con
el uso de Frames
6
, los cuales son un formalismo que extiende el concepto
de red semantica. Asimismo, se cuenta con una herramienta computa-
cional que permite la programacion de las redes semanticas, esta es el
lenguaje Prolog.
6
Los Frames son redes sem anticas estructuradas. Un Frame es una colecci on de atributos y la
descripcion de sus caractersticas, en el cual existe una divisi on explcita entre relaci on y atributo,
este aspecto facilita describir su sem antica.
156CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


3.4. Logica de predicados
En esta seccion se va a presentar un esquema de representacion y ma-
nipulacion del conocimiento basado en la logica. Como se mostro en el
Captulo I, se considera que Aristoteles fue el que fundo la L ogica como un
metodo preciso para razonar acerca del conocimiento, en este sentido, la
logica es la disciplina encargada de estudiar los metodos para formalizar
el conocimiento humano. Para lograr este n la logica emplea un enfoque
simbolico para representar el conocimiento a diferencia del enfoque conex-
ionista que emula el sistema neuronal humano. Asimismo, la logica aplica
el conocimiento estructurado como un modelo de representaci on, el cual
es un modelo funcional, util para el razonamiento humano y con un alto
grado de formalizacion.
La logica de primer orden supone que existen entidades individuales (ob-
jetos: personas, casas, n umeros, colores), con caractersticas distintivas
(propiedades: alto, grandes, impares, rojo), entre los que puede haber
relaciones de distintos tipos (hermano de, mayor que), algunas de ellas
funciones (padre de, coseno). La popularidad de la logica de predicados
o logica de primer orden (LPO) se debe a la manera de estructurar el
mundo en objetos y relaciones, con ello facilita el razonamiento y ofrece
libertad para describir el mundo de la manera que el dise nador considere
apropiada, permitiendo expresar sentencias sobre todos los objetos del
universo. En este sentido, existen sentencias que representan hechos y
terminos que representan objetos [?].
El lenguaje (hablado y escrito) es el instrumento basico para la comuni-
cacion humana. Esta formado generalmente por frases de tipo interrog-
ativo, imperativo y declarativo, siendo estas ultimas las que se encargan
de describir el conocimiento. Por lo tanto, la logica estudia los metodos
de formalizacion de las frases declarativas, existiendo en este aspecto dos
grados de detalle: la logica proposicional y la logica de predicados.
Una breve descripcion para cada tipo de logica se ofrece a continuacion:
a) Logica proposicional. Basa su esquema de razonamiento en proposi-
ciones sentencias declarativas y sus combinaciones, las cuales con-
stituyen una unidad de conocimiento que puede tener uno de dos
valores: verdadero o falso, pero no ambos. Se representan mediante
variables formalizadas como letras. La aplicacion de operadores a las
3.4. L

OGICA DE PREDICADOS 157


sentencias permite la formacion de nuevas sentencias. Esta logica nos
permite aplicar modos basicos de inferencia, pero es poco expresiva
y exible.
b) Logica de predicados. Es una generalizacion de la logica proposi-
cional con terminos que representan objetos, y predicados que indi-
can proposiciones, propiedades, y relaciones entre los objetos. Por lo
tanto, esta logica estudia las frases declarativas con mayor grado de
detalle que la logica proposicional, esto es posible mediante la in-
clusion de un mayor n umero de operadores, lo cual permite analizar
la estructura interna de las proposiciones. Sus elementos basicos son
los objetos y sus relaciones, esto, permite distinguir los siguientes dos
aspectos: i) que se dice (predicado o relacion), y ii) de quien se
dice (objeto).
La logica de primer orden, como un lenguaje de representaci on formal
7
,
estudia aspectos relacionados con la representacion del conocimiento en
terminos de objetos, y predicados sobre objetos, es decir, propiedades de
los objetos o relaciones entre los objetos, as como del uso de conectivos
y cuanticadores, mediante los cuales se pueden escribir oraciones sobre
el dominio que se pretende representar. Por lo tanto, la logica de primer
orden permite representar una parte signicativa de lo que sabemos sobre
el mundo.
En la logica proposicional se supone que en el mundo hay hechos que se
cumplen o no, es decir, son: verdaderos o falsos. En la logica de primer or-
den se va mas alla: que el mundo esta compuesto por objetos que guardan
entre s ciertas relaciones que se cumplen y otras que no se cumplen. En
la logica de predicados, las proposiciones se componen basicamente de
dos miembros: el sujeto y el predicado. Por ejemplo, en la proposicion
Hidalgo fue el iniciador de la independencia de Mexico, Hidalgo es el
sujeto y fue el iniciador de la independencia de Mexico, es el predicado.
Esto es, en la logica de predicados una proposicion se compone de dos
partes: sujeto y predicado.
En esta seccion se van a mostrar los aspectos formales relacionados con
la logica de predicados, tales como: sintaxis (que smbolos se pueden usar
en el lenguaje, como construir sentencias validas), semantica (como se
interpretan las sentencias logicas, que signican), as como mecanismos
7
Un lenguaje de representaci on formal como la l ogica se dene en base a un alfabeto y reglas
sint acticas.
158CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


de inferencia y validacion que utiliza.
3.4.1. Sintaxis
En el lenguaje
8
de la logica de predicados, un predicado es una aplicacion
denida en un dominio que toma valores en el conjunto de proposiciones.
Formalmente se expresa como:
P(x) : D proposiciones
Donde por convencion, el predicado se representa con una letra may uscula, y los
parametros (variables) por letras min usculas, generalmente a partir de x, deben ir
entre parentesis y separadas por comas. De esta forma, P(x) puede formalmente
representar x es un estudiante. El predicado P(x) se convierte en una proposicion
cuando el parametro x es reemplazado por un valor de su dominio. Si el dominio de
x es el conjunto de estudiantes del Instituto Tecnologico de Acapulco, y Pedro es un
estudiante de tal institucion, entonces P(Pedro) es una proposicion, de hecho es la
proposicion: Pedro es un estudiante.
Al hablar del dominio de una variable, se entiende como tal, el conjunto de valores
que la variable puede tomar, por ejemplo, si el dominio de una variable es el conjunto
de colores del arco iris, entonces la variable puede tomar un valor de un total de
siete posibles. Un predicado no puede ser elemento de ning un dominio, por lo tanto,
ninguna variable puede sustituirse por un predicado. Los predicados representan he-
chos del dominio, los cuales pueden ser falsos o verdaderos, por ejemplo, Jefe(Juan,
Pedro) representa el hecho Juan es jefe de Pedro lo cual puede ser falso o verdadero.
Los predicados pueden tener cualquier n umero n de variables. De acuerdo con el
valor de n, los predicados se clasican en:
a) Proposiciones. Son predicados con un valor de n = 0 variables,
b) Predicados unarios o propiedades. Son predicados con un valor
de n = 1 variables, por ejemplo, P(x): x es una mascota, P(y): y
es un vehculo.
c) Predicados binarios o relaciones. Son los predicados con un valor
de n = 2 variables, por ejemplo, P(x, y): x es de color y, Q(x, y):
El cubo de x es y.
8
Lenguaje en este caso, es un conjunto de predicados de aridad n, con n 0.
3.4. L

OGICA DE PREDICADOS 159


d) A partir de n = 3 variables, los predicados no tienen un nombre
especco, y se identican como relaciones, relacion ternaria si n = 3
variables, por ejemplo, R(x, y, z): x le compra a y un vehculo z.
A continuacion se va a describir el lenguaje formal que se utiliza en la logica de
predicados, es decir, el conjunto de smbolos que describen el alfabeto.
Constantes. Una constante representa a un elemento de un dominio. Por con-
vencion, se representa a las constantes por letras min usculas en el alfabeto latino,
preferentemente a partir de la a, con el n de evitar confusiones con las variables
que inician a partir de la x. Cuando las variables de un predicado son sustituidas
por constantes, el predicado pasa a ser una proposicion. Por ejemplo, P(x, y) es un
predicado; P(a, b) es una proposicion; P(x, a) se le conoce como una propiedad, y
P(a, x) es una relacion. Se le da el nombre de termino a las variables y constantes,
cuando la distincion entre las mismas no es relevante.
Conectivas. Las conectivas son smbolos que dicen algo acerca de una o m as
proposiciones, y son las siguientes:
Negacion (), por ejemplo, A es verdadero cuando A es falso, y falso cuando A
es verdadero.
Conectiva Y (), AB es verdadera cuando ambas son verdaderas, y falsa de otra
manera.
Conectiva O (), A B resulta falsa cuando A y B son falsas, es verdadera en
cualquier otra combinacion.
Implicacion (), conecta dos formulas bien formadas (fbf), antecedente y conse-
cuente, A B es falsa cuando A es verdadera y B es falsa, resulta verdadera de
cualquier otra manera. En forma de regla, esta conectiva equivale a: Si(antecedente)
Entonces (consecuente).
Doble implicacion () o equivalencia, A B resulta verdadera cuando A y B
son verdaderas, o cuando A y B son falsas, el resultado es falso con cualquier otra
combinacion. Vista como regla equivale a: S y Solo S.
Con el n de evitar ambig uedad en el uso de los conectores, al estar enlazando
oraciones, se debe seguir el siguiente orden de precedencia (de mayor a menor); ,
, , y . Sin embargo, se permite el uso de parentesis, as como de corchetes
para cambiar el orden de precedencia y claricar las expresiones. Asimismo, hay
160CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


que tener presente lo siguiente: a) pueden eliminarse los parentesis externos, por
ejemplo, A B es una abreviatura de (A B), b) cuando una conectiva se usa de
manera repetida, se asocia por la derecha, por ejemplo, ABC es una abreviatura
de (A (B C)), c) los smbolos binarios pueden escribirse utilizando la notacion
inja, por ejemplo, x +y es una abreviatura de +(x, y) y x < y es una abreviatura
de < (x, y).
Cuanticadores. Ademas de los smbolos utilizados en la logica proposicional (sig-
nos de puntuacion (:), parentesis () y coma (,)), se agregan dos mas: 1) el smbolo
conocido como cuanticador universal, y que se interpreta como: (para) todo, todos
los, todas las, cada, y 2) el smbolo conocido como cuanticador existencial, y que
se interpreta como: existe (alguno), hay un, existe un, alg un o algunos. Por ejem-
plo, si P(x) se interpreta como: x es un estudiante, entonces, xP(x) se interpreta
como: todos son estudiantes, todo el mundo es estudiante, a su vez xP(x) se
interpreta como: hay estudiantes, existen estudiantes,. . . , etc. En una expresion
como x[p(x)...] o x : [p(x)...], la porcion de la expresion a la que se aplica x o
x, se le llama alcance del cuanticador y se indicara entre corchetes a menos que
sea evidente. A este respecto cabe mencionar que se le denomina variable libre a una
variable que no esta atada a un cuanticador. En la expresion: y Gustar(x, y), x
es una variable libre mientras que y esta atada al cuanticador . Una formula bien
formada es una sentencia donde todas las variables estan cuanticadas.
Formulas. Una vez denidos los elementos (predicados, terminos: constantes y vari-
ables, constantes logicas (Verdadero y Falso), parentesis, corchetes, comas, conecti-
vas, y cuanticadores) que integran el alfabeto utilizado por la logica de predicados,
el siguiente paso consiste en la estructuracion de los elementos anteriores a traves
de formulas. Las siguientes reglas indican como se obtienen fbf.
a) Si P es un smbolo de predicado y t
1
, t
2
, . . . , t
n
con n 0 representan
terminos, entonces P(t
1
, t
2
, . . . , t
n
) es una formula. En este caso, a
esta construccion se le denomina atomo o formula atomica, tambien
se les conoce como formulas bien formadas (fbf). Solo los predicados
pueden tener un valor de verdad, por lo tanto la formula mas simple
(atomica) es un predicado. Asimismo, t
1
= t
2
tambien es una formula
atomica.
b) Una formula atomica es una fbf.
c) Si A y B son fbf, entonces (A), (B), A B, A B, A B, A B,
y A B tambien lo son.
d) Si A es una formula y x es una variable, entonces (xA) y (xA)
tambien son formulas.
3.4. L

OGICA DE PREDICADOS 161


Las formulas atomicas representan hechos en el dominio del conocimiento y repre-
sentan lo que se sabe del mundo, o de una base de conocimientos.
3.4.2. Semantica
La semantica en el calculo de predicados le da signicado a las formulas. Este sig-
nicado se obtiene al interpretar los terminos y predicados, as como las unidades
sintacticas usadas en la construccion de las formulas. Los terminos son interpreta-
dos como objetos y los predicados como relaciones. El objetivo de la semantica es
atribuir un signicado a los elementos de un lenguaje. En el caso de la logica de
primer orden se determina el valor para dos elementos del lenguaje: 1) terminos,
los cuales representan los objetos del universo de discurso, y 2) formulas, las cuales
representan proposiciones verdaderas o falsas. La interpretacion de formulas se va a
realizar mediante el uso de estructuras e interpretaciones [56, 54].
En la semantica los smbolos de constante especican a que objeto se reeren: i) una
constante se reere a un solo objeto, puede haber dos constantes haciendo referen-
cia al mismo objeto, no es necesario nombrar todos los objetos del universo, ii) la
semantica de los smbolos de predicado especica a que relacion hacen referencia,
formalmente toda relacion se dene por el conjunto de tuplas que la satisfacen, por
ejemplo, la relacion de hermandad: ( Carlos Salinas, Ra ul Salinas), (Ra ul Salinas,
Carlos Salinas).
La semantica de los smbolos de funcion
9
especica la relacion funcional a que
hacen referencia, tal relacion puede denirse mediante un conjunto de tuplas, por
ejemplo la funcion coseno hace corresponder a un angulo un solo n umero mediante
tuplas con dos elementos: (90 grados, 0),(0 grados, 1).
La semantica de los terminos corresponde, en la relacion especicada al n + 1 ele-
mento de la tupla cuyos primeros n objetos son los argumentos. La semantica de las
sentencias atomicas indica que, una sentencia atomica es cierta si la relacion especi-
cada se da entre los argumentos (variables o constantes). A su vez, la semantica de
las sentencias compuestas es similar a la de las sentencias con conectivas de la logica
proposicional: Con los cuanticadores (, ) podemos expresar propiedades sobre
conjuntos de objetos sin enumerarlos, por ejemplo, todos los gatos son mamferos,
se expresa como: xGato(x) Mamfero(x). La expresion anterior se puede ver
como la conjuncion de varias sentencias obtenidas al sustituir la variable x por los
9
Las funciones describen elementos (constantes) y los identican como el resultado unico de la
aplicaci on de una transformacion entre otros elementos del dominio (por ejemplo, padre(JUAN),
madre(padre(JUAN)), asesino(x)).
162CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


elementos del dominio (nombres de gatos): Gato(Mancha) Mamifero(Mancha)
Gato(Felix) Mamifero(Felix) Gato(Juan) Mamifero(Juan), etc. Por su parte,
el uso del cuanticador existencial para la expresion Mancha tiene una hermana
que es gato, se indica como xHermana(x, Mancha) Gato(x), sepuedevercomo :
(Hermana(Mancha, Mancha) Gato(Mancha)) (Hermana(Felix,Mancha) Gato(Felix))
, etc.
La semantica de sentencias con cuanticadores se deriva de la de las sentencias con
conectivas. Para expresar sentencias mas complejas se requiere el uso de varios cuan-
ticadores: (i) del mismo tipo, si x es progenitor de y entonces y es descendiente
de x: x Progenitor(x, y) Descendiente(y, x), o (ii) de distinto tipo, todo el
mundo quiere a alguien: x, y Quiere(x, y), existe alguien a quien todo el mundo
quiere: y, x Quiere(x, y).
El orden de los cuanticadores es muy importante, por ejemplo la expresion: x,
y P(x, y) x (y(P(x, y)) arma que todo objeto tiene la propiedad de estar
relacionado con alg un objeto mediante P. A su vez, la expresion x, y P(x, y)
x (y P(x, y)), la cual arma que alg un objeto tiene la propiedad de estar rela-
cionado con todos los objetos mediante P. Asimismo, estos cuanticadores estan
relacionados mediante la negacion, por ejemplo la expresi on todo el mundo detesta
el Brocoli equivale a no existe nadie a quien le guste el Brocoli, su correspon-
diente representacion en logica de predicados es: x Gusta(x, Br ocoli) equivale
a x Gusta(x, Br ocoli). Otro ejemplo, a todo el mundo le gusta el helado, es-
ta expresion es equivalente a no existe nadie a quien no le guste el helado, su
representacion en logica de predicados es: x Gusta(x,Helado) equivalente a x
Gusta(x,Helado). Como se observa en los ejemplos anteriores, los cuanticadores
pueden verse como una conjuncion y una disyuncion sobre el universo de objetos.
En este caso, se cumplen las leyes de De Morgan:
x P xP,
x P xP,
x P xP, y
x P xP
La semantica de sentencias con igualdad (=). Una igualdad es cierta si los dos
terminos que relacionan se reeren al mismo objeto, por ejemplo: Padre(Juan) =
Enrique.
Al aplicar la logica de predicados como un metodo para representar el conocimiento
debemos tener presente los siguientes aspectos:
3.4. L

OGICA DE PREDICADOS 163


1. Identicar el dominio a tratar. Al igual que las matematicas, la cual utiliza
axiomas para capturar los hechos basicos de un dominio y servir de base para la
denicion de otros conceptos (demostracion de teoremas), en IA tambien se utilizan
axiomas para representar el conocimiento del dominio de interes. Para representar tal
conocimiento se tiene que hacer lo siguiente: (i) identicar objetos, propiedades, rela-
ciones y funciones, (ii) describir el conocimiento de los elementos anteriores a traves
de axiomas. Por ejemplo, si el dominio a tratar es el de las relaciones familiares,
se tienen que identicar los siguientes elementos:
Objetos: personas.
Propiedades: genero, indicado por los predicados unarios Hombre, y Mujer.
Relaciones: padres, esposo, esposa, hijo, hija; aplicacion de los predicados binarios
siguientes: Progenitor, Esposo, Esposa, Hijo, Hija, etc.
Funciones: padre y madre.
El paso siguiente es describir lo que sabemos acerca de los elementos del dominio y
representarlos formalmente, por ejemplo:
La madre de alguien es su progenitor femenino,
representacion formal: m,c Madre(c) = m Mujer(m) Progenitor(m,c)
El esposo de alguien es su conyuge masculino,
representacion formal: w, h Esposo(h, w) Hombre(h) C onyuge(h, w)
Un aspecto importante es saber si hemos denido una cantidad suciente de ax-
iomas para especicar completamente el dominio: se puede postular un conjunto de
predicados basicos , por ejemplo, en el dominio de las relaciones familiares: Descen-
diente, C onyuge, Hombre y Mujer. Tambien es importante saber si hemos denido
demasiados axiomas, es decir, si no son independientes: un axioma independiente es
aquel que no se puede obtener a partir de otros. En IA se suele trabajar con axiomas
dependientes con el n de hacer mas eciente el proceso de demostracion.
2. Crear la base de conocimientos. La creacion de la base de conocimientos
consiste en pasar el conocimiento generado a traves de la logica de predicados a un
lenguaje de programacion tal como Prolog o Lisp con el n de que se puedan realizar
inferencias a partir del conocimiento almacenado.
164CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


3.4.3. Inferencia
La logica de predicados, se ocupa unicamente de metodos de argumentacion solidos.
Tales argumentaciones se denominan Reglas de Inferencia o inferencia. Si se da
un conjunto de axiomas que son aceptados como verdaderos, las reglas de inferencia
garantizan que solo seran derivadas consecuencias verdaderas.
Reglas de inferencia deductiva. Inferir es concluir o decidir a partir de algo
conocido o asumido; llegar a una conclusion. A su vez, razonar es pensar coherente
y logicamente; establecer inferencias o conclusiones a partir de hechos conocidos o
asumidos. El proceso de razonamiento, por lo tanto, involucra la realizacion de in-
ferencias, a partir de hechos conocidos. Realizar inferencias signica derivar nuevos
hechos a partir de un conjunto de hechos conocidos como verdaderos. La logica de
predicados proporciona un grupo de reglas solidas, con las cuales se pueden realizar
inferencias. Las principales Reglas de Inferencia son [53, 55, 54]:
Modus ponens.- Esta regla se considera la mas importante, en los sistemas basa-
dos en conocimiento, la cual establece que:
P(x) Q(x), P(a) Q(a)
Si la expresion P(x) Q(x) es verdadera y se conrma la validez de P(a) entonces
se puede inferir que Q(a) tambien es verdadera. Por ejemplo, x: mexicano(x)
atento(x) es verdadero, y tambien es verdadero que: mexicano(Sim on), podemos en-
tonces inferir que: atento(Simon). Este tipo de razonamiento exige mucha exactitud
en la construccion de las reglas, ademas de una fuerte relacion entre antecedentes y
consecuentes.
Modus tolens.- Esta rgla establece que:
P(x) Q(x), Q(a) P(a)
Si la expresion P(x) Q(x) es verdadera y se conrma la validez de Q(a) en-
tonces se puede concluir que P(a) tambien es verdadera. Por ejemplo, resulta que:
x: servivo(x) mortal(x), es verdadero, y se establece que mortal(piedra) es
verdadero, entonces servivo(piedra) es verdadero.
Silogismo disyuntivo: A(x) B(x), A(x) B(x)
Silogismo hipotetico: A(x) B(x), B(x) C(x) A(x)
3.4. L

OGICA DE PREDICADOS 165


C(x)
Ley de simplicacion: A(x) B(x) A(x)
Ley de adicion: A(x) A(x) B(x)
Contrapositiva: A(x) B(x) B(x) A(x)
Ley de implicacion: A(x) B(x) (A(x) B(x))
Ley de doble implicacion: A(x) B(x) (A(x) B(x)) (B(x) A(x))
Negacion de negacion: (A(x)) A(x)
Ademas de las reglas mencionadas, que tambien corresponden a la logica proposi-
cional, existen cuatro reglas mas que son exclusivas del calculo de predicados. Dos
de estas reglas se aplican a cada cuanticador, una de ellas es para eliminarlo y la
otra es para introducirlo.
Regla 1: Eliminacion del cuanticador universal (E). Esta regla puede ser
entendida de la manera siguiente:
xA(x) A(t)
Lo cual indica que, si algo (A) puede decirse de todo el dominio (xA(x)), entonces
puede decirse lo mismo para cualquiera de sus elementos (A(t), donde t es un termino
cualquiera). Si se quiere decir algo de un elemento conocido, sustituiremos la vari-
able cuanticada universalmente por la constante que designa este elemento (por
ejemplo, A(b)). Por otro lado, si se quiere decir algo de un elemento cualquiera sin
precisar mas, la sustituiremos por una variable cualquiera (por ejemplo, A(u)). Para
ofrecer un ejemplo del uso de esta regla, se va a validar el siguiente razonamiento:
Los mexicanos son atentos. Simon es mexicano. Por lo tanto, Simon es atento.
Primero se hace la asignacion de signicados a predicados atomicos:
M(x): x es mexicano;
166CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


A(x): x es atento;
Determinacion de constantes (a): Simon.
Formalizacion del razonamiento: x(M(x) A(x)), M(a) A(a)
Enumerando el razonamiento formalizado:
a) x(M(x) A(x))
b) M(a)
c) M(a) A(a)
d) A(a)
El punto 1 indica que: Todos los mexicanos son atentos, en 2 se establece que
Simon es mexicano, es decir, en este paso se asigna un valor (constante) para el
cuanticador, por lo que, en 3 se pasa a Si Simon es mexicano, entonces es atento.
En este caso, la constante a que sustituye a x permite la eliminacion de la im-
plicacion y a su vez, la validacion del razonamiento.
Regla 2: Introduccion del cuanticador universal (I). Esta regla establece
lo siguiente: Cuando se dispone de una formula que contiene una variable libre (u),
esta variable puede cuanticarse universalmente:
A(u) xA(x)
Para que esta regla pueda ser aplicada, son necesarias las condiciones siguientes:
La variable u debe ser arbitraria.
La introduccion del cuanticador universal no debe provocar capturas
involuntarias de variables libres. Esto quiere decir que la variable x
no debe aparecer libre en la formula A.
Todas las ocurrencias de la variable libre u en la formula A deben
ser sustituidas por x.
La regla I puede ser mejor comprendida de la forma siguiente: si algo (A) puede
decirse de u(A(u)) y se puede garantizar que este u podra ser cualquier objeto del
dominio, entonces A puede decirse de todos los elementos del dominio (xA(x)).
Enseguida se va a mostrar un ejemplo de la aplicacion de esta regla. Validar el sigu-
iente razonamiento aplicando la regla I:
3.4. L

OGICA DE PREDICADOS 167


Todo el mundo es amigo de todo el mundo. Por lo tanto, todo el mundo es amigo
de s mismo.
En este ejemplo, el dominio sera un conjunto cualquiera, no vaco, de personas, y se
utilizara un solo predicado: A(x, y): x es amigo de y.
La formalizacion de la expresion es: xyA(x, y) por lo tanto zA(z, z)
a) xyA(x, y)
b) yA(u, y) Aplicacion de la regla E a (1) (x es sustituida por u)
c) A(u, u) Aplicacion de la regla E a (2) (y es sustituida por u)
d) zA(z, z) Aplicacion de la regla I a (3) (u aparece libre mientras y
arbitraria)
Regla 3: Eliminacion del cuanticador existencial (EE). Cuando una formula
esta cuanticada existencialmente, la variable cuanticada puede ser sustituida por
una constante nueva y el cuanticador se puede eliminar:
xA(x) A(a)
Para que la aplicacion de la regla sea correcta, es necesario garantizar que la con-
stante utilizada es nueva, es decir, que no haya aparecido antes.
Otra manera de entender mejor el uso de esta regla, es expresarla de la forma
siguiente: si se sabe que hay un elemento del dominio que cumple una determina-
da propiedad (A), nos podemos referir al mismo con una constante (a), siempre y
cuando la misma constante no sea utilizada para referirse a cualquier otro elemento
del dominio. A continuacion se muestra un ejemplo de la aplicacion de esta regla.
Validar el siguiente razonamiento:
Si todos los programas han sido vericados, todos los resultados son correctos. Sin
embargo, hay un resultado que no es correcto. Esto quiere decir que no todos los
programas han sido vericados.
Descripcion de predicados atomicos:
P(x): x es un programa;
V (x): x ha sido vericado;
R(x): x es un resultado;
168CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


C(x): x es correcto.
Formalizacion del razonamiento:
x(P(x) V (x)) y(R(y) C(y)), x(R(x)C(x)) por lo tanto x(P(x)
V (x))
Enumeracion de componentes y aplicacion de reglas:
a) x(P(x) V (x)) y(R(y) C(y)) . . . Predicado (P)
b) x(R(x) C(x)) . . . Predicado (P)
c) x(P(x) V (x)) . . . Hipotesis
d) y(R(y)C(y)
e) R(a) C(a)
f ) R(a) C(a)
g) R(a)
h) C(a)
i) C(a)
j) x(P(x) V (x))
La lnea 4 se obtiene al aplicar la regla de eliminacion del cuanticador universal
a las lneas 1 y 3, a su vez la lnea 5 se obtiene mediante la aplicacion de la regla
de eliminacion existencial a la lnea 2. La lnea 6 de esta demostracion es correcta.
Para aplicar la regla EE es necesario utilizar una constante nueva, sin embargo, esta
restriccion no se aplica a la regla E en la que puede utilizarse cualquier termino.
La lnea 7 se obtiene aplicando la regla de simplicacion a la lnea 5, la lnea 8 es
obtenida al aplicar modus ponens a las expresiones mostradas en 6 y 7, la proposicion
mostrada en la lnea 9 se obtiene al aplicar la regla de simplicacion a la expresion
mostrada en la lnea 5. Finalmente, la conclusion mostrada en la lnea 10 se obtiene
al realizar implicacion con la hipotesis mostrada en la lnea 3 en la que aparece un
predicado con cuanticacion universal y las proposiciones mostradas en las lneas
8 y 9.
Regla 4: Introduccion del cuanticador existencial (IE). En esta regla, las
variables libres de una formula se pueden cuanticar existencialmente. Las con-
stantes de una formula pueden sustituirse por una variable cuanticada existencial-
mente, tal como se muestra en la siguiente expresion:
A(t) xA(x)
3.4. L

OGICA DE PREDICADOS 169


Donde t es un termino cualquiera (si se trata de una variable, debe ser libre).
Esta regla se puede comprender mejor si se expresa de la forma siguiente: si algo (A)
puede decirse de t(A(t)), entonces existe un elemento del dominio del cual puede
decirse A(xA(x))
Un ejemplo para observar la correcta aplicacion de la regla IE se muestra a contin-
uacion. Validar el razonamiento siguiente aplicando la regla IE:
Todos los bancos tienen computadoras. Hay bancos. En consecuencia, hay computadoras.
Descripcion de predicados:
B(x): x es un banco;
C(x): es una computadora;
T(x, y): x tiene y.
Formalizacion del razonamiento:
x[B(x) y(C(y) T(x, y))], xB(x) por lo tanto xC(x)
Aplicacion de reglas y enumeracion de componentes obtenidos:
a) x[B(x) y(C(y) T(x, y))] Predicado
b) xB(x) Predicado
c) B(a)
d) B(a) y(C(y) T(a, y))
e) y(C(y) T(a, y))
f ) C(b) T(a, b)
g) C(b)
h) xC(x)
En las lneas 1 y 2 se muestran los dos predicados que forman la expresion for-
malizada. En las lneas siguientes 3 8 se muestran las reglas que se aplican a los
componentes de los predicados anteriores para llegar a la conclusion referida. La
proposicion que se muestra en la lnea 3, se obtiene al aplicar la regla EE al cuan-
ticador existencial que se muestra en la lnea 3. La expresion mostrada en la lnea
4 se obtiene cuando se aplica la regla de eliminacion del cuanticador universal a la
expresion mostrada en la lnea 1. Al tomar las expresiones mostradas en las lneas
170CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


3 y 4, y se les aplica modus ponens, se obtiene como conclusion el consecuente, es
decir, la expresion que se muestra en la lnea 5. A su vez, si se aplica la regla para
la eliminacion del cuanticador existencial a la expresion mostrada en la lnea 5, se
obtiene la expresion indicada en 6. Aplicando la simplicaci on asociativa a la expre-
sion mostrada en 6 se obtiene como resultado 7. Finalmente, si se le aplica la regla
para introducir el cuanticador existencial a la expresion mostrada en 7 se obtiene
el resultado buscado: xC(x).
Reglas derivadas y equivalencias deductivas. En la logica de predicados, la
deduccion natural es mas compleja que en la logica de proposiciones, por lo que
la posibilidad de cometer errores tambien es mayor. Para reducir en lo posible el
riesgo de cometer errores, es recomendable utilizar, siempre que sea factible, reglas
derivadas y equivalencias deductivas de correccion probada.
3.4.4. Validez
Se dice que una formula bien formada es valida si es verdadera para todas las posi-
bles interpretaciones (si solo usa constantes, se llama tautologa). Se dice que un
argumento es valido, si su conclusion es consecuencia de sus premisas, en otro ca-
so es incorrecto. En las formulas que tienen variables cuanticadas, no siempre se
puede computar si una fbf es valida. Se ha demostrado que es imposible encontrar
un metodo general para decidir la validez de expresiones cuanticadas. Por esa razon
se dice que el calculo de predicados es indecidible, aunque hay subclases en las que
si es posible. Pero si una fbf es en realidad valida, se puede encontrar siempre un
procedimiento que verique la validez (aunque este procedimiento puede no termi-
nar nunca semidecibilidad).
En esta seccion se va a describir el metodo de resolucion como el mecanismo que se
aplica en la logica de predicados con el n de validar los razonamientos expresados
en este lenguaje. Este metodo se basa en los siguientes puntos:
a) Maneja una unica regla: resolucion.
b) Utiliza una unica estrategia: la reduccion al absurdo.
c) La utilizacion de la forma normal de Skolem(con matriz en FNC).
d) La utilizacion de la tecnica del replanteamiento de la ultima decision,
para garantizar la sistematicidad.
e) El calculo de sustituciones y el algoritmo de unicacion.
Antes de aplicar el metodo de resolucion a una expresion, esta debe estar presentada
en la forma normal de Skolem y su matriz en forma normal conjuntiva. Por lo que,
3.4. L

OGICA DE PREDICADOS 171


Figura 3.10: Estructura de la forma normal prenexa, donde los Q
i
son cuanti-
cadores.
se va a ofrecer una breve descripcion de estas transformaciones.
Forma normal de Skolem. Las formulas, igual que las proposiciones, se manipulan
algebraicamente para obtener formulas equivalentes. La transformacion algebraica
de una formula tiene por objetivo la consecucion de una forma normal. La forma
normal de una formula recibe el nombre de forma normal prenexa. Una formula
estara expresada en forma normal prenexa si presenta la estructura mostrada en la
Figura 3.10. Por lo tanto, una formula estara expresada en forma normal prenexa
cuando todos los cuanticadores estan agrupados a su izquierda (la parte denom-
inada prejo) y, consecuentemente, no aparece ning un cuanticador a su derecha
(la parte denominada matriz). El prejo debe contener solamente cuanticadores
universales los cuanticadores existenciales son eliminados siguiendo un proceso
conocido como eskolemizacion y la matriz debe estar en forma normal conjuntiva
(FNC) [55, 54].
El proceso para obtener la forma normal de Skolemdebe seguir el orden siguiente:
1) Vericar que no existan variables libres. Si existen variables libres, esto es un
sntoma de error en la formalizacion y es necesario vericarla nuevamente. Si la
formula se ha dado con variables libres, estas se deben cuanticar existencialmente.
Los cuanticadores existenciales que se a nadan deberan colocarse a la izquierda de
la formula.
2) Opcionalmente, si se utiliza el mismo nombre para variables dentro del ambito
de cuanticadores distintos, puede ser util cambiar estos nombres.
3) Eliminar las implicaciones.
4) Aplicar las leyes de De Morgan para conseguir que las negaciones precedan a los
172CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Cuadro 3.2: Tabla de equivalencias.
Expresion Equivalencia
P1 P2 P1 P2
P1 (P2 P3) (P1 P2) (P2 P3)
P1 (P2 P3) (P1 P2) (P2 P3)
P1 P2 P2 P1
(P1) P1
(P1 P2) P1 P2
(P1 P2) P1 P2
xP(x) xP(x)
xP(x) xP(x)
P1 Falso P1
P1 V erdadero V erdadero
P1 Falso Falso
P1 V erdadero P1
P1 P1 V erdadero
P1 P1 Falso
smbolos de predicado. Sera necesario aplicar tanto las leyes de De Morgan estudi-
adas para los enunciados como las que se aplican a las formulas cuanticadas.
5) Eliminar los cuanticadores existenciales (eskolemizaci on).
6) Mover todos los cuanticadores hacia la izquierda.
7) Normalizar la matriz. Para poder aplicar el metodo de resolucion, es necesario
que este expresada en FNC.
Durante este proceso de transformaciones necesarias para obtener la forma normal-
izada es util considerar las equivalencias mostradas en la Tabla 3.2.
Eliminacion de cuanticadores existenciales. El punto principal para encontrar
la forma normal de Skolem de una formula es la eliminacion de los cuanticadores
existenciales. Para llevarla a cabo, se precede de la siguiente manera [54]:
1) Si un cuanticador existencial no se encuentra dentro del ambito de ning un cuan-
ticador universal, entonces hay que sustituir la variable cuanticada existencial-
mente por una constante que todava no ha sido utilizada, y eliminar el cuanticador
existencial. La constante no se podra utilizar posteriormente.
3.4. L

OGICA DE PREDICADOS 173


2) Si un cuanticador existencial se encuentra dentro del ambito de un cuanticador
universal, entonces hay que sustituir la variable cuanticada existencialmente por
una funcion de la variable cuanticada universalmente, y eliminar el cuanticador
existencial. La funcion no se puede haber utilizado previamente ni se podra utilizar
posteriormente.
3) Si un cuanticador existencial se encuentra dentro del ambito de mas de un
cuanticador universal, entonces hay que sustituir la variable cuanticada existen-
cialmente por una funcion de todas las variables afectadas por estos cuanticadores
universales y eliminar el cuanticador existencial. La funcion no se puede haber uti-
lizado previamente ni se podra utilizar posteriormente.
Los cuanticadores universales afectan a las variables cuanticadas existencialmente
que estan dentro de su ambito, pero no afectan a las otras variables cuanticadas
universalmente. Los cuanticadores existenciales no afectan ni a las variables cuan-
ticadas universalmente ni a ninguna otra variable cuanticada existencialmente.
Ejemplo de determinacion de una forma normal de Skolem.
Transformar la expresion: x[P(x)(tQ(x, t)yR(x, y)) (zA(z)uB(u, x))]
a forma normal de Skolem:
1) Se examina la formula para detectar variables libres. No las hay.
2) Se examina la formula para detectar repeticiones en el nombre de las variables.
No se detecta ninguna repeticion.
3) Eliminacion de las implicaciones:
x[P(x) (tQ(x, t) yR(x, y)) (zA(z) uB(u, x))].
4) Se aplican las Leyes de De Morgan Morgan para acercar las negaciones a los
smbolos de predicados:
x[(P(x) (tQ(x, t) yR(x, y)) (zA(z) uB(u, x))]
5) Se eliminan los cuanticadores existenciales: la variable y es sustituida por una
funcion de x. La variable z es sustituida por otra funcion de x:
174CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


x[(P(x) (tQ(x, t) R(x, f(x)))) (A(g(x)) uB(u, x))].
6) Se mueven todos los cuanticadores universales a la izquierda:
xtu[(P(x) (Q(x, t) R(x, f(x)))) (A(g(x)) B(u, x))].
7) Se calcula la forma normal conjuntiva de la matriz:
xtu[(P(x)A(g(x))(P(x)B(u, x))(Q(x, t)R(x, f(x))A(g(x)))
(Q(x, t) R(x, f(x)) B(u, x))].
La aplicacion de las leyes de De Morgan provoca que algunos cuanticadores uni-
versales se conviertan en existenciales, y a la inversa.

Esta es la razon por la cual
la eskolemizacion (paso 5) no se puede aplicar antes: se correra el riesgo de elim-
inar cuanticadores existenciales que posteriormente se tendran que convertir en
universales y, ademas, podran aparecer nuevos cuanticadores existenciales, por
transformacion de los universales.
Resolucion. En el mecanismo de resolucion el concepto de sustitucion es muy im-
portante, pues permite obtener de una forma directa la validacion de una expresion.
Se va a mostrar a traves de un ejemplo, el aspecto de sustitucion. Suponga que se
desea validar el siguiente razonamiento:
Todos los hombres son impacientes. Juan es un hombre. Consecuentemente, Juan
es impaciente.
Formalizando la expresion:
H(x): x es un hombre,
Constante a : Juan,
I(x): x es impaciente
Expresion resultante:
x[H(x) I(x)], H(a) por lo tanto I(a).
El primer paso consiste en representar la expresion anterior en su forma normal de
Skolen. Por lo tanto, despues de aplicar los pasos indicados para esto, se obtienen
las formas normales siguientes:
3.4. L

OGICA DE PREDICADOS 175


(x[H(x) I(x)]) = x[H(x) I(x)].
(H(a)) = H(a).
(I(a)) = I(a).
Al momento de considerar las clausulas, los cuanticadores no se tienen en cuen-
ta, pero no hay que olvidar que todos son universales. As pues, si en una clausula
aparece una variable, esto quiere decir que estaba cuanticada y que el cuanticador
era universal.
El conjunto de clausulas resultante es:
S = H(x)I(x), H(a), I(a).
Donde la ultima clausula (I(a) se toma como conjunto de apoyo.
El arbol de resolucion correspondiente a este ejemplo se muestra en la Figura 3.11(a).
Parece que no se puede continuar porque en la clausula troncal se tiene I(a), mientras
que en la lateral se tiene I(x) y, dado que son diferentes, la regla de resolucion no
se puede aplicar. En este punto la regla de resolucion no se puede aplicar, ya que
un literal no es la negacion del otro. Se observa que el literal I(x) contiene a la
variable x. Si de alguna manera se pudiera reemplazar a esta variable por la constante
a, el proceso de resolucion puede continuar. Este reemplazo es posible, ya que la
clausula troncal es realmente x(H(x)I(x)) y recordando la regla de eliminacion
del cuanticador universal la cual arma: una variable cuanticada universalmente
puede ser sustituida por cualquier termino, en este caso, la constante a es un termino.
Por lo tanto, la variable x se puede sustituir por la constante a y el arbol de resolucion
queda como se ilustra en la Figura 3.11(b).
Cuando el metodo de resolucion se aplica a la logica de predicados, la sustitucion de
variables es imprescindible. As pues, hay que tener claros los siguientes aspectos [53]:
1) En cada momento se debe elegir aquella sustitucion que, una vez aplicada, permi-
ta eliminar el literal de mas a la derecha de la clausula troncal. Aunque una variable
pueda ser sustituida por cualquier termino, solo son utiles las sustituciones que con-
ducen a la eliminacion de este literal.
2) Si hay mas de una sustitucion que permite eliminar el literal de mas a la derecha
de la clausula troncal, se utiliza cualquiera, y el resto se reserva como alternativa
por si hay que aplicar el replanteamiento de la ultima decisi on.
3) Solo se pueden sustituir las variables. Una variable puede ser sustituida por una
176CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Figura 3.11: Proceso de resolucion mostrado en forma de arbol, (a) el proceso no
puede continuar debido a una mala sustitucion, (b) el proceso se realiza de forma
satisfactoria.
constante, por una funcion o por otra variable. Sin embargo, ni las constantes ni las
funciones pueden ser sustituidas.
Hay una excepcion a la posibilidad de sustituir una variable por cualquier termino:
una variable no puede ser sustituida por una funcion de s misma.
4) Cuando una variable es sustituida, hay que sustituir todas las apariciones de es-
ta variable en la clausula donde aparece. No obstante, la clausula original se debe
dejar intacta. La sustitucion se debe hacer sobre la copia que se utiliza en el arbol
de resolucion.
Aplicando la tecnica de resolucion y los puntos recien comentados, se va a propor-
cionar otro ejemplo para dejar claro la aplicacion de esta regla. En este ejemplo se
va a validar el razonamiento mostrado en forma de lenguaje de predicados siguiente:
x[yA(y, x) zB(z, x)] por lo tanto xy[A(y, x) B(y, x)]
En primer lugar buscamos las formas normales de Skolem:
a) Para la premisa:
3.4. L

OGICA DE PREDICADOS 177


(x[yA(y, x) zB(z, x)]) = x[A(f(x), x) B(g(x), x)].
b) Para la negacion de la conclusion:
(xy[A(y, x) B(y, x)]) = y[A(y, a) B(y, a)].
El conjunto de clausulas resultante es:
S = A(f(x), x) B(g(x), x), A(y, a), B(y, a)
con el conjunto de apoyo A(y, a), B(y, a).
El arbol que muestra la aplicacion del mecanismo de resolucion se ilustra en la Figu-
ra 3.12.
El hecho de poder determinar en cada momento cuales son las sustituciones que hay
que llevar a cabo es una cuestion muy importante para la aplicacion del metodo
de resolucion. A menudo es posible determinarlas a partir de la simple inspeccion
de los literales involucrados. Para aquellas situaciones donde la simple inspeccion
no es suciente, o cuando se quiere mecanizar el metodo, existe un mecanismo que
realiza de forma automatica este proceso: el algoritmo de unicacion. Sin embargo,
este metodo no se va a tratar en esta seccion.
Ventajas de la logica de predicados. Facilidad para actualizar la base de conocimien-
to por la independencia de las declaraciones en la descripci on del conocimiento.
Desventajas. Tal vez la principal desventaja de la logica de predicados es que
solo dispone de dos niveles de veracidad: verdadero y falso. Esto se debe a que
la deduccion siempre garantiza que la inferencia es absolutamente verdadera. Sin
embargo, en la vida real no todo es blanco y negro. Es decir, existen aspectos de in-
certidumbre, los cuales no pueden ser manejados por este esquema de representacion
del conocimiento. Asimismo, tambien se observan las siguientes desventajas: (a) No
maneja tiempos verbales, este es requisito importante en problemas en los cuales es
necesario su control, (b)Para una misma expresion en lenguaje natural hay muchas
representaciones en logica y viceversa, (c) En ocasiones se presta para interpreta-
ciones ambiguas, (d) La logica de predicados al ser un formalismo de razonamiento
monotonico, no resulta muy adecuada para ciertos dominios del mundo real, en los
cuales las verdades pueden cambiar con el paso del tiempo.
178CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Figura 3.12: Proceso de resolucion mostrado en forma de arbol, para validar la
expresion:x[yA(y, x) zB(z, x)] por lo tanto xy[A(y, x) B(y, x)].
3.5. RAZONAMIENTO CON INCERTIDUMBRE 179
3.5. Razonamiento con incertidumbre
En muchas ocasiones la representacion del conocimiento del mundo no puede re-
alizarse de manera categorica (determinista) a traves de reglas logicas. Por ejemplo,
existen situaciones en las cuales se tiene un conocimiento limitado acerca de un do-
minio, la informacion de la que disponemos esta incompleta, la informacion no es
del todo conable, presenta ambiguedades, o bien se obtiene de forma indirecta etc.,
en estos casos, debemos se buscar otras maneras de trabajar con este tipo de infor-
macion. Es decir, debemos de buscar metodos para trabajar ante la incertidumbre.
La incertidumbre se puede originar por diversas causas, entre las que destacan las
siguientes:
Incertidumbre en la informacion. La incertidumbre presente en la informacion
puede generarse por las siguientes causas: (i) analisis incompletos (por ejemplo en
medicina el conocimiento previo de una enfermedad puede estar incompleto porque
no se hicieron todos los analisis), consideracion de pocas variables (sistemas de con-
trol), en este caso, la incertidumbre se presenta por tener informacion incompleta,
(ii) en otros casos, cuando la informacion es obtenida a traves de instrumentos
(sensores), tal como sucede con la mayora de los sistemas de control (industria,
manufactura), navegacion (robotica), o en sistemas de visi on, la informacion obteni-
da puede ser poco precisa debido a los componentes fsicos de los dispositivos, por lo
que es poco conable, o bien la informacion puede estar distorsionada por el ruido
el cual puede ocasionarse tanto por los propios componentes del sensor como por
elementos externos, en este caso, estas son causas de incertidumbre. Incertidumbre
en el conocimiento. Como se hizo notar en la primera seccion de este captulo, el
conocimiento es la siguiente fase de la informacion, por lo que es de suponer que si
existe incertidumbre en la informacion tambien la habra en el conocimiento. Sin em-
bargo, en esta etapa la incertidumbre adquiere otras presentaciones: el conocimiento
puede estar denido de forma imprecisa, por ejemplo si tiene dolor de cabeza posi-
blemente tiene gripe (aunque el dolor de cabeza puede tener otras causas).
Incertidumbre en la representacion. Tambien se puede presentar la incertidum-
bre en los diferentes esquemas de representacion del conocimiento, por ejemplo, en el
caso del conocimiento medico, si no se hicieron los analisis completos para especicar
el conocimiento previo de alguna enfermedad, esto traera como consecuencia que tal
enfermedad este mal representada en la base de conocimientos. Por otro lado, si no
se elige de manera apropiada el modelo de representacion para una aplicacion, o bien
si al modelo le falta poder descriptivo (no representa el conocimiento de acuerdo a
lo descrito por el experto humano). En estos casos, tambien existe incertidumbre.
La incertidumbre esta presente en gran parte de las procesos que se presentan en la
vida real, algunos de los dominios en los cuales se presenta son los siguientes: (a)
180CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Diagnostico medico, (b) Prediccion nanciera, (c) Exploracion minera o petrolera,
(d) Interpretacion de imagenes, (e) Reconocimiento de voz, y (f) Monitoreo y control
de procesos industriales.
Ante estos hechos, se tienen que buscar enfoques alternativos para representar
el conocimiento con el n de integrar el aspecto de incertidumbre, la cual como
mostramos es un aspecto inherente en la mayora de las situaciones que enfrentamos
de la vida real. Existen dos enfoques para manejar la incertidumbre: numericos y
no numericos.
Enfoque nonumerico. Este esquema para tratar la incertidumbre engloba a
varias tecnicas entre las que destacan las siguientes: (a) Logicas Nomonotonicas,
a diferenca de la logica de primer orden cuyo esquema de razonamiento es monotonico,
en este metodo la conlusion de una regla puede variar al integrar mas informacion
a las premisas, esto permite el manejo de reglas no estaticas, (b) Sistemas de
mantenimiento de la verdad. Estos sistemas pueden proteger la integridad de
las conclusiones en un sistema de inferencia logico, tambien conocidos como redes
de justicacion son grafos estructurados por hechos y predicados , y (c) Teora de
endosos.
Enfoque numerico. Al igual que el anterior, el enfoque numerico integra un con-
junto de tecnicas entre las que destacan las siguientes: (a) Logica difusa. Esta
logica fue introducida por Lot A. Zadeh en 1965 como una extension de la logi-
ca clasica con el n de manejar la incertidumbre inherente en el lenguaje humano.
A diferencia de la logica clasica, en la logiga difusa los elementos que pertenecen
a un conjunto se denen de acuerdo a una funcion de valuada en un intervalo re-
al entre 0 y 1. De acuerdo con esta teora, la logica clasica es un subconjunto de
los conjuntos difusos, donde los unicos valores que maneja son 0 (no pertenece al
conjunto) y 1 (pertenencia total al conjunto). Esta teora se utiliza en aquellos ca-
sos de razonamiento con informacion vaga e imprecisa, tal como la generada por el
lenguaje humano como se menciono con anterioridad, (b) Metodos aproximados,
(c) Teora de DempsterShafer, (d) Redes Bayesianas. Las redes bayesianas
son una forma de representacion graca basada en la teora de probabilidad y el
teorema de Bayes. En este esquema la incertidumbre es representada por valores de
probabilidad en el intervalo de n umeros reales entre 0 y 1. En este caso, el razon-
amiento acerca de eventos de un dominio es de dos tipos: frecuentista (Objetivo)
y subjetivista. En ambos casos se dispone de informacion a priori relacionada con
tales eventos. Esta representacion es util en dominios de prediccion y diagnostico, y
(e) Metodos empricos (MYCIN, Prospector).
En esta seccion se van a presentar algunos de los esquemas de representacion del
3.5. RAZONAMIENTO CON INCERTIDUMBRE 181
conocimiento que tienen la capacidad de manejar incertidumbre en algunas de sus
modalidades.
3.5.1. Razonamiento probabilstico
El razonamiento probabilstico aplica un enfoque estocastico para razonar ante la
incertidumbre. La mayora de las tecnicas agrupadas bajo este esquema de razon-
amiento se basan en la teora de la probabilidad y el Teorema de Bayes para realizar
representar y manipular el conocimiento. con el n de entender este tipo de razon-
amiento es necesario comprender algunos aspectos basicos de probabilidad.
Bases de probabilidad. Una probabilidad se representa generalmente por un n umero
real indicando ya sea, la posibilidad de que una proposicion sea verdadera o de que
un evento ocurrira. La introduccion de n umeros, es la clave para evitar la naturaleza
categorica que caracteriza a la logica clasica. La proposicion: Todos en esta sala
estan casados, la cual en logica de predicados se representara como: (x)P(x) no
da alternativas de exibilidad. Por lo tanto, la intencion es hacer a esta estructura
mas exible, algunas opciones seran las siguientes:
a) La mayora de x o El 95 % de los que estan en esta sala estan
casados. La segunda proposicion produce una nocion de frecuencia,
es decir, una interpretacion estadstica. En este caso, el uso de la
probabilidad en esta proposicion es objetiva, ya que lo que se dice
acerca del dominio es puro y simple, y no esta sujeto a otra inter-
pretacion o grado de conanza.
b) Se podra introducir un grado de creencia a la proposicion inicial y
mostrarla como: Yo creo que todos en esta sala son casados pero
no estoy seguro. En este caso, estamos tratando con incertidumbre
en el conocimiento y cuando se puede cuanticar esta carencia de
certeza estamos hablando de probabilidad subjetiva ya que reeja
solamente el grado de creencia personal, y no la frecuencia objetiva
de un evento.
Los enfoques mostrados para tratar proposiciones nos describen los dos tipos de
probabilidad que se aplican en el razonamiento probabilsta a saber, la probabilidad
que surge de eventos que pueden ser cuanticados, por ejemplo, el lanzamiento de
monedas, n umero de prefesionistas en una ciudad, etc, y la probabilidad que surge
de eventos que no pueden ser cuanticados y que se determinan a traves de la ex-
periencia y apreciacion personal, tales como: La existencia de una crisis economica
en Mexico a mediados de este a no, o que Japon sea arrasado por un tsunami a
182CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


nes del 2012.
En todo caso, debemos de tener a la mano algunos conocimientos basicos de prob-
abilidad para que podamos razonar con este tipo de proposiciones.
Postulados de probabilidad. Una probabilidad es tecnicamente un n umero entre
0 y 1 que representa la frecuencia de un evento en un espacio muestral, donde un
evento con probabilidad 1 indica que siempre sucede mientras que un evento con
probabilidad 0 indica que nunca sucede. Formalmente, si el conjunto universal

representa todas las posibles ocurrencias de un evento, entonces se entiende que un
evento a es cualquier subconjunto de

. Una medida de probabilidad P es una fun-
cion de eventos a n umeros en el intervalo [0, 1] satisfaciendo los siguientes postulados
basicos:
a) P(

) = 1.
b) Si a
1
, ..., a
n
son eventos disjuntos, entonces la P(a
1
...a
n
) = P(a
1
)+
... +P(a
n
).
De los postulados anteriores se desprende que:
P( a) = 1 P(a) y P() = 0
De lo anterior se cumple que para dos eventos cualesquiera a y b:
P(a b) = P(a) +P(b) P(a)
Si los eventos b
1
, b
2
, ..., b
n
son disjuntos y exhaustivos, es decir si (b
i
b
j
) = para
i ,= j, y ademas (b
1
... b
n
) =

, entonces se cumple que:
P(a) = P(a b
1
) +... +P(a b
n
)
Con estas igualdades, podemos dar paso a las siguientes deniciones:
Independencia y probabilidad condicional. Un concepto clave en la probabili-
dad es el condicionamiento. Es decir, la probabilidad de un evento puede depender
de su interaccion con otros eventos. Se indica este aspecto por una barra vertical
separando los eventos, por ejemplo P(a[b) indica que la probabilidad del evento a
esta condicionada a la ocurrencia del evento b. Formalmente se dene como:
3.5. RAZONAMIENTO CON INCERTIDUMBRE 183
P(a[b) =
P(a b
P(b)
De la expresion anterior, y debido a que no se puede deducir el tama no de (a b)
teniendo los tama nos de a y b se desprende que:
P(a b = P(a[b) P(b)
Generalizando la expresion anterior se obtiene la regla de la cadena:
P(a
1
... a
n
) = P(a
1
[a
2
... a
n
) P(a
2
[a
3
... a
n
) ... P(a
n1
[a
n
) P(a
n
)
De las expresiones anteriores se deriva la conocida regla de Bayes la cual se describe
como:
P(a[b) =
P(a) P(b[a)
P(b)
La gran utilidad de esta regla consiste en la relacion que hace entre probabilidades
a priori con el n de obtener probabilidades a posteriori, aspecto muy util para
realizar diagnosticos y predicciones. Suponga por ejemplo que a es una enfermedad
y que b es un sntoma y que se desea conocer la probabilidad de que alguien tenga la
enfermedad dado que presenta cierto sntoma. Mientras que en este caso, un analisis
frecuentista puede no ser tan directo, es decir, indicar la frecuencia con la que el
sntoma determina la enfermedad, puede ser mas simple proporcionar la informacion
indicada en la regla de Bayes, esto es a es la probabilidad incondicional (a priori) de
que la enfermedad se presente en la poblacion, y la probabilidad de que el sntoma
aparezca dado que la enfermedad esta presente (P(b[a). Es notable la utilidad de
eta regla para el manejo de las probabilidades subjetivas. Finalmente, se dice que
un evento a es condicionalmente independiente de un evento b, si la ocurrencia de b
no afecta la ocurrencia de a, esta situacion se dene formalmente como sigue:
P(a[b) = P(a)
Otra expresion que dene el aspecto de incondicionalidad en terminos de conjuntos
es la siguiente:
P(a b) = P(a) P(b)
la cual se interpreta de la siguiente manera: a es condicionalmente independiente de
b, si la proporcion de elementos de a en el conjunto de b es igual a la proporcion de
184CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


elemntos de a en

. La relacion de independencia condicional es simetrica. Ademas a
y b son incondicionalmente independientes dado c si se cumple la siguiente igualdad:
P(a[b c) = P(a[c)
Probabilidad subjetiva. La probabilidad subjetiva se relaciona con el grado de
conanza o creencia que se tiene hacia una proposicion.
Los grados de creencia muy seguido son derivados de observaciones acerca de grupos
de cosas en el mundo. Por ejemplo, podemos estar seguros de que hoy va a llover
basados en observaciones estadsticas de das similares en el pasado. La transicion
que se observa es de datos estadsticos a grados de creencia relacionados con aspec-
tos individuales,esto es similar a transitar de hechos generales acerca del mundo a
valores por default. De aqu podemos desprender que Pioln es un ave y que Pioln
vuela basandonos en la creencia de que las aves generalmente vuelan. Sin embargo,
las conclusiones por default tienden a ser conclusiones de todo o nada: podemos
concluir que las aves vuelan o no. Las creencias subjetivas, expresan niveles de con-
anza mas que conclusiones del tipo todo o nada. Debido a que estos grados de
creencia muy seguido se derivan de consideraciones estadsticas, son usualmente
referidas como probabilidades subjetivas. El calculo de las probabilidades subjetivas
es mecanicamente equivalente al de las objetivas, pero son usadas de forma diferente.
Generalmente las usamos para ver como la evidencia al combinarse cambia nuestra
conanza en una creencia acerca del mundo, mas que derivar en nuevas conclusiones.
En el mundo de la probabilidad subjetiva, se denen dos tipos de probabilidades rel-
ativas a traves de las cuales llegamos a conclusiones. La probabilidad a priori de
una sentencia a involucra el estado previo de la informacion o conocimiento base el
cual indicamos por P(a[b). Por ejemplo, supongamos que sabemos que el 0,2 % de
la poblacion de un pas tiene hepattis. A partir de esta informacion, nuestro grado
de creencia de que una persona escogida al azar en dicho pas tenga hepattis es de
0,002. Esta informacion es la probabilidad subjetiva a priori acerca de una eviden-
cia especca hacia cualquier habitante de dicho pas. Una probabilidad posterior se
obtiene al aportar nueva evidencia P(a[b c), donde c es la nueva evidencia. Por
ejemplo, si un habitante tiene la piel amarillenta, podemos concluir que la proba-
bilidad posterior de que tenga hepattis dado el nuevo sntoma y la probabilidad a
priori, es de 0.65. Un aspecto importante, es como debemos combinar la evidencia
procedente de varias fuentes para reevaluar nuestra creencia.
El enfoque tradicional para derivar creencias a partir de informacion estadstica es
el uso de una clase de referencia para la cual tenemos estadsticas. De esta forma,
utilizamos la informacion estadstica de la clase para calcular el grado de creencia
de un individuo de la clase. Una clase de referencia podra ser una clase general en
3.5. RAZONAMIENTO CON INCERTIDUMBRE 185
la cual el individuo en cuestion puede jarse. Por ejemplo, suponga que intentamos
asignar un grado de creencia a la proposicion Luis es alto, donde Luis es un indi-
viduo de sexo masculino que vive en Mexico. Si sabemos que
A) El 20 % de los mexicanos son altos,
entonces podemos inclinarnos a asignar un valor de 0.2 a nuestra creencia acerca de
la altura de Luis. A esta transicion de datos estadsticos a creencias generalmente se
le conoce como inferencia directa. Sin embargo, existe un problema con esta tecnica,
los individuos generalmente pertenecen a varias clases. Por ejemplo, podemos saber
que Luis es de Sinaloa y que
B) El 32 % de los sinaloenses son altos.
En general, las clases de referencia mas especcas son mas informativas, de tal for-
ma que podramos asignar un mayor valor de creencia a la sentencia Luis es alto
a partir de que B) nos ofrece informacion mas especca. Ademas, supongamos que
tambien sabemos que
C) El 1 % de los jinetes de caballos de carrera son altos.
Si no conocemos la ocupacion de Luis, deberamos mantener nuestro grado de
creencia sin cambio?, o deberamos considerar la posibilidad de que sea jinete de
caballo de carrera antes de decidir. Supongamos que tambien sabemos el siguiente
dato:
D) El 8 % de los mexicanos cabalgan en caballos, y que:
E) Luis colecciona sombreros raros.
Estos aspectos, cambian en algo nuestra creencia acerca de la altura de Luis?, o son
irrelevantes. El calculo de la inferencia directa esta plagado de problemas debido a
la existencia de m ultiples clases de referencia.
Un enfoque Bayesiano basico. Debido a los problemas mencionados con anteri-
oridad, debera ser apropiado tener una forma mas conable de calcular las probabil-
idades subjetivas y como se afectan cuando nuevas evidencias son aportadas. Como
punto de inicio podemos asumir que tenemos un comjunto de variables proposi-
cionales de interes p
1
, p
2
, ..., p
n
, y que p
1
indica que Luis es licenciado, p
2
indica que
Susana esta casada, p
3
nos establece que Susana es adinerada, y as sucesivamente.
En diferentes estados del mundo, diferentes combinaciones de estas sentencias seran
186CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


verdaderas. Podemos pensar que cada estado del mundo esta caracterizado por una
interpretacion I que especica que sentencias atomicas son verdaderas y cuales son
falsas. A traves de una distribucion de probabilidad conjunta J podemos especicar
el grado de creencia para cada una de las 2
n
posibilidades de todas las variables
proposicionales. En otras palabras, para cada interpretacion I, J(I) es un n umero
entre 0 y 1, de tal forma que

J(I) = 1, donde la suma es sobre todas las 2
n
posibilidades. El uso de una distribucion de probabilidad conjunta permite calcular
el grado de creencia de cualquier sentencia incluyendo subconjuntos de variables. La
idea es que el grado de creencia en a es la suma de J sobre todas las interpretaciones
donde a es verdadera. Mas formalmente:
P(a) =

I=V
J(I)
y donde como antes, P(a[b) = P(ab) P(b). Tomando esto en cuenta, el grado de
creencia de que Luis es alto, dado que es mexicano, oriundo del estado de Sinaloa,
es la suma sobre todos los posible estados del mundo en los cuales Luis es alto,
mexicano, de Sinaloa dividido por la suma de J sobre todos los posibles estados del
mundo en los que Luis es mexicano y de Sinaloa. No resulta difcil observar que esta
denicion de probabilidad subjetiva satisface los dos postulados basicos vistos con
anterioridad. Mientras este enfoque es correcto, y nos indica como calcular cualquier
probabilidad subjetiva dada cualquier evidencia, existe un problema con el mismo,
este asume que tenemos una distribucion de probabilidad conjunta de todas las
variables en cuestion. Para n sentencias atomicas, tendramos que especicar los
valores de 2
n
1 n umeros. Sin embargo, esto resulta inmanejable para cualquier
aplicacion practica.
Redes de creencia. Con el n de hacer manejables las variables necesarias para
razonar con probabilidades subjetivas, se debe buscar la forma de realizar algunas
simplicaciones. Primero se va a manejar una notacion. Asumiendo que iniciamos
con sentencias atomicas p
1
, ..., p
n
, podemos especicar una interpretacion usando
P
1
, ..., P
n
), donde P
i
puede ser p
i
(cuando la sentencia es verdadera) o p
i
(cuando
la sentencia es falsa). A partir de la denicion anterior, se puede ver que
J(P
1
, ..., P
n
)) = P(P
1
P
2
... P
n
)
donde existe solamente una interpretacion que satisface la conjuncion de las literales.
Una simplicacion extrema que podramos hacer es asumir que todas las sentencias
atomicas son condicionalmente independientes entre s. Esta sumcion nos conduce a
J(P
1
, ..., P
n
)) = P(P
1
).P(P
2
)...P(P
n
)
3.5. RAZONAMIENTO CON INCERTIDUMBRE 187
con esta asumcion, solo necesitaramos conocer n n umeros para especicar com-
pletamente la distribucion de probabilidad conjunta, y por consiguiiente, todas las
probabilidades. Sin embargo, esta asumcion de independencia es extrema, por lo que
vamos a mantener otro enfoque, he aqu una mejor idea: antes que nada, se van a
representar todas las variables p
i
en un grafo acclico dirigido el cual llamaremos
red de creencias (red Bayesiana). Intuitivamente debe existir un arco de p
i
a p
j
si
consideramos que la verdad de p
i
afecta la verdad de p
j
, en este caso, se dira que p
i
es un padre de p
j
. Asimismo, se va a suponer que las variables se han numerado de
tal forma que los padres de cualquier variable p
j
aparecen despues en el orden (siem-
pre es posible hacer esto en un grafo acclico). Ademas por la regla de la cadena,
tenemos que:
J(P
1
, ..., P
n
)) = P(P
1
[P
2
... P
n
)...P(Pn 1[P
n
).P(P
n
)
Podemos observar que formulado de esta forma, todava se necesitaran especicar
2
n
1 n umeros, ya que para cada termino P(P
j
[P
j+1
... P
n
) existen 2
nj
prob-
abilidades condicionales que especicar (correspondientes a la veracidad o falsedad
de P
j
, ..., P
n
). Sin embargo, en la red de creencia se cumple lo siguiente:
En una red de creencia, cada variable proposicional es condicionalmente independi-
ente de las demas dados sus padres
Mas precisamente:
P(P
j
[P
j+1
... P
n
)...P(Pn 1[P
n
).P(P
n
) = P(P
j
[padres(P
j
))
Con esta asumcion de independencia, se obtiene lo siguiente
J(P
1
, ..., P
n
)) = P(P
1
[padres(P
1
)).P(P
2
[padres(P
2
))...P(P
n
[padres(P
n
))
La idea en las redes de creencia, es utilizar la expresion anterior para denir la
distribucion de probbailidad conjunta J, a partir de la cual cualquier probabilidad
puede ser calculada. Las variables en una red de creencia especican el conocimiento
que se tiene acerca de un dominio, por lo tanto es informacion que se obtiene a priori
antes de construir la red.
Ejemplo de red de creencia. Se va a mostrar un ejemplo acerca de como se
realizan los calculos en una red de creencia aplicando las expresiones matematicas
vistas con anterioridad. Primero se va a construir el grafo en el cual asignamos un
nodo a cada variable del dominio, las variables van a estar enlazadas con echas
en las que indicamos de acuerdo al conocimiento del dominio las variables que son
causas directas de otras. Pare esto, se va a usar como muestra un problema descrito
188CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Figura 3.13: Ilustracion de la red de creencia que representa el conocimiento rela-
cionado con: Alguien de la familia esta en casa?.
por Eugene Charniak:
Se pide hacer un razonamiento para saber si mi familia se encuentra o no en la
casa. Suponga que la familia tiene un perro. Casi siempre se deja al perro fuera
(do) cuando la familia no esta en casa (fo). Asimismo, se deja al perro fuera por un
tiempo si tiene problemas intestinales (dp). En muchas ocasiones cuando el perro
se encuentra fuera, se pueden escuchar sus ladridos (hb) al acercarse a la casa. Un
ultimo hecho: usualmente (pero no siempre) el foco que esta fuera de la casa se deja
encendido (lo) cuando la familia no se encuentra en la misma.
Usando este conjunto de hechos se construye la red de creencia mostrada en la Figura
g:Cap3013 donde los arcos son interpretados como conexiones causales.
Este grafo representa la siguiente asumcion acerca de la distribucion de probabilidad
conjunta
J(FO, LO, BP, DO, HB)) = P(FO).P(LO[FO).P(BP).P(DO[FOBP).P(HB[DO).
Obviamente, esta distribucion conjunta resulta mas simple que la completa inte-
grando las cinco variables, dadas las asumciones de independencia capturadas en la
red de creencia. Como resultado, se requieren solamente (1+2+1+4+2)=10 n umeros
para especicar la distribucion de probabilidad total, tal como se muestra en la Figu-
ra 3.13. Suponga que en base a esta red se desea calcular la probabilidad de que la
familia este fuera de casa, dado que la luz esta encendida, pero no se escuchan los
ladridos del perro: P(fo[lo hb). Aplicando la denicion de probabilidad condi-
3.5. RAZONAMIENTO CON INCERTIDUMBRE 189
cional, se tiene que
P(fo[lo hb) =
P(fo lo hb)
P(lo hb)
=

J(fo, lo, BP, DO, hb))

J(FO, lo, BP, DO, hb))


La suma del numerador tiene 4 terminos mientras que el denominador tiene 8 (los
4 del numerador y otros 4). Estos elementos se pueden obtener de los valores de
distribucion conjunta mostrados en la red de la Figura 3.13, de la siguiente manera:
1. J(fo, lo, bp, do, hb)) = 0,15 0,6 0,01 0,99 0,3 = 0,0002673
2. J(fo, lo, bp, do, hb)) = 0,15 0,6 0,01 0,01 0,99 = 0,0000089
3. J(fo, lo, bp, do, hb)) = 0,15 0,6 0,99 0,9 0,3 = 0,024057
4. J(fo, lo, bp, do, hb)) = 0,15 0,6 0,99 0,1 0,99 = 0,0088209
5. J(fo, lo, bp, do, hb)) = 0,85 0,05 0,01 0,97 0,3 = 0,0001236
6. J(fo, lo, bp, do, hb)) = 0,85 0,05 0,01 0,03 0,99 = 0,00001262
7. J(fo, lo, bp, do, hb)) = 0,85 0,05 0,99 0,3 0,3 = 0,0037867
8. J(fo, lo, bp, do, hb)) = 0,85 0,05 0,99 0,7 0,99 = 0,02915797
Entonces, P(fo[lo hb) es igual a la suma de los primeros 4 valores (0.003315411)
divididos por la suma de los 8 valores (0.00662369075), esto nos da un aoroximado
de 0,5. Algunas veces es posible calcular un valor de probabilidad sin usar la dis-
tribucion conjunta completa. Por ejemplo, si queremos saber la probabilidad de que
la familia haya salido dado que la luz del patio esta encendida, es decir: P(fo[lo),
podramos usar en primera instancia la regla de Bayes para convertir la expresion
P(fo[lo) a P(lo[fo)P(fo)P(lo). A partir de las probabilidades dadas, se conoce
el valor de los primeros dos terminos, pero no el de P(lo). Sin embargo, podemos
calcular de manera sencilla: P(lo) = P(lo[fo) P(fo) +P(lo[fo) P(fo). Por lo
tanto, tenemos estos cuatro valores disponibles (el ultimo se obtiene usando la regla
de la negacion), as que disponemos de toda la informacion para calcular P(fo[lo)
sin utilizar la distribucion conjunta [57].
Se mostro un metodo de razonamiento probabilstico basado en la red de creencia
o red Bayesiana. Las redes Bayesianas son un formalismo eciente para representar
conocimiento con incertidumbre. Su atractivo es que son una representacion graca
que modelan de forma tanto cualitativa como cuantitativa las relaciones entre las
variables que describen un dominio. Mientras que la parte cualitativa muestra la
relacion (causal) entre las variables, la parte cuantitativa representa la medida de
creencia que se tiene sobre las relaciones (de dependencia/independencia) entre las
variables, esto se hace a traves de distribuciones de probabilidad. Siendo las redes
Bayesianas modelos que describen relaciones entre variables, pueden ser aplicadas
190CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


a casi cualquier tipo de problemas. Se trata de utilizar este formalismo para re-
alizar procesos ecientes de razonamiento una vez especicado el modelo. Es decir,
podemos realizar procesos de inferencia a partir del modelo, conociendo alguna ev-
idencia de las variables se intenta predecir como se comportaran las demas. No se
va a describir en este momento el procedimiento para dise nar una red, solo se va
a mencionar que se puede realizar de dos formas: (1) a traves de la informacion
proporcionada por un experto humano, y (2) de forma automatizada a traves de
datos (aprendizaje).
3.5.2. Aprendizaje
El concepto de aprendizaje en organismos vivos tiene varias acepciones, sin em-
bargo, tienen que ver con lo siguiente: Es el proceso por el cual se adquiere una
nueva conducta, o se modica una existente como resultado de la experiencia. El
aprendizaje es la caracterstica que le permite a los seres vivos adaptarse a un medio
ambiente y sobrevivir a diferentes condiciones. Asimismo, esta caracterstica resulta
esencial para realizar tareas cada vez con mayor eciencia. Debido a la importancia
que reviste este aspecto en los seres humanos, se intenta llevarlo a las maquinas,
surgiendo de esta forma la rama de la IA conocida como Aprendizaje Autom atico o
Aprendizaje de Maquinas, el cual se dene como:
El Aprendizaje de Maquinas es una rama de la Inteligencia Articial cuyo obje-
tivo es desarrollar tecnicas que permitan a las computadoras mejorar de manera
automatica con la experiencia, a traves de seguir las leyes que gobiernan el proceso
de aprendizaje humano.
Esta denicion incluye un amplio rango de tareas de aprendizaje, tales como: i) el
dise no de vehculos autonomos que aprenden a navegar a partir de su experiencia,
ii) sistemas medicos que utilizan registros de casos con el n de pronosticar la re-
spuesta de futuros pacientes a ciertos tratamientos, y iii) construccion de motores
de b usqueda que se ajusten a las necesidades de cada usuario.
Para ser mas preciso, se dice que una maquina aprende en relacion a una tarea
particular T, una metrica del rendimiento P, y a alg un tipo de experiencia E, si
el sistema de forma conable mejora su rendimiento P al realizar la tarea T en la
siguiente experiencia E. Dependiendo de como se especiquen T, P, y E, la tarea de
aprendizaje puede ser llamada de diferentes maneras, tales como: minera de datos,
descubrimiento automatico, actualizacion de bases de datos, programacion basada
en ejemplos, etc.,
3.5. RAZONAMIENTO CON INCERTIDUMBRE 191
El Aprendizaje Automatico resulta de una interseccion natural entre las Ciencias
Computacionales y la Estadstica. La interrogante que intenta contestar las Ciencias
Computacionales es: Como podemos construir maquinas que resuelvan problemas,
los cuales son inherentemente tratables/intratables?, por otro lado, la interrogante
que dene a la Estadstica por largo tiempo es: Que puede ser inferido a partir de
datos y un conjunto de asumciones, y con que conabilidad?. A partir de estas inter-
rogantes, se puede deducir la interrogante que identica al aprendizaje automatico,
pero desde un enfoque distinto, ya que mientras las Ciencias Computacionales se
han enfocado principalmente a la programacion manual de las computadoras, el
aprendizaje de maquinas intenta conseguir que las computadoras se programen a
s mismas (a partir de la experiencia y alguna estructura inicial). De igual forma,
mientras que la Estadstica se ha enfocado principalmente a inferir conclusiones a
partir de datos, el Aprendizaje en Maquinas integra arquitecturas y algoritmos que
puedan ser usados efectivamente para obtener, almacenar, indexar, recuperar y unir
estos datos. Un tercer area que esta muy relacionada con el Aprendizaje de Maquina
es la Psicologa en relacion al tema del aprendizaje humano.
Desde hace un par de decadas, el Aprendizaje de Maquina se ha convertido en uno
de los pilares de la tecnologa de la informacion, y en estos tiempos en los que ex-
isten grandes cantidades de informacion disponible en la Internet, un tratamiento
inteligente de la misma sigue siendo un tema de gran interes. La navegacion au-
tomatica de vehculos, investigacion medica, procesamiento del lenguaje natural, y
deteccion de fraude en tarjetas de credito, son solo una muestra de las m ultiples
areas en las que el Aprendizaje Automatico desempe na un rol principal en la apli-
cacion de computadoras para sustituir la manera en que los humanos se comportan
y toman decisiones. Existen dos aspectos en un problema que requieren el uso de
programas que aprendan y mejoren basandose en la experiencia; son los aspectos de
complejidad y adaptabilidad.
Tareas complejas para un programa. Existen dos tipos de tareas que resultan
complicadas para un programa:
1. Tareas realizadas por animales/humanos. Existen numerosas tareas que re-
alizamos de forma cotidiana, las cuales no son sucientemente elaboradas como para
ser representadas por un programa. Ejemplos de estas tareas son: conducir un vehcu-
lo, reconocer voces y rostros, y entender el lenguaje, entre otras. En estas tareas, el
desempe no de programas de aprendizaje automatico, han reportado resultados sat-
isfactorios una vez que se han suministrado con una cantidad apropiada de ejemplos.
2. Tareas que rebasan la capacidad humana. Un grupo de tareas que son sus-
192CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


ceptibles de beneciarse por el aprendizaje automatico son las relacionadas con el
analisis de enormes y complejos conjuntos de datos, tales como los datos relaciona-
dos con astronoma, la conversion de archivos medicos en conocimiento medico,
prediccion del clima, analisis de datos genomicos, motores de b usqueda en la web, y
comercio electronico. Con vol umenes de datos cada vez mayores que se encuentran
almacenados electronicamente, resulta obvio que encontrar informacion util en estos
archivos, es una labor extenuante y compleja para los humanos. Aprender a detectar
patrones signicativos en grandes conjuntos de datos es un dominio prometedor en el
cual la combinacion de programas capaces de aprender y la casi ilimitada capacidad
de memoria y la velocidad de procesamiento de las computadoras ofrecen nuevos
horizontes.
Tratar con la diversidad (adaptabilidad). Una caracterstica que limita a las
herramientas de programacion clasica es su rigidez, es decir, una vez que el programa
se ha dise nado e instalado en un equipo de computo, este permanece inalterable. Sin
embargo, muchas tareas cambian con el tiempo o bien entre usuarios los requerim-
ientos pueden ser distintos, por lo que los programas deben poder adaptarse a estos
cambios. Los programas y algoritmos relacionados con aprendizaje automatico tienen
entre sus caractersticas el poder adaptarse a los cambios ambientales al interactuar
con el mismo. Aplicaciones tpicas al respecto incluyen las siguientes: decodicacion
de texto manuscrito (en este caso el programa se adapta a las diferentes formas de
escribir de las personas), deteccion de programas spam (adaptabilidad a lo que se
considera correo basura por usuarios diferentes), y programas de reconocimiento de
voz, entre otros.
Tipos de aprendizaje. El aprendizaje abarca un dominio muy amplio. Por lo tan-
to, este campo se ha dividido en varios subcampos que tratan diferentes tipos de
tareas de aprendizaje en maquinas. Siendo el aprendizaje en maquinas un area bas-
tante amplia, en este breve espacio solo se proporcionaran ideas generales respecto
a su taxonoma y tecnicas mas aplicadas. Se van a mostrar los cuatro parametros
alrededor de los cuales los paradigmas de aprendizaje son clasicados.
Aprendizaje Supervisado versus Aprendizaje No Supervisado. Ya que el
aprendizaje involucra una interaccion entre el medio ambiente y el sistema que
aprende, es posible dividir las tareas de aprendizaje de acuerdo a tal interaccion. La
primera distincion consiste en notar la diferencia entre aprendizaje supervisado y
aprendizaje no supervisado. Para ilustrar la diferencia, suponga que se va a dise nar
un programa para que aprenda a distinguir 2 tipos de gestos realizados por una per-
sona. Supongamos que los gestos en cuestion son: levantarse (de una silla) y sentarse
(en una silla). Asimismo, los gestos van a ser proporcionados al sistema como una
3.5. RAZONAMIENTO CON INCERTIDUMBRE 193
secuencia de imagenes obtenidas a traves de vdeo. En un esquema con aprendizaje
supervisado, se le proporciona al sistema un conjunto de ejemplos (conjunto de
entrenamiento) de cada tipo de gesto, indicandole en cada caso de que gesto se
trata. Para vericar el aprendizaje se le suministra al sistema con otro conjunto de
gestos conocidos como conjunto de prueba y el sistema por s solo debe intentar
reconocer a cada tipo de gesto. El aprendizaje supervisado se caracteriza porque
existe un supervisor que le indica al sistema a traves de etiquetas lo que necesita
aprender. En el aprendizaje del tipo no supervisado no se le indica al sistema el tipo
de cada gesto mediante una etiqueta, esta informacion la debe deducir el mismo sis-
tema a traves de un proceso de agrupamiento. En dicho proceso, el sistema intenta
agrupar en clases la informacion de entrada buscando caractersticas distintivas para
los elementos de cada clase, en este caso caractersticas distintivas para cada tipo
de gesto. Al igual que en el aprendizaje supervisado, el aprendizaje no supervisado
se eval ua a traves de un conjunto de prueba.
Aprendizaje Pasivo versus Aprendizaje Activo. Los paradigmas de aprendiza-
je varan dependiendo del rol que desempe nan los aprendices (sistemas que apren-
den). En este sentido se distinguen dos tipos: sistemas de aprendizaje activos y
sistemas de aprendizaje pasivos. Un sistema de aprendizaje activo interact ua con
el ambiente durante el entrenamiento, ya sea a traves de preguntas o realizando
experimentos, mientras que un sistema de aprendizaje pasivo solo observa la infor-
macion proporcionada por el ambiente (maestro o supervisor) sin inuenciar en el
mismo. En el ejemplo para aprender a reconocer gestos gestos, el sistema es pasivo ya
que solamente observa la informacion de entrada sin ejercer ninguna inuencia para
modicarla. Un ejemplo de aprendizaje de gestos activo podra ser el caso donde
el sistema intente aprender los gestos en lnea y le enve comandos a la camara de
vdeo cuando la informacion captada no sea del todo clara, con el n de que enve
informacion desde otro angulo o enfoque.
Utilidad del maestro. Generalmente, cuando pensamos en el aprendizaje humano
(un ni no en su casa, un estudiante en la escuela), enseguida lo relacionamos con
una persona que funja como gua: maestro o supervisor. La funcion del maestro es
proporcionar al aprendiz con informacion util para su aprendizaje. En contraste,
cuando un investigador aprende acerca de la naturaleza, el ambiente es quien jue-
ga el papel del maestro, el cual se puede pensar como un proceso de aprendizaje
pasivo, ya que las estrellas brillan, el agua uye en un arroyo, el arco iris aparece
despues de la lluvia, etc., y todo esto transcurre sin pensar en las necesidades del
investigador. Se puede modelar el aprendizaje en tal escenario estableciendo que los
datos de entrenamiento son generados por alg un proceso aleatorio. Este es el com-
ponente basico en el aprendizaje estadstico. Finalmente, el aprendizaje tambien
194CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


se produce cuando la informacion proporcionada al aprendiz es generada por una
confrontacion (analisis, discusion) con el maestro o supervisor. Este caso, ocurre
a veces con frecuencia en situaciones de personas autodidactas.
Aprendizaje en lnea versus Aprendizaje tipo Batch. El ultimo caso de
parametros utilizados en los paradigmas de aprendizaje, es distinguir situaciones
de aprendizaje donde el aprendiz tiene que responder en lnea, en escenarios en los
que tiene que ajustar (anar) los conocimientos adquiridos s olo despues de procesar
grandes cantidades de datos. Por ejemplo, un corredor de bolsa debe tomar da a
da decisiones en base a su experiencia. El puede convertirse con el tiempo en un
experto, pero en el proceso debe pasar por costosos errores. Por otro lado, en muchos
escenarios de minera de datos, el aprendiz dispone de grandes cantidades de datos
de entrenamiento antes de producir conclusiones.
Como se menciono anteriormente, en el tipo de aprendizaje supervisado existen eti-
quetas asociadas a los ejemplos utilizados. Si la etiqueta toma valores discretos,
entonces la tarea de aprendizaje se asocia al problema de clasicacion. Si no es
as, entonces se hace referencia a un problema de regresion. Se va a mostrar uno
de los principales usos del aprendizaje en maquinas relacionado con el primero de
los problemas mencionados.
Clasicacion supervisada. A la tarea de clasicar de manera automatica tam-
bien se le conoce como reconocimiento de patrones, donde se busca el dise no de
algoritmos capaces de diferenciar diferentes ejemplares, basandose en sus patrones
distintivos. Watanabe describio en 1985 a un patron como lo opuesto al caos; es
una entidad, vagamente denida, a la que podra asignarsele un nombre. Algunos
ejemplos de patrones son los rostros humanos, documentos de texto, se nales de un
electrocardiograma, y las secuencias de ADN que pueden causar cierta enfermedad.
Formalmente, el objetivo de una tarea de clasicacion es encontrar un mapeo fun-
cional entre un conjunto de datos de entrada X, describiendo patrones de entrada
de una clase etiquetada como Y , tal que Y = f(X). La construccion de la funcion
de mapeo se basa en los datos de entrenamiento proporcionados al algoritmo de
clasicacion. Un patron (ejemplo) es descrito por sus caractersticas las cuales son
especcas de cada problema. Por ejemplo, en una tarea de reconocimiento de gestos
realizados por la mano derecha, se podra usar como caracterstica la trayectoria de-
scrita por el centroide de la mano, y en una tarea de reconocimiento de rostros, se
podran utilizar como caractersticas el color de los ojos y la distancia entre ellos.
De esta manera, la entrada en una tarea de reconocimiento de patrones consiste en
un vector constituido por caractersticas.
3.5. RAZONAMIENTO CON INCERTIDUMBRE 195
La clasicacion de patrones se realiza en los siguientes pasos:
1. Coleccion y representacion de datos.
2. Seleccion y/o reduccion de caractersticas.
3. Clasicacion.
El primer paso generalmente es especco del problema, por lo que resulta compli-
cado intentar generalizarlo. Lo mejor que se podra hacer en este caso es tratar de
encontrar caractersticas invariantes que describan lo mejor posible las diferencias
entre clases. En el paso 2, lo que se intenta es reducir la dimensionalidad (n umero
de caractersticas) del problema, con nes de hacer manejable al problema, y en el
tercer paso, se busca el mapeo entre patrones y etiquetas.
Algoritmos de clasicacion. Se van a describir de forma general seis algoritmos
utilizados en tareas de clasicacion. Los primeros cuatro son tecnicas tradicionales
utilizadas ampliamente hace alg un tiempo y que trabajan razonablemente bien con
conjuntos de datos de baja dimensionalidad y pocos ejemplos de entrenamiento.
Posteriormente se mostraran dos metodos que han recibido atencion recientemente
por la comunidad de aprendizaje en maquinas (Machine Learning). Estos metodos
son capaces de resolver problemas con alta dimensionalidad y solo requieren de muy
pocos ejemplos (unos cincuenta) y cuando los ejemplos son muchos (varios miles)
realizan un trabajo muy eciente.
k-vecinos mas cercanos. Esta tecnica se considera el metodo de clasicacion mas
simple [157]. En este metodo, se encuentran los k puntos de los datos de entre-
namiento mas cercanos al punto de prueba, y se le asigna una etiqueta por votacion
entre los k puntos. Este metodo, debido a su sencillez, resulta altamente intuitivo y
proporciona un porcentaje bajo de errores en la clasicacion, pero es computacional-
mente costoso y requiere un gran espacio de memoria para almacenar los datos de
entrenamiento.
Analisis de Discriminantes. Es una tecnica estadstica capaz de indicarnos que vari-
ables permiten diferenciar a las clases y cuantas de estas variables son necesarias
para alcanzar la mejor clasicacion posible. La pertenencia a las clases, conocida de
antemano, se utiliza como variable dependiente (una variable categorica con tan-
tos valores discretos como clases existan). Las variables en las que suponemos que
se diferencian las clases se utilizan como variables independientes o variables de
clasicacion (discriminantes). En otras palabras, esta tecnica calcula u obtiene un
hiperplano en el espacio de entrada que minimiza la varianza entre clases y maxi-
miza la distancia entre ellas [?]. Este metodo puede trabajar de forma eciente en
196CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Figura 3.14: Ilustracion de un

Arbol de Decision que muestra la clasicacionde ani-
males en base a su sangre (tiene sangre caliente?).
casos lineales aunque tengan grandes conjuntos de datos. Sin embargo, en muchos
casos una separacion lineal no es suciente. En casos no lineales el uso de kernels
puede funcionar, sin embargo, se complica en problemas con grandes conjuntos de
entrenamiento [59].

Arboles de decision. Los arboles de decision son un tipo de tecnica de clasicacion


que resulta muy intuitiva. Estos algoritmos resuelven el problema de clasicacion
mediante una particion repetida del espacio de entrada con el n de construir un
arbol cuyos nodos resulten tan puros como sea posible (contengan puntos de una
clase solamente). Para clasicar un nuevo punto de prueba es necesario moverse de
arriba hacia abajo del arbol, se inicia en el nodo raz pasando a traves de las ramas,
hasta que un nodo terminal es alcanzado. Los arboles de decision son un esquema
de clasicacion simple pero efectivo para peque nos conjuntos de datos. Sin embargo,
su complejidad computacional se incrementa de forma desfavorable al incrementar
la dimension de los datos. Grandes conjuntos de datos resultan en representaciones
complicadas, la cual en consecuencia requiere una gran cantidad de almacenamiento.
La Figura 3.14 muestra una implementacion de un arbol de decision realizada por
Quinlan aplicando el algoritmo de aprendizaje C4,5. En este arbol se intenta clasi-
car algunos tipos de animales iniciando por su sangre (Tiene sangre caliente?) [60].
Redes neuronales (RNs). Son probablemente uno de los enfoques mas utilizados
en tareas de clasicacion. Las redes neuronales (modelo sugerido inicialmente por
Turing) son una tecnica computacional inspirada en la analoga que existe en el
3.5. RAZONAMIENTO CON INCERTIDUMBRE 197
comportamiento y funcion del cerebro humano, en particular del sistema nervioso,
el cual esta compuesto por redes de neuronas biologicas que poseen bajas capaci-
dades de procesamiento, sin embargo toda su capacidad cognitiva se sustenta en
la conectividad de estas. La unidad de una red neuronal articial es un procesador
elemental llamado neurona que posee la capacidad limitada de calcular, en general,
una suma ponderada de sus entradas y luego le aplica una funcion de activacion
para obtener una se nal que sera transmitida a la proxima neurona. Estas neuronas
articiales se agrupan en capas o niveles y poseen un alto grado de conectividad
entre ellas, conectividad que es ponderada por los pesos. A traves de un algorit-
mo de aprendizaje supervisado o no supervisado, las RNs ajustan su arquitectura
y parametros de manera de poder minimizar alguna funcion de error que indique
el grado de ajuste a los datos y la capacidad de generalizacion alcanzada por las
mismas. Un esquema simple para una red neuronal se muestra en la Figura 3.15,
donde cada crculo denota una unidad computacional o neurona, la cual computa
una suma pesada de sus entradas, y posiblemente realice una funci on no lineal sobre
la suma. Si se aplican ciertas clases de funciones no lineales, la funcion calculada por
la red es capaz de aproximar cualquier funcion (especcamente un mapeo de los
patrones de entrenamiento a los patrones objetivo) si existen sucientes neuronas
en la red y se proporcionan sucientes ejemplos de entrenamiento [68].
El Aprendizaje de Maquinas como ya se menciono se apoya en los fundamentos
teoricos de la Teora de Aprendizaje Estadstica [61] la cual proporciona las condi-
ciones y garantas para el dise no de algoritmos de aprendizaje con una apropiada
generalizacion. En los ultimos a nos, han emergido algunas tecnicas de clasicacion
de amplio margen como un resultado practico de la teora de generalizacion. De
manera general, el margen es la distancia entre el ejemplo y el lmite de separacion,
un clasicador de amplio margen genera lmites de decision con amplios margenes
en casi todos los ejemplos de entrenamiento. Las dos clases de clasicadores de am-
plio margen mas estudiados son las Maquinas de Vector Soporte y Boosting [?].
Maquinas de Vectores Soporte. Las maquinas de vectores soporte (MVSs) son
sistemas de aprendizaje que utilizan como espacio de hipotesis, funciones lineales en
espacios caractersticos de dimension muy alta, ensayando algoritmos de aprendizaje
de la teora de la optimizacion que implementan un aprendizaje sesgado derivado a
partir de la teora del aprendizaje estadstico. La teora de las MVSs fue desarrol-
lada inicialmente por V. Vapnik a principios de los a nos 80 y se centra en lo que
se conoce como Teora del Aprendizaje Estadstico
10
. El objeto de las MVSs es dar
solucion al problema fundamental que surge en distintos campos, donde se estudia, la
10
De forma simplicada esta teora busca formas de estimar dependencias funcionales a partir
de una colecci on de datos.
198CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Figura 3.15: Ilustracion de una red neuronal artoicial en la que se muestra a traves
de crculos la unidad de procesamiento basica o neurona.
relacion entre sesgo y varianza, el control de la capacidad, sobreajuste en los datos,
etc. Este problema consiste en buscar, para una tarea de aprendizaje dada con
una cantidad nita de datos una adecuada funcion que permita llevar a cabo una
buena generalizacion (explicar el comportamiento de los datos en un dominio mas
amplio) que sea resultado de una adecuada relacion entre la precision alcanzada con
un particular conjunto de entrenamiento y la capacidad del modelo (capacidad de
aprender con cualquier conjunto de entrenamiento). Esta tecnica trabaja mapeando
los datos de entrenamiento en un espacio de caractersticas apoyado por una fun-
cion kernel y posteriormente separando los datos usando un hiperplano de amplio
margen. Intuitivamente, el kernel obtiene una similitud entre dos ejemplos dados.
Las funciones kernel usadas con mas frecuencia son la exponencial y la polinomial
(k(x, x

) = (x.x

)
d
). La maquina de vector soporte encuentra amplios margenes de
separacion entre los ejemplos de entrenamiento y ejemplos no vistos con anterior-
idad los cuales muy seguido resultaran cercanos a los ejemplos de entrenamiento.
De esta manera, este amplio margen asegura que estos ejemplos sean clasicados
correctamente, es decir, generaliza la regla de decision. Para los as llamados kernels
denidos positivos, el problema de optimizacion puede resolverse de manera eciente
y las MVSs tienen una interpretacion como un hiperplano de separacion en un espa-
cio de caractersticas de alta dimension. Esta tecnica ha sido aplicada en conjuntos
3.5. RAZONAMIENTO CON INCERTIDUMBRE 199
Figura 3.16: Ilustracion del algoritmo de boost.
de datos con millones de dimensiones y en algunos casos con ejemplos mayores al
millon.
Boosting. La idea basica de este metodo as como de algunos algoritmos de apren-
dizaje de ensemble
11
consiste en combinar de forma iterativa hipotesis base muy sen-
cillas (algunas veces conocidas como: reglas de ingenuos) para hacer una prediccion
nal. Se puede usar el aprendiz base para generar las hipotesis base. Las hipotesis
generadas se combinan linealmente. En el caso de una clasicaci on bi clase, la
prediccion nal se obtiene como una votacion ponderada. La combinacion de reglas
sencillas puede incrementar el rendimiento de manera signicativa. Se ha demostra-
do que este metodo mantiene una gran cercana con las maquinas de vector soporte.
Las tecnicas basadas en Boosting han sido utilizadas en conjuntos de datos de gran
dimension y pueden de forma relativamente facil manejar cientos de miles de ejem-
plos. En la Figura 3.16 se muestra el algoritmo basico que siguen estas tecnicas.
3.5.3. Logicas multivaluadas
En la logica clasica las proposiciones pueden tomar solo dos valores de verdad:
verdadero y falso. De acuerdo con Peirce esta es la hipotesis mas simple; mu-
11
Conjunto de clasicadores redundantes (todos realizando la misma tarea), quizas por diferentes
metodos, cuyos resultados luego son integrados. La redundancia de los ensembles es para evitar
los fallos individuales en la clasicaci on.
200CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


cho antes Aristoteles ya haba formulado los principios fundamentales de la logica
clasica, el de no contradiccion nada puede ser y no ser al mismo tiempo, es decir,
un enunciado no puede ser a la vez verdadero y falso y el principio del tercero
excluido algo es o no es, todo enunciado es verdadero o es falso. A pesar del
exito logrado por los sistemas de razonamiento basados en la l ogica clasica, se ha
observado que existen muchas situaciones de la vida real los gustos, la riqueza, el
signicado de los adjetivosdonde este razonamiento es insuciente, y se requiere
la consideracion de mas valores de verdad. Durante el siglo XX fueron propuestas
diversas logicas que involucran mas valores de verdad: entre otras se destacan las
siguientes: (a) la logica intuicionista de Brouwer, aplicada parcialmente por el lla-
mado calculo proposicional intuicionista cuyos modelos algebraicos son las algebras
de Heyting, (b) las logicas multivaluadas o polivalentes introducidas por la escuela
polaca de logica y en especial por Jan Lukasiewicz, y (c) la logica borrosa o logica
difusa introducida en 1965 por L. Zadeh.
En esta seccion se van a describir las dos primeras logicas, mientras que la logica
difusa se va a mostrar en la siguiente seccion.
El concepto de neutralidad en logica. Cualquier punto de vista A tiende a ser
neutralizado, disminuido, o balanceado por otro denominado No A. Asimismo,
entre A y No A existe una cantidad innita de puntos de vista Neut A. Si A
indica una idea, proposicion, teora, evento, concepto, o entidad, entonces No A
indica lo que no es A, y AntiA lo opuesto de A. NeutA signica lo que no es A ni
Anti A, es decir, un punto neutral cualquiera entre los extremos. La logica clasica,
tambien conocida como logica Booleana en honor del matem atico ingles G. Boole,
tiene dos valores de verdad: verdadero y falso. Las neutralidades son ignoradas en
esta logica. Peirce, desarrollo antes de 1910 una semantica para una logica de
tres valores, la cual fue retomado posteriormente por Lukasiewics. En esta logica, el
n umero 1 indica un valor de: verdad,
1
2
un valor de: indeterminado, y el n umero 0
indica: falsedad. En relacion al concepto de neutralidad, estos tres valores de verdad
pueden interpretarse como: A, Neut A, y No A respectivamente. Sin embargo,
Lukasiewics no se limito a la logica de tres valores, sino que siguio trabajando en una
logica de m ultiples valores, es decir, en una logica multivaluada. Las aplicaciones
practicas para una logica con innitos valores, donde el valor de verdad puede ser
cualquier n umero en el intervalo [0, 1] es considerada por L. Zadeh y le da el nombre
de logica difusa [174].
Por otro lado, en la antigua logica ind u se consideraron cuatro valores posibles para
una sentencia: verdadero, falso, verdadero y falso, ni verdadero ni falso. La logica
Budista agrego un quinto valor a los cuatro anteriores: ninguno de estos.
3.5. RAZONAMIENTO CON INCERTIDUMBRE 201
La logica intuicionista de Brouwer. El intuicionismo encuentra su origen en los
trabajos del matematico holandes L. E. J. Brouwer (18811966) quien desde su tesis
doctoral, presentada en 1907, intervino en la discusion sobre los fundamentos de la
matematica. Entre los precursores de las ideas intuicionistas pueden mencionarse
a Kronecker, Poincare, Borel y Weyl; las grandes corrientes losocas antagonistas
fueron el formalismo propugnado por Hilbert y el logicismo impulsado por Frege,
Whitehead y Russell. El principio basico del intuicionismo es la constructibilidad:
para el intuicionista los objetos de estudio de la matematica son ciertas intuiciones
mentales y las construcciones que pueden hacerse con ellas. La consecuencia in-
mediata es que la matematica intuicionista solo maneja objetos construidos y solo
reconoce las propiedades puestas en ellos por la construccion. En particular, la ne-
gacion de la imposibilidad de un hecho no es una construccion del mismo luego
el principio de doble negacion y las demostraciones por reduccion al absurdo son
inaceptables para el intuicionista. De igual manera, es perfectamente factible que
un hecho y su negacion sean ambos imposibles de construir luego, en general, en el
intuicionismo no vale el principio del tercero excludo. A nales de la decada de los
20 se propuso el problema de formalizar el intuicionismo. Aunque a primera vista
eso parezca una tarea contradictoria, lo que se pretenda era construir, dentro de la
matematica formalista que ya se estaba imponiendo, una logica
12
checar logica de
predicados o de primer orden en la seccion anterior que de alguna manera reejara
los principios intuicionistas.
El calculo proposicional intuicionista. En 1930 Arend Heyting, uno de los
discpulos de Brouwer, dio un paso decisivo en la formalizaci on del intuicionismo
al presentar un calculo proposicional expresado mediante axiomas y reglas al estilo
de Hilbert y que se conoce como calculo proposicional intuicionista. La siguiente es
una presentacion actual de este calculo [63].
Axiomas:
1. ( ( ))
2. ( ( )) (( ) ( ))
12
Mientras las reglas de inferencia representan la version sint actica de la l ogica, Las tablas de
verdad son la version sem antica de la misma. En esencia este aspecto de la logica consiste en evaluar
la veracidad de una formula veracidad relativa a las proposiciones at omicas que intervienen en
ella interpret andola en un contexto matematico.
202CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


3. ( ) ( )
4.
5. ( )
Regla. La unica regla utilizada es Modus Ponens.
Algunos teoremas y deducciones de la logica clasica tambien pueden probarse en
la logica intuicionista, al igual que algunos teoremas y metateoremas. Incluso es
valida una forma debil de reduccion al absurdo. Pero, es de suponer, no es posible
demostrar el tercio excluso ni la doble negacion . De aqu se deduce
que no es valida la forma fuerte de reduccion al absurdo. C omo garantizar que es
imposible probar cierta formula en un calculo proposicional? Como se observo en
el calculo proposicional clasico, una alternativa consiste en construir una semantica
adecuada. El calculo proposicional intuicionista tiene como contraparte algebraica
una estructura que en la actualidad de manera muy adecuada se denomina algebra
de Heyting. Una algebra de Heyting puede denirse como un retculo con 1 como
maximo y 0 como mnimo, dotado de una implicacion que satisface la siguiente
adjuncion.
x a b s y solo s x a b
En una algebra de Heyting se dene la negacion como a = a 0, de manera que
esta se caracteriza mediante la equivalencia
x a si y solo si x a = 0
en otras palabras, a es el mayor elemento disjunto con a. Toda algebra booleana es
una algebra de Heyting haciendo a b = a b, pero no al reves: por ejemplo, la
unica algebra booleana lineal es 0, 1 pero todo conjunto ordenado lineal con maximo
y mnimo es una algebra de Heyting haciendo
a b = 1 cuando a b, y b cuando a > b
Puesto que se construyen con el mismo vocabulario, las formulas del calculo proposi-
cional intuicionista pueden leerse en cualquier algebra de Heyting. Considerese, por
ejemplo, la formula x x. En una algebra de Heyting arbitraria se tiene 1 a a,
3.5. RAZONAMIENTO CON INCERTIDUMBRE 203
Figura 3.17: Ilustracion de las tablas de verdad del algebra de Heyting correspondi-
ente a tres valores de verdad: 0 12 1.
luego por la adjuncion que dene la operacion se sigue 1 a a, es decir,
a a = 1. Una formula es una tautologa en algebra de Heyting si, al igual que
x x, todas sus lecturas en cualquier algebra de Heyting siempre resultan 1. En
este caso, el teorema de correspondencia entre sintaxis y semantica consiste en que
las tautologas en algebras de Heyting coinciden exactamente con los teoremas del
calculo proposicional intuicionista [122]. Este importante resultado garantiza, entre
otras consecuencias notables, que x x y x x no son teoremas del calculo
proposicional intuicionista, es decir, en esta logica no vale el tercio excluso ni la ley
de la doble negacion.
En la Figura 3.17 se muestran las tablas de las operaciones negacion e implicacion del
algebra de Heyting lineal con tres elementos 0 12 1. Estas tablas pueden verse
como las tablas de verdad de una logica intuicionista con tres valores de verdad.
Desde hace varias decadas el estudio y fomento del intuicionismo como tal practi-
camente han cesado. La logica intuicionista, en cambio, se ha seguido estudiando y
ha reaparecido recientemente con fuerza en estudios como la logica de los haces de
Caicedo [123] y la logica de las categoras y topos [124, 125], logicas potentes cuyo
segmento proposicional es precisamente el calculo proposicional intuicionista.
Las logicas multivaluadas de Lukasiewicz. Respecto a la negacion en el algebra
de Heyting con tres elementos, las asignaciones 0 1 y 1 0 resultan perfecta-
mente aceptables pero la asignacion
1
2
0 es muy discutible. En algunas situaciones
concretas como las mencionadas con anterioridad, parece m as adecuada una asig-
nacion simetrica
1
2
12. Esa fue la propuesta de Lukasiewicz. Jan Lukasiewicz
(18781956) fue uno de los matematicos polacos mas inuyentes de su generacion.
Junto con Lesniewski fundo durante los a nos 20 del siglo XX una escuela de logica
204CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


en Varsovia que en su momento llego a ser el principal grupo de matematicas del
mundo y entre cuyos miembros se destaca Alfred Tarski.
La idea de Lukasiewicz sobre logicas multivaluadas consiste en distribuir los valores
de verdad de manera uniforme sobre el segmento real [0, 1], si se trata de n valores,
ellos son 0,
1
n1
,
2
n2
, ...,
n2
n1
, 1; si se trata de valores innitos, se toma Q

[0, 1]. La
negacion se dene como x = 1x, y para los demas conectivos logicos se introduce
la operacion como x y = min(1, x +y).
La constante 1 y las operaciones , (implicacion), (disyuncion) y (conjun-
cion) se denen en terminos de las anteriores como sigue.
1 = 0
x y = (x y) max(0, x +y 1)
x y = x y min(1, 1 x +y)
x y = (x y) y max(x, y)
x y = (x y) y min(x, y)
Como un caso particular interesante, en la Figura 3.18 se muestran las tablas de
negacion e implicacion de la logica con tres valores. Al compararlas con las tablas del
algebra de Heyting (ver Figura 3.17) con tres elementos se observa que la diferencia
es mnima pero esencial.
En Chang 1958 introdujo la nocion de MV algebra, la importancia de esta algebra
es que permite explicar la semantica de la logica de Lukasiewics. Una MV algebra
es una estructura A = A; , , 0) donde A es un conjunto no vaco, es una op-
eracion binaria en A, el smbolo de negacion indica una operacion unaria y 0 una
constante, que ademas satisfacen las siguientes ecuaciones.
1.x (y z) (x y) z
2.x y y x
3.5. RAZONAMIENTO CON INCERTIDUMBRE 205
Figura 3.18: Ilustracion de las tablas de verdad de la logica de Lukasiewics corre-
spondiente a tres valores de verdad: 0 12 1.
3.x 0 x
4.x x
5.x 0 0
6.(x y) y (y x) x)
Todo subconjunto del segmento real [0, 1] cerrado para las funciones x1 x y
x, y min1, x +y) y que contiene a 0 es una MV algebra con las operaciones
x y = min1, x +y, x = 1 x y la constante 0. Toda algebra booleana es una
MV algebra deniendo xy = xy, x = x

. Si G es un l grupo abeliano, para


cada elemento u 0 el segmento [0, u] es una MV algebra con las operaciones
x y = u (x +y), x = u x.
Como caracterstica curiosa puede citarse que en las MV algebras s vale el prin-
cipio de la doble negacion x x pero no el del tercio excluso. Por ejemplo en la
MV algebra con tres elementos se tiene
1
2

1
2
= frac12
1
2
=
1
2
,= 1. Como se
menciono anteriormente, las MV algebras constituyen la semantica de la logica
multivaluada de Lukasiewicz. Respecto a la sintaxis, el mismo Lukasiewicz propuso
calculos proposicionales sencillos y conjeturo que de ellos podran deducirse todas las
tautologas de sus algebras. Esta conjetura se demostro por diversos caminos en el
transcurso del siglo XX. La siguiente es una presentacion de la logica de Lukasiewicz
con innitos valores.
206CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Axiomas
1. ( )
2.( ) (( ) ( ))
3.(( ) () (( ) )
4.( ) ( )
Regla. La unica es Modus Ponens.
En el trabajo desarrollado por Cignoli [126] se prueba qu los teoremas de este calculo
proposicional son precisamente las tautologas de las MV algebras, esto es, las
formulas que ledas en cualquier MV algebra siempre son 1. Para cualquier entero
n > 1 la logica de Lukasiewicz con n valores se obtiene de la logica con innitos
valores a nadiendo los siguientes axiomas:
5.n. (n 1).
6.(n 1)(j. ( (j 1).))
Para un entero n jo, los teoremas de este calculo proposicional son las tautologas
de la MV algebra [llamada algebra de Lukasiewicz[ descrita de la siguiente forma:
L
n
=
__
0,
1
n1
, ...,
n2
n1
, 1
2
n1
_
; , [neg, 0
_
donde las operacionse estan denidas como x y = min1, x +y, x = 1 x, de
esta manera las tablas con valores mostradas en la Figura 3.18 corresponden a las
tablas de verdad de la logica de Lukasiewicz con tres valores.
3.5.4. Logica difusa
El desarrollo de la logica difusa (FL) fue motivado en gran medida por la necesidad
de un enfoque conceptual para manejar el aspecto de incertidumbre e impresicion
lexica. Esta logica fue introducida por Lot Zadeh en 1965 con el n de representar
datos e informacion que posean incertidumbre no estadstica. Basicamente, la FL
3.5. RAZONAMIENTO CON INCERTIDUMBRE 207
es una logica multivaluada, que permite la denicion de valores intermedios entre
los convencionales verdadero/falso, si/no, encendido/apagado, etc. De esta forma,
nociones como alto o muy rapido pueden ser formuladas matematicamente y
procesadas por computadoras. Los sistemas difusos aparecen como una alternativa
a los tradicionales aspectos de pertenencia de conjuntos y l ogica aristotelica.
Las logicas difusas procuran crear aproximaciones matematicas en la resolucion de
ciertos tipos de problemas. Pretenden producir resultados exactos a partir de datos
imprecisos. El adjetivo difuso indica que los valores de verdad nodeterministas
utilizados en estas logicas tienen, por lo general, una connotacion de incertidum-
bre. Un vaso medio lleno, independientemente de que tambien este medio vaco, no
esta completamente lleno ni esta completamente vaco. Que tan lleno puede estar
es un elemento de incertidumbre, es decir, de difusidad, entendida esta ultima co-
mo una propiedad de indeterminismo. Ahora bien, los valores de verdad asumidos
por enunciados aunque no son deterministas, no necesariamente son desconocidos.
Por otra parte, desde un punto de vista optimista, lo difuso puede entenderse como
la posibilidad de asignar mas valores de verdad a los enunciados que los clasicos
falso o verdadero. As pues, las logicas difusas son tipos especiales de logicas
multivaluadas.
Conjuntos difusos y conjuntos precisos. La nocion elemental de los sistemas
difusos es la de un conjunto (o subconjunto) difuso. En matematicas clasica estamos
familiarizados con los conjuntos precisos conjuntos bien denidos. Por ejemplo,
los valores posibles para la coherencia interferometrica g, es el conjunto X de todos
los n umeros reales entre 0 y 1. De este conjunto X puede denirse un subconjunto
A (por ejemplo, el formado por todos los valores comprendidos en el intervalo 0
g 0,2). La Figura 3.19, muestra para el caso anterior la funcion caracterstica de
A (funcion que asigna un n umero 1 o 0 a cada elemento de X, dependiendo si el
elemento se encuentra o no en el subconjunto A). Los elementos que tienen asignado
el n umero 1 indica que pertenencen al conjunto, mientras que los que tienen asignado
un 0 indica que no pertenecen al conjunto.
Este concepto es suciente para muchas areas de aplicacion, pero carece de exibili-
dad para otras mas, tal como la clasicacion de datos obtenidos de manera remota.
Por ejemplo, es bien sabido que el agua muestra una baja coherencia interferometri-
ca g en imagenes satelitales. Ya que el valor de g inicia en 0, el rango menor para
este parametro resulta claro. Sin embargo, el rango mas alto, es un poco mas difcil
de denir. Como un primer intento, podemos poner este valor a 0,2. De esta forma,
podemos pensar en B como el intervalo bien denido B = [0, 0,2]. Esto signica que
un valor para g de 0.20 es bajo, pero si es de 0.21 ya no lo es. Obviamente, lo que
se tiene aqu es un problema estructural, ya que si movemos el rango superior de
0.20 a otro valor arbitario sucede lo mismo. Una forma mas natural de construir el
208CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Figura 3.19: Ilustracion de funcion caracterstica para un Conjunto preciso.
conjunto B debe consistir en relajar la estricta separacion entre bajo y no bajo. Esto
se puede hacer, al permitir el uso de reglas mas exibles tales como ligeramente
bajo. El conjunto difuso nos permite denir estas reglas al incluir no solo los valores
de 0 y 1, sino, un conjunto de valores entre estos dos. En el caso del conjunto B,
los valores entre 0 y 0.2 nos indican una pertenencia gradual a este conjunto (ver
Figura 3.20).
La funcion de pertenencia es una representacion graca de la magnitud de partic-
ipacion de cada entrada. Asimismo, al asociarle un peso a cada entrada procesada
se dene un traslape funcional entre las mismas, y en ultima instancia determina
su respuesta de salida. Las reglas utilizan los valores de pertenencia de las entradas
como factores de ponderacion para determinar su inuencia en los conjuntos difusos
de salida. En el caso de la coherencia interferometrica g, la funcion de pertenen-
cia retorna un valor entre 0.0 y 1.0, por ejemplo un valor para g de 0.3 tiene una
pertenencia de 0.5 al conjunto de baja coherencia (ver Figura 3.20). Es importante
notar la distincion entre logica difusa y probabilidad, ya que ambas operan sobre el
mismo rango numerico, y tienen valores similares: o.o representa Falso (o no perte-
nencia), y 1.0 indicando Verdadero (o completa pertenencia). Sin embargo, existe
una diferencia entre las dos sentencias: el enfoque probabilsta genera la sentencia
del lenguaje natural, Hay un 50 % de probabilidad de que g sea bajo, mientras
que la terminologa difusa produce la sentencia: El grado de pertenencia de g al
conjunto de baja coherencia interferometrica es de 0.5. La diferencia semantica es
signicativa: el primer enfoque supone que g es o no es bajo; en contraste, el enfoque
difuso supone que g es mas o menos bajo.
Operaciones con conjuntos difusos. Las operaciones con conjuntos difusos estan
sugeridas por los gracos de sus funciones. Por ejemplo, como la interseccion de dos
funciones (conjuntos) difusos puede tomarse la funcion mnima (f g = min(f, g)),
como la union la funcion maxima (f g = max(f, g)) y como el complemento
3.5. RAZONAMIENTO CON INCERTIDUMBRE 209
Figura 3.20: Ilustracion de funcion caracterstica para un Conjunto Difuso.
(f = 1 f) la diferencia con la constante 1. En estas expresiones se cumple el
principio de la doble negacion ya que f = f, sin embargo no aplica el principio
del tercero excludo ya que f f no es la funcion constante 1, as como tampoco
f f es la funcion constante 0. En contraste, si se aplican las leyes de De Morgan:
(f g) = f g, (f g) = f g.
Desde hace algunos a nos se ha intentado ofrecer una formalizacion para la logica
difusa, los trabajos de Hajek, Cignoli y otros [126] ofrecen una de estas aportaciones
basandose en la t norma, la cual se dene como una operacion binaria continua
en el segmento real [0, 1] que satisface las condiciones siguientes:
1.x (y z) (x y) z
2.x y y x
3.x 1 x
4.x 0 0
5.x y implica x z y z
La operacion tiene adjunta la implicacion la cual se caracteriza por la equivalencia
x y z si y solo si x y z
210CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Esta equivalencia es similiar a la adjuncion denida en el algebra de Heyting. La
operacion se dene como x = x 0. Algunos ejemplos de t normas continuas
son los siguientes:
1. x y = min(x, y) ; x y = 1 si x y, y si x > y ; x = 1 si x = 0, 0 si x > 0
2. x y = max 0, x +y 1 ; x y = min1, 1 x +y ; x = 1 x
3. x y = xy ; x y = 1 si x y, yx si x > y ; x = 1 si x = 0, 0 si x > 0
Las expresiones mostradas en 1, corresponden a considerar el segmento [0, 1] como un
algebra de Heyting; las mostradas con el 2, a considerarlo como una MV algebra,
en particular como una MV algebra de Lukasiewicz; la tercera corresponde a
una de las operaciones indicadas anteriormente para los conjuntos difusos. Puede
probarse que cualquier t norma continua es una combinacion de estas tres. Una
t norma permite la lectura de formulas proposicionales, interpretando las letras
proposicionales como n umeros reales entre 0 y 1 logica difusa y los conectivos
conjuncion, implicacion y negacion como , , y respectivamente. Por ejemplo, de
1 p p se sigue 1 p p, esto es, p p = 1 para cualquier interpretacion de p
en cualquier t norma. El siguiente paso en la formalizacion consiste en introducir
una estructura algebraica que incluya las t normas, es decir, una BL algebra.
Una BL algebra es una estructura A = A, , , 0) donde A es un conjunto no
vaco y , son operaciones binarias en A y 0 es una constante. A partir de estas
se denen las siguientes cuatro operaciones:
1. x y = x (y y)
2. x y = ((x y) y) ((y x) x)
3. x = x 0
4. 1 = 0
Asimismo, las expresiones anteriores deben satisfacer un conjunto de condiciones
tales como: (a) (x y) (y x) 1. Toda algera de Heyting que valida la condi-
cion (a) es una BL algebra si se toma la operacion igual al extremo inferior ;
en sentido contrario, una BL algebra en la cual es igual a es un algebra de
Heyting en la que se cumple (a). Asimismo, las algebras de Heyting cuyo conjunto
3.5. RAZONAMIENTO CON INCERTIDUMBRE 211
ordenado subyacente es lineal, as como todas las algebras booleanas, son ejemplos
de algebras de Heyting que satisfacen la ecuacion (a). Si en una MV algebra
A, , , 0) se dene el par de operaciones y como
x y = (x y), y x y = x y
entonces A, , , 0) es una BL algebra. Por el contrario, si A, , , 0) es una
BL algebra que satisface x x y si ademas en ella se dene la operacion como
x y = (x y)
entonces A, , , 0) es una MV algebra. En otras palabras, una MV algebra
es una BL algebra mas a un, las MV algebras se caracterizan como aquel-
las BL algebras en las cuales vale el principio de la doble negacion. Si es una
tnorma y su adjunta es rightarrow entonces [0, 1], , , 0); es una BL algebra.
En cierto modo, las BL algebras abarcan las semanticas de las tres logicas multi-
valuadas mencionadas: (i) ciertas algebras de Heyting, correspondientes a la logica
intuicionista; (ii) las MV algebras, correspondientes a las logicas multivaluadas de
Lukasiewicz; y (iii) las t normas, correspondientes a los conjuntos difusos. Sin em-
bargo, cabe la siguiente pregunta existe una sintaxis para esta semantica? En otras
palabras, existe una autentica logica difusa, entendida como sistema deductivo?
En 1998 P. Hajek propuso para esta situacion un calculo proposicional denominado
l ogica difusa basica, el cual esta representado por los siguientes axiomas:
1. ( ) (( ) ( ))
2. ( )
3. ( ) ( ))
4. ( )) ( ( ))
5. (( ) ) ( ( )), (( ) ) (( ) )
6. (( ) ) ((( ) ) )
7. ( )
212CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Cuadro 3.3: Ejemplo de una base de reglas difusa; las reglas se leen como: Regla 1:
Si R es bajo Y G es medio Y B es medio Y I es medio Entonces pxel es clase 1.
R# Caracterstica A Caracterstica B Caracterstica C Caracterstica D Clase
1 bajo medio medio medio clase 1
2 medio alto medio bajo clase 2
3 bajo alto medio alto clase 3
4 bajo alto medio alto clase 1
5 medio medio medio medio clase 4
... ... ... ... ... ...
N bajo alto medio bajo desconocida
Al igual que las logicas multivaluadas anteriores, en este caso la unica regla que
aplica es Modus Ponens. Los teoremas del calculo proposicional son precisamente
las formulas que ledas en cualquier t norma siempre son 1. De esta forma, con
una estructura sintactica y semantica formalizada se dene a la logica difusa en el
sentido matematico de la palabra [63].
Posiblemente, la logica difusa es la que mas aplicaciones practicas ha mostrado de
las otras logicas multivaluadas. A contonuacion se va a mostrar una de estas aplica-
ciones.
Clasicacion difusa. Los clasicadores difusos son una aplicacion de la teora di-
fusa. En este caso, el conocimiento del experto puede ser utilizado y expresado de
una forma natural a traves del uso de variables ling usticas descritas por conjuntos
difusos. Las reglas que expresan el conocimiento experto para estas variables pueden
ser formuladas de manera parecida a:
Si caracterstica A es baja Y caracaterstica B es media Y caracterstica C es media
Y caracterstica D es media Entonces Clase = clase 4
Estas reglas pueden ser combinadas en una tabla como la mostrada en la Tabla 3.3.
Las variables ling usticas son previamente representadas de forma graca como se
ilustra en la Figura 3.21 donde se muestra la representacion de los valores (bajo,
medio, alto) para la variable de entrada: caracterstica A. Las reglas que describen
un sistema difuso consisten de dos partes; un bloque antecedente (entre S y En-
tonces) y un bloque consecuente (despues de Entonces). Dependiendo del sistema,
3.6. DEMOSTRACI

ON Y M

ETODOS 213
Figura 3.21: Ilustracion de la variable ling ustica caracterstica A.
puede no ser necesario evaluar cualquier combinacion de entrada posible, ya que
talvez alguna ocurra muy rara vez. Este tipo de evaluacion, usualmente es realizada
por un operador expermentado, donde pocas reglas pueden ser evaluadas, simpli-
cando con esto la logica de procesamiento y mejorando el rendimiento del sistema.
Las entradas son logicamente combinadas usando el operador Y, para producir
las respuestas de salida de todos los valores esperados de las entradas. Las salidas
activadas son combinadas en una suma logica por cada funcion de pertenencia du-
rante un proceso conocido como defussicacion el cual genera una salida con valor
bien deinido.
3.6. Demostracion y metodos
Las demostraciones son una forma de comunicacion asociada de manera natural
con la logica cuyo objetivo es convencer de la veracidad de las armaciones que
surgen como resultado del razonamiento humano. Asimismo, la demostracion es
un concepto que se ha utilizado como una herramienta muy utilizada en el area
de las matematicas para manejar la validez de teoremas. En esta seccion se va a
mostrar el aspecto de la demostracion bajo un enfoque logico. La demostracion de
una proposicion signica ilustrar bajo un argumento convincente de que la proposi-
cion es verdadera. Las demostraciones de esta clase suelen encontrarse fuera de los
cursos de matematicas. Los investigadores que realizan predicciones basados en prin-
cipios cientcos dan demostraciones, en efecto, de que sus predicciones se deducen
de sus principios. Los programadores de ordenadores hacen aseveraciones de que sus
programas operaran de acuerdo con sus especicaciones y verican estas asevera-
ciones con una combinacion de razonamiento y experimentacion. Los historiadores
cuyo argumento es que cierta serie de decisiones conducen inevitablemente a cierta
214CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


consecuencia, usan el razonamiento logico para demostrar lo anterior. De esta man-
era, aunque los detalles de escribir una demostracion matem aticamente aceptable
pueden pertenecer al terreno de los matematicos, el objetivo de comprender lo que
constituye un argumento convincente debe ser compartido por cualquiera que espere
utilizar los principios matematicos y cientcos. Se van a mostrar en esta seccion,
algunos de los los principios logicos que fundamentan los argumentos convincentes.
Con la nalidad de sustentar la demostracion en el ambito logico, se requiere tener
presente la informacion vista en la seccion de logica de predicados. La idea es de-
mostrar de veracidad de proposiciones aplicando las reglas de inferencia. Asimismo,
hay que tener presente la nocion de razonamiento valido, el cual se maniesta co-
mo un conjunto de clausulas expresadas en forma normal conjuntiva y se utilizan
para demostrar la veracidad de las proposiciones. Recordar que un razonamiento es
valido si la conclusion Q es verdadera cada vez que las premisas P
1
, ..., P
n
lo sean.
3.6.1. Demostracion
Se dene formalmente la demostracion como un razonamiento que establece la ve-
racidad de un teorema. A su vez un teorema consiste en una proposicion P, conocida
como hipotesis y otra proposicion Q identicada como la conclusion. De acuerdo
con las denicioes anteriores, un teorema es verdadero solamente si la proposicion
P Q es una tautologa, dicho de otra forma, solo si el razonamiento expresado
como P Q es valido.
Para ejemplicar la demostracion veamos el siguiente caso.
p q
p q

r q
Demostracion de la validez del razonamiento anterior
(p q) (p r) (q p) (p r) Conmutatividad de
............................(q [p (p r)] Asociatividad de
3.6. DEMOSTRACI

ON Y M

ETODOS 215
............................q r Modus Ponens
............................r q Conmutatividad de
Por lo tanto, en este caso se comprueba que el razonamiento descrito es valido.
3.6.2. Metodos de demostracion
Se van a describir algunas de las tecnicas de demostracion m as comunes, apoyandonos
en algunos ejemplos con el n de claricar la comprension, asmismo se van a in-
dicar la relacion que guardan con las reglas de inferencia ya descritas en una seccion
previa. Como se menciono con anterioridad, una demostracion una demostracion es
un razonamiento que establece la veracidad de un teorema. Por lo tanto, demostrar
un teorema equivale a probar que la proposicion P Q es una tautologa. A con-
tinuacion se van a describir tales tecnicas [65].
Demostracion vaca. Una demostraci on de este tipo se construye estableciendo
que el valor verdadero de la hip otesis P es falso. En efecto, si podemos establecer
la falsedad de P, entonces el condicional P Q siempre es verdad independien-
temente del valor de verdad de la conclusion Q, luego P Q es una tautologa.
Aunque parece que tiene poco valor, este metodo de demostracion es importante
para establecer limitaciones o estudiar casos especiales.
Demostracion Trivial. Se construye una demostraci on de este tipo, probando que
el valor verdadero de la conclusi on es verdad. Si es posible establecer la veracidad de
la conclusion Q, entonces el condicional P Q pasa a ser una tautologa independi-
entemente del valor de verdad que tenga la hipotesis. Por lo tanto, la demostracion
es correcta y el teorema cierto. Al igual que la demostracion vaca, la demostracion
trivial tiene una aplicacion limitada. Se utiliza frecuentemente para establecer casos
especiales de armaciones.
Demostracion Directa. Una demostracion de este tipo muestra que la verdad de
la conclusion Q, se sigue logicamente de la verdad de la hipotesis P. La demostracion
empieza asumiendo que P es verdad para despues, utilizando cualquier informacion
disponible, as como teoremas probados con anterioridad, probar que Q es verdad.
Ejemplo. Demostrar que el cuadrado de un n umero entero par tambien es par.
216CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Demostracion. El teorema a demostrar escrito en forma de condicional, sera: Para
cualquier entero n, si n es par, entonces n
2
tambien es par
que se corresponde con el esquema
n
_
p(n) p(n
2
)
_
donde p(n) : n es par
y el universo del discurso son todos los n umeros enteros.
Pues bien, sea n un n umero entero cualquiera. Si n es par, entonces por denicion
existira un n umero entero k tal que n = 2k
de aqu y elevando al cuadrado, se obtiene n
2
= 4k
2
= 2(2k
2
)
y como el cuadrado de un n umero entero tambien es entero, 2k
2
sera entero (lo
llamaremos m). De esta forma, hemos encontrado un entero m tal que
n
2
= 2m.
Por lo tanto, concluimos que n
2
es par.
Aunque este ejemplo es bastante sencillo, el desarrollo logico de la demostracion es
identico al de otros teoremas de contenidos mas complicados. Observemos, una vez
mas, el camino seguido a traves de implicaciones.
Sea n cualquier n umero entero. Entonces
n es par k : n = 2k
n
2
= 4k
2
m : n
2
= 2m
3.6. DEMOSTRACI

ON Y M

ETODOS 217
n
2
es par
Demostracion por la Contrarrecproca. La demostraci on de un teorema se
dice que es por la contrarrecproca cuando suponiendo que la conclusi on Q es falsa,
y utilizando la hip otesis P y otros teoremas y equivalencias l ogicas establecidas pre-
viamente, se concluye que P es falso.
Esta demostracion se basa en la equivalencia logica entre una proposicion condi-
cional y su contrarrecproca,
P Q Q P
Por lo tanto, si probamos que Q P es una tautologa, entonces P Q tam-
bien lo es, es decir P Q.
Ejemplo. Demostrar, para cada entero n, que si 5n + 3 es par, entonces n es impar.
Demostracion. Se va a utilizar el metodo de demostracion de contrarrecproca.
Si
p(n) : n es par
q(n) : n es impar
el esquema del teorema propuesto sera
n[p(5n + 3) q(n)]
en el universo de los n umeros enteros. El esquema de la contrarrecproca sera
n[q(n) p(5n + 3)]
es decir: Para cada entero n, si n no es impar, entonces 5n + 3 no es par. Ahora
bien, sea n cualquier n umero entero.
Si n no es impar, entonces n ,= 2k + 1 para cualquier entero k y, por lo tanto
218CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


5n + 3 5(2k + 1) + 3, k Z
de aqu se desprende que
5n + 3 2(5k + 4), k Z
y como si k es entero, 5k + 4 tambien lo es (lo llamaremos m), tendremos que
5n + 3 2m, m Z
Consecuentemente, 5n + 3 no es par y con esto la demostracion concluye.
Veamos la demostracion a traves de implicaciones. Sea n un n umero entero cualquiera.
Entonces
n no es impar n 2k + 1, k Z
n 2(5k + 4)
5n + 3 2m, m Z
5n + 3 no es par
Demostracion por Contradiccion. Se dice que la demostracion de un teorema
es por contradiccion cuando suponiendo que la conclusion, Q, es falsa y utilizando
la hipotesis P, y otros teoremas y equivalencias logicas establecidas previamente, se
llega a una contradiccion.
Esta demostracion se basa en la equivalencia logica conocida como reduccion al
absurdo, es por ello que este metodo de demostracion es conocido, tambien, como
demostracion por reduccion al absurdo la cual se expresa como sigue
P Q (P Q) C
3.6. DEMOSTRACI

ON Y M

ETODOS 219
donde C es una contradiccion. Por lo tanto, si se prueba que (P Q) C es una
tautologa se tiene tambien que P Q tambien lo es.
Ejemplo. Demostrar que si el cuadrado de un n umero entero es impar, entonces el
n umero es impar.
Demostracion. El teorema a demostrar es:
Para cada entero n, si n
2
es impar, entonces n es impar
Si p(n) : n es impar
entonces el esquema del teorema en notacion simbolica sera
n[p(n
2
) p(n)]
en el universo de los n umeros enteros. Se realizara la demostracion por contradiccion
o reduccion al absurdo. El esquema sera
n[(p(n(
2
)) p(n)) C]
donde C es una contradiccion. Ahora bien, sea n cualquier n umero entero. Suponien-
do que n
2
es impar, y que n no es impar. Entonces, se tiene que
n
2
es impar y n es par. Considerando las deniciones para n umero par e impar,
suponga que existen dos n umeros enteros k y l tales que
n
2
= 2k + 1, y n = 2l
luego n
2
= 2k + 1, y n
2
= 4l
2
por lo tanto, 2k + 1 = 4l
2
de donde se sigue que 1 = 4l
2
2k = 2(2l
2
k)
220CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


y como l y k son enteros, 2l
2
k tambien lo es (lo llamaremos m ), se tiene que se
ha encontrado un n umero entero m tal que
1 = 2m
es decir, se indica que el n umero 1 es par, lo cual es una contradiccion.
Lo que nos ha conducido a la contradiccion es la suposicion de que n no era impar,
por lo tanto, esta aseveracion resulta falsa y en consecuencia es cierta la aseveracion
contraria, esto es, n es impar.
La demostracion anterior a traves de implicaciones resulta de la siguiente manera:
n
2
es impar y n no es impar n
2
es impar y n es par
k : n
2
= 2k +1 y l : n = 2l Denicion de impar e par
k : n
2
= 2k + 1 y l : n
2
= 4l
2
Elevando al cuadrado
k y l : 2k + 1 = 4l
2
Igualando
k y l : 1 = 2(2l
2
k) Haciendo operaciones
m : 1 = 2m Haciendo m = 2l
2
k
1 es par Denicion de n umero par
Contradiccion
B usqueda de Contraejemplos. Este tipo de demostracion, se encuentra muy
relacionada con el cuanticador universal, aparece cuando se quiere probar que una
proposicion del tipo x, p(x) es falsa. Normalmente diremos que se refuta la proposi-
cion x, p(x).
En efecto, x, p(x) sera falsa cuando exista, al menos, un elemento a en el universo
del discurso para el cual p(a) sea una proposicion falsa. Hemos encontrado, pues,
un ejemplo que contradice el que x, p(x) sea verdad por lo cual le llamaremos con-
traejemplo. En el caso de un teorema el planteamiento sera descrito de la siguiente
3.6. DEMOSTRACI

ON Y M

ETODOS 221
manera: x[p(x) q(x)] es falso si existe un elemento a en el universo para el cual
la proposicion condicional p(a) q(a) sea falsa, es decir tal que p(a) sea verdad y,
sin embargo, q(a) sea falsa.
Ejemplo. En el universo de los n umeros enteros positivos, demostrar o refutar la
siguiente proposicion: la suma de dos cuadrados perfectos es tambien un cuadrado
perfecto.
Solucion. Recordemos que un entero positivo x es un cuadrado perfecto si puede en-
contrarse otro entero positivo y tal que x = y
2
. La proposicion a demostrar escrita
en forma de condicional sera:
Si m y n son enteros positivos y cuadrados perfectos, entonces m+n es un cuadrado
perfecto.
Pues bien, si p(m, n) : m+n es un cuadrado perfecto, entonces la proposicion escrita
en su forma simbolica sera:
m, n[p(m, 0) p(n, 0) p(m, n)]
y un contraejemplo,
a, b : [p(a, 0) p(b, 0) p(a, b)]
es decir,
pueden encontrarse dos enteros positivos a y b tales que sean cuadrados perfectos
y que, sin embargo, su suma no lo sea.
Pues bien, elijamos dos cuadrados perfectos arbitrariamente, por ejemplo el 25 y el
36 . Entonces,
25 + 36 = 61 y
2
, y
por lo tanto, y de acuerdo con la denicion de cuadrado perfecto dada, 61 no es un
cuadrado perfecto. De esta manera, ya tenemos el contraejemplo.
222CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


25 y 36 son, ambos, cuadrados perfectos y, sin embargo, su suma, 25 + 36, no lo es.
En consecuencia, la proposicion propuesta es falsa.
De acuerdo con lo mostrado, es posible demostrar un teorema de forma directa o
indirecta (contrarrecproca y contradiccion). Si se puede realizar la demostracion de
forma directa, resultara, en general, menos complicado que utilizar metodos indi-
rectos. Se puede empezar intentando un metodo directo y si no resulta, buscar un
contraejemplo que refute el teorema. Si la b usqueda del contraejemplo tambien falla,
entonces intentar la demostracion a traves de metodos indirectos.
3.7. Ejercicios
a) Repetir los ejercicios de mapas conceptuales con redes sem anticas.
b) Representar en Prolog la red semantica de la Figura 3.8. Se sugiere emplear
un predicado binario por cada relacion. Para las propiedades se sugiere
que se emplee el predicado atributo(Objeto, Atributo, Valor). Por ejemplo,
atributo(Pioln, color, amarillo). Incluir las reglas necesarias para que todo
objeto herede los atributos y las propiedades de todas las clases a las que
pertenece.
c) Emplear Prolog para hacer consultas sobre la informacion almacenada
en la red semantica. Por ejemplo, tiene garras Pioln?, quienes pueden
cantar ?, etc...
d) Represente las siguientes frases en lenguaje de logica de predicados:
a) Los caballos, las vacas y los cerdos son mamferos.
b) El descendiente de un caballo es un caballo.
c) Cada mamfero tiene un padre.
d) Mi casa azul Victoriana.
e) Dada la siguiente frase en lenguaje natural: solo los amigos de Juan son
divertidos, hacer lo siguiente:
a). Formalizarla en el calculo de predicados utilizando como dominio gen-
eral a las personas.
b). Evaluarla en el dominio D = Pedro, Juan, Luis, sabiendo que: Pedro
es divertido y Juan y Luis no lo son. Pedro es amigo de s mismo y de
Luis. Juan es amigo de todos. Luis es amigo de s mismo y de Juan.
3.7. EJERCICIOS 223
f ) Dada la siguiente frase en lenguaje natural: Si los obreros no son traba-
jadores, entonces algunos empresarios no son demasiado listos y se arru-
inaran, hacer lo siguiente:
a). Formalizarla en el calculo de predicados, empleando dos dominios: D1
= los obreros, y D2 = los empresarios.
b). Evaluarla en los dominios D1 = obrero Pedro, obrero Luis,
obrero Carlos,y D2 =empresario Juan, empresario Miguel,
empresario Roberto, sabiendo que:
Pedro es el unico obrero trabajador.
Juan es listo y no se arruinara.
Miguel no es listo y se arruinara.
Roberto se arruinara a pesar de ser listo.
Dada la siguiente formula:
xy(Mayor-que(x, y) Igual-a(y, menor(a, y)))
En el dominio de tres elementos D = 0, 1, 2, se pide obtener la evaluacion total
de la formula para dicho dominio. Suponer que la asignacion (a) = 1.
g) Represente el siguiente fragmento de conocimiento usando logica de predicados y
transformelo a forma normal conjuntiva (FNC):
Todos los caballeros de la mesa redonda son leales a Arturo. Arturo esta casado
con Ginebra. Lanzarote es un caballero de la mesa redonda y es aliado de Ginebra
. Toda mujer que estando casada se la con otro hombre no es leal a su marido. Los
caballeros de la mesa redonda que vencen a todos sus enemigos se convierten en
campeones de Arturo.
Usando refutacion mediante resolucion compruebe si con ese conocimiento es posible
demostrar que hay alguien desleal a Arturo (xleal(x, Arturo))
NOTA: se pueden utilizar los siguientes predicados u otros distintos:
caballero(X), vence(X, Y), ...
casado(X, Y), aliado(X, Y), ...
X esta casado/aliado con Y
enemigo(X, Y), campeon(X, Y),... X es enemigo/campeon de Y
h) Represente el siguiente fragmento de conocimiento usando logica de predicados y
224CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


transformarlo a forma normal conjuntiva (FNC):
Asterix es un galo. Los romanos que son amigos de alg un galo odian a Cesar. As-
terix ayudo a Marco. Marco es amigo de quien le ayuda. Quien odia a alg un romano
lucha contra el. Marco es un romano.
Usando refutacion mediante resolucion compruebe si con ese conocimiento es posible
demostrar que Marco odia a Cesar.
NOTA: Se sugiere utilizar los siguientes predicados:
amigo(X,Y), ayuda(X,Y), galo(X), odia(X,Y), lucha(X,Y), romano(X),..
i) Dado el siguiente fragmento de conocimiento, representelo en logica de primer orden
y transformarlo a forma normal conjuntiva (FNC):
Todos los coyotes persiguen a alg un correcaminos. Algunos correcaminos son in-
teligentes. Los coyotes que persiguen a correcaminos inteligentes no los atrapan.
Cualquier coyote que persigue a alg un correcaminos pero no lo atrapa estara ham-
briento. Pepe es un coyote y Ana una correcaminos y ambos son inteligentes. Pepe
persigue a la correcaminos Ana.
Usando refutacion mediante resolucion comprueba si con ese conocimiento es posible
saber si Pepe esta hambriento.
j) Dado el siguiente fragmento de conocimiento en logica de predicados, transformalo
a forma normal conjuntiva (FNC).
a): x[P(x) S(M, x)]
b): xy[P(y) S(x, y)] z[A(z) G(x, z)]
c): x[P(x) A(x)]
d): xy[A(y) G(x, y)] (x, y)
e): xy[S(x, y) R(y)] z[T(x, z) Q(z)]
Usando refutacion mediante resolucion comprueba si con ese conocimiento es posible
demostrar xA(x) G(M, x).
NOTA: Para este ejercicio, May usculas constantes; Min usculas variables.
k) En un congreso hay 50 profesores provenientes de 3 universidades (A:23, B:18,C:9).
El porcentaje de profesores que pertenecen a las universidades (por licenciatura) es
el siguiente: Universidad A: 30 % Ciencias, 40 % de Ing, 25 % Humanidades y 5 %
Economa; Universidad B::25 % Ciencias, 35 % de Ing, 30 % Humanidades y 10 %
Economa; Universidad C: 20 % Ciencias, 50 % de Ing, 10 % Humanidades y 20 %
Economa. A la salida, nos encontramos un profesor, contestar a lo siguiente: a)
3.7. EJERCICIOS 225
Cual es la probabilidad de que pertenezca a la Universidad C?, b) Si nos enteramos
de que es de Economa Cual sera la probabilidad de que pertenezca a la Universidad
A?.
l ) Explique un procedimiento de inferencia aplicado en las redes bayesianas y muestrelo
en clase apoyandose con un ejemplo.
m) Aplique el Teorema de Bayes para resolver el siguiente problema: Si un paciente
tiene la enfermedad E, entonces la aplicacion del test T resulta positivo con proba-
bilidad 0,95. Si la enfermedad no esta presente el test es positivo con probabilidad
0,03. Si la probabilidad de sufrir la enfermedad es 0,01, Cual es la probabilidad de
que un paciente con un test positivo sufra la enfermedad?.
n) De acuerdo con la siguiente descripcion: Un determinado defecto genetico (G) puede
producir dos enfermedades (E1, E2). En presencia de dicho defecto, las enfermedades
se maniestan con una determinada probabilidad, pero no existe ninguna relacion
entre los mecanismos que dan lugar a las enfermedades: el hecho de que una se
manieste no hace a la otra mas o menos probable. Existen tres posibles sntomas
asociados a las enfermedades (S1;S2;S3). Los sntomas S1 y S2 se asocian a la enfer-
medad E1 y los sntomas S2;S3 a la enfermedad E2. En la enfermedad E1 la presencia
del sntoma S1 hace al sntoma S2 mas probable. En la enfermedad E2 la presencia
de uno de los sntomas no cambia la probabilidad de aparici on del otro sntoma.
Existe una prueba de laboratorio (P), cuyo resultado depende de forma conjunta de
la presencia o ausencia de ambas enfermedades, pero tiene comportamiento distinto
en hombres y mujeres (T). Se supone que T no tiene relacion directa con ninguna
otra variable del problema.
Realice lo siguiente:
(a) Determinar un grafo dirigido con las variables anteriores que represente unas
relaciones de independencia entre las variables que sean compatibles con las especi-
caciones anteriores.
(b) Indicar las independencias basicas representadas en el grafo.
(c) Indicar las distribuciones de probabilidad condicionadas que habra que especi-
car para determinar la distribucion de probabilidad conjunta asociada al grafo
construido.
n) Determinar la estructura de una red bayesiana para el siguiente problema: Un
granjero quiere determinar si una vaca esta pre nada (P) despues de una inseminacion
articial. Para ello dispone de tres tests. El primero de ellos es una ecografa (E)
y los otros dos son un test de sangre (S) y uno de orina (O). Se supone que los
dos ultimos tests se basan en el nivel hormonal de la vaca (H) que puede ser alto o
226CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


bajo y que, a su vez, depende de si la vaca esta realmente pre nada. Existe un tipo
raro de sangre (T) que hace que el resultado del test de sangre sea siempre positivo
con independencia de si la vaca esta pre nada o no. Para descartar esta situacion, el
granjero tambien realiza un test para comprobar el tipo de sangre (TT).
o) En una granja hay dos yeguas y un caballo sin ning un parentesco entre ellos y
van a nacer dos potros, uno de cada una de las yeguas. El caballo es el padre de
ambos potros. Existe una grave enfermedad que esta ligada a la presencia de un gen
recesivo a. El gen normal se nota por A. Esto quiere decir que la cargagenetica de
cada individuo puede ser aa, aA, AA y la enfermedad solo se maniesta cuando un
individuo tiene carga genetica aa. Si un individuo tiene aA no maniesta la enfer-
medad, pero es portador de ella.
(a) Determinar una red Bayesiana que exprese las dependencias entre la carga
genetica de cada uno de los caballos de la granja, incluyendo los dos potros que
van a nacer.
(b) Si en la poblacion general la probabilidad de ser portador es de 0.01 para los
caballos, de 0.02 para las yeguas, y los potros heredan un gen de cada uno de los
padres (se elige aletoriamente entre los dos posibles de cada padre), detallar las dis-
tribuciones de probabilidad condicionadas asociadas a la red.
p) Aplicando el metodo de demostracion de reduccion al absurdo, demostrar el siguiente
teorema: Existen dos n umeros irracionales x e y tales que x
y
es un n umero racional.
Captulo 4
Sistemas de Razonamiento
El genero humano tiene, para saber conducirse, el arte y el razonamiento
-Arist oteles-
Los sistemas de produccion
1
son una forma de representacion del conocimiento muy
utilizados en la practica y utilizan generalmente un encadenamiento hacia adelante
sobre reglas como su forma de razonamiento. Las aplicaciones basadas en este formal-
ismo muy seguido son conocidas como sistemas basados en reglas para enfatizar el
papel que desempe nan las reglas en este esquema de representacion del conocimien-
to. La idea basica en estos sistemas, es que el conocimiento sea representado como
reglas en pares de: condici on acci on.
La forma que adquieren dichas reglas son:
Si (condicion/premisa) Hechos
Entonces (accion a ejecutar) Conclusion/Accion/Hipotesis
Un ejemplo de estas reglas se muestra a continuacion y es una de tantas que con-
forman la base de conocimientos del conocido sistema experto Mycin:
Si
1. el reactivo toma el color azul
2. la morfologa del organismo es alargada
1
Estos sistemas fueron desarrollados por Newell y Simon con la intenci on de modelar el
conocimiento humano.
227
228 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


3. el paciente es un posible receptor
Entonces
existe una evidencia (0.7) de que la infeccion proviene de organismos pseudomonas.
Se observa que cada regla puede estar formada por una o mas premisas unidas por
un conector de forma similar a la representacion basada en logica. En este caso,
se considera que las reglas estan unidas por un conector del tipo conjuntivo (y).
Cuando las premisas son verdaderas, es decir, las tres reglas se cumplen, se realiza
la accion indicada en el consecuente. La operacion basica de las reglas en un sistema
de produccion consiste en un ciclo de tres pasos que se repite hasta que todas las
reglas han sido analizadas, momento en el cual el sistema se detiene. Los pasos que
se realizan durante este ciclo son: (1) localizar las reglas que pueden ser aplicables,
es decir, reglas cuyo antecedente son condiciones satisfechas en la actual memoria
de trabajo, (2) de entre las reglas encontradas y cuyas condiciones de premisas se
cumplen, seleccionar una para su ejecucion, y (3) modicar la memoria de trabajo
realizando las acciones indicadas por las reglas seleccionadas.
Existen varias ventajas cuando se aplican los sistemas de produccion en la solucion
de sistemas complejos practicos. Entre las principales ventajas, guran las siguientes:
Modularidad. En un esquema basado en reglas de produccion, cada regla trabaja
de manera independiente. Esto permite tanto la inclusion de nuevas reglas como la
remocion de reglas antiguas. Este aspecto es especialmente util durante la adquisi-
cion del conocimiento o la depuracion.
Control eciente. Los sistemas de produccion tienen una estructura de control
muy simple. Ya que no mantienen complejos objetivos o estructuras de control ocul-
tas durante la implementacion.
Transparencia. Debido a que estas reglas son usualmente derivadas de conocimien-
to experto o de observaciones del comportamiento experto, tienden a usar termi-
nologa con la que el humano puede razonar. En contraste con otros formalismos
tales como redes neuronales, por lo que, en este caso, el razonamiento puede ser
seguido (rastreado) y explicado en lenguaje natural.
Sin embargo, cuando los sistemas son considerablemente grandes (cientos o miles de
reglas) y usados para resolver problemas complejos, las ventajas mencionadas tien-
den a disminuir, y es posible encontrar complejas estructuras de control as como
4.1. REGLAS DE PRODUCCI

ON 229
complicados antecedentes en las reglas. A un con estos inconvenientes, las reglas de
produccion han sido utilizadas de manera exitosa en resolver una amplia variedad
de problemas practicos y se han covertido en una valiosa herramienta para todo
investigador de IA.
Los sistemas de produccion estan formados principalmente por reglas de produc-
cion y hechos. En este Captulo se va a explicar lo concerniente con esta forma de
representar el conocimiento, dando inicio con su componente basico: las reglas de
produccion.
4.1. Reglas de produccion
Desde hace varias decadas los esfuerzos encaminados a la solucion de problemas en
IA dejaron claro que el alto rendimiento de un sistema se encuentra fuertemente cor-
relacionado con la profundidad y amplitud de su base de conocimientos. Los sistemas
basados en reglas son uno de los modelos de representacion del conocimiento mas
ampliamente utilizados ya que resultan ser muy apropiados en situaciones en las que
el conocimiento que se desea representar surge de manera natural y estructurado en
forma de reglas. Uno de los paradigmas de programacion tradicionalmente asociado
a los sistemas basados en reglas es el de los sistemas de produccion. Desde el pun-
to de vista semantico, hay dos aproximaciones principales a los lenguajes basados
en reglas: (i) el paradigma de la programacion l ogica, usado en las bases de datos
deductivas, y (ii) el paradigma de los sistemas de produccion, que proporciona una
semantica procedural basada en el encadenamiento hacia adelante (o hacia atras)
de reglas. Este ultimo se emplea en las bases de datos activas
2
y en los sistemas de
produccion tpicos de sistemas expertos. Estos sistemas se usan cuando el dominio
del problema es especco, es decir, es un dominio en el que se comprende bien la
teora. Ademas, el conocimiento debe poder representarse mediante hechos y reglas.
En nuestra vida diaria encontramos muchas situaciones complejas gobernadas por
reglas deterministas: sistemas de control de traco, sistemas de seguridad, transac-
ciones bancarias, etc. as como para otros escenarios no determinstas, tales como
el diagnostico medico, mantenimiento de sistemas, y demostraciones automatizadas
entre otros, ante estas situaciones, los sistemas basados en reglas surgen como una
alternativa eciente para manejarlas [127, 171].
2
De acuerdo con Hanson y Widom, integrar reglas de produccion en bases de datos las provee de
caractersticas avanzadas que las convierte en plataformas basadas en conocimientos muy ecientes
[130].
230 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Figura 4.1: Ilustracion de los componentes basicos de un sistema basado en reglas.
Los componentes basicos de un sistema basado en reglas se muestran en la Figura
4.1. Una breve descripcion de cada componente se ofrece a continuacion:
Base de Conocimientos. La cual a su vez esta constituida por una: (i) Base de
Hechos (tambien conocida como memoria de trabajo), formada por datos relevantes
relativos al dominio especco del problema, y (ii) Base de Reglas de produccion, a
la cual en algunas ocasiones tambien se le identica como base de conocimientos,
contiene el conocimiento en forma de reglas del tipo Si Condici on entonces Accion.
Motor de inferencias. Es la maquina deductiva encargada de manejar la informa-
cion almacenada en la base de conocimientos con el n de generar nuevo conocimien-
to o informacion.
Asimismo, se puede contemplar como parte de un sistema de producci on la inter-
faz con el usuario a traves de la cual se mantiene comunicacion con el sistema, es
decir, es posible introducir datos directamente por el usuario u obtenerlo mediante
sensores, as como mostrar explicaciones o cualquier tipo de resultados en diferentes
dispositivos de visualizacion.
4.1.1. Sintaxis de las reglas de produccion
Una regla es una armacion logica que relaciona dos o mas objetos e incluye dos
partes, la premisa o antecedente y la conclusion o consecuente. Cada una de estas
partes consiste en una expresion logica con una o mas armaciones objeto : valor
4.1. REGLAS DE PRODUCCI

ON 231
(atributo:especicacion) conectadas mediante los operadores logicos y, o, o no. Las
reglas son una manera natural de representar el conocimiento. Para que una regla
se active (dispare) es condicion necesaria aunque no suciente que se cumpla el an-
tecedente.
El antecedente o premisa de una regla de produccion es un conjunto de condiciones.
Si existe mas de una condicion, debe tomarse el conjunto de ellas de forma conjun-
tiva, esto es, el antecedente siempre debe ser verdadero para que la regla pueda ser
aplicable. A su vez, cada condicion esta formada por una tupla que tiene la siguiente
forma:
(tipo atributo
1
: especificaci on
1
,...,atributo
k
: especificaci on
k
)
Donde las especicaciones pueden ser una de las siguientes:
Un atomo.
Una variable.
Una expresion evaluable entre [ ].
Una prueba entre .
Los smbolos de especicacion: (conjuncion), (disjuncion), o (negacion).
Por ejemplo, la condicion de una regla puede estar especicada como: (persona edad
[24] ocupacion [profesor]), esta se satisface si existe en la memoria de trabajo una
variable cuyo tipo es persona con un atributo de edad exactamente igual a 24 y un
atributo profesion con especicacion de profesor.
Otro ejemplo de condicion es (persona temperatura > 38), la cual se cumple si al
igual que la anterior, existe en la memoria de trabajo una variable cuyo tipo es
persona y cuyo atributo temperatura tiene un valor mayor que 38.
Otra forma de expresar la tupla de la condicion es la siguiente:
(objeto
1
: valor
1
,...,objeto
i
: valor
i
)
Si se aplica este formato, los objetos que se almacenan en la base de conocimientos
as como sus valores se relacionan mediante el signo de igualdad, tal como se muestra
en los ejemplos siguientes:
232 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


(a) Si (temperatura = alta sudoraci on = presente dolor muscular = presente)
(b) Si (costo < 5000) (consumo = alto)
Como se observa en los ejemplos anteriores ((a) y (b)) la premisa puede contener
una o mas armaciones del tipo objeto : valor conectadas con operadores logicos
y, o, o no. Por ejemplo, la premisa de la Regla (a) consta de tres armaciones
objeto : valor enlazadas por dos conectores logicos, mientras que las premisas de la
Regla (b) constan de dos armaciones objeto : valor conectadas por un operador
logico.
Con la nalidad de ser mas precisos acerca de la aplicabilidad de las reglas, estas se
consideran aplicables si hay valores para todas las variables en la regla de tal man-
era que todas las condiciones antecedentes son satisfechas en la memoria de trabajo
actual. Se dice que existe una condicion satisfactible positiva si hay una correspon-
dencia con los elementos de la memoria de trabajo, en caso contrario se indica una
condicion negativa. Es decir, una condicion negativa es satisfecha si no existe una
correspondencia entre las condiciones de la regla y los elementos de la memoria de
trabajo.
Por otro lado, el consecuente de una regla de produccion tiene una interpretacion
estrictamente procedural, y cada accion del conjunto de acciones va a ser ejecutada
en secuencia. En algunos casos, en este componente aparecen algunos operadores
que indican acciones especcas que se deben realizar en la memoria de trabajo tales
como:
Agregar patron: esto indica que un nuevo patron es agregado a la memoria de trabajo.
Remover i: siendo i un entero, esta accion indica eliminar el componente i de la
memoria de trabajo. Esta operacion no se aplica si la condicion resulta negativa.
Modicar i (atributo:especicaci on): esta accion indica la modicacion de la memo-
ria de trabajo del i esimo elemento cuya condicion corresponde con el antecedente
de la regla, reemplazando su valor actual por el de la especicacion del atributo.
En las acciones generadas de Agregar y Modicar, cualquier referencia que se hace a
las variables es con respecto a los valores obtenidos cuando se hace la corresponden-
cia con el antecedente de la regla. De igual manera, as como se muestran algunas
4.2. SEM

ANTICA DE LAS REGLAS DE PRODUCCI

ON 233
acciones especcas que se pueden realizar, tambien se permite la referencia hacia
acciones generadas de otro tipo de condiciones, por ejemplo las provenientes de
situaciones de diagnostico o prediccion. En la conclusion se encuentran los atribu-
tos que seran conocidos por el sistema. Ejemplos de reglas donde aparecen los dos
componentes son las siguientes.
(a) Si (persona apel lido = Perez) Entonces Agregar (listapacientes apel lido =
Perez)
(b) Si (temperatura = alta sudoraci on = presente dolormuscular = presente)
Entonces diagn ostico = gripe
La regla mostrada en el ejemplo (a) indica que si hay un elemento de tipo persona en
la memoria de trabajo cuyo apellido sea Perez entonces agregarlo en la memoria
de trabajo en la lista de pacientes con el mismo apellido. El ejemplo (b) indica a su
vez que si existe en la memoria de trabajo actual un elemento que cumpla con las
condiciones indicadas, entonces realizar la accion que se indica, es decir, modicar
la variable diagn ostico en la memoria de trabajo y asignarle el valor de gripe.
4.2. Semantica de las reglas de produccion
La semantica de un lenguaje basado en reglas de produccion determina como se
procesaran las reglas durante la ejecucion una vez que el conjunto de reglas ha sido
denido. Asimismo, la semantica tambien determina como estas reglas interactuaran
durante las operaciones que los usuarios y programas de aplicacion mantienen con el
sistema. A un para conjuntos relativamente peque nos de reglas, el comportamiento
de las mismas puede ser complejo e impredecible, as que una ejecucion precisa de la
semantica resulta esencial. Existen varias alternativas para la ejecicion de las reglas,
una de las semanticas mas utilizadas por la mayora de los sistemas de produccion de
reglas en IA, es la identicada como: ciclo de reconocimientoacci on. El algoritmo
que sigue este ciclo es el siguiente:
inicia emparejamiento (prueba las condiciones de la regla)
repite hasta que no haya reglas que emparejar o el halt es ejecutado
234 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


ejecuta resolucion de conicto (escoge una regla activada)
ejecuta la accion de la regla
emparejamiento (prueba las condiciones de la regla)
termina
Durante la fase de emparejamiento, los patrones de reglas son comparados contra los
datos almacenados en la memoria de trabajo para determinar que reglas van a ser
activadas (disparadas). El conjunto de reglas activadas se le conoce como el conjunto
conicto, y una de las reglas es seleccionada de este conjunto usando alguna de las
estrategias de resolucion de conictos. Una vez que una regla ha sido seleccionada
se ejecuta la parte indicada en el consecuente (accion) de la misma, despues el ciclo
se repite.
Para comprender mejor el ciclo de reconocimiento acci on se muestra en la Figura
4.2 la ilustracion del mismo, mostrando las etapas que lo integran. Una breve expli-
cacion de estas etapas se ofrece a continuacion:
Evaluacion. En esta fase se eval uan los patrones del antecedente de las reglas para
determinar cuales se satisfacen en funcion del contenido actual de la memoria de
trabajo. Esta labor se lleva a cabo mediante un algoritmo de emparejamiento de
patrones (pattern matching). Una regla se activa cuando se satisface todo su an-
tecedente. El resultado de la activacion de una regla seria una o mas instancias
de regla en la que todas las variables que aparecen en el antecedente de la regla
estaran ligadas a constantes. Todas las instancias de reglas activas, que forman el
denominado conjunto conicto, permanecen almacenadas, hasta ser seleccionadas
para ejecutarse, en una estructura denominada agenda.
Seleccion(o resolucion del conictos): Se selecciona y extrae una regla de la agenda
en funcion de alg un criterio especicado en la estrategia de control.
Ejecucion (o accion): Se ejecutan las acciones que aparecen en el consecuente de
la regla seleccionada.
La ejecucion de las acciones del consecuente de una regla frecuentemente modica
alg un elemento de la memoria de trabajo, lo que provoca que se vuelva a la fase
4.2. SEM

ANTICA DE LAS REGLAS DE PRODUCCI

ON 235
Figura 4.2: Ilustracion del ciclo de reconocimientoaccion de un sistema basado en
reglas de produccion.
de evaluacion, comenzando de nuevo el ciclo de reconocimiento acci on . Si no se
modica ning un elemento de la memoria de trabajo, se selecciona otra instancia de
regla del conjunto conicto. La ejecucion del SBR naliza cuando no queda ninguna
instancia de regla en la agenda.
Dependiendo de la forma en que se relacionan los datos existentes entre la memoria
de trabajo y las reglas durante el proceso de interpretacion de las mismas, se orig-
inan dos esquemas de conocimiento: causal y diagn ostico. El conocimiento causal
surge cuando el encadenamiento de las reglas se hace bajo un enfoque progresivo
(dirigido por datos), es decir, se parte de los datos y se busca llegar a un objeti-
vo. En este tipo de conocimiento, al iniciar la ejecucion del sistema, la memoria de
trabajo contiene los hechos o datos iniciales del dominio a tratar. Por otro lado, el
conocimiento de diagnostico surge cuando el encadenamiento de las reglas se hace
bajo un enfoque regresivo (dirigido por objetivos), es decir, en este caso se parte de
una meta u objetivo y se busca sustentarla por hechos. En este tipo de conocimiento,
al iniciar la ejecucion del sistema, la memoria de trabajo contiene el objetivo y se
busca sustentarla con hechos.
En esta seccion se va a tratar lo relacionado con estas formas de encadenamiento de
reglas.
4.2.1. Conocimiento causal
Las reglas de produccion han sido utilizadas como un esquema de representacion
del conocimiento en problemas que de forma ordinaria se resuelven mediante la ex-
periencia humana. Debido a que el razonamiento humano es realizado generalmente
de una forma heurstica que va de los sntomas a las causas, las reglas de produc-
236 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


cion se observan como una alternativa capaz de manejar problemas signicativos de
ndole muy diversa, tales como: diagnosticos medicos, vericacion de lneas de credi-
to en tarjetas bancarias, y conguracion de sistemas complejos [57]. Para manejar
los problemas anteriores, las reglas de produccion generalmente aplican un esquema
de razonamiento basado en el encadenamiento de reglas hacia adelante. Una descrip-
cion del mismo se realizara a continuacion.
Encadenamiento de reglas hacia adelante. Una de las estrategias de inferencia
mas utilizadas para obtener conclusiones es el llamado encadenamiento de reglas ha-
cia adelante. Esta estrategia puede utilizarse cuando las premisas de ciertas reglas
coinciden con las conclusiones de otras. Cuando se encadenan las reglas, los hechos
se utilizan para dar lugar a nuevos hechos. Esto se repite sucesivamente hasta que
no pueden obtenerse mas conclusiones. El tiempo que consume este proceso hasta
su terminacion depende, por una parte, de los hechos conocidos, y, por otra, de las
reglas que se activan. La estrategia que sigue este proceso de encadenamiento se
describe con el algoritmo siguiente:
Algoritmo de encadenamiento progresivo o dirigido por datos.
Datos: Una base de conocimiento (objetos y reglas) y algunos hechos iniciales.
Resultado: El conjunto de hechos derivados l ogicamente de el los.
1. Asignar a los objetos sus valores conocidos, tales como los hechos conocidos o la
evidencia.
2. Ejecutar cada regla de la base de conocimiento y concluir nuevos hechos si es
posible.
3. Repetir la Etapa 2 hasta que no puedan ser obtenidos nuevos hechos.
Este algoritmo puede ser implementado de muchas formas. Una de ellas comienza
con las reglas cuyas premisas tienen valores conocidos. Estas reglas deben concluir
y sus conclusiones dan lugar a nuevos hechos los cuales son a nadidos al conjunto
de hechos conocidos. Este proceso contin ua hasta que no pueden obtenerse nuevos
hechos. A continuacion se muestran unos ejemplos para comprender la operacion de
este enfoque.
Ejemplo 1. La Figura 4.3 muestra un ejemplo de seis reglas que relacionan 13
objetos, identicados con letras de la A a la M. Las relaciones entre estos objetos
implicadas por seis reglas pueden representarse gracamente, tal como se muestra en
4.2. SEM

ANTICA DE LAS REGLAS DE PRODUCCI

ON 237
Figura 4.3: Figura que ilustra un conjunto de seis reglas relacionando a 13 objetos
(letras A a M).
la Figura 4.4, donde cada objeto se representa por un nodo. Las aristas representan
la conexion entre los objetos de la premisa de la regla y el objeto su conclusion.
Notese que las premisas de algunas reglas coinciden con las conclusiones de otras
reglas. Por ejemplo, las conclusiones de las Reglas 1 y 2 (objetos C y G) son las
premisas de la Regla 4. Suponga que se sabe que los objetos A, B, D, E, F, H e I
son ciertos y los restantes objetos son de valor desconocido. La Figura 4.5 distingue
entre objetos con valor conocido (los hechos) y objetos con valores desconocidos. En
este caso, el algoritmo de encadenamiento de reglas procede como sigue:
- La Regla 1 concluye que C = cierto.
- La Regla 2 concluye que G = cierto.
- La Regla 3 concluye que J = cierto.
- La Regla 4 concluye que K = cierto.
- La Regla 5 concluye que L = cierto.
- La Regla 6 concluye que M = cierto.
Puesto que no pueden obtenerse mas conclusiones, el proceso se detiene. Este proce-
so se ilustra en la Figura 4.5, donde los n umeros en el interior de los nodos indican
el orden en el que se concluyen los hechos.
Ejemplo 2. Considerense de nuevo las seis reglas de la Figura 4.3 y supongase ahora
que se dan los hechos H = cierto, I = cierto, K = cierto y M = falso. Esto se ilustra
en la Figura 4.6, donde los objetos con valores conocidos (los hechos) aparecen Som-
breados y la variable objetivo se muestra rodeada por una circunferencia. Supongase,
238 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Figura 4.4: Figura que muestra una representacion graca de las relaciones entre las
seis reglas de la Figura 4.3.
en primer lugar, que el motor de inferencia usa las dos reglas de inferencia Modus
Ponens y Modus Tol lens. Entonces, aplicando el algoritmo para el encadenamiento
de reglas descrito, se obtiene
1. La Regla 3 concluye que J = cierto (Modus Ponens).
2. La Regla 6 concluye (Modus Tol lens) que K = falso o L = falso, pero, puesto que
K = cierto, debera ser L = falso.
3. La Regla 5 concluye (Modus Tol lens) que G = falso o J = falso, pero, puesto que
J = cierto, debera ser G = falso.
En consecuencia, se obtiene la conclusion G = falso. Sin embargo, si el motor de in-
ferencia solo utiliza la regla de inferencia Modus Ponens, el algoritmo se detendra en
la Etapa 1, y no se concluira nada para el objeto G. Este es otro ejemplo que ilus-
tra la utilidad de la regla de inferencia Modus Tol lens. Note que la estrategia de
4.2. SEM

ANTICA DE LAS REGLAS DE PRODUCCI

ON 239
Figura 4.5: Un ejemplo que ilustra la estrategia de encadenamiento de reglas. Los no-
dos con valores conocidos aparecen sombreados y los n umeros en su interior indican
el orden en el que se concluyen los hechos.
encadenamiento de reglas, diferencia claramente entre la memoria de trabajo y la
base de conocimiento. La memoria de trabajo contiene datos que surgen durante el
periodo de consulta. Las premisas de las reglas se comparan con los contenidos de la
memoria de trabajo y cuando se obtienen nuevas conclusiones son pasadas tambien
a la memoria de trabajo.
Ejemplo 3. En este ejemplo, el dominio va estar representado por ocho objetos (p,
q, r, s, t, u, v, w) y el conjunto de reglas que representan el conocimiento de este
dominio son las siguientes:
R
1
: p q meta
R
2
: r s p
R
3
: w r q
240 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Figura 4.6: Figura que ilustra otro ejemplo del algoritmo de encadenamiento de
reglas. Los nodos con valores conocidos aparecen sombreados, la variable objetivo
se muestra rodeada por una circunferencia, y los n umeros del interior de los nodos
indican el orden en el que se concluyen los hechos.
R
4
: t u q
R
5
: v s
R
6
: inicio v r q
En este ejemplo, meta indica el objetivo de este sistema de produccion, lo cual indica
que, cuando este elemento se encuentre en la memoria de trabajo el programa se
detiene. El elemento inicia, indica el comienzo de ejecucion del programa (iteracion
0). En la Tabla 4.1 se muestra la secuencia de pasos que sigue este sistema desde
que inicia hasta que alcanza su objetivo. A continuacion se ofrece una descripcion
detallada de estos pasos.
Iteracion 0. El sistema inicia su operacion con la regla R
6
almacenada en la memo-
4.2. SEM

ANTICA DE LAS REGLAS DE PRODUCCI

ON 241
Cuadro 4.1: Ilustracion de la informacion inicial almacenada en la memoria de tra-
bajo y su variacion en cada iteracion cuando se aplica un enfoque de razonamiento
basado en el encadenamiento de reglas hacia adelante o dirigido por datos.
Iter. Memoria de trabajo reglas activadas Regla seleccionada
0 inicio 6 6
1 inicio, v, r, q 6, 5 5
2 inicio, v, r, q, s 6, 5, 2 2
3 inicio, v, r, q, s, p 6, 5, 2, 1 1
4 inicio, v, r, q, s, t, meta 6, 5, 2, 1 alto
ria de trabajo. Al encontrarse solamente este elemento en la memoria de trabajo la
unica regla que se activa es R
6
.
Iteracion 1. Al ejecutarse R
6
se almacena su consecuente (v, r, q) como resultado
de realizar la accion indicada por la misma, por lo que, la memoria de trabajo se
modica y cambia su contenido actual (inicio) a inicio, v, r, q. Al estar estos elemen-
tos almacenados en la memoria de trabajo, se activan las reglas R
6
y R
5
ya que los
antecedentes de las mismas (inicio, v) se encuentran almacenados en este momento
en tal memoria. La seleccion de reglas es por orden ascendente y de activacion. POr
lo tanto, se selecciona R
5
para su ejecucion.
Iteracion 2. En esta iteracion y como resultado de la ejecucion de R
5
la memoria
de trabajo sufrio una variacion. El consecuente de R
5
paso a formar parte de la
memoria de trabajo actual, por lo que, esta paso de tener los elementos inicio, v, r,
q a inicio, v, r, q, s. Con estos elementos almacenados en la memoria de trabajo, se
activa una nueva regla R
2
a nadiendose a las dos anteriores, ya que el antecedente
de R
2
(p) se encuentra almacenado en la actual memoria. Siguiendo la seleccion de
reglas por orden ascendente (2, 5, 6) y secuencia de activacion (2, 5, 6) la regla R
2
se selecciona para su ejecucion.
Iteracion 3. Al realizarse la ejecucion de R
2
su consecuente (p) pasa a formar parte
de la memoria de trabajo. Por lo tanto, durante este ciclo (iteracion 3) la memoria
de trabajo contiene los siguientes elementos: inicio, v, r, q, s, p. Los elementos que
se encuentran en este momento en la memoria activa causa que se active una nueva
regla (R
1
) a nadiendose a las que ya estaban activadas. Por lo tanto, la regla R
1
es
seleccionada para su ejecucion.
242 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Iteracion 4. En esta iteracion se ejecuta la regla R
1
y como resultado se almacena
en la memoria de trabajo el consecuente (meta) de la misma. Por lo tanto, en este
momento, ya se tiene en la memoria de trabajo el elemento objeto del sistema de
produccion: meta. Asimismo, ninguna nueva regla ha sido activada. Por lo que el
sistema se detiene.
Resumiendo lo que se realiza en este esquema de razonamiento:
Se inicia con una descripcion del problema (elementos que describen el dominio).
Se inicia la aplicacion de reglas de inferencia con el n de inferir nuevo conocimiento.
Este proceso continua hasta que un estado objetivo es alcanzado.
Este enfoque se ajusta perfectamente al modelo de producion, debido a:
1. El estado actual del mundo se coloca en la memoria de trabajo.
2. El ciclo reconocimiento acci on empareja el estado actual con la parte de condi-
cion de las reglas de produccion.
3. Realiza la accion indicada en la regla seleccionada, la cual agrega nueva informa-
cion al estado actualen la memoria de trabajo o modica la ya existente.
4.2.2. Conocimiento de diagnostico
En la mayora de los sistemas actuales un diagnostico se realiza a peticion del usuario
y analizando los datos disponibles hasta el momento. Sin embargo, en numerosos
sistemas dinamicos, como son las plantas industriales continuas, se requieren tecni-
cas que monitoricen continuamente el funcionamiento del sistema, iniciando au-
tomaticamente un proceso de diagnosis tan pronto se detecte alguna anomala, y
posiblemente, analizando la evolucion del sistema a partir de la deteccion. En es-
tos sistemas se utilizan las reglas para examinar un conjunto de datos y solicitar
nueva informacion hasta llegar a un diagnostico. Estos problemas generalmente se
enfocan en sistemas de produccion con un esquema de razonamiento basado en el
encadenamiento de reglas hacia atras o dirigido por objetivos. Una descripcion de
este metodo de mostrara a continuacion.
Encadenamiento de reglas hacia atras o dirigido por objetivos. El algo-
ritmo de encadenamiento de reglas orientado a un objetivo requiere que el usuario
determine una variable o nodo objetivo; entonces el algoritmo navega a traves de las
reglas en b usqueda de una conclusion que soporte el objetivo. Si no se obtiene ningun
soporte con la informacion existente, entonces el algoritmo solicita nuevamente la
intervencion del usuario en busca de nueva informacion sobre los elementos que son
4.2. SEM

ANTICA DE LAS REGLAS DE PRODUCCI

ON 243
relevantes para obtener informacion relacionada con el objetivo.
Algoritmo de encadenamiento de reglas hacia atras
Deducir el conocimiento necesario para demostrar un hecho.
Comienza jando un hecho o meta a demostrar.
Se busca la regla que contiene dicho hecho como consecuente y se demues-
tran los hechos del antecedente de la regla.
El objetivo es demostrar una meta.
Descripcion del algoritmo.
Datos: Una base de conocimiento (objetos y reglas que los relacionan), algunos he-
chos iniciales, y un nodo o variable objetivo.
Resultado: El valor del nodo o variable objetivo.
1. Asigna a los objetos sus valores conocidos tales como estan dados en los hechos
iniciales, si es que existen. Marcar todos los objetos cuyo valor ha sido asignado.
Si el nodo objetivo esta marcado ir a 7; en otro caso:
(a) Designar como objetivo inicial el objetivo en curso.
(b) Marcar el objetivo en curso.
(c) Sea ObjetivosPrevios = , donde es el conjunto vacio.
(d) Designar todas las reglas como activas (ejecutables).
(e) Ir a 2.
2. Encontrar una regla activa que incluya el objetivo en curso y ninguno de los ob-
jetos en ObjetivosPrevios.
Si se encuentra una regla, ir a 3; en otro caso, ir a 5.
3. Ejecutar la regla referente al objetivo en curso. Si concluye, asignar el valor con-
cluido al objetivo en curso, e ir a 6; en otro caso, ir a 4.
4. Si todos los objetos de la regla estan marcados, declarar la regla como inactiva e
ir a 2; en otro caso:
244 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


(a) Anadir el objetivo en curso a ObjetivosPrevios.
(b) Designar uno de los objetos no marcados en la regla
(c) Marcar el objetivo en curso.
(d) Ir a 2.
5. Si el objetivo en curso es el mismo que el objetivo inicial, ir a 7; en otro caso,
preguntar al usuario por el valor del objetivo en curso. Si no se da un valor, ir a 6;
en otro caso asignar al objeto el valor dado e ir a 6.
6. Si el objetivo en curso es el mismo que el objetivo inicial, ir a 7; en otro caso,
designar el objetivo previo como objetivo en curso, eliminarlo de ObjetivosPrevios,
e ir a 2.
7. Devolver el valor del objetivo si es conocido.
A continuacion se muestran unos ejemplos para comprender la operacion del enca-
denamiento de reglas dirigido por objetivos.
Ejemplo 1. Considere las seis reglas de las Figuras 4.3 y 4.4 y suponga que se
selecciona el nodo M como nodo objetivo ademas se sabe que los objetos D, E, F,
y L son ciertos. Estos nodos se muestran sombreados en la Figura 4.7. Las etapas
del algoritmo de encadenamiento de reglas orientado a un objetivo se ilustran en la
Figura 4.7, donde el n umero en el interior de un nodo indica el orden en el que se
visita cada nodo. Las etapas que describen la operacion del sistema de produccion
en este ejemplo son las siguientes:
Etapa 1: Se asigna el valor cierto a los objetos D, E, F y L y se marcan. Puesto que
el nodo objetivo M no esta marcado, entonces
Se designa el objeto M como objeto en curso.
Se marca el objeto M. Por tanto, se tiene ObjetosMarcados = D,E, F,L,
M.
ObjetivosPrevios = .
Las seis reglas estan activas. Por tanto, se tiene ReglasActivas = 1,2,
3,4,5,6.
Se va a la Etapa 2.
Etapa 2. Se busca una regla que incluya el objetivo en curso M. Se encuentra la
4.2. SEM

ANTICA DE LAS REGLAS DE PRODUCCI

ON 245
Regla 6, por lo que se va a la Etapa 3..
Etapa 3. La Regla 6 no puede concluir puesto que el valor del objeto K es decono-
cido. Por lo tanto, se va a la etapa 4.
Etapa 4. El objeto K no esta marcado. Entonces
ObjetivosPrevios = M.
Se elige el objeto K como objetivo en curso.
El objeto K esta marcado. Por tanto se tiene, ObjetosMarcados = D, E,
F, L, M, K.
Se va a la Etapa 2.
Etapa 2. Se busca una regla que incluya el objetivo en curso K pero no el anterior
M. Se encuentra la Regla 4, y se continua con la Etapa 3.
Etapa 3. La Regla 4 no puede concluir puesto que se desconocen los valores de los
objetos C y G. Por ello, se continua con la Etapa 4.
Etapa 4. Los objetos C y G no estan marcados. Entoncess
ObjetivosPrevios = M, K.
Se elige uno de los objetos no marcados C o G como el nuevo objetivo en
curso. Supongase que se elige C.
Se marca el objeto C.
Por tanto, se tiene ObjetosMarcados = D, E, F, L, M, K, C.
Se contin ua con la Etapa 2.
Etapa 2. Se busca una regla activa que incluya el objetivo en curso C pero no objetos
que se va a la Etapa 3.
Etapa 3. La Regla 1 no puede concluir puesto que se desconocen los C pero no los
objetos previos M, K. Se encuentra la Regla 1, as concluir valores de los objetos A
y B. Por tanto se continua con la Etapa 4.
Etapa 4. Los objetos A y B no estan marcados. Entoncess
246 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Figura 4.7: Figura que ilustra un ejemplo del algoritmo de encadenamiento de reglas
orientado a un objetivo. Los nodos cuyo valor es conocido se han sombreado, el nodo
objetivo se ha rodeado por una circunferencia, y el n umero en el interior de un nodo
indica el orden en el que se visita cada nodo.
4.2. SEM

ANTICA DE LAS REGLAS DE PRODUCCI

ON 247
ObjetivosPrevios = M, K, C.
Se elige uno de los objetos no marcados A y B como nuevo objetivo en
curso. Supongase que se elige A.
Se marca el objeto A. Por lo tanto, ObjetosMarcados = D, E, F, L, M, K,
C, A.
Se continua con la Etapa 2.
Etapa 2. Se busca una regla activa que incluya el objetivo en curso A pero no los
objetivos previos M, K, C. No se encuentra ninguna regla que satisfaga estas condi-
ciones, as que se pasa a la Etapa 5.
Etapa 5. Puesto que el objetivo en curso A es diferente del inicial M, se pregunta al
usuario por el valor del objeto A. Supongase que A toma el valor cierto, entonces se
hace A = cierto y se sigue con la Etapa 6.
Etapa 6. El objetivo en curso A no coincide con el previo M. Por tanto, el objeto C
se designa como objetivo en curso y se elimina de la lista ObjetivosPrevios. Por ello,
ObjetivosPrevios = M,K y se continua con la Etapa 2.
Etapa 2. Se busca una regla activa que incluya el objetivo C pero no los anteriores
M, K. Se encuentra la Regla 1, por lo que se va a la Etapa 3.
Etapa 3. La Regla 1 no puede concluir porque el valor del objeto B es desconocido.
As que se va a la Etapa 4.
Etapa 4. El objeto B no esta marcado. Entonces
ObjetivosPrevios = M, K, C.
Se elige como objetivo en curso el unico objeto no marcado, B.
Se marca el objeto B. Por lo tanto, ObjetosMarcados = D, E, F, L, M, K,
C, A, B.
Se va a la Etapa 2.
Etapa 2. Se busca una regla activa que incluya el objetivo B pero no los objetivos
previos M,K,C. Como no se encuentra ninguna regla, se va a la Etapa 5.
Etapa 5. Puesto que el objetivo en curso B no coincide con el inicial M, se pregunta
al usuario el valor del objetivo en curso B. Supongase que se da un valor cierto a B,
entonces se hace B = cierto y se va a la Etapa 6.
248 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Etapa 6. Como el objetivo en curso B no coincide con el inicial M, se designa el
objetivo previo C como objetivo en curso y se elimina de ObjetivosPrevios. Por ello,
ObjetivosPrevios = M, K y se va a la Etapa 2.
Etapa 2. Se busca una regla activa que incluya el objetivo en curso C pero no los
anteriores M, K. Se encuentra la Regla 1, por lo que se va a la Etapa 3.
Etapa 3. Puesto que A = cierto y B = cierto, entonces C = cierto por la Regla 1.
Ahora se va a la Etapa 6.
Etapa 6. El objetivo en curso C no coincide con el inicial M. Entonces, se designa el
objetivo previo K como objetivo en curso y se elimina de ObjetivosPrevios. Por ello,
ObjetivosPrevios = M y se va a la Etapa 2.
Etapa 2. Se busca una regla activa que incluya el objetivo en curso K pero no los
anteriores M. Se encuentra la Regla 4, por lo que se va a la Etapa 3.
Etapa 3. La Regla 4 no puede concluir puesto que el valor del objeto G es descono-
cido. Por tanto, se va a la Etapa 4.
Etapa 4. El objeto G no esta marcado. Entonces
ObjetivosPrevios = M, K.
El unico objeto no marcado G se elige como objetivo en curso.
Se marca el objeto G. Por lo tanto, ObjetosMarcados = D, E, F, L, M,
K, C, A, B, G.
Se va a la Etapa 2.
Etapa 2. Se busca una regla activa que incluya el objetivo en curso G pero no los
anteriores M, K. Se encuentra la Regla 2, por lo que se va a la Etapa 3.
Etapa 3. Puesto que D = cierto, E = cierto y F = cierto, entonces G = cierto por
la Regla 2. Ahora se va a la Etapa 6.
Etapa 6. El objetivo en curso G no coincide con el inicial M. Entonces, se designa
el objetivo previo K como objetivo en curso y se elimina de ObjetivosPrevios. Por lo
que, ObjetivosPrevios = M y se va a la Etapa 2.
4.2. SEM

ANTICA DE LAS REGLAS DE PRODUCCI

ON 249
Etapa 2. Se busca una regla activa que incluya el objetivo en curso K pero no los
anteriores M. Se encuentra la Regla 4, por lo que se va a la Etapa 3.
Etapa 3. Puesto que C = cierto y G = cierto, entonces K = cierto por la Regla 4.
Seguidamente se va a la Etapa 6.
Etapa 6. El objetivo en curso K no coincide con el inicial M. Entonces, se designa
el objetivo previo M como objetivo en curso y se elimina de ObjetivosPrevios. Por
ello, ObjetivosPrevios = y se va a la Etapa 2.
Etapa 2. Se busca una regla activa que incluya el objetivo en curso M. Se encuentra
la Regla 6, por lo que se va a la Etapa 3.
Etapa 3. Puesto que KK = cierto y L = cierto, entonces M = cierto por la Regla
6. Ahora se va a la Etapa 6.
Etapa 6. El objetivo en curso M coincide con el inicial. En consecuencia, se va a la
Etapa 7.
Etapa 7. El algoritmo devuelve el valor M = cierto.
Cabe considerar que, a pesar de que los objetos H, I y J tienen valores desconocidos,
el algoritmo orientado a un objetivo ha sido capaz de concluir el valor del objetivo
M. La razon de este resultado esta en que el conocimiento del objeto L convierte al
conocimiento de los objetos H, I y J es irrelevante para el conocimiento del objeto
M. Las estrategias de encadenamiento de reglas se utilizan en problemas en los que
algunos hechos (por ejemplo, sntomas) se dan por conocidos y se buscan algunas
conclusiones (por ejemplo, enfermedades). Por el contrario, las estrategias de enca-
denamiento de reglas orientadas a un objetivo se utilizan en problemas en los que
se dan algunos objetivos (enfermedades) y se buscan los hechos (sntomas) para que
estas sean posibles.
Compilacion de reglas. Otra forma de tratar con reglas encadenadas consiste en
comenzar con un conjunto de datos (informacion) y tratar de alcanzar algunos obje-
tivos. Esto se conoce con el nombre de compilacion de reglas. Cuando ambos, datos
y objetivos, se han determinado previamente, las reglas pueden ser compiladas, es
decir, pueden escribirse los objetivos en funcion de los datos para obtener las lla-
madas ecuaciones objetivo. La compilacion de reglas se comprenden mejor a traves
250 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


del siguiente ejemplo.
Ejemplo 2: Compilacion de reglas. Considerese el conjunto de seis reglas de la Figu-
ra 4.4 y suponga que son conocidos los valores de los objetos A, B, D, E,F,H, e I y
que los restantes objetos, C, G,J,K,L y M, son objetivos. Denotemos por el op-
erador logico y; entonces, utilizando las seis reglas, pueden obtenerse las siguientes
ecuaciones objetivo:
La Regla 1 implica C = A B
La Regla 2 implica G = D E F
La Regla 3 implica J = H I
La Regla 4 implica K = C G = (A B) (D E F)
La Regla 5 implica L = G J = (D E F) (H I)
La Regla 6 implica M = K L = A B D E F H I
Las tres primeras ecuaciones son equivalentes a las tres primeras reglas. Las tres
ecuaciones objetivo son, respectivamente, equivalentes a las reglas siguientes:
Regla 4a: Si A y B y D y E y F, entonces K.
Regla 5a: Si D y E y F y H e I, entonces L.
Regla 6a: Si A y B y D y E y F y H e I, entonces M.
Por lo que, si, por ejemplo, cada uno de los objetos A, B, D, E, F, H, I toma el valor
cierto, entonces se obtiene de forma inmediata, a partir de las Reglas 4a, 5a y 6a,
que los objetos K, L, M deben ser ciertos.
Ejemplo 3. Se va a proporcionar un tercer enfoque al uso de los sistemas de pro-
duccion para resolver problemas aplicando el encadenamiento hacia atras, regresivo
o dirigido por objetivos como razonamiento. En este caso, el dominio del problema
se describe por los siguientes ocho elementos: p, q, r, s, t, u, v, w. Las reglas que rep-
resentan el conocimiento en relacion a los elementos del dominio son las siguientes:
R
1
: p q meta
R
2
: r s p
R
3
: w r p
R
4
: t u q
R
5
: v s
R
6
: inicio v r q
4.2. SEM

ANTICA DE LAS REGLAS DE PRODUCCI

ON 251
Cuadro 4.2: Ilustracion de la informacion inicial almacenada en la memoria de tra-
bajo y su variacion en cada iteracion cuando se aplica un enfoque de razonamiento
basado en el encadenamiento de reglas hacia atras o dirigido por objetivos.
Iter. Memoria de trabajo reglas activadas Regla seleccionada
0 meta 1 1
1 meta, p, q 1, 2, 3, 4 2
2 meta, p, q, r, s 1, 2, 3, 4, 5 3
3 meta, p, q, r, s, w 1, 2, 3, 4, 5 4
4 meta, p, q, r, s, w, t, u 1, 2, 3, 4, 5 5
5 meta, p, q, r, s, w, t, u, v 1, 2, 3, 4, 5, 6 6
6 meta, p, q, r, s, w, t, u, v, inicio 1, 2, 3, 4, 5, 6 alto
En la Tabla 4.2 se muestra la secuencia de pasos que se realizan con el n de apoyar
el objetivo inicial. Asimsimo, se muestran los elementos del sistema de produccion y
sus valores en cada ciclo de operacion del mismo bajo este enfoque de razonamiento.
A continuacion se ofrece una descripcion detallada de lo que se muestra en esta Tabla.
Iteracion 0. En este tipo de razonamiento, el elemento objeto del sistema se coloca
de forma inicial en la memoria de trabajo. Por lo tanto, y de acuerdo a los elementos
manejados en este ejemplo, el elemento meta es almacenado en tal memoria, esto
causa que se active R
1
. Las reglas se van a elegir de acuerdo a un orden ascendente
(1, 2, ...) y por su activacion mas reciente. Asimismo, no se permite la ejecucion de
reglas repetidas. Bajo estas indicaciones se va a proceder a describir la secuencia
de ejecucion de este sistema. Sin embargo, como R
1
contiene como consecuente al
elemento objetivo que se va a almacenar en la memoria de trabajo, este sistema
inicia su ejecucion activando a esta regla, es decir a R
1
.
Iteracion 1. La ejecucion de R
1
causa que su antecedente (p, q) se almacene en
la memoria de trabajo, como un primer paso para buscar el soporte que apoye al
estado objetivo (meta). Por lo tanto, en esta iteracion, la memoria de trabajo con-
tiene a los elementos: meta, p, q. Como resultado de los elementos existentes en la
memoria de trabajo, se activan las reglas R
2
, R
3
, y R
4
ya que sus consecuentes (p,
p, q) emparejan con los elementos de la memoria de trabajo. Seleccionando como
prioridad el orden, se elige a R
2
para su ejecucion.
Iteracion 2. Al ejecutarse en esta iteracion la regla R
2
su antecedente (r, s) se
almacena en la memoria de trabajo. Por lo tanto, la memoria mantiene en este mo-
252 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


mento los siguientes elementos: meta, p, q, r, s. Los nuevos elementos a nadidos a la
memoria causa que se active ademas de las reglas ya activadas una nueva regla R
5
.
Ya que la prioridad de seleccion es de acuerdo con el orden ascendente, se elige a
R 3 para su ejecucion (disparo).
Iteracion 3. En este ciclo y como consecuencia de haberse ejecutado R
3
sus an-
tecedentes (w, r) son a nadidos a los elementos que ya existan en la memoria de
trabajo. Por lo que, los elementos almacenados en este momento son los siguientes:
meta, p, q, r, s, w. Se observa que se a nade un nuevo elemento (w) los ya existentes,
sin embargo, no se activa ninguna regla nueva, por lo que, la regla seleccionada para
su ejecucion es en orden secuencial R
4
.
Iteracion 4. En esta iteracion del ciclo del programa se realiza la ejecucion de R
4
,
esto ocasiona que su antecedente (t, u) sea agregado en la memoria de trabajo. Por
lo tanto, los elementos en este momento almacenados en tal memoria son: meta, p,
q, r, s, w, t, u. Sin embargo, con estos elementos no se activa ninguna regla en este
ciclo, por lo que se elige para su ejecucion de las reglas previamente activadas la que
sigue en el orden secuencial: R
5
.
Iteracion 5. Como resultado de ejecutar R
5
su antecedente (v) se almacena en la
memoria de trabajo, quedando esta descrita con los siguientes elementos: meta, p, q,
r, s, w, t, u, v. Se observa que existen en la memoria activa los elementos necesarios
para activar la regla R
6
cuyo antecedente es el elemento inicio, el cual soporta al
elemento objetivo (meta) de este ejemplo. Al observar a estos dos elementos en la
memoria de trabajo el sistema de produccion detiene su ejecucion.
Resumiendo la secuencia de pasos que requiere este esquema de razonamiento:
i) El objetivo se coloca de forma inicial en la memoria de trabajo.
ii) Se busca la correspondencia (emparejamiento) del objetivo (ya almacenado en la
memoria de trabajo) con la parte que corresponde al consecuente de las reglas de
produccion.
iii) Cuando un elemento de esta parte (consecuente) es emparejado, el antecedente de
esta regla se agrega en la memoria de trabajo y se convierte en una nueva submeta.
iv) Este proceso de emparejamiento contin ua hasta que todos los hechos son encon-
trados.
4.3. ARQUITECTURA DE UN SISTEMA DE PRODUCCI

ON 253
4.3. Arquitectura de un sistema de produccion
En la Figura 4.8 se muestra la arquitectura de un sistema basado en reglas de pro-
duccion. A continuacion se ofrece una breve descripcion de cada componente, ya que
en secciones posteriores se tratara cada una de ellas.
1. Base de Conocimientos (BC). Es el componente de un sistema de produccion
que mantiene todo el conocimiento del mismo estructurado como un conjunto de
reglas.
2. Memoria Activa (MA). Formada por una coleccion de hechos, representando
el estado actual del problema. Act ua como disparador del motor de inferencias,
reeja los cambios en el conocimiento del sistema, interact ua con el mundo exterior
(usuario, bases de datos, etc...). Este componente contiene los datos iniciales del
problema mas los datos integrados posteriormente, as como los hechos establecidos
durante el proceso de inferencia, hipotesis de trabajo, metas y submetas a un no con-
rmadas. Almacena el mecanismo que determina la activacion de reglas, es decir,
el conjunto de las instancias de reglas que estan en condiciones de ser ejecutadas
aplicando un enfoque de encadenamiento hacia adelante (de los antecedentes a los
consecuentes) o encadenamiento hacia atras (de los consecuentes a los antecedentes).
3. Motor de Inferencias (MI). Es el componente del sistema de produccion que
controla el funcionamiento del mismo. Esto comprende la seleccion y ejecucion de re-
glas, procesos de emparejamiento (seleccion de reglas activas), y manejo de rutinas
externas. El MI es un componente separado e independiente de la BC. Su fun-
cionamiento es similar a los procesos de b usquedas en espacio de estados, es decir,
tiene un estado el cual esta representado por conjuntos de hechos almacenados
en la MA, Operadores representados por las reglas que integran la base de reglas.
Asimismo, el MI a su vez esta formado por un interprete y por estructuras de control.
4.3.1. Base de hechos
La Base de hechos (Memoria Activa o Memoria de Trabajo) es el componente
del sistema de produccion que describe el estado actual del mundo en un proceso
de razonamiento. Generalmente, en esta estructura computacional se almacenan los
elementos utilizados para emparejar la parte de condici on/premisa de una regla de
produccion y al encontrar una coincidencia la accion correspondiente al consecuente
de la regla es realizada. En este momento, la accion de una regla de produccion se
usa para alterar el contenido de la MA.
254 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Figura 4.8: Arquitectura de un sistema basado en reglas.
Generalmente, la MA esta formada por un conjunto de elementos cuya forma esta de-
terminada por la sintaxis de las reglas utilizadas, algunos ejemplos de estos elementos
son:
(persona edad:35, hogar:Acapulco)
(alumno nombre:Juan carrera:ISC escuela:ITA)
Bajo el formato anterior, se puede ver que la forma de representar a cada elemento
en la memoria de trabajo en los sistemas de produccion es muy similar a una senten-
cia declarativa de tipo existencial en la representacion mediante logica de predicados.
Para tener una idea mas precisa acerca de la funcion de la memoria de trabajo du-
rante la ejecucion de un sistema basado en reglas, veamos el siguiente ejemplo.
Suponga que se tiene un sistema de produccion con 8 reglas (R
1
, R
2
, ..., R
8
) alma-
cenadas en la base de conocimientos, donde cada regla esta denida de la siguiente
manera:
R
1
: Si B y C Entonces Z
R
2
: Si C(x) y D(y) Entonces H(x)
R
3
: Si F o A Entonces I
R
4
: Si I y J Entonces K
R
5
: Si A y H(x) Entonces Y
R
6
: Si H(x) y E Entonces J
R
7
: Si K y E Entonces X
R
8
: Si H(x) y J Entonces X
4.3. ARQUITECTURA DE UN SISTEMA DE PRODUCCI

ON 255
El contenido inicial de la memoria activa es: MA
0
: A, C(7), D(8), E, F, (X). Donde
(X) representa una hipotesis y A, C, D, E y F son los hechos iniciales. Para este
ejemplo se va a suponer que el motor de inferencias funciona bajo un enfoque de
razonamiento hacia adelante. La activacion de cada regla se realiza cuando el an-
tecedente de la misma se hace corresponder con los hechos descritos en la memoria
de trabajo. La resolucion de conictos se basa en lo siguiente: (i) la seleccion de las
reglas para su ejecucion es de acuerdo a su ordenamiento (activacion mas reciente),
(ii) se debe dar preferencia a reglas nunca ejecutadas, (iii) evitar en lo posible repetir
la ejecucion de reglas.
Una vez denidos los hechos iniciales almacenados en la MA, el mecanismo de op-
eracion del motor de inferencias y de resolucion de conictos, se van a mostrar los
pasos seguidos por el motor de inferencias y demas mecanismos involucrados en un
sistema de producion desde que inicia su operacion hasta que se detiene. En este
ejemplo, el sistema se va a detener cuando la hipotesis X se encuentre en la memoria
de trabajo.
Paso 1. Se activan las reglas R
2
y R
3
ya que sus antecedentes (C(7) y D(8)) y (F
o A) coinciden con elementos que se encuentran en este momento en la memoria
de trabajo. Se ejecuta R
2
(primera regla en orden de las dos activadas), al ejecu-
tarse esta regla MA
0
cambia a MA
1
: A, C(7), D(8), E, F, H(7). Se observa que
se agrega el elemento H(7) en la memoria de trabajo, el cual es el consecuente de la
regla 2, habiendo reemplazado el valor de X por 7 indicado en H(x). Debido que X
a un no se encuentra en la memoria de trabajo, el proceso contin ua.
Paso 2. Al estar presente el elemento H(7) en la memoria de trabajo, hace que
se activen las reglas R
5
(antecedente: A y H(X)) y R
6
(antecedente: H(X) y E),
de esta manera, en este paso se selecciona a R
5
para su ejecucion (es la regla de
ordenamiento mas reciente). Por lo tanto, la memoria de trabajo cambia a MA
2
:
A, C(7), D(8), E, F, H(7), Y . En este paso, se observa que se agrega el elemento Y
a la memoria de trabajo, el cual es el consecuente de la regla 5. Ya que la hipotesis X
a un no se encuentra en la memoria de trabajo el proceso contin ua. Hay que recordar
que en este momento existen dos reglas (R
6
y R
3
) que se encuentran activadas pero
que no se han ejecutado. Siendo R
6
la de activacion mas reciente.
Paso 3. Con los elementos que se encuentran en este momento en la memoria de
trabajo no se activa ninguna regla nueva, por lo que se procede a ejecutar la regla
activada de manera mas reciente (R
6
). La ejecucion de esta regla ocasiona que se
256 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


agregue a la memoria de trabajo el elemento J, quedando la memoria de trabajo
actual como MA
3
: A, C(7), D(8), E, F, H(7), Y, J. Se observa que la hipotesis X
a un no se encuentra en la memoria de trabajo activa por lo que el proceso continua.
En este momento hay una regla activada (R
3
) que a un no se ha ejecutado.
Paso 4. El nuevo elemento (J) que se encuentra en la memoria de trabajo hace que
se dispare la regla 8, ya que su antecedente (H(X) y J) corresponde con elementos
que existen en la memoria de trabajo. La ejecucion de R
8
hace que el consecuente
X de la misma pase a la memoria de trabajo. Al analizar la memoria de trabajo y
observar que el elemento X ya se encuentra en la misma, el proceso se detiene.
A continuacion se muestra otro ejemplo para observar la variacion en la memoria de
trabajo durante la operacion de un sistema de produccion. En este caso, el sistema
de produccion tiene por objetivo ordenar una cadena formada por las letras a, b, y
c. La descripcion del sistema es la siguiente:
Reglas almacenadas en la Base de Conocimientos:
R
1
: Si ba Entonces ab
R
2
: Si ca Entonces ac
R
3
: Si cb Entonces bc
En la Tabla 4.3 muestra los cambios en la memoria de trabajo dependiendo de la
regla seleccionada a partir de los datos iniciales formados por la cadena: cbaca. La
explicacion de los datos mostrados en esta tabla se da a continuacion:
Iteracion 0. El programa inicia su ejecucion en este momento, los datos iniciales
en la memoria de trabajo son la cadena: cbaca, las reglas activadas son en este caso
las 3 que se encuentran almacenadas en la base de conocimientos, es decir: R
1
, R
2
,
y R
3
debido a que sus antecedentes ba, ca, y cb se encuentran almacenados en la
memoria de trabajo. Las reglas se van a seleccionar por orden de activacion o bien
que generen cambios en la memoria de trabajo. Por lo tanto, en este caso se va a
seleccionar para su ejecucion R
1
.
Iteracion 1. En esta iteracion, se ejecuta R
1
, al hacerlo la cadena ba (antecedente
de R
1
) es cambiada a ab (accion de R
1
). Este cambio se observa en la memoria
de trabajo, modicando la cadena cbaca a cabca. Esta variacion solo provoca la
reactivacion de R
2
, ya que es el unico antecedente que se encuentra en la memoria
de trabajo. Por lo tanto, R
2
es la regla activada de manera mas reciente y es la
4.3. ARQUITECTURA DE UN SISTEMA DE PRODUCCI

ON 257
Cuadro 4.3: Ilustracion de la informacion inicial almacenada en la memoria de tra-
bajo y su variacion en cada iteracion de acuerdo con la regla seleccionada.
Iter. Memoria de trabajo reglas activadas Regla seleccionada
0 cbaca 1, 2, 3 1
1 cabca 2 2
2 acbca 2, 3 2
3 acbac 1, 3 1
4 acabc 2 2
5 aacbc 3 3
6 aabcc vaco paro
seleccionada para su ejecucion.
Iteraci on 2. En esta iteracion, la memoria de trabajo mantiene la cadena acbca por
lo que se activan las reglas R
2
y R
3
ya que sus antecedentes (ca, cb) se encuentran
en la memoria de trabajo. La regla seleccionada es R
2
, la primera en orden de las
activadas recientemente. La ejecucin de R
2
causa cambios en la memoria activa y
lleva al programa a la siguiente iteracion.
Iteracion 3. Durante la iteracion 3, la ejecucion de R
2
causo que su antecedente
ca cambiara a ac reejandose este cambio en la memoria activa observandose como
acbac. La modicacion causada en la memoria ocasiona que se activen las reglas
R
1
y R
3
cuyos antecedentes (ba, cb) aparecen en la memoria. Por lo tanto, la regla
seleccionada para ser ejecutada (disparada) es R
1
, ya que se seleccionan por orden
y reciente activacion.
Iteracion 4. En este ciclo, la ejecucion de R
1
causo que su consecuente (ab) se
realizara y modicara a la memoria de trabajo pasando esta de acbac a acabc. Esta
modicacion en la memoria activa hace que se active solamente la regla R
2
. Por lo
tanto, en este ciclo se ejecuta la regla seleccionada.
Iteracion 5. En la iteracion 5, la memoria de trabajo actual tiene almacenada la
cadena acabc. La ejecucion de R
2
hace que se realice el consecuente ac de esta regla,
haciendo que la memoria de trabajo cambie de acabc a aacbc. Esta modicacion en
la memoria actual, hace que la unica regla que pueda activarse sea R
3
ya que su
antecedente cb se encuentra en la memoria de trabajo. Por lo tanto, en este ciclo, la
regla R
3
se selecciona para su ejecucion.
258 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Iteracion 6. En esta iteracion, la regla seleccionada R
3
es ejecutada, haciendo que
se cumpla su consecuente bc. Por lo que, la memoria de trabajo actual que tiene
almacenada la cadena aacbc cambie su valor a aabcc. En este momento, la memo-
ria de trabajo mantiene una cadena ordenada, por lo que se estan cumpliendo los
antecedentes de su base de reglas. Por lo tanto, al no existir reglas activadas el pro-
grama se detiene.
Como se puede observar con estos sencillos ejemplos, los elementos que se encuentran
en la memoria de trabajo cambian constantemente, es decir, son dinamicos. A difer-
encia de los elementos que se encuentran almacenados en la base de conocimientos
los cuales son generalmente de naturaleza estatica.
4.3.2. Base de conocimientos
Como se ha mencionado, en los sistemas basados en reglas existen dos componentes
importantes: la base de conocimiento y los datos. Los datos estan formados por
la evidencia o los hechos conocidos de una situacion particular. Este elemento es
dinamico, es decir, puede cambiar de una aplicacion a otra. Por esta razon, no es de
naturaleza permanente y se almacena en la memoria de trabajo. Por otro lado, el
conocimiento se almacena en la base de conocimiento y consiste en un conjunto de
objetos y un conjunto de reglas que gobiernan las relaciones entre esos objetos. La
informacion almacenada en la base de conocimiento es de naturaleza permanente y
estatica, es decir, no cambia de una aplicacion a otra, a menos que se incorporen al
sistema mecanismos de aprendizaje.
Para tener una idea intuitiva de estas reglas, supongase que se tiene el conjunto de
objetos mostrados en la Tabla4.4, donde cada objeto puede tomar solamente uno de
los valores de su conjunto de valores posibles.
Algunos ejemplos de reglas que pueden estar almacenadas en la base de conocimien-
tos son las siguientes:
Regla 1: Si Nota > 9, entonces Calicaci on = Sobresaliente.
Regla 2: Si Posicion < 20 o Nota > 7, entonces Admitir = Si y Noticar = Si.
4.3. ARQUITECTURA DE UN SISTEMA DE PRODUCCI

ON 259
Cuadro 4.4: Conjunto de valores que pueden tomar los objetos indicados, los cuales
describen un dominio del estado academico que guarda un alumno en cierta insti-
tucion educativa.
Objeto Posibles valores
Nota 0, 1,..., 10
Calicacion Sobresaliente, Notable, Aprobado, Suspendido
Posicion 0, 1,...,100
Admitir Si, Pendiente, No
Noticar S, No
En general, tanto la premisa o antecedente como la conclusion de una regla pueden
contener m ultiples armaciones objeto : valor. Una expresion logica que contiene
solo una armacion objeto : valor se denomina expresion logica simple; en caso con-
trario se habla de una expresion logica compuesta. En las reglas anteriores, la Regla
1 es un ejemplo de expresion logica simple mientras que la Regla 2 es un caso de
expresion logica compuesta.
Enseguida se va a mostrar un ejemplo para determinar el conjunto de reglas que se
tienen que almacenar en la base de conocimientos de un sistema de produccion con
el n de resolver un problema practico relacionado con el retiro de efectivo de un
cajero automatico (CA).
Considere la situacion en la que un usuario (cliente) desea sacar dinero de su cuenta
corriente mediante un cajero automatico (CA). La descripci on de la secuencia de
pasos en este escenario es la siguienet:
En cuanto el usuario introduce la tarjeta en el CA, la maquina la lee y la verica.
Si la tarjeta no es vericada con exito (por ejemplo, porque no es legible), el CA
devuelve la tarjeta al usuario con el mensaje de error correspondiente. En otro ca-
so, el CA pide al usuario su n umero de identicacion personal (NIP). Si el n umero
fuese incorrecto, se dan tres oportunidades de corregirlo. Si el NIP es correcto, el
CA pregunta al usuario cuanto dinero desea sacar. Para que el pago se autorice, la
cantidad solicitada no debe exceder de una cierta cantidad lmite diaria, ademas de
haber suciente dinero en su cuenta.
El dominio del problema relacionado con el CA es decrito por los siguientes objetos:
Tarjeta, Fecha, NIP, Intentos, Fondo, Lmite, Pago. Los valores que cada uno de
260 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Cuadro 4.5: Conjunto de posibles valores que pueden tomar los objetos en el ejemplo
del Cajero Automatico.
Objeto Posibles valores
Tarjeta valida, no valida
Fecha expirada, no expirada
NIP correcto, incorrecto
Intentos excedidos, no excedidos
Fondo suciente, insuciente
Lmite excedido, no excedido
Pago autorizado, no autorizado
estos objetos puede tomar vienen denidos en la Tabla 4.5.
Algunas de las reglas que describen el dominio del CA son las siguientes:
Regla 1:
S
Tarjeta = vericada y
Fecha = no expirada y
NIP = correctos y
Intentos = no excedidos y
Fondo = suciente y
Lmite = no excedido
Entonces
Pago = autorizado
Regla 2:
Si
Tarjeta = no vericada
Entonces
Pago = no autorizado
Regla 3:
Si
Fecha = expirada
Entonces
Pago = no autorizado
4.3. ARQUITECTURA DE UN SISTEMA DE PRODUCCI

ON 261
En este ejemplo, se necesitan un total de siete reglas para contemplar todas las
posibles acciones de un usuario al intentar obtener dinero de su cuenta a traves de
un CA. En la Regla 1, el antecedente consiste en seis armaciones objeto : valor
enlazadas mediante el operador logico y, lo que indica que la premisa es cierta si
las seis armaciones lo son. Por ello, la Regla 1 relaciona el objeto Pago (en la con-
clusion) con los demas objetos. De acuerdo con esta regla, la accion que debe iniciar
el CA es dar el dinero al usuario si la tarjeta se ha vericado correctamente, la fecha
no ha expirado, el NIP es correcto, el n umero de intentos para dar el NIP correcto
no se ha excedido y la cantidad solicitada no excede ni la cantidad disponible ni
el lmite maximo diario. Las expresiones logicas en cada una de las reglas restantes
constan de una sola armacion. Notese que la Regla 1 indica cuando debe permitirse
el pago, y las restantes cuando debe rechazarse.
Las expresiones logicas de las Reglas 2 y 3 son simples, mientras que las expresiones
logicas de las premisas de la Regla 1 es compuesta. Asimismo, una regla formada
solamente por expresiones logicas simples se denomina una regla simple; en otro
caso, se llama regla compuesta. Por ejemplo, la Regla 1 es compuesta, mientras que
la Reglas 2 es simple.
Se va a proporcionar otro ejemplo con el n de entender mejor la estructura de la
base de conocimientos.
Suponga que se dispone de una base de datos con N individuos. Para cada individuo,
la base de datos almacena su descripcion a traves de cuatro objetos: nombre, sexo,
nacionalidad y profesion. Ademas, Suponga que la base de datos solo muestra si una
persona es americana, poltica y/o si es mujer. Cada uno de estos atributos es binario
(toma solo dos valores posibles). En este caso, la base de datos puede contener, a
lo mas 2
3
= 8 conjuntos disjuntos (ver Figura 4.9). La gura 4.9 muestra tambien
el nombre de una persona en cada subconjunto. La Tabla 4.6 da un ejemplo de una
base de datos que contiene N = 8 personas famosas. En este caso, se tienen cuatro
objetos: Nombre, Americano, Poltico, y Mujer. El primer objeto puede tomar uno
de N posibles valores (los nombres de cada persona) y cada uno de los tres ultimos
objetos pueden tomar el valor s o el valor no.
A partir de la Tabla 4.6 se pueden construir reglas para identicar a cada persona,
resultando un total de ocho reglas. Por ejemplo, las reglas siguientes corresponden
al expresidente Vicente Fox y a la exprimera ministra Margaret Tatcher:
Regla 1: Si Nombre = Vicente Fox, entonces Americano = no y Poltico = s y
262 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Figura 4.9: Ilustracion de una base de datos con tres atributos binarios que dividen
la poblacion en ocho conjuntos disjuntos.
4.3. ARQUITECTURA DE UN SISTEMA DE PRODUCCI

ON 263
Cuadro 4.6: Base de datos mostrando cuatro objetos y sus valores correspondientes
para el ejemplo de las personas famosas.
Nombre Americano Poltico mujer
Barbara Jordan si si si
Bill Clinton si si no
Barbara Walters si no si
Mohammed Ali si no no
Margaret Thatcher no si si
Vicente Fox no si no
Marie Curie no no si
Diego Rivera si no no
Mujer = no.
Regla 2: Si Nombre = Margaret Tatcher, entonces Americano = no y Poltico =
s y Mujer = si.
Las seis reglas restantes pueden construirse de forma similar.
Existen casos de algunos sistemas de produccion que imponen ciertas restricciones a
las reglas. Por ejemplo, No permiten en la premisa el operador l ogico o, y limitan las
conclusiones a expresiones logicas simples. Hay buenas razones para imponer estas
restricciones. En primer lugar, las reglas que satisfacen estas restricciones son faciles
de tratar a la hora de escribir un programa para computadora. En segundo lugar,
las dos restricciones anteriores no dan lugar a una perdida de generalidad, puesto
que reglas mucho mas generales pueden ser reemplazadas por conjuntos de reglas
de esta forma. A esto se le llama sustitucion de reglas. Por tanto, el conjunto de re-
glas especicado inicialmente por el experto humano puede requerir una sustitucion
posterior por un conjunto de reglas equivalente para satisfacer estas restricciones.
La Tabla 4.7 da ejemplos de sustitucion de reglas. Notese que cada regla de la
primera columna puede ser sustituda por el correspondiente conjunto de reglas de
la segunda columna y que todas las reglas de esta satisfacen las condiciones anteri-
ores. Por ejemplo, la primera regla compuesta de la Tabla 4.7:
Regla 1: Si A o B, entonces C
264 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Cuadro 4.7: Ejemplos de sustitucion de reglas: Las reglas en la primera columna
son equivalentes a las reglas de la segunda columna. Notese que en los seis primeros
ejemplos las sustituciones se aplican a la premisa y en los cuatro ultimos, a la
conclusion.
Regla Reglas equivalentes
Si A o B, entonces C Si A entonces C
Si B entonces C
Si (A o B) entonces C Si A y B entonces C
Si (A y B) entonces C Si A entonces C
Si B entonces C
Si (A o B) y C entonces D Si A y C entonces D
Si B y C entonces D
Si (A o B) y C entonces D Si A y B y C entonces D
Si (A y B) y C entonces D Si A y C entonces D
Si B y C entonces D
Si A entonces B y C Si A entonces B
Si A entonces C
Si A entonces B o C Si A y B entonces C
Si A y C entonces B
Si A entonces (B y C) Si A y B entonces C
Si A y C entonces B
Si A entonces (B o C) Si A entonces B
Si A entonces C
Puede ser reemplazada por las dos reglas simples:
Si A entonces C
Si B entonces C
4.3.3. Mecanismos de control
El motor de inferencia
3
usa tanto la base de conocimientos como la memoria de tra-
bajo para obtener nuevas conclusiones o hechos. Por ejemplo, si la premisa de una
3
Uno de los motores de inferencia mas utilizados es CLIP, CLIP signica, C Language Integrated
Production System, desarrollado en NASAs Johnson Space Center a mediados de los 80s, C se
utiliz o como lenguaje de implementaci on.
4.3. ARQUITECTURA DE UN SISTEMA DE PRODUCCI

ON 265
regla es cierta, entonces la conclusion de la regla tambien debe ser cierta. Los datos
iniciales se incrementan incorporando las nuevas conclusiones. Por ello, tanto los
hechos iniciales o datos de partida como las conclusiones derivadas de ellos forman
parte de los hechos o datos disponibles en un instante dado. Las conclusiones pueden
clasicarse en dos tipos: simples y compuestas. Las conclusiones simples son las que
resultan de una regla simple. Las conclusiones compuestas son las que resultan de
mas de una regla. Para obtener conclusiones, los expertos utilizan diferentes tipos
de reglas y estrategias de inferencia y control [127, 171].
Existen tres estrategias generales a traves de las cuales se puede realizar la inferencia:
Deduccion. Bajo este esquema, el nuevo conocimiento es cierto si se parte de
conocimiento cierto. Esta es la fuerza de la inferencia logica (Resolucion) y por
tanto, de la logica.
Induccion. Es el mecanismo aplicado por el Aprendizaje Automatico. Realiza una
correspondencia entre correlacion y causalidad.
Abduccion. Bajo este enfoque se parte de un conjunto de reglas y hechos observa-
dos (conocimiento) para generar un conjunto de explicaciones posibles que, usando
la deduccion, haran coherente el conocimiento inicial.
Generalmente, la inferencia en los sistemas basados en reglas de produccion se realiza
aplicando Modus Ponens o Modus Tol lens, los cuales son dos conocidos mecanismos
de inferencia muy utilizados por el esquema de representacion del conocimiento basa-
do en logica (ver Captulo 3).
En la Figura 4.10(a) se muestra el algoritmo que regula la operacion de un motor
de inferencias, mientras que en la Figura 4.10(b) se ilustra el algoritmo del motor de
inferencias bajo un enfoque de encadenamiento hacia adelante, el unico cambio que
se hace a este algoritmo para que sea de encadenamiento hacia atras, es reemplazar
la parte que corresponde al antecedente por el de consecuente.
Modus Ponens. Modus Ponens es quizas la regla de inferencia mas com unmente
utilizada para obtener conclusiones simples. En este esquema, se examina la premisa
(antecedente) de la regla, y si es cierta, la conclusion pasa a formar parte del
conocimiento. Como ilustracion, supongase que se tiene la regla, Si A es cierto
entonces B es cierto (A B), si sabemos que A es cierto (A), entonces, la regla
Modus Ponens concluye que B es cierto (B). Esta regla de inferencia, que parece
266 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Figura 4.10: Algoritmos utilizados por el motor de inferencias de un sistema basado
en reglas de produccion: (a) Algoritmo general del motor de inferencias, (b) mecan-
ismo de encadenamiento hacia adelante.
4.3. ARQUITECTURA DE UN SISTEMA DE PRODUCCI

ON 267
trivial, debido a su familiaridad, es la base de un gran n umero de sistemas basados
en reglas.
Por su parte, la regla de inferencia Modus Tol lens se utiliza tambien para obtener
conclusiones simples. En este caso se examina la conclusion de la regla y si es falsa,
se concluye que la premisa tambien es falsa. Por ejemplo, supongase de nuevo que
se tiene la regla, Si A es cierto, entonces B es cierto (A B), pero se sabe que
B es falso (B), entonces, utilizando la regla Modus Tol lens se concluye que A
es falso (A). Aunque muy simple y con muchas aplicaciones utiles, la regla Modus
Tol lens es menos utilizada que la Modus Ponens. Por ello, la regla Modus Ponens se
mueve hacia adelante, es decir, de la premisa a la conclusion de una regla, mientras
que la regla Modus Tol lens se mueve hacia atras, es decir, de la conclusion a la
premisa.
Las dos reglas de inferencia no deben ser vistas como alternativas sino como com-
plementarias. La regla Modus Ponens necesita informacion relacionada con los an-
tecedentes de los objetos para llegar a una conclusion, mientras que la regla Modus
Tol lens necesita informacion relacionada con el consecuente de los objetos para llegar
a obtener nuevo conocimiento. De hecho, para un motor de inferencia que solamente
utiliza Modus Ponens, la incorporacion de la regla Modus Tol lens puede ser consid-
erada como una expansion de la base de conocimiento mediante la adicion de reglas,
tal como lo ilustra el ejemplo que sigue.
Suponga que la base de conocimiento de un sistema basado en reglas de produccion
consiste solo en la Regla 1 (ver ejemplo del cajero automatico). Se puede utilizar la
regla de inferencia Modus Tol lens para invertir la Regla 1 y obtener alguna con-
clusion cuando se tiene informacion relacionada con el consecuente de los objetos.
Entonces, aplicar la regla Modus Tol lens a la regla Si A entonces B, lo cual es
equivalente a aplicar la regla Modus Ponens a la regla Si B entonces A. En
caso de la Regla 1, utilizando la equivalencia:
(A = C y B = C) (A = F) o (B = F)
Se obtiene la siguiente regla:
Regla 1b:
Si
Pago = no autorizado
268 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Entonces
Tarjeta = no vericada o
Fecha = expirada o
NIP = incorrecto o
Intentos = excedidos o
Fondo = insuciente o
Lmite = excedido
Cuando la base de conocimiento contiene solo la Regla 1 (ejemplo del cajero Au-
tomatico), utilizar ambos mecanismos de inferencia: (Modus Ponens y Modus Tol-
lens), es equivalente a usar la regla Modus Ponens cuando la base de conocimiento
contiene tanto la Regla 1 como la Regla 1b. Por otra parte, el rendimiento del mo-
tor de inferencia depende del conjunto de reglas en su base de conocimiento. Hay
situaciones en las que el motor de inferencia puede concluir utilizando un conjunto
de reglas, pero no puede llegar a una conclusion al utilizar otro (aunque estos sean
logicamente equivalentes).
Resolucion. Las reglas de inferencia Modus Ponens y Modus Tol lens pueden ser
utilizadas para obtener conclusiones simples. Por otra parte, las conclusiones com-
puestas, que se basan en dos o mas reglas, se obtienen usando el llamado mecanismo
de resolucion. Este mecanismo de inferencia se forma por las etapas siguientes:
1. Las Reglas son sustituidas por expresiones logicas equivalentes.
2. Estas expresiones logicas se combinan en otra expresion logica.
3. Esta ultima expresion se utiliza para obtener la conclusion.
Estas etapas involucran conceptos tales como la combinacion y simplicacion de
expresiones logicas, que se ilustran de un modo intuitivo en los ejemplos que siguen.
Ejemplo. Suponga que se tienen las siguientes dos reglas:
Regla 1: Si A es cierto entonces B es cierto.
Regla 2: Si B es cierto entonces C es cierto.
La primera etapa en el mecanismo de resolucion consiste en sustituir cada una de
las dos reglas por expresiones logicas equivalentes (ver Figura 4.11). Esto se realiza
4.3. ARQUITECTURA DE UN SISTEMA DE PRODUCCI

ON 269
Figura 4.11: Ilustracion de la regla de inferencia correspondiente al mecanismo de
resolucion.
Cuadro 4.8: Tabla de verdad mostrando que la regla Si A es cierto entonces B es
cierto es equivalente a la expresion logica A es falso o B es cierto.
A B A Si A entonces B A o B
C C F C C
C F F F F
F C C C C
F F C C C
siguiendo los pasos que se indican
La Regla 1 es equivalente a la expresion logica: A es falso o B es cierto (ver Figu-
ra 4.11). Una prueba de esta equivalencia se muestra en la tabla de verdad que se
ilustrada en la Tabla 4.8.
Similarmente, la Regla 2 (Si B es cierto entonces C es cierto) es equivalente a la
expresion logica: B es falso o C es cierto (ver Figura 4.11).
La segunda etapa consiste en combinar las dos expresiones anteriores en una, tal
como sigue: Las expresiones logicas A es falso o B es cierto y B es falso o C es
cierto implican la expresion A es falso o C es cierto (ver Figura 4.11). Una prueba
de esta equivalencia se muestra en la Tabla 4.9. Esta ultima expresion se utiliza en
la tercera etapa para obtener la conclusion. Las etapas anteriores se ilustran en la
270 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Cuadro 4.9: Tabla de verdad que muestra que las expresiones logicas A es falso o
B es cierto y B es falso o C es cierto implican la expresion l ogica A es falso o C
es cierto.
A B C A o B B o C (A o B)y (B o C) A o C
C C C C C C C
C C F C F F F
C F C F C F C
C F F F C F F
F C C C C C C
F C F C F F C
F F C C C C C
F F F C C C C
Figura 4.12.
Mecanismo de resolucion 2. Considere nuevamente el ejemplo del CA con el
objeto a nadido Explicar, que puede tomar los valores s, no, indicando si se necesita
explicar las acciones del CA. Apliquemos ahora el mecanismo de resolucion a la
evidencia NIP = incorrecto y a las reglas siguientes:
Si NIP = incorrecto entonces Pago = no autorizado.
Si Pago = no autorizado entonces Explicar = s.
Tal como se ilustra en la Figura 4.12, la regla de inferencia correspondiente al mecan-
ismo de resolucion conduce a la conclusion Explicar = s. En efecto, siguiendo los
pasos indicados, se tiene
1. Las dos reglas se sustituyen por las expresiones equivalentes:
NIP = correcto o Pago = no autorizado
Pago = autorizado o Explicar = s
2. Las dos expresiones anteriores se combinan de la forma indicada para dar la ex-
presion NIP = correcto o Explicar = s, y
3. Esta ultima expresion se combina con la evidencia NIP = incorrecto, y se obtiene
la conclusion compuesta, Explicar = s.
4.3. ARQUITECTURA DE UN SISTEMA DE PRODUCCI

ON 271
Figura 4.12: Ilustracion de la regla de inferencia correspondiente al mecanismo de
resolucion del Cajero Automatico.
Es importante se nalar que la regla de inferencia correspondiente al mecanismo de
resolucion no siempre conduce a conclusiones, pues, de hecho, puede no conocerse
la verdad o falsedad de ciertas expresiones. Si esto ocurre, el sistema, o mas precisa-
mente, su motor de inferencia, debe decidir entre:
Abandonar la regla, dada la imposibilidad de obtener conclusiones, o
Preguntar al usuario, mediante el subsistema de demanda de informacion,
sobre la verdad o falsedad de una o varias expresiones para poder continuar
el proceso de inferencia hasta que se obtenga una conclusion.
Control de la Coherencia. En situaciones complejas, incluso verdaderos exper-
tos pueden dar informacion inconsistente (por ejemplo, reglas inconsistentes y/o
combinaciones de hechos no factibles). Por ello, es muy importante controlar la co-
herencia del conocimiento tanto durante la construccion de la base de conocimiento
como durante los procesos de adquisicion de datos y razonamiento. Si la base de
conocimiento contiene informacion inconsistente (por ejemplo, reglas y/o hechos),
es muy probable que el sistema se comporte de forma poco satisfactoria y obtenga
conclusiones absurdas. El objetivo del control de la coherencia consiste en
a) Ayudar al usuario a no dar hechos inconsistentes, por ejemplo, dandole al
usuario las restricciones que debe satisfacer la informacion demandada.
b) Evitar que entre en la base de conocimiento cualquier tipo de conocimiento
inconsistente o contradictorio.
272 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


El control de la coherencia debe hacerse controlando la coherencia de las
reglas y la de los hechos.
Coherencia de Reglas. Un conjunto de reglas se denomina coherente si existe,
al menos, un conjunto de valores de todos los objetos que producen conclusiones
no contradictorias. En consecuencia, un conjunto coherente de reglas no tiene por
que producir conclusiones no contradictorias para todos los posibles conjuntos de
valores de los objetos. Es decir, es suciente que exista un conjunto de valores que
conduzcan a conclusiones no contradictorias.
Ejemplo: Conjunto de reglas incoherentes. Considerense las cuatro reglas siguientes,
que relacionan dos objetos A y B con los binarios C, F:
Regla 1: Si A = C entonces B = C.
Regla 2: Si A = C entonces B = F.
Regla 3: Si A = F entonces B = C.
Regla 4: Si A = F entonces B = F.
Entonces, pueden obtenerse las siguientes conclusiones:
Las Reglas 1 2 son coherentes puesto que, para A = F, no producen conclusiones.
Las Reglas 1 3 son coherentes puesto que para A = F y B = C, producen una
conclusion (B = C)
Las Reglas 14 son incoherentes porque producen conclusiones contradictorias para
todos los posibles valores de A y B.
Se debe tomar en cuenta que un conjunto de reglas puede ser coherente, aunque
algunos conjuntos de valores puedan producir conclusiones inconsistentes. Estos
conjuntos de valores se llaman valores no factibles. Por ejemplo, las Reglas 1-2 son
coherentes, aunque producen conclusiones inconsistentes en todos los casos en que A
= C. En consecuencia, el subsistema de control de coherencia eliminara automatica-
mente el valor C de la lista de posibles valores del objeto A, permitiendo de esta
forma al usuario seleccionar solo valores factibles de los objetos.
Valores no factibles. Se dice que un valor a para el objeto A no es factible si las
conclusiones obtenidas al hacer A = a contradicen cualquier combinacion de valores
4.3. ARQUITECTURA DE UN SISTEMA DE PRODUCCI

ON 273
del resto de los objetos. Por ello, cualquier valor no factible debe ser eliminado de
la lista de valores posibles de su correspondiente objeto para eliminar la posibilidad
de que el motor de inferencia pueda obtener conclusiones inconsistentes.
Ejemplo: Valores no factibles. Considerese el conjunto de las cuatro reglas del ejem-
plo anterior. En este caso, el motor de inferencia concluira lo siguiente:
a) Las dos primeras reglas implican que A = C, puesto que A = C siempre
conduce a conclusiones inconsistentes. Por tanto, el valor A = C debera ser
eliminado automaticamente de la lista de valores factibles de A. Dado que
A es binario, entonces resulta A = F (el unico valor posible).
b) Las tres primeras reglas implican que A = F y B = C. Por tanto, el valor B
= F debera ser eliminado automaticamente de la lista de valores factibles
de B.
c) Las primeras cuatro reglas implican que A = C, A = F, B = C y B =
F. Por tanto, los valores C, F son eliminados de las listas de valores de
A y B, con lo que las listas de valores factibles de todos los objetos estan
vacas, lo que implica que las cuatro reglas son incoherentes.
Se debe considerar que es suciente realizar la comprobacion de la coherencia de
las reglas solo una vez, tras ser introducida cada regla, y que todos los valores no
factibles pueden ser eliminados de sus correspondientes listas. El conjunto de reglas
que forman el conocimiento debe ser coherente; en otro caso, el sistema podra obtener
conclusiones erroneas. Por ello, antes de a nadir una regla a la base de conocimiento,
hay que comprobar la consistencia de esta regla con el resto de ellas, incluidas en la
base de conocimiento. Si la regla fuese consistente con el resto de reglas, se a nadira
a la base de conocimiento; en caso contrario, se devolvera al experto humano para
su correccion.
Ejemplo: Coherencia de reglas. Supongase que se tienen los cuatro objetos: A
0,1,B 0,1, C 0,1, 2 y D 0,1. Considerense las siguientes reglas:
Regla 1: Si A = 0 y B = 0, entonces C = 0.
Regla 2: Si A = 0 y D = 0, entonces C = 1.
Regla 3: Si A = 0 y B = 0, entonces C = 1.
Regla 4: Si A = 0 entonces B = 0.
Regla 5: Si B = 0 entonces A = 1.
Suponga ahora que se desea a nadir las tres ultimas reglas a una base de conocimiento
que contiene las dos primeras reglas. Entonces, las Reglas 1 y 3 son inconsistentes,
274 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


puesto que tienen la misma premisa pero diferentes conclusiones. Por tanto, la Regla
3 debe ser rechazada y el experto humano debe ser informado de la razon del rec-
hazo. El experto humano corregira la regla en cuestion y/o las reglas existentes si
fueran incorrectas. La Regla 4 entrara en la base de conocimiento, puesto que es
consistente con las Reglas 1 y 2. La Regla 5 es inconsistente con la Regla 4. Por ello,
la consistencia de ambas reglas debe ser comprobada antes de pasar a formar parte
de la base de conocimiento.
Coherencia de hechos. Los datos o evidencias suministrados por los usuarios
deben ser tambien consistentes en s y con el conjunto de reglas de la base de datos.
Por ello, el sistema no debe aceptar hechos que contradigan el conjunto de reglas y/o
el conjunto de hechos existente en cada instante del proceso. Por ejemplo, con una
base de conocimiento que contenga las dos primeras reglas anteriores, el sistema no
debe aceptar el conjunto de hechos A = 0, B = 0 y C = 1 puesto que contradicen
la Regla 1. El sistema debe tambien comprobar si existe o no, una solucion factible
e informar al usuario en consecuencia. Si en el ejemplo anterior se trata de dar la
informacion A = 0, B = 0 y D = 0, el sistema debe detectar que no existe ning un
valor de C que sea consistente con la base de conocimiento. Notese que antes de
conocer los valores de los objetos, existe una solucion factible. Por ejemplo, A = 0,
B = 0, C = 0 y D = 1 (estos hechos no contradicen la base de conocimiento). Por
ello, la inconsistencia surge de que los hechos y las reglas sean inconsistentes. La
coherencia de los hechos puede lograrse mediante las estrategias siguientes:
1. Eliminar todos los valores no factibles (los que contradicen el conjunto de reglas
y/o hechos) de los objetos una vez detectados. Cuando se pregunte al usuario por in-
formacion sobre los valores de un conjunto de objetos, el sistema debera aceptar solo
los valores de cada objeto que sean consistentes con las reglas y con el conocimiento
previo. Considerese, por ejemplo, la base de conocimiento del Ejemplo anterior y
supongase que al sistema se le ha dado la informacion A = 0 y C = 1; entonces el
sistema debe saber que B = 0. Por ello, este valor debe ser eliminado de la lista de
posibles valores del objeto B.
2. El motor de inferencia debe comprobar que los hechos conocidos no contradicen el
conjunto de reglas. En la situacion anterior, por ejemplo, el sistema no debe aceptar
el conjunto de hechos A = 1, B = 1 y C = 2. Si el sistema no elimina los valores no
factibles, entonces el usuario podra dar evidencias contradictorias tales como Pago
= autorizado y NIP = incorrecto en el ejemplo del cajero automatico. Por lo tan-
to, tan pronto como se de la primera evidencia, Pago = autorizado, el sistema debe
seleccionar solo los valores del NIP que no conduzcan a conclusiones contradictorias.
4.3. ARQUITECTURA DE UN SISTEMA DE PRODUCCI

ON 275
3. Suministrar al usuario una lista de objetos a los que no se ha asignado valores
previamente.
4. Para cada uno de los objetos, mostrar y aceptar solo sus valores factibles.
5. Actualizar continuamente la base de conocimiento, es decir, tan pronto como se
de un hecho o se obtenga una conclusion, y eliminar los valores no factibles. El mo-
tor de inferencia obtiene todas las conclusiones posibles examinando, y posiblemente
concluyendo, las reglas tan pronto como una simple unidad de informacion llega al
sistema.
Tome en cuenta que dar varias unidades de informacion simultaneamente puede con-
ducir a inconsistencias en la base de datos. Por ejemplo, dado A = 0, no se puede dar
la informacion combinada B = 0 y C = 1. En este caso, el orden de la informacion
afecta a los posibles valores futuros de los objetos que conducen a compatibilidad,
es decir, tras dar A = 0 se puede dar B = 0 o C = 1, pero estas dos opciones
imponen restricciones diferentes a los posibles futuros valores de los restantes obje-
tos. La actualizacion continua de la base de conocimiento es muy importante puesto
que no actualizar implica la posibilidad de que evidencias contradictorias puedan
convivir en la base de conocimiento. Por ello, el conocimiento debe ser actualizado
inmediatamente tras la incorporacion de cada hecho. Por lo que, tanto la eliminacion
automatica de valores no factibles como la actualizacion continua del conocimiento
aseguran la coherencia de la base de conocimiento. El ejemplo siguiente ilustra la
aplicacion de esta tecnica al conocido problema de los agentes secretos.
Ejemplo: Los Agentes Secretos. Se menciona el problema de cuatro agentes secre-
tos: Alberto, Luisa, Carmen y Tomas, donde cada agente se encuentra en uno de
los siguientes cuatro pases: Egipto, Francia, Japon y Espa na. Se han recibido los
siguientes telegramas de los agentes:
De Francia: Luisa esta en Espa na.
De Espa na: Alberto esta en Francia.
De Egipto: Carmen esta en Egipto.
De Japon: Carmen esta en Francia.
El problema radica en que no se sabe quien ha enviado cada uno de los mensajes,
pero es conocido que Tomas miente (es un agente doble?) y que los demas agentes
dicen la verdad. El misterio que trata de escudri narse es el de responder a la pre-
gunta quien esta en cada pas? Por lo que se dise na un sistema basado en reglas de
276 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


produccion para resolver este problema.
Se tienen cuatro objetos: Alberto, Luisa, Carmen y Tomas.
Cada objeto puede tomar uno de cuatro valores: Egipto, Francia, Japon o Es-
pa na.
Puesto que Tomas es el unico que miente, se considera que un telegrama suyo es
siempre falso. Esto da lugar a dos reglas por cada mensaje:
1. El mensaje de Francia (Luisa esta en Espa na) da lugar a:
Regla 1: Si Tomas esta en Francia, entonces Luisa no esta en Espa na.
Regla 2: Si Tomas no esta en Francia, entonces Luisa esta en Espa na.
2. El mensaje de Espa na (Alberto esta en Francia) da lugar a:
Regla 3: Si Tomas esta en Espa na, entonces Alberto no esta en Francia.
Regla 4: Si Tomas no esta en Espa na, entonces Alberto esta en Francia.
3. El mensaje de Egipto (Carmen esta en Egipto) da lugar a:
Regla 5: Si Tomas esta en Egipto, entonces Carmen no esta en Egipto.
Regla 6: Si Tomas no esta en Egipto, entonces Carmen esta en Egipto.
4. El mensaje de Japon (Carmen esta en Francia) da lugar a:
Regla 7: Si Tomas esta en Japon, entonces Carmen no esta en Francia.
Regla 8: Si Tomas no esta en Japon, entonces Carmen esta en Francia.
Utilizando solo estas ocho reglas, se intentara ahora averiguar el valor que toma el
objeto Tomas:
1. Tomas esta posiblemente en Egipto. Si Tomas esta en Egipto, se obtienen las
conclusiones siguientes:
4.3. ARQUITECTURA DE UN SISTEMA DE PRODUCCI

ON 277
Luisa esta en Espa na, por la Regla 2.
Alberto esta en Francia, por la Regla 4.
Carmen no esta en Egipto, por la Regla 5.
Carmen esta en Francia, por la Regla 8.
Se ve que con esta hipotesis se llega a la conclusion de que tanto Alberto como
Carmen estan en Francia, lo que contradice la informacion de que solo un agente
puede estar en cada pas (pero el conjunto de las ocho reglas anteriores no contiene
esta informacion). Por tanto, se concluye que Egipto es un valor imposible para el
objeto Tomas, es decir, Tomas no puede estar en Egipto.
Siguientes consideraciones:
Luisa esta en Espa na, por la Regla 2.
Alberto esta en Francia, por la Regla 4.
Carmen esta en Egipto, por la Regla 6.
En este caso no hay una contradiccion, lo que signica que Japon es un valor posible
para el objeto Tomas.
Con las ocho reglas anteriores, el motor de inferencia no puede concluir en que pas
esta cada uno de los agentes, puesto que las reglas no contienen la informacion solo
un agente puede estar en cada pas. Por lo que se considera esta situacion y se
obtiene un conjunto de reglas adicionales que tienen en cuenta esta informacion.
Puesto que cada pas puede estar ocupado por exactamente un agente, suponga que
un agente esta en un pas dado. Entonces, se necesitan tres reglas para garantizar
que ninguno de los restantes agentes esta en ese mismo pas. Dado que se tienen
cuatro agentes, resultan un total de 12 reglas (3 reglas 4 agentes). Sin embargo, si
se utiliza la regla de inferencia Modus Tol lens, solo son necesarias seis reglas, pues
las restantes resultan redundantes. Por ejemplo, para Egipto setienen las siguientes
reglas:
Regla 9: Si Alberto esta en Egipto, entonces Luisa no esta en Egipto.
Regla 10: Si Alberto esta en Egipto, entonces Carmen no esta en
Regla 11: Si Alberto esta en Egipto, entonces Tomas no esta en
Regla 12: Si Luisa esta en Egipto, entonces Carmen no esta en Egipto.
Regla 13: Si Luisa esta en Egipto, entonces Tomas no esta en Egipto.
Regla 14: Si Carmen esta en Egipto, entonces Tomas no esta en Egipto.
278 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Note que existen un conjunto de seis reglas equivalentes a las anteriores. Por ejem-
plo, la regla:
Regla 14a: Si Tomas esta en Egipto, entonces Carmen no esta en Egipto,
es equivalente a (Modus Tol lens) la Regla 14. Por tanto, se necesitan solo seis re-
glas por pas. Los conjuntos de seis reglas para cada uno de los restantes pases se
generan de forma similar. Por tanto, se tienen un total de 24 reglas adicionales que
representan el hecho de que exactamente un agente puede estar en cada pas.
Interfase de explicacion al usuario. Generalmente los usuarios de sistemas basa-
dos en reglas esperan que el sistema les proporcione alg un tipo de explicacion rela-
cionada con las conclusiones. Durante el proceso realizado por el motor de inferencia,
las reglas activas (las que han concluido) forman la base del mecanismo de expli-
caci on, que es regulado por el subsistema de explicacion. En los sistemas basados en
reglas, es facil dar explicaciones de las conclusiones obtenidas. El motor de inferen-
cia obtiene conclusiones basandose en un conjunto de reglas y, por tanto, conoce de
que regla procede cada conclusion. Por ello, el sistema puede dar al usuario la lista
de hechos concluidos junto con las reglas que se han utilizado para obtenerlos. Por
ejemplo, en base a los ejemplos antes mencionados en esta secci on, se podra llegar
a suministrar la explicacion siguiente a las conclusiones obtenidas:
1. Hechos dados:
A = cierto, B = cierto, D = cierto, E = cierto, F = cierto, H = cierto, I = cierto.
2. Conclusiones y explicaciones:
C = cierto, basada en la Regla 1.
G = cierto, basada en la Regla 2.
J = cierto, basada en la Regla 3.
4.4. Ciclo de vida de un sistema de produccion
El ciclo de vida de un sistema de produccion, es similar al ciclo de vida de cualquier
programa computacional en el sentido de que esta estructurado por diferentes fas-
es, entre las que guran: gesti on, desarrol lo, implementacion, analisis, evaluaci on,
4.4. CICLO DE VIDA DE UN SISTEMA DE PRODUCCI

ON 279
correccion, y mantenimiento entre otras. Asimismo, al igual que otro programa de
computadora, llega un momento en que por diversas razones, ya no es util y se
vuelve obsoleto. Sin embargo, los sistemas de IA a diferencia de los programas de
computadora convencionales estan formados por modulos independientes, los cuales
son generalmente adaptativos, es decir, se adaptan a cambios observados en el am-
biente. En el caso de los sistemas de produccion, los cambios que enfrentara el
sistema se preveen con la integracion de algoritmos con capacidad de aprendizaje.
Esta caracterstica, les permitira a estos sistemas modicar la base de conocimientos
(conjunto de las reglas que determinan el conocimiento del dominio) con el n de
adaptarse a las nuevas condiciones de uso.
En esta seccion, mas que explicar cada una de las fases que integran el ciclo de vida
de un sistema de produccion, considero mas interesante, mostrar dos ejemplos de
aplicaciones basadas en reglas de produccion, en el cual se observen algunos de los
componentes que forman su arquitectura. En primer caso, se van a mostrar aspectos
relacionados con uno de los sistemas que mas han inuenciado el desarrollo de los
sistemas basados en reglas: MYCIN. Posteriormente, y bajo un enfoque diferente,
se mostraran aspectos de un sistema basado en reglas para resolver uno de los prob-
lemas que afecta la vida cotidiana: el tr aco vehicular.
MYCIN: Sistema para diagnosticar causas de enfermedades. MYCIN fue
uno de los primeros sistemas basados en reglas. Este sistema fue desarrollado en
la Universidad de Stanford por Davis y Buchanan en la decada de 1970, con el
n de apoyar a los medicos a diagnosticar enfermedades infecciosas en la sangre
ocasionadas por bacterias. Despues de haber trabajado con varios especialistas en
enfermedades infecciosas, el equipo construyo un sistema con aproximadamente 500
reglas de produccion para reconocer de manera general 100 causas de infeccion.
Mientras el sistema opero basado en una forma de encadenamiento hacia adelante
tpica de los sistemas de produccion, el razonamiento fue realizado en un esquema
dirigido por objetivos (encadenamiento hacia atras). Las reglas se basaron en la
sintomatologa de las enfermedades para construir la evidencia, manejar hipotesis y
trabajar con ellas.
Caractersticas del sistema y explicacion de su arquitectura. Mycin intro-
dujo el uso de estructuras de datos estaticas para aumentar el mecanismo de razon-
amiento; estas incluyeron listas de organismos y parametros clnicos. Sin embargo, el
desarrollo mas signicativo en este sistema fue la introduccion de un nivel de certeza
para acumular la evidencia y conanza en las hipotesis. Ya que en el diagnostico
medico no todas las conclusiones son obvias, y varias enfermedades pueden producir
los mismos sntomas, el sistema trabajo acumulando evidencia tratando de evaluar
la hipotesis mas probable a partir de esta. La tecnica para hacer esto se llamo fac-
280 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Figura 4.13: Ilustracion de la arquitectura que muestra los seis componentes del sis-
tema Mycin: cuatro programas y dos bases de datos. Todo el conocimiento del sis-
tema relacionado con enfermedades infecciosas se almacena en la base de conocimien-
tos, mientras que los datos acerca de un paciente durante una consulta se almacena
en la base de datos del paciente, las echas indican la direccion del ujo de infor-
macion [129].
tores de certeza, la cual consistio en la asignacion de n umeros entre 0 y 1 a las
conclusiones de las reglas. Esto permitio el ordenamiento de hipotesis alternas. Ya
que estos n umeros podan ser introducidos a la memoria de trabajo a partir de re-
glas, la introduccion de nueva evidencia poda dar como resultado que estos valores
cambiaran, con lo cual se tuvo que especicar un conjunto de reglas combinadas
para diferentes factores de certeza. De esta forma, la conjuncion de dos conclusiones
poda tomar el mnimo de dos factores de certeza involucrados, mientras su disyun-
cion poda implicar el maximo de los dos.
No hay que perder de vista que el dise no e implementacion de sistemas como el
Mycin se construyen para apoyar el trabajo de los especialistas no para sustituir
su proceso de razonamiento. Todos los sistemas de produccion deben tener un n
especco, en el caso de Mycin fue el de sugerir una terapia para pacientes infecta-
dos por bacterias. Para este proposito, la arquitectura utilizada por este sistema se
muestra en la Figura 4.13. Como se observa, tal arquitectura consta de 6 compo-
nentes que interact uan entre s. Una breve explicacion de cada modulo se ofrece a
continuacion:
4.4. CICLO DE VIDA DE UN SISTEMA DE PRODUCCI

ON 281
Figura 4.14: Formato de una tpica regla extrada de la base de conocimientos uti-
lizada por MYCIN. En la parte superior se aprecia en may uscula el formato utilizado
en el programa. $AND y $OR son analogas multivaluadas de las booeanas AND y
OR. En la parte inferior en min uscula, se muestra la interpretacion de la regla [129].
1. Base de conocimientos. Generalmente los sistemas basados en conocimiento,
utilizados con nes de consulta o diagostico, tal como MYCIN, deben contar con
una gran cantidad de conocimiento tecnico en un area especca. Resulta claro que
manejar una gran cantidad de conocimiento especco de la tarea es necesario para
un buen rendimiento, sin perder ademas de vista que dicho conocimiento esta sujeto
a cambios a traves del tiempo. Las representaciones basadas en reglas de produccion
manejan tales aspectos. Otra demanda que se debe considerar en estos sistemas es
el manejo de dialogos, de igual forma, este es otro aspecto que los sistemas basados
en reglas realizan muy bien, ya que el proceso de explicacion resulta natural bajo
este formalismo. En la Figura 4.13 se muestra la arquitectura del sistema MYCIN,
y entre otros componentes aparecen los programas que manejan los dialogos (actual
interfase de usuario).
En Mycin, el suministro primario para el conocimiento especco del dominio esta rep-
resentado por 200 reglas de produccion, cada una con sus dos componentes: una
premisa o antecedente y una accion o consecuente. Un ejemplo de regla caracterstica
de este sistema extrada de su base de conocimientos se muestra en la Figura 4.14.
Cada premisa esta formada por los siguienets cuatro componentes:
funci on) objeto) atributo) valor)
Mycin manejo un total de 24 funciones (SAME, KNOWN, DEFINITE, etc.), 80
atributos (IDENTITY, SITE, SENSITIVITY, etc.) y 11 objetos (ORGANISM,
CULTURE, DRUG, etc.) para usarlos como primitivas en la construccion de las
reglas. Cada regla representa una parte del conocimiento y en la premisa se declara
282 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Figura 4.15: Ilustracion de un segmento inicial de una sesion de consulta con el
sistema. Las respuestas al usuario proporcionadas por el sistema se muestran en
may usculas y van despues de los dos asteriscos (**) [129].
de forma explcita todo el contexto necesario para su activacion (ver Figura 4.14).
Debido que cada regla utiliza un vocabulario de conceptos comunes al dominio, forma
por s sola, una sentencia comprensible de una parte del dominio. Esta caracterstica
de las reglas es de gran utilidad, pues permite su analisis por otros componentes del
sistema, lo cual a su vez genera una interpretacion directa de las reglas a explica-
ciones en lenguaje natural.
2. Programa de consulta. Este programa se encarga del proposito principal del
sistema al interactuar con los usuarios, es decir, proporcionar una sugerencia. En la
Figura Figura 4.15, se muestra un segmento de una sesion de consulta con el sistema.
3. Programa de respuesta a preguntas. Este componente del sistema se encarga
del manejo de solicitudes en lenguaje natural, ya sea relacionado con alguna consul-
ta especca o acerca de la base de conocimiento general del programa. Con el n
de realizar su tarea, este componente utiliza la informacion almacenada en la base
de conocimientos y la base de datos del paciente. Este componente generalmente
proporciona informacion al modulo que genera las explicaciones.
5. Programa de explicaciones. La capacidad de explicacion del sistema, se basa
en la asumcion que el desplegado de una regla o de alg un segmento del ujo de con-
trol, es una explicacion razonable del comportamiento del sistema. La modicacion
4.4. CICLO DE VIDA DE UN SISTEMA DE PRODUCCI

ON 283
de la base de conocimientos se facilita por la habilidad de descubrir que conocimien-
tos se encuentran actualmente en el sistema y como usarlo. Resulta evidente que
un enfoque basado en alguna forma de razonamiento simbolico hace factible al sis-
tema tener la habilidad para proporcionar una explicacion de su comportamiento
y conocimiento. En muchos sistemas actuales, esta es la razon principal para inte-
grar reglas de produccion en sus componentes. Los esfuerzos iniciales en Mycin para
tener un sistema que interactuara con los usuarios respondiendo a sus preguntas
se basaron en tres capacidades: (i) desplegar informacion durante la consulta de la
regla actualmente en uso, (ii) recordar las reglas que han sido invocadas, y despues
de una consulta, tener la habilidad de asociar reglas especcas a eventos especcos
(preguntas y conclusiones) y determinar el porque de cada suceso, y (iii) buscar en
la base de conocimientos un tipo especco de regla en respuesta a preguntas del
usuario. Algunos ejemplos de estas capacidades manejadas por Mycin se muestran
a continuacion:
(a) COMO SUPISTES QUE ORGANISMO-1 ERA UN E.COLI?
Yo use la Regla021 para concluir que la identidad de ORGANISMO-1 es e.coli.
Esto me dio un CF acumulado de 0.47.
Despues use la Regla084 para concluir que la identidad de ORGANISMO-1 es un
e.coli. Esto me dio un CF acumulado de 0.55.
Finalmente use la Regla 003 para concluir que la identidad de ORGANISMO-1 es
un e.coli. Esto me dio un CF acumulado de 0.74.
(b) CUALES SON LOS ORGANISMOS ASOCIADOS CON EL TRACTO GAS-
TROINTESTINAL?
Los patogenos mas probables asociados con el tracto gastrointestinal son:
ENTEROCOCCUS, CLOSTRIDIUM.GANGRENE, BACTEROIDES, KLEBISEL-
LA, PSEUDOMONAS, E.COLI, ENTEROBACTER, PROTEUS.
En este ejemplo, la pregunta (a) hace referencia a una consulta especca, mientras
que la pregunta (b) es general y su respuesta fue tomada de la base de conocimien-
tos del sistema. Para preguntas del tipo (iii) la b usqueda a traves de la base de
conocimientos es dirigida por un simple parsing de la pregunta hacia un conjunto de
reglas, con restricciones hacia el contenido de las reglas. La recuperacion de reglas
relevantes esta guiada basicamente por listas previamente establecidas indicando los
contenidos (premisa-accion) de las reglas.
Ya que el proceso de consulta es esencialmente una b usqueda a traves de un arbol
de objetivos del tipo AND/OR, las peticiones durante una consulta caen de forma
natural en dos tipos: Porque una pregunta fue realizada?, y Como se llego a
284 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


una conclusion? La capacidad de explicacion del sistema para estos aspectos puede
verse en general como un proceso de arbol transversal. El enfoque fundamental del
sistema para realizar explicaciones es desplegar informacion de sus acciones internas,
es decir, un seguimiento de su razonamiento. El exito de esta tecnica es soportada
mencionando que el enfoque hacia el problema es lo sucientemente intuitivo para
que un resumen de estas acciones resulte una base razonable como punto de parti-
da. Mientras no es facil probar esta situacion de una manera formal, existen varios
factores que sugieren su plausibilidad.
Primero. Se manejo un dominio en el cual la deduccion como una forma de tratar
la incertidumbre, se convirtio en una tarea primaria. El uso de reglas de produccion
se observo como un enfoque natural de expresar aspectos del dominio, as como
desplegar tal informacion en lenguaje natural.
Segundo. El uso de estas reglas combinada con una forma de encadenamiento hacia
atras resulta en un esquema razonablemente intuitivo.
4. Programa de adquisicion del conocimiento. El objetivo de este componente
es la de extender la base de conocimientos. El campo de tratamiento clnico para
enfermedades infecciosas es grande y esta en constante cambio, esto ocasiona que la
base de conocimientos se considere cambiante. Asimismo, esto tambien causa que
describir totalmente el dominio a traves de un conjunto de reglas se convierta en
una tarea casi imposible. Para enfrentar estos aspectos, el sistema fue dise nado para
facilitar un enfoque de competencia incremental. Nueva investigacion en el dominio
produce nuevos resultados y por ende la modicacion de viejos principios, estos cam-
bios deben reejarse en la base de conocimientos. Este componente le permite a este
sistema actualizarse.
Asumciones basicas. Se van a indicar algunas asumciones que son explcitas e im-
plcitas en un sistema de produccion. Esto ayuda a sugerir el ambito de aplicacion
para estos sistemas, as como a mostrar sus fortalezas y debilidades. Aqu se muestra
el enfoque aplicado por Mycin.
Primero. No todos los dominios pueden ser representados por este formalismo. El
dominio a representar debe tener un cierto nivel de formalizacion, el cual incluya
un reconocido conjunto de primitivas y una mnima comprension de sus procesos
basicos.
Segundo. Se requiere un dominio donde exista un limitado orden de interaccion
4.4. CICLO DE VIDA DE UN SISTEMA DE PRODUCCI

ON 285
entre conceptos primitivos, los autores sugieren dos criterios para las interacciones:
(a) se debe considerar un n umero peque no de factores (6 como maximo) de forma
simultanea para activar una regla, (b) la ausencia o presencia de estos factores puede
ser establecida sin afectar de forma adversa a los demas.
Asimismo, algunas caractersticas del dominio van a inuir en el crecimiento de la
base de conocimiento. Donde exista un n umero limitado de atributos para un ob-
jeto dado, el crecimiento en el n umero de reglas en la base de conocimientos no
producira un crecimiento exponencial en el tiempo de b usqueda para la consulta
del sistema, ya que conforme se agreguen nuevas reglas, estas se mapearan a los
atributos ya establecidos. Por lo tanto, el uso de estas reglas en una consulta no
generaran nuevas ramas, ya que los atributos de sus premisas han sido ya estableci-
dos. Ademas, los autores asumen que un gran n umero de antecedentes en las reglas
no sera necesario, evitando con esto largas cadenas de deducciones. El manejo de
reglas del tipo Si Entonces, debe ser sucientemente simple, expresivo e intuiti-
vo de tal manera que provea de un lenguaje util para expresar las formalizaciones.
Finalmente, el modo de razonamiento del sistema (encadenamiento con modus po-
nens) debe mostrarse casi natural, de tal forma que un usuario pueda seguirlo sin
problemas.
Sistema de produccion 2. En este caso, el problema que intenta resolver este
sistema de produccion se relaciona con el control de traco en vas de ferrocarril.
Aunque es un problema de traco en vas de ferrocarril, el problema es similar para
el traco de otro tipo de vehculos (autos, camiones, trailers, etc.). Este ejemplo, se
tomo de Cesari Matilde [127].
Los sistemas de control de traco actuales son necesariamente complejos. Sin embar-
go, para este ejemplo se va a ilustrar el dise no de un sistema basado en reglas para
resolver un problema de control de traco muy simple. La Figura 4.16 muestra un
trazado de ferrocarril en el que varios trenes pueden circular en dos direcciones. El
sistema consta de cinco vas: S
1
, ..., S
5
, y 14 se nales de traco (U
1
, ..., U
8
, L
1
, ..., L
6
),
ocho de las cuales se muestran en la parte superior de la Figura y seis (L
1
, ..., L
6
)
en la parte inferior de la misma. Todos los objetos as como sus posibles valores se
muestran en la Tabla 4.10.
El objetivo del sistema es dise nar un conjunto de reglas que eviten la colision de los
trenes. Estas reglas pueden obtenerse como sigue:
1. Si la se nal de traco U
1
esta en color verde, entonces puede permitirse la salida
de un tren que este en la va S
1
y no debe permitirse la salida de los trenes de la va
286 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Figura 4.16: Figura que ilustra el trazado de ferrocarril con cinco vas, en el cual
se va a controlar el traco a traves de un sistema de reglas de produccion (cesari
matilde).
Cuadro 4.10: Objetos y sus correspondientes valores para el ejemplo del control de
traco ferroviario.
Objeto Valor
U
1
, ..., U
8
verde, rojo
L
1
, ..., L
6
verde, rojo
S
1
, ..., S
5
libre, ocupada
4.4. CICLO DE VIDA DE UN SISTEMA DE PRODUCCI

ON 287
S
2
, por lo que L
1
tiene que estar en rojo. El mismo razonamiento debe cumplirse
para las vas S
4
y S
5
. Esto da las dos primeras reglas de la Tabla 4.11. Notese que
si el motor de inferencia utiliza la regla de inferencia Modus Tol lens, estas reglas
garantizan tambien que cuando las se nales de la parte baja de las vas esten en
verde, las se nales de sus correspondientes partes superiores esten en rojo. Es decir,
las dos primeras reglas de la Tabla 4.11 implican las dos reglas siguientes:
Regla 1a: Si L
1
= verde entonces U
1
= rojo.
Regla 2a: Si L
6
= verde entonces U
6
= rojo.
Regla 1a: Si L
1
= verde, entonces U
1
= rojo.
Regla 2a: Si L
6
= verde, entonces U
6
= rojo.
2. Si la va S
1
esta ocupada, entonces la se nal U
2
debe estar en rojo para evitar que
un tren entre en la va ocupada. Similarmente, para las dem as vas. Esto da lugar a
las seis reglas adicionales (Reglas 3[8) en la Tabla 4.11.
3. Si ambas se nales U
3
y L
3
estan en rojo, entonces ning un tren puede salir de la
va S
1
. La misma condicion se aplica para las se nales U
5
y L
5
. Por lo que de ah se
deriva la Regla 9 (Si (U
3
= rojo y L
3
= rojo) o (U
5
= rojo o L
5
= rojo) entonces
U
1
= rojo). Las cinco reglas asociadas a las otras cinco vas pueden ser obtenidas
de forma analoga. Todas las reglas se muestran en la Tabla 4.11 como las Reglas
9 14.
4. Para evitar la colision de los trenes procedentes de las vas S
1
S
2
y S
4
S
5
,
resulta necesario la aplicacion de las Reglas 15 y 16.
5. Para evitar que las se nales de la parte alta y sus correspondientes se nales de la
parte baja esten simultaneamente en verde, es necesario incluir las Reglas 17 20
de la Tabla 4.11.
6. Finalmente, para evitar la colision de un tren de la va S
3
con un tren de las
otras cuatro vas, se requiere la aplicacion de las dos ultimas reglas mostradas en la
Tabla 4.11. De igual manera, para mantener la coherencia de los hechos, es necesario
actualizar automaticamente el conocimiento tan pronto como se conozca un nuevo
hecho o conclusion.
Sin duda alguna, los sistemas basados en reglas de produccion han mejorado en mu-
chos aspectos la vida cotidiana al ser integrados en una amplia variedad de aplica-
ciones. Desde la aparicion de sus primeros exponentes: MYCIN, DENDRAL, XCON,
288 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Cuadro 4.11: Figura que ilustra a los Objetos y sus correspondientes valores para el
ejemplo del control de traco ferroviario.
Regla Premisa Conclusion
Regla 1 U
1
= verde L
1
= rojo
Regla 2 U
2
= verde L
6
= rojo
Regla 3 S
1
= ocupada U
2
= rojo
Regla 4 S
2
= ocupada L
2
= rojo
Regla 5 S
3
= ocupada U
3
= rojo
Regla 6 S
3
= ocupada U
4
= rojo
Regla 7 S
4
= ocupada U
5
= rojo
Regla 8 S
5
= ocupada L
5
= rojo
Regla 9 (U
3
= rojo y L
3
= rojo) o U
1
= rojo
(U
5
= rojo y L
5
= rojo)
Regla 10 (U
3
= rojo y L
3
= rojo) o L
1
= rojo
(U
5
= rojo y L
5
= rojo)
Regla 11 (U
2
= rojo y L
2
= rojo) o U
6
= rojo
(U
4
= rojo y L
4
= rojo)
Regla 12 (U
2
= rojo y L
2
= rojo) o L
6
= rojo
(U
4
= rojo y L
4
= rojo)
Regla 13 (U
2
= rojo y L
2
= rojo) U
7
= rojo
Regla 14 U
5
= rojo y L
5
= rojo U
8
= rojo
Regla 15 U
3
= verde U
4
= rojo
Regla 16 L
3
= verde L
4
= rojo
Regla 17 U
2
= verde U
4
= rojo
Regla 18 U
3
= verde L
3
= rojo
Regla 19 U
4
= verde L
4
= rojo
Regla 20 U
5
= verde L
5
= rojo
Regla 21 U
1
= verde o L
1
= verde U
7
= rojo
Regla 22 U
6
= verde o L
6
= verde U
8
= rojo
4.5. EJERCICIOS 289
han sido de gran apoyo en las investigaciones de IA y lo seguiran siendo sin lugar
a dudas en el futuro. Sin embargo, como cualquier sistema hecho por el humano
esta propenso a tener sus pros y contras. A continuacion se muestran las ventajas y
desventajas de estos sistemas.
Ventajas de un sistema de produccion:
Se comprenden con facilidad.
la inferencia y explicacion se entienden facilmente.
Se pueden implementar aspectos de incertidumbre.
regla es independiente de las demas.
El mantenimiento y modicacion de este sistema es relativamente facil.
Desventajas:
Para representar un conocimiento complejo requiere la implementacion de
miles de reglas, lo cual representa un problema en el desarrollo del sistema.
Se necesitan establecer tecnicas de b usqueda en el programa de control.
Existe dependencia de reglas en casos de conocimiento complejo.
Se requiere amplio conocimiento del problema a representar asi como ex-
periencia en conocimiento complejo.
4.5. Ejercicios
a) En uno de los ejemplos mostrados, se usan dos objetos binarios A y B y
se da un ejemplo en el que la regla de inferencia Modus Tol lens expande
la base de conocimiento. Utilizando objetos no binarios, dar un ejemplo
similar. Por ejemplo, cuando A y B puedan tomar los valores 0,1,2.
b) En el procedimiento mostrado para el encadenamiento de reglas orientado
a un objetivo, se aplico Modus Ponens como motor de inferencia. Repita el
procedimiento, pero en este caso utilice como motor de inferencia Modus
Tol lens.
c) Aplique CLIPs con el n de integrar el sistema de control para el traco
de las vas ferroviarias.
d) En el problema de las Torres de Hanoi se tienen 3 postes A, B y C, as co-
mo n discos ahuecados de diferente tama no. Inicialmente, todos los discos
estan colocados en el poste A, con el disco de mayor tama no abajo y el de
menor tama no en el tope. El problema consiste en pasar todos los discos
(en ese orden) al poste C. Con las siguientes restricciones: (a) solamente
el disco que se encuentre en el tope de los postes puede ser movido, (b)
290 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


un disco de mayor tama no no se puede colocar encima de uno de menor
tama no. Mientras este problema se ha resuelto de forma elegente emple-
ando un enfoque recursivo, existe una solucion bajo un enfoque iterativo
menos conocido, como sigue: (a) Se colocan los postes en crculo, de tal
forma que en el sentido de las manecillas del reloj se tengan A, B, y C. Se
asume nunca mover el mismo disco dos veces en una la, por lo que solo
habra un disco que pueda ser legalmente movido y transferirlo al primer
poste que pueda ocupar, moviendolo en sentido de las manecillas del reloj
si n es par, y en sentido contrario si es impar. Denir un conjunto de
reglas de produccion que implemente este procedimiento. Inicialmente, la
memoria de trabajo tendra elementos (disco i en el poste A) para cada
disco i y un elemento (solucion). Cuando ya no haya reglas que activar,
se deberan tener (disci i en el poste C) para cada disco i y (hecho) en la
meoria de trabajo.
e) Considere las siguientes armaciones en lenguaje natural
Los estudiantes son siempre jovenes.
Los jovenes que estudian estan solteros.
Los estudiantes que trabajan estan casados.
Los estudiantes del Seminario, aunque trabajen, estan solteros.
Las personas independientes estan solteras.
Soltero y casado son estados incompatibles.
Mara estudia, y Jorge esta casado.
Natalia estudia losofa, es independiente pero le gusta Daniel.
Represente este conocimiento en PROLOG. Seg un esta base de conocimien-
tos, Podra casarse Mara con Daniel?
f ) Clasicacion de Peces. Dadas las siguientes reglas:
R1.- Si el pez tiene la boca peque na y dientes puntiagudos y vive en ros
de muchas partes del mundo ENTONCES estamos hablando de un ejem-
plar del orden de los Ciprinodontiformes.
R2.- Si tenemos un individuo del orden de los Ciprinodontiformes y que
vive en los ros de America del Sur y que en el caso de ser macho posee
Gonopodio ENTONCES el pez es de la familia de los Poecilidos y la hem-
bra es 3 cm. mas grande que el macho.
R3.- Si tenemos un individuo del orden de los Ciprinodontiformes y que
vive en los ros de America del Sur y que es hembra ENTONCES el pez
es de la familia de los Poecilidos y el macho es 3 cm. mas peque no que la
hembra.
R4.- Si tenemos un individuo de la familia de los Poecilidos que tiene
4.5. EJERCICIOS 291
manchas a lo largo del cuerpo ENTONCES estamos ante un pez de la
raza de la Gambusia anis. R5.- Si tenemos un individuo de la familia
de los Poecilidos que tiene color gris y rayas verdes a lo largo del cuerpo
ENTONCES tenemos un ejemplar de raza de Gambusia Punctata.
R6.- Si el pez es de tama no medio, tiene dientes puntiagudos, vive en ros
de todo el mundo y posee canales labernticos para respirar fuera del agua
ENTONCES pertence al orden de los anabatidos.
R7.- Si el pez es del orden de los anabatidos, es de color azul, tiene
rayas rojas y vive en ros de Asia ENTONCES tenemos un pez de la
raza luchadores de Sian.
R8.- Si el pez es del orden de los anabatidos, mide 25 cm., no tiene rayas
ENTONCES es una perca trepadora.
R9.- Si el pez tiene la boca peque na, vive en ros de todo el mundo tiene
la cola redondeada ENTONCES es un ejemplar del orden de los Ciclidos.
R10.- Si el pez es del orden de los Ciclios, vive en los ros de Africa y es
de color rojo con manchas negras ENTONCES es pez joya.
Modela el problema con un sistema de produccion basado en Prolog.
g) Clasicacion de Animales. Supongase la siguiente Base de Reglas:
R1: Si un animal tiene pelo, entonces es mamfero
R2: Si un animal da leche, entonces es mamfero
R3: Si un animal tiene plumas es un ave
R4: si un animal vuela y pone huevos, es ave
R5: Si un animal come carne, es carnvoro
R6: Si un animal tiene dientes puntiagudos, tiene garras, tiene ojos al
frente es carnvoro
R7: Si un animal mamfero tiene pezu nas es una ungulado
R8: Si un animal mamfero rumia es un ungulado
R9: Si un animal mamfero y carnvoro tiene color leonado con manchas
oscuras se trata de un leopardo
R10: Si un animal mamfero y carnvoro tiene color leonado con rayas
negras es un tigre
R11: Si un animal ungulado con cuello largo y piernas largas tienen man-
chas oscuras es una jirafa
R12: Si un animal es un ungulado con rayas negras es una cebra
R13: Si un animal es ave y no vuela y tiene el cuello largo y piernas largas
de color blanco y negro es un avestruz
R14: Si un animal es ave, no vuela, nada, de color blanco y negro, se trata
de un ping uino
R15: Si es un ave que vuela bien, es un albatros
R16: Si un animal es de una especie y ese animal es padre de otro, en-
292 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


tonces el hijo es de la misma especie.
Y la siguiente base de hechos:
(animal robbie)
(robbie manchas oscuras)
(robbie come carne)
(suzie tiene plumas)
(suzie vuela bien)
Modeliza este problema con un sistema de reglas de produccion basado en
Prolog. Que se puede decir de Robbie?
h) Se desea modelar el conocimiento de un experto ginecologo en cesareas.
Dicho conocimiento se ha extraido por medio de tres entrevistas para la
realizacion de un sistema experto que ayude al medico en la toma de la
decision del tipo de cesarea a realizar.
Se sabe que existen dos tipos de cesareas: las previstas de antemano y las
improvisadas durante el parto.
Las cesareas previstas de antemano se producen cuando se dan alguna de
las siguientes circunstancias:
1) El bebe esta en posicion podalica
2) La futura madre padece durante el embarazo alguna de las dos enfer-
medades siguientes: gestosisi o diabetes gravdica. 3) La placenta esta en
posicion previacentral.
4) La madre tiene problemas de corazon, renales o graves infecciones en
vas genitales.
En otros casos, la cesarea se improvisa durante el parto. Se produce cuan-
do:
a) La cabeza del ni no es demasiado grande y no cabe por el canal del
parto.
b) La cabeza del ni no no esta encajada correctamente en el canal del par-
to.
c) Existe sufrimiento fetal. Lo cual signica que el ritmo cardiaco del
bebe ya no es regular o que empieza a expulsar meconio.
d) La placenta se desprende.
Existen tres tipos de incision. Si la cesarea no esta programada y la pla-
centa se ha desprendido, se realiza una incision Umblico p ubica. En el
4.5. EJERCICIOS 293
resto de los casos se realiza una cesarea del tipo transversal baja o de Joel
Coell. Se posee la siguiente informacion sobre cada tipo de incision:
i)

Umblico p ubica. Es vertical, empieza debajo del ombligo y termina en
el pubis. La cicatriz es visible y grande.
ii) Transversal baja. Es horizontal, la cicatriz no es visible.
iii) De Joel Coell. Es horizontal.
Con independencia del tipo de incision que se realice, las fases de la in-
tervencion siempre suceden de la misma forma y en el siguiente orden:
Cortar, extraer al ni no, extraer la placenta, y suturar la herida.
Realice lo siguiente:
Construir la base de reglas que modelice dichos conocimientos en un sis-
tema de produccion basado en Prolog.
294 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Captulo 5
Aplicaciones con tecnicas de IA
To boldly go where no map has gone before
En el Captulo 1, se mostro un panorama general de las principales tecnicas en las
que se apoya la IA. Entre estas tecnicas destacan las siguientes: robotica, sistemas
expertos, logica difusa, redes neuronales, vision computacional, y procesamiento del
lenguaje natural. En cada uno de estos formalismos, se mostraron aspectos muy
generales relacionados con su origen, denicion, y principales campos de aplicacion.
Asimismo, en la mayora de estas areas se mostraron algunos de los actuales grupos
de investigacion y los principales foros academicos relacionados con las mismas. En
este Captulo, se van a describir en mayor detalle cada una de estas areas de trabajo,
desde un enfoque tal, que permita dejar en claro aspectos relacionados con sus con-
ceptos basicos, algunos criterios de clasicacion, y principales grupos de desarrollo
relacionados con la misma. La intencion del enfoque, es proporcionar al estudiante
el conocimiento basico relacionado con las diferentes areas de trabajo relacionadas
con la IA, y en base al conocimiento adquirido, bosquejar el dise no de un proyecto
que pueda ser utilizable en su campo de interes. A continuacion se van a describir
los principales campos de trabajo relacionados con la IA.
5.1. Robotica
La robotica es una disciplina que combina todas aquellas actividades relacionadas
con el estudio, dise no, construccion, operacion y mantenimiento de robots. Es un
campo de trabajo que combina recursos de vanguardia de diferentes disciplinas co-
mo Ingeniera Electrica, Ingeniera Electronica, Ingeniera Mecanica, Ciencias de la
Computacion, Matematicas, Fsica, Biologa, Ciencias cognitivas, y Neurociencias
295
296 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
entre otras.
De acuerdo con la Asociacion Britanica de Robotica (BRA, por sus siglas en ingles),
un robot es un mecanismo reprogramable con un mnimo de cuatro grados de
libertad (DoF, por sus siglas en ingles) dise nado para manipular y transportar partes,
herramientas o implementar manufactura especializada a traves de movimientos
programados para la ejecucion de tareas especicas de manufactura

.
Desde sus inicios a mediados de 1700 cuando J. de Vaucason construyo varias
mu necas mecanicas de tama no humano que tocaban m usica hasta nuestros das,
la robotica ha recorrido un camino que se ha visto marcado por un gran desarrollo,
mismo que ha impactado de diferentes formas la vida cotidiana. Sin embargo, la
robotica reconocida como una nueva tecnologa surgio en la decada de 1960. Han
transcurrido pocos a nos y el interes que ha despertado, desborda cualquier pre-
vision. Quizas, al nacer la robotica en la era de la informacion

, una propaganda
desmedida genero una imagen irreal a nivel popular lo mismo que sucedio con
el microprocesador, sin embargo, en nuestros das, la miticacion de esta nueva
maquina, dio paso a un sistema con caractersticas reales, que ha apoyado el que-
hacer humano en una gran variedad de tareas. El auge de la Robotica y la imperiosa
necesidad de su implantacion en numerosas instalaciones, requiere la participacion
de un buen n umero de especialistas en la materia.
Al ser la robotica una disciplina que ha mantenido un desarrollo constante y una in-
uencia notable en nuestras vidas, las instituciones educativas han visto la necesidad
de incluirla en sus curriculas a diferentes niveles: licenciatura, maestra y doctorado.
Asimismo, se han formado cursos a nivel tecnico, y se ha visto su integracion en
varios talleres.
En esta seccion se van a mostrar los principales aspectos relacionados con esta dis-
ciplina iniciando con sus conceptos basicos.
5.1.1. Conceptos basicos
Un robot, es un mecanismo formado por partes mecanicas, electricas, y electronicas.
Y dependiendo del ambiente donde se vaya a utilizar, puede incorporar una var-
iedad de caractersticas, tales como: elementos de desplazamiento, mecanismos para
la deteccion y reconocimiento de objetos, brazos articulados para la manipulacion
de, y un sistema de control para coordinar la operacion de sus componentes. En
5.1. ROB

OTICA 297
esta seccion se van a describir los principales componentes y caractersticas que con-
stituyen a un robot y que le proporcionan la capacidad para realizar diferentes tareas.
Sistema de control. Este componente se encarga de coordinar la percepcion y ac-
tuacion de un robot. La complejidad de este componente vara en funcion de varios
aspectos tales como: tareas que pueda realizar, entorno donde va a operar, y man-
eras de desplazamiento entre otros. El sistema de control, se puede comparar con
el cerebro humano, en este componente se reciben las se nales provenientes de los
sensores, se procesan, y se envan en forma de comandos de control a las salidas del
sistema. Generalmente, el sistema de control reside en una computadora o microcon-
trolador, con su respectiva memoria de estado solido en la cual reside el programa.
Las distintas se nales de entrada y salida en un robot, proveen una interfaz entre el
sistema de control, el ambiente de operacion, y el efector (elemento que afecta el
ambiente de operacion).
En base al comportamiento requerido del robot, el sistema de control puede manejar
diferentes estrategias para lograrlo, entre las principales estan las siguientes.
Figura etapasdelrobot. En este diagrama se ilustra el mecanismo de operacion de
un robot. El proceso inicia desde que la informacion del entorno entra en forma
de datos por los sensores, es interpretada, y hasta que sale en forma de comandos
(se nales de control) hacia los actuadores.
Control reactivo. Este tipo de control se basa en un conjunto de reglas que mane-
ja las se nales de entrada y las transforma en acciones de salida, es un caso tpico
de estmulo respuesta. Tiene la ventaja de ser muy rapido, sin embargo, tiene la
desventaja de no planicar y tampoco de aprender. Se utiliza en sistemas roboticos
que realizan tareas simples.
Control deliberativo. A diferencia del control reactivo, el control deliberativo
tiene la caracterstica de planicar, es decir, esta basado en el modelo clasico de:
sensar planicar actuar. Bajo este esquema de control, se tiene la ventaja de
seleccionar la mejor accion en base a la informacion de entrada y al objetivo de
la tarea a realizar, esto hace que sea mas eciente que la estrategia reactiva. Sin
embargo, la caracterstica de planicacion requiere mecanismos de b usqueda, los
cuales en la mayora de las veces no son rapidos, ademas la b usqueda necesita tener
un modelo del mundo, el cual en ocasiones se vuelve obsoleto, hace que un sistema
robotico que opera con esta estrategia sea algo lento.
Control hbrido. Es un mecanismo de control que busca integrar las ventajas de
los esquemas anteriores, es decir, que tenga rapidez de respuesta, y que responda de
la mejor forma posible considerando la informacion actual del entorno. Este control
298 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
generalmente se estructura en tres capas: la capa inferior tiene una estrategia de
control reactiva, la superior una estrategia deliberativa, y posee una capa interme-
dia que conecta las dos anteriores. las3 capas operan de forma concurrente.
Control basado en la conducta. Este mecanismo de control es considerado como
una alternativa al sistema hbrido pero sin la capa intermedia. La diferencia, es que
posee la caracterstica de actuar en forma reactiva y deliberativa. La facilidad de
manejar una escala temporal para todo el sistema lo habilita para el manejo de con-
ductas concurrentes, tales como las requeridas para sistemas que trabajan en equipo.
Independientemente de las estrategias mencionadas, las cuales son generales, algunos
tipos de robot utilizan esquemas de control particulares, por ejemplo, los robots in-
dustriales manejan esquemas de control considerando aspectos como la posicion,
velocidad, y precision entre otros.
Sensores. El siguiente componente importante que poseen la gran mayora de los
sistemas roboticos son los sensores, los cuales son dispositivos que miden cantidades
fsicas. Los sensores permiten que los robots puedan recibir y percibir informacion
del entorno. Su funcion es similar a la de nuestros sentidos. El tipo de sensor(es)
que se implementa(n) en cada robot dependera de la propiedad fsica que se necesita
medir. Por ejemplo, para que un robot sea capaz de medir y conocer la distancia
a objetos que estan a su alrededor, se pueden utilizar sensores con tecnologa ul-
trasonica, radar, o infrarrojos; si la intencion es detectar (percibir) a seres vivos
se pueden emplear sensores de temperatura de tipo termico o infrarrojos; por otro
lado, si la intencion es dotar de ojos al robot, con el n de que pueda percibir y re-
conocer formas complejas tales como personas, entonces se pueden utilizar camaras
o videocamaras, las cuales permiten medir el nivel de luz. De esta manera, existe
una diversidad de sensores, donde su complejidad vara en relacion a la cantidad
de informacion que entregan. Por ejemplo, un switch entrega informacion de tipo
binaria, al contrario, una camara puede entregar una gran cantidad de informacion,
la cual depende del tipo de resolucion que maneje (256x256, 512x640, 1024x1024
pxeles). La informacion que entra a traves de los sensores debe ser procesada con el
n de que pueda ser comprensible al sistema robotico. Este procesamiento involucra
tecnicas de digitalizacion o ltrado de se nales. Independientemente de como se real-
ice el procesado de las se nales, el manejo de los sensores puede ser de manera pasiva
o activa. Un sensor es pasivo cuando solamente capta la informaci on ambiental, por
ejemplo, un sensor de temperatura. Por otro lado, se dice que un sensor es activo
cuando tiene la capacidad de moverse y buscar objetos de interes, por ejemplo, una
camara de vdeo, que es controlada para buscar humanos en su entorno. El tipo de
percepcion que puede tener un robot se divide en dos: i) propiopercepcion, cuando
5.1. ROB

OTICA 299
posee la caracterstica de medir estados internos, por ejemplo: la tension muscular,
y la posicion de un motor, y ii) exteropercepcion, es el caso opuesto al anterior, es
decir, mide los estados externos tales como la vision y la audicion.
Efectores y Actuadores. A veces se manejan estos conceptos como sinonimos, sin
embargo son distintos. Se le denomina efector a todo elemento terminal que forma
parte de un sistema robotico y que tiene la caracterstica de afectar o modicar
el entorno, por ejemplo: brazos, dedos, pinzas, ganchos, electroimanes, patas, dis-
positivos de medicion, y ruedas. La realizacion de distintos tipos de movimientos
que son permitidos en las uniones individuales del efector, son referidos como gra-
dos de libertad (DoF). Estos componentes generalmente son hechos a la medida de
los requerimientos de la aplicacion, los cuales dependen de aspectos como: carga
de trabajo, ambiente de operacion, conabilidad, y costo. Los efectores dividen a
los robots en dos grandes grupos: robots moviles y robots manipuladores. Por otro
lado, un actuador es el mecanismo que le permite al efector realizar una accion.
Generalmente, los actuadores en un sistema robotico son uno de los siguientes: mo-
tores electricos (servomotores, de paso, de corriente continua), cilindros neumaticos,
y cilindros hidraulicos.
Ademas de los componentes mencionados existen otros aspectos que no son menos
importantes tales como: programacion de robots, comunicaciones, y suministro de
energa.
Programacion de robots. Lo que hace que un sistema robotico tenga un compor-
tamiento (determinado por la secuencia de acciones que ejecuta), apropiado en un
entorno determinado, es un programa de computadora. La programacion de robots
requiere de una plataforma computacional con requisitos propios. Esta plataforma
requiere de sistemas operativos los cuales pueden ser especcos (BrickOS, P2OS,
AROS, APERTOS) o generales (Linux, MS-Windows). Cada robot tiene su propio
entorno de software, y su programacion se realiza utilizando lenguajes de progra-
macion de bajo y alto nivel. Los lenguajes utilizados en la programacion de robots
son generalmente C, C++, y cuando se requiere tambien se programa en lenguaje
ensamblador con un conjunto de instrucciones acorde al microprocesador emplea-
do. En unidades roboticas peque nas (robots de entretenimiento y algunos de uso
domestico) el programa se encuentra almacenado en la memoria del microproce-
sador o microcontrolador, el cual generalmente se encuentra integrado (embebido)
en el robot. En unidades roboticas medianas (robots de servicio, unidades de lab-
oratorio) y grandes (robots industriales, robots de exploracion, de uso militar, y
algunas unidades roboticas quir urgicas) el programa que se encarga de controlarlos
generalmente se encuentra en unidades portatiles o en unidades jas. En la progra-
300 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
macion de robots industriales, generalmente se emplea una computadora ja para
su programacion as como una caja de comandos (ense na las posiciones al efector del
robot) separada, la cual se enlaza con la computadora, lo mismo que otros elemen-
tos de comunicacion y control (servomotores, encoders). En muchas aplicaciones,
la plataforma de programacion requiere de una capa de software intermedio cono-
cida como middleware la cual funciona como una interfaz entre el programador y
el sistema operativo. La existencia de middleware es com un cuando se desarrollan
aplicaciones distribuidas, lo cual ocurre cuando se trabaja en sistemas roboticos que
trabajan en equipo de forma cooperativa y/o colaborativa.
Comunicaciones. El aspecto de la comunicacion en un sistema robotico es de im-
portancia para su buen desempe no. Esta puede ser de dos tipos: i) comunicacion
con humanos, la cual se realiza a traves de interfaces de usuario, y ii) comunicacion
con sistemas no humanos, la cual se realiza a traves de otros sistemas roboticos o
computadoras.
Suministro de energa. La fuente de energa, se encarga de proporcionar y reg-
ular la energa requerida por las diferentes partes del sistema robotico. La energa
utilizada puede ser de los siguientes tipos: electrica, neum atica, o hidraulica.
Aunque los componentes que forman a los robots no son exclusivos de estos (maquinas
herramientas y otros sistemas mecanicos emplean tecnologas semejantes), las altas
prestaciones que se exigen a los robots es lo que marca la diferencia entre ellos y
sistemas similares.
Locomocion robotica. El aspecto de locomocion, desplazamiento, o navegacion
de un robot se reere a la secuencia de acciones realizadas principalmente por los
efectores y que tienen como objetivo cambiar la posicion del robot de un punto ini-
cial a un punto nal. Antes de describir la locomocion en robots, se van a mencionar
algunos conceptos de la fsica que intervienen en este proceso, tales conceptos son
la cinetica, cinematica, DoF, y la dinamica.
Cinematica y cinetica. La cinematica es la rama de la fsica que nos ayuda a
comprender los movimientos (lineal y angular) que realiza un robot al desplazarse
por su entorno. Asimismo, la cinematica se encarga del analisis del movimiento sin
considerar las fuerzas que intevienen en el mismo. En este analisis, se contemplan
ademas las derivadas del movimiento con respecto al tiempo, es decir, velocidady
aceleraci on, incluso derivadas de orden superior. Por su parte, la cinetica involucra
fuerzas, torques, energa, momentos de inercia, masa, equilibrio, estabilidad, etc. La
5.1. ROB

OTICA 301
Figura 5.1: Ilustracion de grados de libertad (DoF): (a) Representa 6 grados de
libertad en el movimiento espacial donde 3 corresponden a traslacion (T1, T2, T3)
y 3 corresponden a rotacion (R1,R2,R3), (b) muestra 5 movimientos de rotacion en
sus articulaciones sumando un total de 15 DoF.
cinematica y cinetica al integrarse forman la dinamica, la cual se encarga de estu-
diar el movimiento considerando las fuerzas (energa y velocidad) que intervienen.
Resulta claro que estas ramas de la fsica, desempe nan un papel muy importante
en el desarrollo de la robotica ya que intervienen principalmente en aspectos tanto
de navegacion como de manipulacion de objetos. A continuacion se va a abordar lo
relacionado con DoF y posteriormente se va a mencionar nuevamente aspectos de la
cinematica en los robots.
Grados de libertad (DoF). El DoF determina la capacidad de movimiento o
rotacion de un objeto a lo largo de un eje. Un sistema mecanico tiene un DOF = 1
si su posicion geometrica se determina completamente en cualquier instante por una
sola variable. En general un objeto que se mueve libremente en el espacio tiene 6
DoF: tres de traslacion (x,y,z) y tres de orientacion/rotacion tal como se muestra
en la Figura 5.1(a), a su vez, en la Figura 5.1(b) se muestra un brazo robotico ar-
ticulado mostrando los movimientos que realiza en cada articulacion, en este caso
se trata solo de movimientos de rotacion. En el caso de estos brazos roboticos, cada
articulacion provee un grado de libertad (se requieren 6 para ubicar un manipulador
en cualquier posicion y orientacion). Los robots moviles generalmente realizan un
movimiento de desplazamiento en un plano (x y) y otro de rotacion.
Movimiento de un robot. Para entender el aspecto relacionado con el desplaza-
miento de un robot debemos tomar en consideracion los tipos de cinematica:(1)
cinematica directa, donde se trata de obtener la posicion nal del robot, teniendo
302 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.2: Novedosos mecanismos de locomocion en robots: (a) Arrastrarse, (b)
Correr, y (c) Caminar.
como informacion de entrada la posicion inicial y la secuencia de movimientos que
el robot va a realizar, y (2) cinematica inversa, en este caso se intenta obtener la
secuencia de movimientos que debe realizar un robot, para trasladarlo de una posi-
cion inicial a una posicion nal, en este caso, se da como informacion de entrada
la posicion inicial y nal del robot. El movimiento que realiza un robot general-
mente imita al de organismos biologicos, los casos mas comunes son los siguientes:
(a) Arrastrarse, el robot realiza movimientos semejantes a los de un gusano o una
serpiente (ver Figura 5.2(a), (b) Correr, en este caso el movimiento del robot simula
a los de un animal cuadr upedo tal como un perro o un felino (ver Figura 5.2(b)), (c)
Brincar, cuando el movimiento del robot se realiza en base a saltos o brincos similar
a los de un canguro, y (d) Caminar, este movimiento basicamente es realizado por
robots que semejan caractersticas humanas (cabeza, tronco, brazos, piernas) los
cuales son conocidos como humanoides o androides (ver Figura 5.2(c)). Aunque mu-
chos sistemas roboticos utilizan novedosos mecanismos de desplazamiento imitando
organismos vivientes, otros lo hacen basandose en tecnologas ya existentes, tales
como: vehculos automotrices, aeroplanos, y submarinos.
Actualmente existe un gran n umero de robots que utilizan como forma de desplaza-
miento las ruedas. La razon de ello es que son mas simples y faciles de construir,
poseen mejor capacidad de carga, y buena estabilidad. Sin embargo, generalmente
5.1. ROB

OTICA 303
Figura 5.3: Ilustracion que muestra un robot que se desplaza en un terreno acciden-
tado utilizando 3 pares de ruedas sobre ejes articulados.
limitan su uso a terrenos planos, aunque existen dise nos actuales donde los ejes que
unen las llantas son articulados, haciendo que estos robots se desplacen en terrenos
accidentados, tal como se muestra en la Figura 5.3.
Cuando el robot se desplaza a traves de ruedas, estas pueden congurarse de distin-
tas formas, tales como: (a) dos ruedas, un ejemplo de robots que utilizan dos ruedas
para desplazarse son los robots tipo bicicleta y diferencial, (b) tres ruedas, el triciclo
con traccion trasera y delantera, es un ejemplo de robot que se desplaza utilizando 3
ruedas, (c) cuando el n umero de ruedas que utiliza el robot es de cuatro, da origen a
los siguientes casos: carro con traccion trasera, carro con traccion delantera, cuatro
ruedas omnidireccionales, y (d) cuando el robot utiliza seis ruedas generalmemte
emplea cuatro omnidireccionales y dos de traccion al centro. A continuacion se van
a describir de manera general cada uno de los tipos de conguraciones de ruedas
mencionados [131].
Diferencial. Esta conguracion es una de las mas sencillas encontradas en robots
moviles, consiste generalmente en dos ruedas conectadas por un eje com un, donde
cada rueda puede controlarse de forma independiente. Los movimientos permitidos
por esta conguracion son en lnea recta, en arco y alrededor de su eje. Asimismo,
y con el n de mantener el balance, puede utilizar una o dos ruedas adicionales (ver
Figura 5.4). Este esquema cuenta tambien con las versiones de tres ruedas conoci-
da como triangulo la cual presenta problemas de estabilidad y la version de cuatro
ruedas conocida como diamante, esta requiere de un sistema de suspension ya que
304 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.4: Ilustracion de un robot que utiliza una conguracion diferencial, a la
derecha encerrado entre crculos pueden verse las versiones con una y dos ruedas
adicionales marcadas en color cafe.
presenta el problema de perdida de contacto en las ruedas que realizan la traccion.
Otro aspecto que se debe tomar en cuenta en esta conguracion, es que para realizar
un movimiento rectilneo hay que asegurarse que las ruedas se muevan a la misma
velocidad, para ello es necesario disponer de un sistema de control dinamico con
retroalimentacion.
Sncrono. En esta conguracion, todas las ruedas (usualmente tres) se mueven en
forma sncrona para dar vuelta y avanzar. Las tres ruedes deben estar conectadas
de forma tal que siempre apunten a la misma direccion. Para moverse en crculo las
ruedas deben girarse sobre el eje vertical por lo que debe mantenerse la direccion
del chasis, para esto se requiere de un mecanismo adicional con el n de mantener
el frente del chasis en la misma direccion de las ruedas. Con esta conguracion se
evitan los problemas de inestabilidad y perdida de contacto del diferencial, sin em-
bargo, tiene una mayor complejidad mecanica.
Triciclo. En la conguracion estilo triciclo, se cuenta con un par de ruedas jas
que se utilizan para la traccion y una rueda con mayor libertad de movimiento gen-
eralmente delante de las dos anteriores que se utiliza para darle direccion, la cual
normalmente no tiene la capacidad de traccion. Las caractersticas favorables de
5.1. ROB

OTICA 305
Figura 5.5: Ilustracion de la conguracion estilo triciclo, en la que puede observarse
a la derecha y encerrado en un crculo la disposicion de las ruedas.
Figura 5.6: Ilustracion de la conguracion tipo carro, a la derecha se muestra (encer-
rada en un crculo) la disposicion de las ruedas, donde se observa que un par de
ruedas se mantiene ja y el otro par dispone de una mayor libertad de movimiento.
esta conguracion es que proporciona al robot de buena estabilidad y simplicidad
mecanica, as como una mayor facilidad para moverse en lnea recta, sin embargo,
su cinematica es mas compleja. En la Figura 5.5 se muestra una imagen de esta
conguracion.
Carro. La conguracion tipo carro cuenta con cuatro ruedas, donde, los dos pares
de dos ruedas se mantienen unidas por un eje . Un par de ruedas se utilizan para
la traccion y el otro par de ruedas con libertad de movimiento se utilizan para la
direccion. Este esquema tiene una mayor complejidad mecanica en comparacion con
el tipo triciclo debido al acoplamiento entre el par de ruedas utilizadas para la direc-
cion. Entre las caractersticas favorables que posee este esquema es la disposicion de
una buena estabilidad y facilidad de movimiento en lnea recta, sin embargo, tiene
una mayor complejidad cinematica. En la Figura 5.6 se ilustra esta conguracion en
un robot, asmismo se muestra la disposicion de las ruedas.
Con respecto al movimiento de un robot movil a traves de sus ruedas, este normal-
mente cuenta con tres grados de libertad con respecto a una referencia. Tal referencia
es la posicion en el plano cartesiano (X, Y) y una orientacion ()(verFigura5.7).Demaneraideal, independientementededondeinicieel
306 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.7: Ilustracion que muestra el desplazamiento de
un robot movil con respecto a un eje de referencia
(X
1
, Y
1
), enlafiguraseaprecianlasruedasdelrobotunidasporunejeenmediodelcualsetrazaelorigendel
con lo cual queda denida su posicion (X, Y, ) en el plano cartesiano [131].
Forma. Otro aspecto basico que resulta interesante sobretodo en la navegacion tiene
que ver con la forma del robot, esta caracterstica del robot es de particular interes
cuando el ambiente en el que se desplaza el robot tiene obstaculos y pasillos angostos.
Cuando el escenario presenta estas caractersticas, los robots con forma cilndrica
tienen mas facilidad para moverse debido a su simetra, ya que el espacio de congu-
raciones (Espacio n-dimensional donde se ubica cada grado de libertad del robot)
se reduce a un plano (2D). Sin embargo, cuando el robot tiene forma cuadrada su
desplazamiento resulta mas complicado, ya que en este caso se tiene que considerar
la orientacion del robot, por lo que su espacio de conguraciones es un espacio de 3D.
Robots con patas. El dise no, construccion y control de robots que se desplazan
utilizando patas resulta mas complicado que los que emplean ruedas (ver Figura
??(a)). Sin embargo, ofrecen la ventaja de su versatilidad para desplazarse en una
mayor variedad de terrenos. Existen versiones con 2, 4 y 6 patas, donde tambien
se observan variaciones en el dise no de las mismas, uno de los dise nos de patas
mas comunes son las patas tipo insecto (ver Figura5.8(b)). En estos robots, la
pata consiste de un segmento con dos motores que le proporcionan dos grados
de libertad, los cuales son los siguientes: (i) movimiento de fuera hacia adentro
5.1. ROB

OTICA 307
Figura 5.8: Ilustracion de un robot que se desplaza con patas: (a) tipos de movimiento
que realiza un robot que se desplaza a traves de patas tipo insecto, (b) disposicion
de 6 patas tipo insecto.
(M
1
)(verFigura5.8(a)), elcualesrealizadotomandocomoreferenciaelcuerpodelrobot, y(ii)movimientodeadel
M
1
M
2
M
1
M
2
.Esdecir, primeroserealizaunmovimientodelapataalej andoladelcuerpo(M
1
)
5.1.2. Clasicacion
Los robots pueden clasicarse tomando como base diferentes aspectos tales como:
aplicacion, locomocion, generacion, inteligencia, y grados de libertad etc. En esta
seccion se va a mostrar una forma para clasicar a los robots basandonos en su
aplicacion. Considerando las caractersticas que tiene un robot en base al trabajo
que va a realizar, estos se clasican en los siguientes tipos:
Industriales. Aunque existen diferentes deniciones para un robot industrial, la
mayora de ellas coinciden en que se trata de una maquina con capacidad de ma-
nipulacion automatica de piezas y/o herramientas para la realizacion de diferentes
tareas en un proceso industrial, ya sea en una posicion ja o en movimiento, re-
programable y multifuncional, con tres o mas ejes con varios DoF. Las tareas que
realizan este tipo de robots, generalmente incluyen entre otras las siguientes: fab-
ricacion, ensamble, manipulacion, inspeccion, y transportacion. En la Figura 5.9 se
muestra un grupo de robots que tienen como tarea el ensamble de partes automotri-
ces. Los robots industriales, en la actualidad, son con mucho, los mas frecuentemente
utilizados en la mayora de los procesos productivos, siendo Japon y Estados Unidos
los pases que lideran la fabricacion y uso de este tipo de tecnologa. Algunos aspectos
que motivan el uso de este tipo de robots son los siguientes:
Fabricar productos de manera economica.
308 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.9: Ilustracion que muestra a un grupo de robots trabajando en el ensamble
de piezas.
Que los productos sean de calidad.
Que de un mismo producto se puedan elegir muchas opciones.
Realizacion de tareas en ambientes peligrosos.
1. Clasicacion del robot industrial. Con la evolucion del microprocesador,
as como de otros componentes mecanicos y electronicos, el robot industrial paso de
ser una maquina rgida a una con mayor exibilidad y capacidad de uso. Esta evolu-
cion ha generado que estos sistemas roboticos se clasiquen en los siguientes tipos:
(i) Brazos Manipuladores. Son sistemas mecanicos, como los mostrados en la
gura 5.9, los cuales pueden ser programados para realizar distintas tareas. Gen-
eralmente, cuentan con un sistema de control simple que les permite la movilidad
de sus partes de forma manual, automatica, o semiautomatica.
(ii) Robots con capacidad de aprendizaje. El aprendizaje es uno de los cam-
pos relevantes dentro de la IA, ya que al ser este una caracterstica distintiva de la
inteligencia, el desarrollo de algoritmos que permitan replicar esta habilidad en las
maquinas es de gran interes cientco. Al ser los robots, sistemas que han evoluciona-
do al igual que los avances tecnologicos, se les ha dotado de varias caractersticas
de IA con la nalidad de hacerlos cada vez mas utiles a los humanos. La forma de
aprendizaje que generalmente se ha incorporado en estos sistemas es a traves de
observar y repetir, es decir, el robot observa al humano realizar una tarea y posteri-
5.1. ROB

OTICA 309
ormente el la repite, a este tipo de programacion se le conoce como programacion
basada en gestos. Actualmente, solo se limitan a repetir secuencias de movimientos
o acciones previamente mostradas.
(iii) Robots controlados por computadora. Este tipo de sistemas roboticos
son controlados a traves de una computadora, la cual es programada utilizando un
lenguaje de programacion especco para este n. Las diferentes tareas que pueda
realizar este tipo de maquinas son indicadas a traves de una terminal. Este robot,
ofrece grandes ventajas en contraparte a otros sistemas manuales, sin embargo, re-
quiere de personal calicado para su programacion.
(iv) Robots Inteligentes. Actualmente, este tipo de robots se encuentran en fase
experimental. Se busca que estos sistemas tengan la capacidad de reconocer el am-
biente que le rodea y actuar de acuerdo a las tareas que debe realizar en tal es-
cenario. Las caractersticas que se busca en este tipo de sistemas, son las mismas
que busca el paradigma de programacion orientada a agentes. Es decir, entre otras,
tener la capacidad de autonoma, trabajo en equipo y toma de decisiones en tiempo
real. Los trabajos de investigacion relacionados con este tipo de sistemas integra
varias disciplinas entre las que se incluyen: vision articial, sistemas multiagentes,
y aprendizaje.
(v) Micro y nanorobots. Con el avance en el area de micro y nanotecnologas,
actualmente se estan realizando trabajos con el n de dise nar mecanismos roboticos
con esta escala, que puedan tener una variedad de aplicaciones (medicina, educa-
cional, investigacion).
Con respecto a robots industriales, el a no 2011 ha sido el mas exitoso en 50 a nos,
desde la primera instalacion del primer robot industrial en 1961, ya que mas de 2.3
millones de unidades han sido vendidas en todo el mundo. Alcanzando un maximo
historico en 2011 con 150,000 unidades vendidas. Esto fue declarado en mayo del
2012 por el Dr. Shinsuke sakakibara, presidente de IFR (Federacion Internacional
de Robotica) con sede en Munich, Alemania. De acuerdo con el Dr. Shinsuke, las
expectativas futuras en ventas para estos sistemas se ven prometedoras.
2. Robots Personales y/o de Servicio. Actualmente, el dise no y creacion de
sistemas roboticos ha llegado a introducirse en la sociedad humana, dando lugar
a una nueva clase de robots que interact ua con las personas, a estos robots se les
conoce bajo el nombre generico de: robots personales y/o de servicio. De acuerdo con
la Federacion Internacional de Robotica (IFR), un robot de servicio es un robot que
310 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
opera de forma parcial o totalmente autonoma, para realizar tareas para el bienestar
de los humanos, excluyendo operaciones de manufactura. Los usos que se les da a
estos sistemas es variable e incluye entre otros los siguientes: (i) Servicio domestico,
realizando funciones relacionadas con mantenimiento, limpieza, y preparacion de
alimentos, (ii) Sector salud, principalmente en apoyar la independencia de adultos
mayores con n de mejorar su calidad de vida (es mejor permanecer en el hogar, que
estar recluidos en centros de atencion), (iii) Usos militares, manejo de explosivos y
uso de armamento, y (iv) Entretenimiento, robots parlantes que platican y cuentan
historietas, as como robots que se desempe nan como mascotas. En la Figura 5.10(a),
se muestra una imagen del robot conocido como NurseBot, el cual fue se dise nado
en la Universidad de Carnegie Mellon (CMU) en colaboracion con la Universidad de
Pittsburgh. Este robot fue creado para apoyar la labor de los cuidadores humanos, es
decir, ayudar a las personas encargadas de cuidar a las personas adultas a sobrellevar
su vida. Entre sus funciones, estan la de realizar recordatorios (cita con el medico,
hora de ejercitarse, hora de tomar la medicina), los cuales muestra de forma escrita
(en una pantalla) y verbal. Asimismo, otras de las tareas que realiza, es proporcionar
informacion del clima y noticar de algunos eventos diarios. En la Figura 5.10(b)
se muestra a OFRO, robot dise nado para labores de seguridad y vigilancia. La
Figura 5.10(c) ilustra a Big Dog, robot que se mueve con 4 pata imitando un
movimiento similar a un perro y con la capacidad de subir colinas. Este robot, se
utiliza actualmente por las fuerzas militares de USA como un vehculo de carga. En
la Figura 5.10(d) se muestra a Robomov, el cual es un robot de uso domestico
empleado para cortar el cesped.
De acuerdo con informacion mostrada por Rafael Barea (Robotica de Servicios, De-
partamento de Electronica, Universidad de Alcala), hasta el 2007, se haban vendido
un total de 5.5 millones de robots de servicio, siendo el area de entretenimiento, la
que haba vendido el mayor n umero de unidades: 2 millones. Y se muestra una es-
timacion para los a nos 2008-2011, en los que se esperan vender en este campo un
total de 7.4 millones de nuevos robots. Seg un informacion proporcionada por IFR,
en 2010 se vendieron un total de 753,000 unidades de robots para entretenimiento,
cifra que supero en un 31 % las unidades vendidas en el 2009. Esto nos da una idea
del crecimiento en el uso que tienen los productos derivados de la investigacion en
la robotica, disciplina estrechamente relacionado con la IA.
3. Exploracion. A diferencia de los sistemas roboticos descritos con anterioridad,
los cuales generalmente son connados a espacios cerrados, los robots utilizados en
la exploracion se mueven en espacios abiertos. Estos ambientes se caracterizan por
ser altamente dinamicos y plagados de incertidumbre. Por lo tanto, uno de los may-
ores desafos que enfrentan los dise nadores de estos estos sistemas, consiste en la
navegacion. Los robots de exploracion se utilizan en escenarios terrestres, marinos,
5.1. ROB

OTICA 311
Figura 5.10: Imagenes de diferentes robots de servicio. (a) NurseBot, robot
dise nado para el cuidado de personas adultas mayores, (b) OFRO, vehculo robotico
aplicado en tareas de seguridad y vigilancia, (c) Big Dog, Vehculo para carga, ac-
tualmente utilizado por el ejercito de USA, (d) Robomov, sistema robotico utilizado
para podar el cesped.
312 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
aereo, y espacial. Cada uno de estos escenarios plantea sus propios desafos en la
tarea de exploracion. En la Figura 5.11, se muestran 4 robots utilizados para la
tarea de exploracion en tierra, aire y en el espacio. En la Figura 5.10(a) se muestra
Mini-Andros el cual es utilizado por las fuerzas armadas de USA para detectar y
disponer de bombas en medios urbanos, este es un robot con 8 ruedas, las cuales
pueden ser dispuestas como piernas tal como se observa en la gura con el n de
subir escaleras. En la Figura 5.11(b) se muestra una imagen del avi on no tripulado
conocido como Predator, el cual es un robot de exploracion al servicio de la milicia
de USA. Asimismo, en la Figura 5.11(c) se ilustra la imagen de TROV un robot de
exploracion que opera en el ambiente marino artico y que obtiene informacion para
nes cientcos. La Figura 5.11(d) muestra el Curiosity, el robot de exploracion
espacial mas avanzado hasta el momento, el cual despego de Cabo Ca naveral el 26
de noviembre del 2011 y se poso en la supercie de Marte el 6 de agosto del 2012. El
objetivo de este vehculo de exploracion espacial es la b usqueda de indicios de vida en
el planeta rojo, as como obtener informacion relacionada con el clima y la geologa
del mismo. El Curiosity fue un proyecto de colaboracion global desarrollado y co-
ordinado por la NASA (Administracion Nacional para la Aeronautica y el Espacio) .
4. La Robotica en la Medicina. Aunque la medicina es una aplicacion que cae
en el ambito de los robots de servicio, se muestra en un apartado separado por el
fuerte impacto que ha tenido la robotica en este campo. El ingreso de los sistemas
roboticos en la medicina, inicio como un proceso experimental a mediados del siglo
XX. Sin embargo, no fue sino hasta 1987 con la intervencion quir urgica realizada
por Mouret que hizo su entrada formal en los quirofanos del mundo [133, 132]. A
partir de entonces, el interes en esta area ha ido en incremento y se ha extendido
a una gran variedad de procedimientos quir urgicos. La aplicacion de la robotica en
el campo de la medicina es tan variado que lo hemos clasicado en los siguientes
subtipos:
(i) Robots Quir urgicos. Son mecanismos roboticos que han sido dise nados para
asistir al cirujano en una intervencion quir urgica. Dentro de este campo se distinguen
los siguientes subcampos.
Micro y Nanociruga. La microciruga y la nanociruga son subcampos que por
derecho propio son considerados como una disciplina, debido al creciente n umero
de trabajos de investigacion que se estan realizando. Se denomina con este nombre
a intervenciones quir urgicas poco invasivas y apoyadas por dispositivos roboticos
muy precisos. Un ejemplo de estas intervenciones son las operaciones laparoscopi-
cas, donde se introducen por peque nos oricios tres componentes roboticos: una
camara optica, una luz y una especie de dedo robotizado que puede llevar desde
5.1. ROB

OTICA 313
Figura 5.11: Imagenes que muestran robots utilizados con nes de exploracion en
diferentes ambientes: (a) Mini-Andros, robot que opera en ambiente terrestre y
que detecta bombas, (b) Predator, robot de exploracion aerea utilizado con nes
belicos, (c) TROV, robot que se mueve en ambiente marino y que obtiene datos para
nes cientcos, y (d) Curiosity, robot de exploracion espacial el cual se encuentra
actualmente en la supercie de Marte buscando indicios de vida.
314 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
micropinzas a bisturs. El sistema robotico Da Vinci (ver Figura 5.12) creado por
Intuitive surgical Inc., creado para ciruga laparoscopica es un ejemplo tpico de esta
clase. Da Vinci es un sistema robotico que consiste en un par de brazos quir urgicos
manejados por medio de controles y realiza movimientos muy precisos, asimismo
dispone de una camara tridimensional de alta denicion para envviar imagenes en
tiempo real. En este sistema, el cirujano tiene el control total sobre los movimien-
tos del robot y siente las fuerzas de contacto del robot y sus herramientas con los
tejidos gracias a la integracion de tecnologa haptica. La imagen es transmitida
en modo entrelazado sin comprimir y es presentada no entrelazada. Se superponen
textos y gracos y se mejora la iluminacion. Este sistema robotico, fue aprobado por
la FDA para su uso en: laparoscopa en general, ciruga de torax, y prostatectoma.
Da Vinci se ha utilizado en Europa desde 1998. Esta tecnologa esta disponible
en Mexico desde el 2007 a traves del Hospital San Jose del Tec de Monterrey. Los
hospitales de Estados Unidos cuentan con poco mas de mil unidades Da Vinci. Esta
tecnologa esta presente en casi todos los de pases de Europa donde esta incluido en
casi todos los programas de atencion hospitalaria. En America Latina, solo algunos
pases como Argentina, Brasil, Venezuela y Puerto Rico tienen unidades Da vinci
[134].
Cirugas de precision y fuerza. En este tipo se clasican las intervenciones
quir urgicas que requieren gran fuerza o precision, tales son los casos de interven-
ciones para cortar huesos o intervenciones en la cabeza. En este ultimo caso, el
dispositivo robotico es capaz de cortar con precision sin afectar a puntos vitales,
recibiendo las instrucciones del cirujano y apoyandose de imagenes tridimensionales
que muestran la anatoma interna del paciente. Empleando tecnologa robotica, el
hueso puede ser seccionado con una precision diez veces mayor que con la tecnica
manual.
El uso de robots en intervenciones quir urgicas tiene varias ventajas, entre las que se
pueden mencionar las siguientes: (i) la intervencion es realizada con mayor precision
que su contraparte humano, (ii) Debido a que en la mayora de las ocasiones son
procesos no invasivos la recuperacion del paciente es mucho mas acelerada, (iii) el
uso del robot elimina los temblores humanos, es capaz de entrar a zonas inasequibles
para los medicos y da na menos tejido sano en los alrededores de la region afecta-
da.?, y (iv) el uso de los robots reduce la estada en el hospital, disminuye el trauma
operativo, benecia el impacto cosmetico de la intervenci on y aten ua el tiempo de
recuperacion.
(ii) Robots para la rehabilitacion y protesis. En terminos medicos, una protesis
es una extension articial que reemplaza una parte faltante del cuerpo. En terminos
5.1. ROB

OTICA 315
Figura 5.12: Imagen que muestra los componentes del sistema robotico Da Vinci. (a)
El sistema muestra las dos articulaciones roboticas durante una intervencion, estas
articulaciones o brazos roboticos tienen 7 DoF y reproducen de manera precisa los
movimientos del cirujano, (b) esta imagen muestra las manos del cirujano operando
los componentes del sistema robotico, (c) se muestra el centro de control, en el que
un cirujano se sienta y da inicio a una intervencion quir urgica.
316 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
de robotica, se dene a una protesis robotica, como un elemento articial dotado
de cierta autonoma e inteligencia capaz de realizar la funcion de una parte faltante
del cuerpo humano. Dicha autonoma e inteligencia se logra al integrar dispositivos
de medicion, procesadores, actuadores, y complejos algoritmos de control [135] al
sistema robotico. Aunque el uso de protesis articiales data de varios siglos, en la
era moderna, el factor determinante que dio un fuerte impulso a su desarrollo fue la
necesidad de mejorar la calidad de vida de los sobrevivientes de las guerras. El de-
sarrollo de protesis roboticas de una calidad aceptable, requiere de un gran esfuerzo
y el conocimiento de varias disciplinas tales como: siologa y biomecanica humana,
mecanica de materiales, mecanismos, interfaces humano-maquina, mecatronica, cien-
cias cognitivas, neurociencias, nanotecnologa, procesamiento de se nales, y ciencias
del comportamiento. Actualmente, el uso de protesis es personalizado, ya que debe
reemplazar a una parte faltante de una persona, la cual tiene caractersticas muy
particulares de masa, tama no, grados de libertad, y fuerza. El control de las protesis
se realiza generalmente de forma mecanica a traves de interruptores o alg un tipo
de servomecanismo con comandos programados. El desarrollo y comercializacion de
protesis controladas a traves de la voluntad humana es de uso a un muy limitado y
costoso, ya que esta tecnologa a un se encuentra en fase experimental. Con respecto
a este tipo de protesis, el Prof. Hochberg (catedratico de ingeniera de la Universidad
de Brown, USA) y su equipo, probaron de manera exitosa una protesis robotica que
obedece las ordenes del cerebro. Esta protesis se probo en una paciente tetrapleji-
ca, la cual logro controlar un brazo robotico conectado a su cerebro para sujetar
un envase conteniendo agua y moverlo para lograr beber (ver Figura 5.13(a)). Esta
tecnologa funciona gracias a un chip implantado en la corteza motora del paciente,
el cual registra las se nales emitidas por las neuronas para mover la articulacion
robotica (brazo y mano) . El chip se conecta a un microprocesador que interpreta la
informacion y la traduce en comandos que enva al brazo robotico para que este se
mueva obedeciendo a los pensamientos de la persona. Esta tecnologa se probo en el
a no 2012.
Como ya se menciono las protesis roboticas son aquellas que tiene una fuente de en-
erga propia, un actuador, y sensores que permiten leer los movimientos deseados por
el usuario. Por lo tanto, se requiere un sistema para el procesamiento de esas se nales
(a un en su forma mas basica) para poder convertirlas en movimientos de los actu-
adores. En este proceso, no es necesario que el sistema provea de retroalimentacion
al usuario. Sin embargo, en la mayora de las protesis la retroalimentacion se realiza
a traves de la vista. Algunos ejemplos de protesis roboticas se ofrecen a continuacion.
Mano Bionica I-Limb. Esta protesis robotica (mostrada en la Figura 5.13(b)),
tiene dedos que son controlados de forma independiente a traves de las se nales
5.1. ROB

OTICA 317
electricas generadas por el cuerpo de la persona que la utiliza. El control indepen-
diente de cada dedo, permite la realizacion de una gran cantidad de movimientos.
La mano I-Limb, es capaz de sujetar objetos con fuerza y precision. Este sistema
robotico fue dise nado por la empresa Touch Bionics, y se describe como una protesis
creada para ayudar a incrementar la funcionalidad e independencia de personas que
han perdido este miembro.
Power Knee. Esta es la primer protesis robotica de rodilla (ver la Figura 5.13(c)),
la cual es fabricada por la compa na Ossur. La Power Knee reemplaza la funcion
muscular perdida mediante un actuador electrico, el cual permite generar la propul-
sion necesaria para caminar, levantarse de una silla, y subir escaleras. Esta protesis
contiene varios elementos electricos y electronicos (matriz de sensores, giroscopios,
celdas de cargas, sensores angulares, y un modulo de propriocepcion articial de
sonido en la pierna, ya que utiliza un detector de sonido para conocer el ritmo de
la pierna sana al desplazarse) para que realice de forma apropiada sus funciones.
La operacion conjunta de estos elementos es de la siguiente manera: el arreglo de
sensores, habilita al dispositivo observar

el estado general de la interfase humano-


protesis. El sistema contiene un microprocesador que utiliza la informacion de los
sensores para lograr un caminado similar al humano. La informacion proporcionada
por el sistema sensorial del sonido permite regenerar la cinematica del caminado
mientras anticipa la funcion requerida cuando las condiciones de caminado cam-
bian. La protesis Power Knee, sujeta su uso bajo las siguientes restricciones: (a)
puede ser utilizada por personas que han sido amputadas en una sola pierna, (b)
las personas deben pesar menos de 100 Kgs., y (c) la longitud del suelo al punto de
amputacion debe ser al menos de 49 cm.
Con respecto al aspecto de rehabilitacion, este es un proceso que se aplica gen-
eralmente a las personas que debido a un accidente o enfermedad han perdido de
manera parcial o total las funciones motoras en alguno de sus miembros. En muchas
ocasiones, se tiene que amputar alguna de las extremidades y se reemplaza por una
protesis. En esta situacion, la rehabilitacion consiste en una serie de ejercicios con
el n de acostumbrarse a manejar las funciones motoras, realizadas ahora por una
protesis robotica. En otros casos, la rehabilitacion se aplica para recuperar aunque
sea de forma parcial la movilidad motora en alguno de los miembros apoyada por
un sistema robotico (ver Figura 5.13(d)) . Las terapias de rehabilitacion, general-
mente son procesos repetitivos y costosos. Durante este proceso, el paciente debe
realizar un gran esfuerzo, pero tambien este esfuerzo lo realiza el sioterapeuta que
participa en el mismo. Al introducir la tecnologa robotica en la rehabilitacion, se
libera al sioterapeuta de esta tarea y solo se encarga de hacer un seguimiento de la
evolucion del paciente, y por ende, puede enfocar sus esfuerzos para conseguir ter-
318 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.13: Ilustracion de protesis roboticas. (a) esta imagen muestra a una paciente
tetraplejica, que mueve a un brazo y mano roboticas a traves de comandos cerebrales,
(b) la imagen muestra a I-Limb, una mano bionica que puede sujetar objetos con
precision y fuerza, (c) en esta imagen se muestra a Power Knee, protesis robotica de
rodilla, ofrece al usuario la capacidad de caminar, doblar las rodillas para hacer el
movimiento de levantarse y sentarse (de una silla) y subir escaleras, y (d) persona
que se apoya de un sistema robotico para hacer ejercicios de rehabilitacion.
5.1. ROB

OTICA 319
Figura 5.14: En la imagen se muestra al sistema robotico Pi Zymark, el nombre es
debido a que sus componentes son dispuestos en crculo. El robot, colocado en el
centro, distribuye consumibles y muestras de una estacion de trabajo a otra [136].
apias mas ecientes. Finalmente, podemos decir que, como resultado de introducir
la tecnologa robotica en la medicina, se ha mejorado la calidad de vida de miles de
personas al permitirles realizar sus actividades de manera independiente.
(iii) Robots de almacenaje y distribucion de medicamentos. Es com un en
los grandes centros hospitalarios y clnicas llevar un estricto control, para que cada
paciente reciba su dosis de medicinas en el momento preciso. Generalmente, es el
medico quien se encarga de establecer el tratamiento farmacologico apropiado para
cada paciente, sin embargo, a veces es difcil llevar un buen control de los sumin-
istros. Por lo tanto, con el n de apoyar al personal medico en las tareas anteriores,
se han automatizado procesos y dise nado robots que se encargan de preparar en
todo momento las dosis que requiere cada paciente, a n de evitar equivocaciones y
descuidos. La automatizacion de los procesos en los laboratorios era una necesidad
en la decada de 1950. Sin embargo, no fue sino hasta la decada de 1980 que se
fundo Zymark Corporation Hopkinton en Massachusetts, corporacion dirigida
por el Dr. Frank Zenie y con el objetivo principal de dise nar robots para aplicaciones
de laboratorios. El sistema robotico llamado Pi Zimark (ver Figura 5.14), fue el
primer sistema dirigido a la automatizacion de procesos de laboratorios que esta em-
presa dise no y comercializo. El Pi Zimark fue dise nado para el manejo seguro de
objetos peque nos tales como tubos de ensayo y pastillas.
A partir de la introduccion del sistema robotico Pi Zymark en los laboratorios,
el n umero de estos sistemas automatizados, as como la diversidad de tareas que
320 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
pueden realizar se ha multiplicado, siendo los clientes principales las industrias far-
maceuticas, instituciones de salud, y centros de investigaci on. Actualmente existe
toda una industria dedicada al dise no de sistemas roboticos para su uso en labora-
torios.
Un concepto que actualmente se esta materializando gracias a los avances de la
robotica y de otras disciplinas relacionadas es el de Quirofano Inteligente. Bajo este
esquema, el cirujano tiene la posibilidad de realizar diferentes actividades, tales como
las siguientes: interactuar con los equipos e instrumentos de la sala de operaciones,
establecer comunicacion va videoconferencia con otros cirujanos, e interactuar si-
multaneamente y en tiempo real con otros expertos.
El futuro de la robotica, es dise nar robots que tengan la exibilidad de poder realizar
varias tareas de forma autonoma similar a como la realizan los humanos, y que
ademas tengan la caracterstica de adaptarse a diferentes escenarios.
5.1.3. Desarrollos actuales y aplicaciones
Los trabajos que se estan desarrollando actualmente en diversas instituciones academi-
cas y de investigacion relacionados con la robotica son de ndole diversa. La investi-
gacion que se esta realizando actualmente es de caracter multidisciplinario, ya que
involucra diferentes disciplinas tales como: aprendizaje de maquinas, sistemas multi-
agentes, plataformas computacionales, psicologa, biologa, y fsica, entre otras. Con
respecto a las aplicaciones que tienen los resultados de estos trabajos, son de un
espectro muy variado, tal como se mostro en la seccion anterior. En este apartado,
se van a mostrar algunas de las instituciones academicas y de investigacion lderes
en robotica, con el n de formarse una idea, de lo que se esta haciendo actualmente
en este interesante campo de estudio.
Carnegie Mellon University (CMU). El instituto de robotica de CMU, es una
institucion que forma investigadores y realiza investigaci on en el area de la robotica.
Esta institucion cuenta al momento de escribir este libro con un equipo de 27
profesores investigadores. Sus proyectos de investigacion cubren practicamente todas
las areas en las cuales la robotica puede estar presente. A continuacion se propor-
ciona una breve descripcion de cada una de sus areas de trabajo, as como de los
proyectos que se encuentran desarrollando.
Humanoides. El objetivo que tiene este grupo de investigadores, es crear robots
de servicio utiles asi como la comprension del trabajo humano. Las actividades rel-
5.1. ROB

OTICA 321
evantes que actualmente se encuentra desarrollando este grupo de investigadores
(11 en total) son las siguientes: aprendizaje de robots y enfoques basados en opti-
mizacion aplicados a una planeacion dinamica de movimientos, desarrollo de meto-
dos de dise no para robots que asisten a humanos, desarrollo de modelos de control
humano y explorar su aplicacion en robots, habilitar a humanoides con el n de ver
y realizar movimientos guiados por vision, interaccion humano-robot y la percep-
cion del movimiento humano, habilitacion de movimiento similar al humano, dise no
de robots inteligentes que cooperan, observan, razonan, act uan y aprenden, anali-
sis de esfuerzos realizados por humanoides, movilidad y calidad de vida, sistemas
heterogeneos autonomamente distribuidos que interact uan con humanos, analisis de
interaccion con el ambiente, incluyendo sujecion y manipulacion, analisis de mecan-
ismos de planeacion y control de la manipulacion en ambientes dinamicos.
Interaccion robot-humano. En el a no 2005, el Instituto de Robotica (IR) iden-
tico a la Interaccion Humano-Robot (HRI) como un area emergente prioritaria y
realmente ha sido un area en constante crecimiento para este departamento que
cuenta actualmente con 15 investigadores. Como parte de sus trabajos de inves-
tigacion el grupo de robotica busca continuamente la colaboracion con colegas de
otras instituciones as como trabajar con organizaciones tales como la ACM/IEEE
Human-Robot Interaction Conference con el n de proyectar los trabajos realizados.
Los trabajos realizados por este equipo al igual que los demas que forman parte del
instituto de robotica son en su mayora interdisciplinarios, y actualmente son los
siguientes:
Manejo y control de robots. En esta area, se trabaja con sistemas remotos de
tierra y aire, tales como sistemas para control de robots no tripulados en terrenos
peligrosos requeridos por el ejercito y armada. Otra area de interes, es trabajar
en el control de m ultiples robots de forma tal que operen de manera coordinada,
este trabajo lo enfocan a vehculos aereos y terrestres controlados por una sola per-
sona. Para estos trabajos, se tienen los siguientes proyectos: (i) Coordinacion a gran
escala de sistemas multi-agentes, el cual realiza en colaboracion con el Laboratorio
de Agentes Inteligentes del CMU, (ii) Iniciativa de investigacion de multi universi-
dades. Con estos proyectos se busca escalar en el control de robots, permitiendo a un
solo operador controlar decenas o centenas de robots, este es un objetivo desaante
el cual tiene que ver con la coordinacion de m ultiples robots autonomos as como
probar con nuevas tecnicas para tratar la informacion proporcionada por m ultiples
sensores. Con respecto a manufactura, investigadores y estudiantes trabajan en for-
mas de colaboracion para que humanos y robots realicen tareas de manera conjunta.
Interaccion social. El impacto que los robots pueden tener al ser introducidos en el
ambiente humano ha sido objeto de estudio por diferentes instituciones academicas.
322 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.15: Proyectos roboticos desarrollados en CMU: (a) Imagen de Robocep-
tionist, un robot que interact ua con personas realizando tareas de recepcionista, y
(b)Snackbot, robot que interact ua con personas ofreciendoles bocadillos.
En CMU, el trabajo relacionado con robots sociales inicio en 2002 con el proyecto
Roboceptionist (ver Figura 5.15(a)). En este proyecto, se ubico a un robot con
un rostro graco (en una pantalla) en uno de los corredores m as transitados del
CMU con el n de interactuar con los alumnos, visitantes, y demas personas. El
robot proporcionaba informacion del clima, direcciones dentro de la institucion, y
datos de su familia virtual. El trabajo consista en observar el comportamiento de
los humanos al interactuar con el robot. En este sentido, la informacion tiene como
objetivo el dise no de robots que puedan ser aceptados por los humanos. Por lo tanto,
los trabajos consisten en dise nar robots con comportamientos, posturas, y dialogos
anes a las diferentes culturas. La integracion de una personalidad articial es otro
trabajo muy desaante. En este sentido Simmons y sus alumnos trabajan en hacer
que el robot imite el comportamiento humano, es decir, en lugar de que los humanos
se adapten a los robots, estos deben adaptarse a los humanos: esperar a que los hu-
manos suban a un elevador antes que el robot, esperar la luz verde antes de cruzar,
etc. En la misma direccion, Rybski explora plataformas robotizadas y tecnologas
para asistencia humana. Su trabajo mas reciente es Snackbot (ver Figura 5.15(b))
un proyecto que sirve como base para el estudio de la ciencia del comportamiento,
robotica y dise no. En este proyecto, un robot recorre los pasillos de un edicio ofre-
ciendo bocadillos a sus ocupantes.
Asimismo, en un trabajo conjunto de Veloso, Simmons, Nourbakhsh, Steinfeld, y
5.1. ROB

OTICA 323
Rudnicky, se unen esfuerzos para introducir m ultiples robots en edicios con el n
de servir como guas, agentes de entrega y demas. Este proyecto explorara la in-
teraccion a largo plazo y los comportamientos de proximidad fsica entre robots y
humanos. Uno de los objetivos en este trabajo es obtener una forma conable para
medir la interaccion humano robot (HRI).
Fungir como tutores es otra de las aplicaciones en las que se han involucrado a los
robots. Desde el a no 2005, el proyecto LISTEN fue utilizado para apoyar la lec-
tura. Posteriormente, en el proyecto TechBridgeWorld Bernardine Dias propuso
el dise no de un tutor para el sistema Braille. Ambos sistemas tutoriales se han apli-
cado en varias comunidades para su uso y evaluacion, lo cual ha trado que, nuevos
metodos educacionales para minera de datos hayan sido desarrollados.
En este mismo sentido, se ha iniciado un gran n umero de proyectos los cuales in-
cluyen ChargeCar, GigaPan, Global Connection, Robot 250, y Robot Di-
aries, la intencion es desarrollar una tecnologa robotica para introducir a la sociedad
al uso de esta tecnologa.
Indudablemente, el aspecto de planeacion es crucial en el funcionamiento de robots.
Pues, resulta necesario que un robot pueda detectar deciencias en sus acciones, y
debe poder generar opciones para revisarlas y mejorarlas. Asimismo, es conveniente
que un robot de asistencia pueda ser utilizado por cualquier persona con un mnimo
de entrenamiento. El desarrollo de tecnologas para la ejecucion de planes, seleccion
de acciones y calendarizacion, requiere el uso de tecnicas de b usqueda, razonamien-
to con incertidumbre, optimizacion, aprendizaje de maquinas, toma de decisiones, y
optimizacion entre otras.
Manipulacion y control. En el IR del CMU, los trabajos relacionados con la
manipulacion mediante robots ha formado parte desde sus inicios en 1979, en un
principio en forma de aplicaciones de manufactura. Posteriormente, este campo sur-
gio como un area de investigacion separada trayendo como resultado la fundacion
del Laboratorio de Manipulacion en 1982, el cual crecio en los a nos siguientes hasta
onvertirse en el actual Laboratorio de Biorobotica y Sistemas Microdinamicos. Este
campo ha experimentado un crecimiento constante que ha dado origen a nuevas
directrices. Asimismo, se ha involucrado con otras ramas de la robotica tales co-
mo: Gracacion, Humanoides, HRI, Manufactura, Robotica Medica, y Tecnologa
de Calidad de vida. Tal vez el signo mas visible de estas colaboraciones ha sido la
creacion recientemente del Laboratorio de Planeacion Basado en B usqueda. Entre
las sub-areas de trabajo que incluye este equipo de trabajo formado por 9 investi-
gadores se encuentran las siguientes:
324 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.16: Imagen de un robot que tiene como nalidad un comportamiento similar
al humano, al desplazarse por ambientes ruidosos y manipular objetos, en este caso,
el sistema robotico esta abriendo una puerta.
Manipulacion, Control y Planeacion de la Trayectoria. La investigacion en
aspectos de manipulacion en ambientes humanos ha extendido y cambiado nuestra
perspectiva acerca de la manipulacion. Encabezados por Srinivasa y en colaboracion
con investigadores de Intel, se realizan trabajos hacia la identicacion de nuevos
enfoques para tratar con escenarios ruidosos, la sujecion de objetos de forma similar
a como la hacen los humanos, y planeacion de movimientos (ver Figura 5.16). Estos
enfoques han dado lugar a la creacion de nuevas tecnologas.
Control y Planeacion de Movimientos. En este campo, el grupo de investigacion
se enfoca en el desarrollo de formas novedosas de elementos de dise no mecanico
as como tecnicas de control y planeacion, con el n de ampliar las posibilidades de
movimientos. Como resultado de los trabajos realizados por este grupo, guran los
siguientes: exploracion (arqueologa forense), manufactura (ensamble de aeroplanos),
intervenciones quir urgicas roboticas (cirugas del corazon mnimamente invasivas).
5.1. ROB

OTICA 325
Figura 5.17: Imagen que muestra una mano articulada, con la cual se estan probando
nuevos enfoques para la manipulacion autonoma.
Entre las clases de movimiento que se han explorado, guran los de tipo serpiente,
y tipo balon, en el cual el robot se mueve balanceandose sobre una esfera.
Planeacion de Movimientos para Manipulacion Movil. Para los trabajos
que se realizan en este campo se ha creado un nuevo laboratorio (Laboratorio de
Planeacion Basado en B usqueda) el cual esta encabezado por Likhachev y cuyo ob-
jetivo es el desarrollo de nuevas tecnicas de b usqueda aplicadas a la manipulacion
movil. Los trabajos realizados por Likhachev y su grupo incluyen los siguientes: el
robot para escalar RISE, Tecnicas de locomocion adecuadas para robots moviles,
manipulacion para la sujecion, nuevos enfoques a la manipulacion autonoma (ver
Figura 5.17), ensamble de dispositivos electronicos, estrategias de manipulacion y
aprendizaje por imitacion, reconocimiento de objetos y sujecion, entre otros.
Manufactura. Los trabajos desarrollados por el IR en el ambito de manufactura han
sido muy variados abarcando desde tecnologa para automatizacion y mejoramiento
de procesos de manufactura hasta el desarrollo de tecnologas de software para so-
porte de actividades tales como: manejo de operaciones en f abricas, coordinacion de
operaciones en cadenas de suministros y dise no de facilidades para productos. Las
tendencias actuales en manufactura contin uan con el manejo de sistemas de pro-
duccon en serie. Con en n de hacer este proceso rentable, el tiempo de ajuste de las
maquinas debe ser minimizado: calendarizando los productos con tiempos similares
de ajuste en las maquinas, dise nar productos para minimizar el uso de herramien-
tas especiales, y automatizacion de procesos. Con el n de alcanzar estos objetivos,
326 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
los trabajos en este campo, se han enfocado a herramientas computacionales que
permitan a los robots seguir instrucciones dadas por humanos (RHI), basadas en
maximizar la utilidad de las habilidades naturales ya sea de humanos o de robots.
Este equipo de trabajo formado por 7 investigadores, se enfoca principalmente a la
creacion de tecnologas para hacer mas exible y eciente las operaciones de manu-
factura. Una tarea importante en este caso es la personalizaci on de la manufactura,
es decir, la habilidad para producir peque nas cantidades de productos a la medida
de forma rapida y eciente. En este sentido, David Bourne se enfoca en la automati-
zacion de procesos con el n de transformar dise nos en heramientas fsicas para una
clase especca de productos. Esquemas de conguraciones de procesos de m ultiples
etapas que pueden transformarse de forma rapida para elaborar tipos especcos de
productos, as como el dise no de mecanismos para la creacion y coordinacion de
organizaciones virtuales son direccionados por Ralph Hollis, Stephen Smith y Katia
Sycara.
Otra area de interes para este grupo de trabajo, consiste en ecientizar algunos pro-
cesos que ocurren en la industria y que generan cuellos de botella y altos costos
para las empresas. Se trata de situaciones que ocurren en la industria automotriz,
quienes emplean robots para pintar y ensamblar partes (ver Figura 5.18). En este
caso, cuando se cambia de un modelo de auto a otro la programaci on de los robots
para ajustar las trayectorias lleva un tiempo de especialista entre 3 a 5 meses. En
este caso, se trabaja en mecanismos de automatizar la planicacion de trayectorias
para determinar nuevas trayectorias en el menor tiempo posible.
Asimismo, algunos de los trabajos que actualmente se encuentra desarrollando este
equipo son los siguientes: (i) desarrollo de nuevos procesos de manufactura en sis-
temas micro-electromecanicos (MEMs), (ii) robots modulares de alta precision,y (iii)
dise no de herramientas de calendarizacion y planeacion para peque nas empresas de
manufactura. Una lnea reciente de investigacion involucra la combinacion de tecni-
cas de minera de datos con procedimientos de optimizacion basados en escenarios,
con el n de desarrollar planes para redes de produccion y suministro que reejan
de forma precisa los patrones de demanda/suministro y la historica incertidumbre
evidente en los procesos de manufacturas. En esta misma direccion, se trabaja en
el desarrollo de algoritmos para coordinar los movimientos de m ultiples robots que
manejan materiales.
La investigacion en procesos y tecnologas basados en MEMs proporcionara nuevas
oportunidades en la manufactura de microsistemas altamente integrados que van
desde arreglos de sensores aplicados en navegacion hasta implantes biomedicos minia-
turizados. Una rama relativamente nueva de investigacion relacionada con manip-
5.1. ROB

OTICA 327
Figura 5.18: Robots utilizados en la industria automotriz, automatizar la plani-
cacion en este campo es un trabajo desaante pero que ofrece grandes ventajas.
uladores MEMs, consiste en la creacion de sistemas de nanomanufactura, lo cual
traera un gran impulso en el uso de robots en la industria. Asimismo, este equipo
se encuentra actualmente trabajando en proyectos relacionados con automatizar el
ensamble de piezas en los telefonos celulares y manipuladores utilizados en la in-
speccion y ensamble de partes de aviones.
Robots en Medicina. Con respecto a la introduccion de robots en la medicina,
el IR se encuentra actualmente desarrollando investigacion basica y aplicada en las
siguientes areas: (1) Ciruga asistida por computadora, (2) Robots que realizan inter-
venciones quir urgicas, (3) Herramientas de diagnostico, (4) Informatica y analisis de
imagenes en 2D y 3D, (5) Realidad virtual, y (6) Medicina regenerativa. A mediados
de la decada de 1990, el IR se enfoco al desarrollo de procedimientos mas precisos
y menos invasivos. El primer sistema de ciruga ortopedica guiado por imagenes
fue desarrollado en esta institucion y ha sido usado clnicamente. Asimismo, se han
desarrollado herramientas roboticas para la preparacion de supercies oseas. Los
trabajos mas recientes de ciruga asistida por computadora se han enfocado a inter-
venciones adicionales: intervenciones cardiacas guiadas por imagenes en prenatales,
cirugas de corazon, cirugas en ojos, y otras. Ademas, las tecnicas para el analisis
de imagenes biomedicas se estan aplicando para apoyar la planeacion y toma de
decisiones en intervenciones quir urgicas. Asimismo, en a nos recientes, este campo
de investigacion ha ampliado sus horizontes y actualmente tambien contempla los
aspectos de cuidados de la salud.
328 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Varios investigadores, entre los que destacan Takeo Kanade, George Stetten, Lee
Weiss, y Gary Fedder, se encuentran enfocados al desarrollo de tecnologas desti-
nadas a apoyar la deteccion y prevencion de problemas medicos: tecnicas para el
analisis de imagenes biomedicas para la prediccion y clasicacion de enfermedades,
microsistemas implantables para el monitoreo de signos vitales, tecnologas de re-
habilitacion y asistencia, destinadas a mejorar la calidad de vida de personas con
alguna discapacidad y de la tercera edad, y metodologas para desarrollar prototi-
pos en la manufactura de tejido sintetico. A partir del 2005 y en colaboracion con
Marco Zenati (profesor de la Universidad de Harvard), Howie Choset desarrollo la
tecnologa para un robot serpiente el cual tiene como objetivo, servir como instru-
mento quir urgico para cirugas del corazon mnimamente invasivas. A este proyecto
se le llamo Cardiorobotics y recibio un apoyo de 30 millones de dolares y en el par-
ticiparon 21 investigadores. En febrero del 2010, este robot se utilizo por primera vez
en una ciruga del corazon. Otros dispositivos roboticos que han sido desarrollados
en el IR incluyen los siguientes: Sonic Flashlight (ver Figura 5.19), el cual muestra
en tiempo real imagenes de ultrasonido con vision humana directa para ver a traves
de la piel y observar los tejidos de una forma transparente; Micron, instrumento
quir urgico totalmente manejado a mano y que de forma reciente ha servido como
base para la investigacion de una plataforma robotica para bioenginiera en la univer-
sidad John Hopkins; Precision Freehand Sculptor, dispositivo robotico manejado
a mano para el tratamiento de huesos, el cual recientemente fue comercializado por
la empresa de tecnologas Blue Belt; y HearthLander, un robot miniatura para
tratamientos al corazon mnimamente invasivos, actualmente esta siendo comercial-
izado por HearthLander Surgical.
Un aspecto clave en el exito logrado por el IR en la investigaci on relacionada con
robotica biomedica, es su cercana colaboracion con personal e instituciones medicas.
Por ejemplo, se tiene una estrecha colaboracion con el Centro Medico de la Univer-
sidad de Pittsburgh, asimismo se tienen convenios de colaboracion con el Hospital
General y el Hospital del Ni no de Pittsburgh. Ademas, mantienen una cercana co-
laboracion con investigadores del Departamento de Bioingeniera de la Universidad
de Pittsburgh.
Resulta claro que en los tiempos actuales, los trabajos de investigacion deben ser
principalmente producto de una participacion multidisciplinaria.
Microrobotica. Esta es otra de las ramas de la robotica que es de interes para
el IR. Las investigaciones relacionadas con microrobotica y MEMs incluye los sigu-
ientes topicos: dise no de metodologas, tecnicas de manufactura con microsensores,
5.1. ROB

OTICA 329
Figura 5.19: Imagen de Sonic-Flashlight, robot desarrollado en el IR y que permite
obsevar imagenes de ultrasonido, tejidos y piel.
microactuadores, arreglo de sensores inerciales para control y gua, dise no de robots
miniaturas que trepan paredes mediante micro y nano bras adhesivas o que caminan
sobre la supercie del agua (ver Figura 5.20), manufactura de manipuladores uti-
lizando arreglos de MEMs, arreglo de sensores en base a gases qumicos para sistemas
que requieren un rapido calentamiento, sondas neuronales compatibles aplicadas en
interfaces cerebro-computadora. El equipo de robotica ha desarrollado programas
de investigacion multidisciplinarios relacionados con el dise no y fabricacion de sis-
temas MEMs integrados, sistemas micro y nano roboticos, as como la implantacion
de microsistemas medicos. El futuro de la investigacion en este campo es bastante
prometedor, con el dise no de tecnologa a una escala nanometrica la cual sin duda
tendra una fuerte aceptacion en aplicaciones biomedicas emergentes. Uno de los prin-
cipales desafos que enfrenta este grupo de trabajo, se relaciona con la integracion
de sistemas o componentes de un sistema desarrollados a diferentes escalas (macro,
micro, nano). La CMU se encuentra actualmente construyendo el Laboratorio de
Nano/Bio/Energy (el cual espera terminar en el a no 2014) el cual sera un espacio
destinado a la investigacion en nanotecnologas y biotecnologas. Asimismo, se es-
pera que este laboratorio proporcione la infraestructura necesaria para el estado del
arte en la micro y nanofabricacion.
Robots Moviles. La investigacion relacionada con robots moviles ha sido un area
de interes desde los inicios del IR. Actualmente, esta sigue siendo una de las areas
fuertes con cerca de 20 investigadores que se encuentran realizando trabajos de
investigacion en este interesante campo. Los proyectos de investigacion que se real-
330 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.20: Ilustracion del microrobot WaterStrider, sistema bioinspirado que imita
el comportamiento de los insectos que caminan sobre la supercie del agua.
izan incluyen los siguientes topicos: dise nos innovativos en aspectos de locomocion
para robots de peque no tama no, robots de exploracion, y sistemas roboticos para
navegacion en exteriores. Ademas de los topicos anteriores, actualmente se esta tra-
bajando en las siguientes areas de investigacion:
Mecanismos de planeacion y herramientas arquitecturales para robots
moviles. Los trabajos desarrollados en este campo son encabezados por Alonzo
Kello y Tony Stent, quienes han demostrado sus investigaciones en aplicaciones de
uso para interiores y exteriores. Los productos resultado de sus trabajos estan siendo
utilizados como prototipos en la NASA. Sus investigaciones se relacionan desde el
desarrollo de herramientas de planeacion hasta algoritmos aplicados en navegacion
en ambientes con incertidumbre y determinacion de comportamientos. Estos algo-
ritmos fueron probados de forma exitosa en la competencia de desafo urbano para
vehculos no tripulados en el 2007 (ver Figura 5.21).
Mapeo y Localizacion. En esta area de investigacion, los trabajos estan dirigidos
por Howie Choset, Martial Hebert y Sanjiv Singh. En estos trabajos, se desarrol-
lan tecnicas basadas en imagenes para la localizacion de robots y generacion de
mapas, as como tecnicas para manejar la cooperacion entre m ultiples robots. Esta
area esta estrechamente relacionada con la de sistemas multi-agentes, y su investi-
gacion ha dado como resultado el desarrollo de algoritmos para controlar equipos
de robots con el n de realizar tareas complejas, tales como: exploracion y vigilancia.
5.1. ROB

OTICA 331
Figura 5.21: Imagen de Boss, vehculo autonomo no tripulado, el cual puede viajar
de forma segura manteniendo una velocidad maxima de 48 Kph. El desarrollo de
este vehculo autonomo fue dirigido por un equipo de investigadores de IR (CMU),
y en el que participaron tambien Intel, General Motors, Caterpillar, y Continental
AG. El proyecto fue nanciado por DARPA (Agencia de Proyectos de Investigacion
Avanzada para la Defensa).
Otro campo de trabajo interesante enfocado por este equipo de investigadores es el de
robots aereos. Estos trabajos iniciaron con el desarrollo de helicopteros autonomos, y
ha generado en los actuales sistemas autonomos de vuelo, utilizados principalmente
en aplicaciones de vigilancia y monitoreo. Asimismo, estas investigaciones han con-
ducido ademas del mapeo aereo de gran precision al control de la cooperacion entre
m ultiples vehculos autonomos tierra-aire. En estos trabajos, es vital el conocimiento
de un area de la IA conocida como: sistemas multi-agentes.
Algunas de las aplicaciones en las que se han utilizado los robots moviles son las sigu-
ientes: exploracion espacial; robots para la navegacion en exteriores utilizados en:
industria petroqumica (ver Figura 5.22, agricultura, defensa, construccion, b usque-
da y rescate, aplicaciones acuaticas; vehculos inteligentes para asistir a conductores
en ambientes urbanos.
Tecnologa para mejorar la calidad de vida (QoLT). El objetivo en este campo
es la creacion de sistemas inteligentes que apoyen a los adultos mayores y personas
con discapacidad a vivir de forma independiente. QoLT es una fundacion nacional
creada en el a no 2006 y mantiene una estrecha colaboracion con CMU (Interaccion
Humano Computadora, Ciencias sociales y toma de decisiones), la Universidad de
332 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.22: Imagenes del robot Explorer. (a) se muestran los componentes de Ex-
plorer,y (b) imagen mostrando al robot en actividad. Este robot es utilizado para
la inspeccion visual, en el sistema de tuberas empleadas para la distribucion de gas
natural. Se espera en un futuro proximo, extender las capacidades de esta unidad,
para que pueda manipular herramientas y arreglar las imperfecciones en tuberas.
Pittsburgh (Ciencia y tecnologas para la rehabilitacion,) Bioingeniera, escuela de
enfermera, instituto de estudos sobre la edad). La idea de incluir este campo dentro
de la robotica, es que esta estrechamente relacionado con los trabajos realizados
en el campo de la robotica, ya que la mayora de la teconologa utilizada para
mejorar la calidad de vida en adultos mayores y personas con discapacidad provienen
de la robotica (ver Figura g:Cap510(a)). Asimismo, es conveniente mencionarla
ya que los resultados generados en este campo han dado lugar a la creacion de
industrias muy redituables. El aspecto central en QoLT es la simbiosis sistema-
persona en el que una pesona y componentes roboticos son mutuamente dependientes
y trabajan juntos. Algunas de las investigaciones que se realizan en QoLT tienen que
ver con los siguientes temas: tecnicas de percepcion y analisis con el n de reconocer
el comportamiento humano, en este caso, este equipo es pionero en el dise no de
una camara personal de la cual reconoce y predice las intenciones de las personas
de forma conable, dise no de equipos que asisten a las personas tales como sillas
automatizadas, manipuladores automaticamente controlados; dise no de equipo que
se adaptan a las necesidades cambiantes de las personas, por ejemplo, un equipo que
se ajusta durante la rehabilitacion.
Universidad de Stanford. A continuacion se van a mostrar los trabajos de inves-
tigacion en el campo de robotica, que el grupo de investigadores de la Universidad
de Stanford se encuentra desarrollando.
Laboratorio de Robotica Aeroespacial. El grupo de investigadores de este labo-
ratorio pertenecen al Departamento de Aeronautica y Astron autica de la Universidad
de Stanford. La investigacion realizada en este laboratorio se relaciona con los sigu-
5.1. ROB

OTICA 333
ientes temas: mejora del rendimiento de robots, sistemas integrados de medicion,
autonoma a nivel de tareas. Toda la investigacion que se realiza, se desarrolla y
valida de manera experimental en sistemas hardware. Estos sistemas incluyen desde
robots moviles (tierra, aire, mar , y espacio) hasta una variedad de manipuladores
jos para aplicaciones tanto espacial como en fabricas. La interaccion en un equipo
robot-humano es un tema central en este laboratorio. En este sentido, se estan desar-
rollando tecnicas que habilitan a operadores interactuar con robots en un esquema
altamente intuitivo a nivel de tareas, en el que los humanos tienen completo control
de estrategias y comandos de tareas u objetivos, mientras que el robot de forma
autonoma trabajos pesados a bajo nivel tales como planeaci on de trayectorias y
ejecucion de tareas de precision. Este esquema de control de tareas basada en obje-
tivos, permite a los sistemas humano-robot tomar ventaja de las fortalezas de cada
uno de sus miembros: los humanos en razonamiento, interpretacion y percepcion,
los robots en control preciso, eciencia, y repetibilidad. La otra area de interes en
este laboratorio, es la de proporcionar a los robots con las herramientas necesarias
para que complete de forma exitosa las tareas objetivo. Para esto, se deben extender
la capacidad de los robots agregandoles sensores de vision y GPS, as como de las
tecnicas necesarias de vision articial. Los proyectos que se estan realizando actual-
mente en este laboratorio son los siguientes:
Navegacion relativa al terrenos. En este proyecto, un vehculo puede estimar su
posicion midiendo la forma del terreno que lo rodea y comparando estas mediciones
con un mapa. Este trabajo resulta adecuado para la navegacion de vehculos bajo la
supercie del agua, por lo que, el Instituto de Investigacion del Aquarium Monterey
Bay se muestra interesado por los resultados que se obtengan. IDSR, es el nombre
de un proyecto que inicio y a un contin ua por la NASA en el a no 2006, el cual
involucro la participacion de varias universidades, y se interesa en el desarrollo de
tecnologa robotica espacial.
Control de un equipo de helicopteros. La transportacion aerea de material
pesado en lugares remotos se realiza tradicionalmente por grandes helicopteros con-
strudos para este fn. Conforme la demanda para estas cargas se incrementa, la
solucion obvia es construir helicopteros mas grandes, lo cual redundara en un costo
mayor. La alternativa, puede ser, utilizar m ultiples helicopetros ya existentes traba-
jando de manera cooperativa para llevar a cabo el trabajo.
Navegacion en asteroides. Para obtener una informacion (geologica, termica,
qumica) completa de un asteroide, esta debe ser obtenida de m ultiples sitios del as-
teroide. De forma ideal, estas mediciones deben ser tomadas de manera simultanea.
Este proyecto, explora las soluciones de ingeniera requeridas para localizar los sitios
334 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
donde tomar las medidas, as como los metodos de navegacion con respecto a estos
sitios.
Laboratorio de Inteligencia Articial: Robotica. Asimismo, existe un grupo
de trabajo en robotica que depende del Laboratorio de Inteligencia Articial. Los
trabajos de investigacion de este grupo se enfocan a robotica centrada en humanos y
simulacion haptica interactiva. Los topicos manejados incluyen manipulacion movil,
robots cooperativos, modelacion del movimiento humano, interaccion haptica, dise no
de robots amigables con humanos, y simulacion dinamica con contacto. Los trabajos
de investigacion actuales estan enfocados a los siguientes campos:
Humanoides. Este campo de investigacion se relaciona con el dise no y construccion
de robots que interact uan con humanos en escenarios de la vida cotidiana. Cuando
un robot se mueve en nuestro ambiente, el problema de la seguridad es relevante.
Para ello, el dise no de algoritmos enfocados a controlar el movimiento debe ser tema
de interes.
Arquitecturas de control. El esquema de control de un robot se relaciona muy
de cerca con la salida del actuador en una arquitectura robotica. Esta confa en la
retroalimentacion en tiempo real de sensores, tales como codicadores de union y
sensores de fuerza, con el n de generar los comandos al actuador a una alta fre-
cuencia y en tiempo real. En este sentido, este grupo de investigadores trabaja en
el desarrollo de algoritmos para hacer una arquitectura que enlace los componentes
de control de forma coordinada y en tiempo real.
Control neuromuscular. La comprension del movimiento humano es esencial con
el n de construir robots que imitan las capacidades humanas. Para esto, es necesario
comprender el aspecto siologico del movimiento humano. El objetivo de este grupo
de investigacion consiste en recrear la actividad neuromuscular humana a traves
de modelos biomecanicos con el n de recrear la actividad humana con medios
mecanicos (robots).
Dise no de robots amigables. En a nos recientes se ha notado un interes creciente
en el dise no de robots amigables con humanos debido a sus variadas aplicaciones:
medicina, manufactura y entretenimiento. Un desafo importante en este campo es
la seguridad, es decir, el uso seguro de robots para trabajar en estas aplicaciones y
al mismo tiempo en su interaccion con humanos. En este sentido, los trabajos de
investigacion se enfocan al dise no de los componentes mecanicos de un robot, so-
bretodo actuadores, para que sea capaz de colaborar en tareas con los humanos. En
5.1. ROB

OTICA 335
estos momentos, los trabajos se dirigen a explorar un enfoque hbrido: neumatico y
electromagnetico, para el dise no de actuadores.
Interaccion haptica. El sentido humano del tacto es una herramienta indispens-
able que nos permite manipular e interactuar cada da en nuestro mundo. sin embar-
go, cuando se trabaja con ambientes virtuales o remotos esta forma de interaccion
esta ausente. Los sistemas hapticos han demostrado la capacidad de introducir esta
habilidad en las interfaces de computadoras. La investigaci on en simular esta habil-
idad se ha enfocado en el desarrollo de nuevos algoritmos y estructuras de control
para dise nar una pantalla tactil rapida y robusta en ambientes virtuales. Asimismo,
investigando la forma en que las personas perciben el entorno a traves del tacto,
se han desarrollado nuevas estrategias de control para mostrar ambientes virtuales
grandes por peque nos dispositivos hapticos. El desarrollo de estas nuevas tecnologas
tiene un gran potencial en muchas areas de la actividad humana tales como: medic-
ina, dise no industrial, aeronautica, robotica, y educacion.
Robots biomimeticos. Biomimeticos: mecanismos que imitan sistemas biologicos.
Esta investigacion se enfoca al desarrollo de robots biologicamente inspirados, los
cuales exhiben mayor robustez en su rendimiento comparado a los robots actuales
en ambientes reales. Esta nueva clase de robots sera sustancialmente mas compatible
y estable que los robots actuales, y sacara ventaja de los nuevos avances en los ma-
teriales, tecnologas de fabricacion, sensores y actuadores. Las aplicaciones incluiran
entre otras las siguientes: Realizacion de tareas de forma autonoma o semiautono-
ma, enjambres de robots, similares a los insectos, con el n de colaborar con humanos
en la realizacion de tareas a una mayor escala. Esta investigacion forma parte de
una estrecha colaboracion con investigadores de las siguientes instituciones: Univer-
sidad de Berkeley Ca., Universidad de Harvard, y la universidad John Hopkins. Este
proyecto esta siendo nanciado por la Ocina de Investigacion Naval de USA. En
Stanford en investigador que encabeza este proyecto es el Prof. Mark Cutkosky.
Trabajos de investigacion relacionados con el campo de la robotica que se estan de-
sarrollando por los diferentes grupos de investigacion en Harvard.
Laboratorio de Biorobotica. El Profr. Robert D. Howe dirige este laborato-
rio. Los trabajos de investigacion que se realizan se enfocan en aspectos de medi-
cion y dise no mecanico de control de motores, para aplicarse tanto en robots como
en humanos. Las disciplinas involucradas en este campo son: biomecanica, analisis
de sistemas, y neurosiologa. El enfoque utilizado es principalmente experimental,
aunque el analisis y la simulacion son tambien utilizados. En colaboracion con indus-
trias, estan desarrollando aplicaciones en instrumentacion biomedica, robots teleop-
336 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
erados, y sensores inteligentes. Actualmente se encuentran realizando trabajos de in-
vestigacion en los siguientes campos: planeacion de cirugas y modelado biomecanico,
ciruga robotica, sensado tactil y manos roboticas, rehabilitacion robotica, y haptics.
Una descripcion de lo que se realiza en cada campo se mostrara a continuacion.
Planeacion de cirugas y modelado biomecanico. Los trabajos en este campo
se enfocan al dise no de modelos computacionales de valvulas del corazon anatomi-
ca y biomecanicamente precisas para un paciente especco, esto ofrece al cirujano
planicar una intervencion quir urgica y mejorar potencialmente los resultados de
la misma. Esta tecnologa se esta desarrollando en colaboracion con cirujanos del
corazon del Hospital del Ni no en Boston. La valvula mecanica puede ser simulada
aplicando tecnologa haptica, permitiendo la interaccion con el usuario en tiempo
real. Esto permite tanto evaluar la estructura de la valvula como implementar vir-
tualmente una estrategia de reparacion de una forma intuitiva e interactiva. Cuando
es combinada con un modelo de valvula especca de un paciente, tal como la gener-
ada por una segmentacion avanzada de ultrasonido, esta plataforma se puede utilizar
para una planicacion preoperatoria y para servir de entrenamiento al cirujano.
Ciruga robotica. Para realizar procedimientos dentro del corazon de un paciente
(ciruga intracardiaca), se requiere de un bypass cardiopulmonar para permitir al
cirujano trabajar en una intervencion a corazon abierto. Aunque este es el proced-
imiento usual, se han identicado numerosos efectos adversos en un bypass cardiopul-
monar. El uso de procedimientos menos invasivos podran eliminar la necesidad de
un bypass cardiopulmonar y por ende eliminar los efectos adversos. Los trabajos
de investigacion que se desarrollan en el campo de la ciruga robotica, se desto-
nan al dise no de tecnologas con el n de desarrolar tales procedimientos. Algunos
de los proyectos que se estan desarrollando actualmente en este campo se encuen-
tran los siguientes: (i) Cateter robotico. El objetivo en este proyecto, es desarrollar
una plataforma tecnologica para habilitar cirugas al corazon mnimamente invasi-
vas. Este sistema aplica imagen de ultrasonido 3D en tiempo real para controlar
un cateter robotico para compensar el movimiento del tejido. Esta compensacion
del movimiento estabiliza virtualmente los movimientos del corazon y permitir una
reparacion quir urgica similar a si el corazon estuviera detenido. (ii) Visualizacion
en mosaico de ultrasonido en 3D y tiempo real. Este proyecto busca disminuir el
problema de obstruccion visual que experimentan los cirujanos al realizar una inter-
vencion al corazon, por lo que se ofrece una vista extendida del area de interes con
el n de facilitarla.
Manos roboticas y medicion tactil. Las manos roboticas que existen actual-
mente son complicadas, fragiles, y costosas. Esto limita su uso en ambientes reales
5.1. ROB

OTICA 337
tales como hogares, exteriores, y zonas de desastres. La investigacion que se realiza
en este campo se enfoca a resolver estos problemas a traves de diferentes enfo-
ques, los cuales incluyen el uso de uniones mecanicas inteligentes, aplicar tecnicas
de optimizacion numerica para reducir la complejidad de actuacion manual, uso de
sensores robustos y desarrollo de algoritmos de percepcion y sujecion para habilitar
la operacion autonoma. Los proyectos que se estan desarrollando actualmente para
resolver los problemas en este campo y proponer soluciones conables, y robustas
son los siguientes: (i) Mecanismos pasivos inteligentes, (ii) Optimizacion numerica
para manos roboticas, (iii) Medicion tactil y percepcion.
Rehabilitacion robotica. Las personas que han sufrido alguna lesion provocada
por golpes o accidentes, as como los que se estan recuperando de alguna operacion,
requieren un proceso de rehabilitacion continua para recuperar nuevamente sus fun-
ciones motoras normales. La investigacion que se realiza en este campo se enfoca al
desarrollo de dispositivos de rehabilitacion que ayudan a los doctores a monitore-
ar el progreso del paciente y a proporcionar terapia fsica asistida por robots. Los
proyectos que se estan desarrollando actualmente en este campo se relacionan con
el desarrollo de dispositivos de rehabilitacion para la parte superior (hombros) de
una persona y se adaptan a las variaciones anatomicas del paciente, y dise no de
dispositivos efectivos y de bajo costo para la rehabilitacion de la mano.
Con respecto a los trabajos relacionados con dise no de dispositivos hapticos, estas
investigaciones son similares a las realizadas por el IR de CMU.
A continucion se van a mostrar los trabajos de investigacion en robotica, que estan
actualmente desarrollandose en Europa. En este caso, se van a mencionar los proyec-
tos que se realizan en IRIS (Instituto de Robotica y sistemas Inteligentes, institucion
con sede en Munich, y la cual cuenta con seis laboratorios en este campo. Una de-
scripcion de la investigacion que se lleva a cabo en cada laboratorio se ofrece a
continuacion.
Laboratorio de Robotica Multi-escala. Los trabajos realizados en este laborato-
rio siguen un programa de investigacion dinamico enfocados a la robotica. Un compo-
nente basico se enfoca a investigacion avanzada para crear m aquinas inteligentes que
funcionen a escalas micro y nanometricas. Se desarrollan herramientas y procesos
requeridos para fabricar y ensamblar robots de tama no micrometrico y componentes
roboticos de escala nanometrica. La mayora de estos sistemas son utilizados para
la exploracion robotica en dominios biologicos, tales como la investigacion de es-
tructuras moleculares, sistemas celulares, as como el complicado comportamiento
de organismos. Este laboratorio es dirigido por el Prof. Bradley Nelson.
338 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Laboratorio de Sistemas Autonomos. En este laboratorio se realiza investi-
gacion en robotica movil y mecatronica, enfocados al dise no y control de sistemas
que funcionen en ambiente altamente dinamicos y con incertidumbre. Su objeti-
vo se centra en encontrar nuevas formas de manejar la incertidumbre as tambien
como nuevas formas de dise nar sistemas adaptativos y altamente interactivos. Es-
tas tecnologas tienen amplias aplicaciones, principalmente en las siguientes: robots
personales y de servicio, vehculos aereos no tripulados, vehculos avanzados, robots
para uso espacial, robots de inspeccion. El Prof. Roland Siegwart es el director de
este laboratorio.
Laboratorio de Sistemas Motor-Sensoriales. El Prof. Robert Riener encabeza
los trabajos de investigacion en este laboratorio. El objetivo de los mismos, es el
estudio de las acciones motoras y sensoriales que surgen al interactuar humanos
y maquinas. En los humanos, la informacion a traves de los sensores (sentidos) es
percibida por el sistema nervioso central, y requiere el conocimiento para interpre-
tarla y generar una reaccion motora. De manera similar, en las maquinas existen
sensores mecanicos que detectan tanto el estado de la maquina como el del en-
torno que la rodea. En este caso, los datos de los sensores son procesados con el
n de manejar actuadores y sistemas de desplegado. Los humanos y las maquinas
interact uan a traves de sus sensores. Tomando como base este conocimiento, se de-
sarrollan dise nos novedosos sistemas mecatronicos, as como procedimientos para
optimizar tal interaccion. Algunas de las principales aplicaciones que pueden tener
los productos generados de estas investigaciones son los siguientes: rehabilitacion,
deportes, salud, y educacion medica.
Laboratorio de Ingeniera y Rehabilitacion. En este laboratorio, dirigido por el
Prof. Roger Gassert, se desarrollan trabajos de investigacion utilizando un enfoque
combinado de robotica, psicofsica y neurociencias cognitivas con el n de desarrol-
lar y evaluar clnicamente, herramientas terapeuticas y de asistencia con en n de
apoyar la recuperacion, independencia e integracion social de personas fsicamente
inhabilitadas. Las investigaciones actualmente se enfocan en las funciones motoras
de la mano y de que manera la retroalimentacion a traves de doispositivos hapticos
puede beneciar el aprendizaje de estas funciones. Otros temas de interes actual son
la terapia de rehabilitacion y la interaccion humano-maquina.
Laboratorio de Robotica Bio-Inspirado. Como su nombre lo indica, en este
laboratorio se realiza investigacion basada en la robotica y la biologa. En este sen-
tido, utilizando los principios de dise no de los sistemas biologicos, se desarrollan
tecnologas para el dise no y control de sistemas mecatronicos dinamicos sensores
5.2. REDES NEURONALES (RN) 339
bionicos, y tecnicas de optimizacion computacional. Entre las metas principales,
que persigue actualmente este grupo de trabajo liderado por el Prof. Fumiya Lida
es contribuir a un entendimiento mas profundo de los mecanismos de adaptacion
y autonoma animal mediante la investigacion en robots, y desarrollar novedosas
aplicaciones roboticas que sean mas adaptables, exibles, y ecientes.
Laboratoria de Robotica

Agil y Habilidosa. La investigacion que se realiza en
este laboratorio guiado por el Prof. Jonas Buchli, se centra en obtener mecanismos
de control para robots con las siguientes caractersticas: robusto, dinamico, agil, y
dinamico; el cual sea aplicable en entornos reales. Esto se intenta conseguir a traves
control basado en modelos, procedimientos de control para la impedancia y la fuerza,
as como la integracion de tecnicas de aprendizaje en maquinas. Las posibles apli-
caciones de estos trabajos incluyen las siguientes: manipulacion movil, mecanismos
de sujecion, patas utilizadas para locomocion, dispositivos para protesis, robotica
utilizada en exteriores, y dise no de mecanismos roboticos bio-inspirados.
Como se puede apreciar, la robotica es un campo de investigacion emergente que
cuenta con importantes grupos de investigacion en todo el orbe. Los trabajos desar-
rollados indican que este es un campo donde convergen varias disciplinas. Asimismo,
se demuestra que un gran n umero de productos comerciales han sido resultado de
una participacion multidisciplinaria.
A continuacion se va a describir otra de las disciplinas relacionadas con la IA, y al
igual que la robotica es un campo emergente de investigacion.
5.2. Redes neuronales (RN)
Las redes neuronales articiales (RNA) o simplemente redes neuronales (RN), son
modelos matematicos o simulaciones por computadora que intentan imitar la
operacion del cerebro biologico. La idea en construir una red neuronal articial en el
ambito computacional, es la de realizar tareas, que la gran mayora de los actuales
programas ejecutandose en microprocesadores convencionales son incapaces de hac-
er. En base a estudios se tiene conocimiento de que el cerebro biologico es un organo
formado por una gran cantidad de unidades especializadas (neuronas), cuya unica
funcion es la de comunicarse unas con otras. Ademas, el cerebro biologico tiene la
capacidad de aprendizaje y procesamiento en paralelo. Las caractersticas que ofrece
la implementacion en de una RNA son entre otras las siguientes:
340 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
a) Exhiben capacidad de mapeo, es decir, pueden mapear patrones de entra-
da a los patrones de salida correspondientes.
b) Aprenden a partir de ejemplos, las diferentes arquitecturas son entrenadas
con ejemplos conocidos antes de evaluar su capacidad de inferencia con
ejemplos desconocidos.
c) Poseen la capacidad de generalizar, por lo tanto, pueden predecir nuevos
resultados partiendo de tendencias pasadas.
d) Son sistemas robustos y tolerantes a fallos, debido a su naturaleza dis-
tribuida si alguna unidad falla el sistema contin ua su operaci on, asimis-
mo, pueden recordar patrones completos a partir de patrones incompletos,
parciales o ruidosos.
e) Procesan informacion en paralelo, de forma distribuida y a gran velocidad.
f ) Pueden realizar tareas que los programas lineales no realizan (debido a su
esquema de procesamiento paralelo).
Sin embargo, este paradigma tambien tiene las siguientes desventajas: i) requiere de
entrenamiento para operar, ii) los microprocesadores actuales no soportan la arqui-
tectura de una RNA, por lo que su operacion debe ser simulada, iii) una RNA de
gran tama no, requiere de mucho tiempo de procesamiento. Sin embargo, y, a pesar
de sus desventajas, el paradigma basado en redes neuronales articiales ofrece un
gran potencial en una variedad de aplicaciones, por lo que, su estudio despierta gran
interes dentro de varias comunidades cientcas (vision, robotica, procesamiento de
lenguaje natural, reconocimiento de patrones, IA). Las caractersticas de una RNA
las hacen apropiadas para las siguientes tareas:
Clasicacion, enfocada a reconocimiento de patrones, extraccion de car-
actersticas, e imagenes.
Prediccion, basada en datos historicos.
Control.
Reduccion de ruido, reconocer patrones en las entradas y producir respues-
tas sin ruido (actualmente las RNA se encuentran entre las tecnologas mas
novedosas para el procesamiento de se nales).
Desde la incursion del primer modelo de red neuronal propuesto en 1943 por Mc-
Culloch y Pitts, las RNA se han visto fortalecidas debido a una gran cantidad de
nuevas propuestas, de tal manera que actualmente son un campo relevante dentro
del estudio de la IA.
En esta seccion, se van a mostrar aspectos importantes relacionados con este paradig-
ma computacional, iniciando con una descripcion de sus principios operacionales,
5.2. REDES NEURONALES (RN) 341
continuando con las arquitecturas mas utilizadas, y nalizando con una revision de
su estado actual y aplicaciones.
5.2.1. Coceptos basicos
Aunque las computadoras digitales actuales nos rebasan facilmente en el proce-
samiento del calculo numerico y la manipulacion simbolica, estos sistemas a un son
inecientes comparado a los humanos en la solucion de complejos problemas rela-
cionados con la percepcion (reconocimiento de rostros, reconocimiento de voz), los
cuales son facilmente resueltos por los humanos. La razon de esta diferencia consiste
en las arquitecturas de los sistemas de procesamiento. La arquitectura que rige el
procesamiento de informacion en las actuales computadoras, es la arquitectura de
Von Newman, la cual es un esquema de procesamiento secuencial. Mientras que la
arquitectura de las neuronas biologicas dan como resultado un procesamiento de in-
formacion paralelo. Esta diferencia arquitectural en los esquemas de procesamiento,
afecta notablemente el tipo de tareas que cada modelo realiza mejor. Las RNA son
masivos sistemas de computo paralelo, integrados por un gran n umero de unidades
de procesamiento (neurona) muy simples. La neurona biologica (ver Figura 5.23(a))
esta formada por un cuerpo celular en el que reside el n ucleo, y posee dos tipos de
ramicaciones: axon y dendritas. Una neurona recibe se nales (impulsos electricos)
de otras neuronas a traves de las dendritas y transmite se nales por el axon, el cual
eventualmente se ramica en hilos y subhilos, en cuyas terminales estan las sinapsis,
estructura elemental y unidad funcional entre dos neuronas.
Cuando las neuronas estan en operacion, las sinapsis son ajustadas para permitir
o inhibir las se nales, de tal manera que estas unidades aprenden de las actividades
en las que participan. Cada neurona esta conectada (aproximadamente) a otras 10
4
neuronas, y el n umero de interconexiones que tiene el cerebro humano, se encuentra
aproximadamente entre 10
14
a10
15
. Esta compleja red de comunicacion en paralelo,
hace que algunas tareas complicadas para las actuales computadoras, tal como el
reconocimiento de rostros, se realicen en unas decenas de milisegundos en el cerebro
humano.
Modelo de la neurona articial. El primer modelo para una neurona articial fue
propuesto por McCulloch y Pitts en 1943, y consistio de una unidad de umbralizacion
binaria (ver Figura 5.23(b)). Este modelo obtiene la suma ponderada (w
i
x
i
) de las
se nales de entrada (X
i
), y produce una se nal de salida (y) con valor numerico de 1,
si la suma esta por encima de cierto valor de umbral u, y un valor numerico de 0 en
caso contrario. La representacion matematica de este modelo es la siguiente:
342 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.23: Neurona biologica y su modelo matematico. (a) ilustracion de una neu-
rona biologica, (b) imagen que corresponde al primer modelo de neurona propuesto
por McCulloch y Pitts en 1943.
y =
_
_
n

j=1
w
j
x
j
u
_
_
Donde (.) es una funcion de paso unitaria en 0, y w
j
es el peso sinaptico asociado
con la j esima entrada. Por simplicidad notacional, muy seguido se considera al
umbral u como otro peso (w
0
= u) el cual se asigna a una neurona con una en-
trada constante (x
0
= 1). Los pesos positivos corresponden a sinapsis de excitacion
mientras que los negativos a sinapsis inhibitorias. El ajuste apropiado de los pesos
permite al modelo articial de la neurona realizar una variedad de calculos.
La analoga entre la neurona biologica y la articial se describe de la siguiente man-
era: los axones y dendritas son representados por cables y sus conexiones, los pesos
indican las sinapsis, y la actividad del n ucleo se representa por la funcion de umbral.
Sin embargo, el modelo de McCulloch y Pitts es bastante limitado y no expresa el
5.2. REDES NEURONALES (RN) 343
comportamiento real de la neurona biologica. Con el paso del tiempo se han de-
sarrollado extensiones y generalizaciones al modelo inicial, aproximandolo mas al
biologico. Una mejora consiste en el uso de funciones de activacion (reemplazando
a la de umbral) de diferentes tipos: lineal, gaussiana y sigmoidal, entre otras. De
acuerdo con Jain y otros [137], la RNA con funcion sigmoidal es el modelo mas
utilizado.
Arquitecturas de RNAs. Las RNAs pueden ser vistas como grafos pesados di-
rigidos, donde los nodos representan neuronas individuales y los enlaces entre ellos
son conexiones entre salidas y entradas de neuronas (ver Figura 540). En base a la
forma en que estan conectadas, las RNAs se clasican en dos grandes grupos:
1) Redes con alimentacion hacia adelante (feed-forward). En estas redes no existen
ciclos (ver Figura 5.24(a)). Las RNA pertenecientes a este grupo son estaticas, es
decir, producen solamente un conjunto de valores de salida en lugar de una secuen-
cia de valores a partir de una entrada dada. Asimismo, estas redes no mantienen
registro de las entradas (memory-less), en el sentido de que la respuesta a una en-
trada, es independiente de la respuesta en el estado anterior. Ejemplos tpicos de
esta arquitectura son las redes perceptron de una y m ultiples capas.
2) Redes recurrentes o retroalimentadas (feedback). En este grupo de redes existe
retroalimentacion, por lo tanto, se presentan ciclos en los grafos (ver Figura 5.24(b)).
A diferencia del grupo anterior, estas redes se caracterizan por ser dinamicas, es de-
cir, cuando un nuevo patron de entrada se presenta, las salidas son calculadas, y
debido las trayectorias de retroalimentacion las entradas a las neuronas son modi-
cadas lo cual da como resultado que la red entre a un nuevo estado. Algunos ejemplos
representativos de este grupo de redes son las siguientes: red auto organizativa de
Kohonen, red de Hopeld, modelos ART, y redes competitivas.
Independientemente de la arquitectura que tenga una red neuronal, se requiere de
un apropiado algoritmo de aprendizaje para que pueda funcionar.
Aprendizaje. La habilidad de aprender es una caracterstica fundamental de la in-
teligencia. En el contexto de una RNA, el proceso de aprendizaje puede verse como
el problema de actualizar la arquitectura de la red y los pesos de las conexiones, de
tal forma que una red, pueda realizar de manera eciente una tarea especca [137].
La red usualmente aprende los pesos de las conexiones a partir de patrones de entre-
namiento disponibles. El rendimiento se mejora a traves de la actualizacion iterativa
de los pesos en la red. La habilidad de las RNA para aprender automaticamente a
344 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.24: Arquitecturas de las redes neuronales. (a) RNA con alimentacion hacia
delante; (b) RNA con retroalimentacion, en este tipo de redes existe la formacion
de ciclos.
5.2. REDES NEURONALES (RN) 345
partir de ejemplos (positivos y negativos) las convierten en un enfoque atractivo
para varias aplicaciones. En vez de seguir un conjunto de reglas especicadas por
un experto humano, las RNAs aprenden estas reglas, al igual que las relaciones de
entrada-salida a partir de una coleccion de ejemplos representativos. Esta es una
caracterstica que distingue a las redes neuronales de otros enfoques. Para aplicar
el proceso de aprendizaje, se debe contar inicialmente con un modelo del ambiente
donde la red va a operar, es decir, se debe conocer la informacion disponible para la
red. Posteriormente, se debe entender como los pesos de la red se van a actualizar, es
decir, que reglas del aprendizaje controlan el proceso de actualizacion. Al mecanismo
mediante el cual las reglas de aprendizaje se aplican para ajustar los pesos de la red
se le conoce como: algoritmo de aprendizaje. Existen tres estrategias para aplicar
estos algoritmos: (i) aprendizaje supervisado, (ii) aprendizaje no supervisado y (iii)
aprendizaje hbrido. A continuacion se proporciona una descripcion de cada tipo de
aprendizaje.
Aprendizaje supervisado. Este tipo de aprendizaje se caracteriza por tener un
tutor o maestro que va guiando el proceso. Se le proporciona a la red muestras
de datos de entrada y de salida, es decir, para un patron de entrada determinado
(por ejemplo: 01), se le indica cual es la salida correcta (por ejemplo: 1). Durante
el proceso, los pesos (w
i
) se van ajustando para que la red genere respuestas lo mas
cercana a las indicadas por el tutor. Otra variante del aprendizaje supervisado es el
conocido como: Aprendizaje por refuerzo. En este aprendizaje, se trata de aprender
de la experiencia y no de un conjunto de ejemplos. Bajo este enfoque, el desempe no
de la red es evaluada mediante una recompensa la cual puede ser positiva o negativa,
indicandole a la red que tan bien esta haciendo su tarea. En base a esta recompensa
o crtica, la red ajusta sus pesos para mejorar su operacion.
Aprendizaje no supervisado. A diferencia del aprendizaje supervisado que cuen-
ta con un gua para indicarle que aprender, el aprendizaje no supervisado no cuenta
con esta ayuda, es decir, no cuenta con las respuestas correctas al darsele el conjunto
de datos de entrenamiento. Bajo este esquema, se analiza la estructura de los datos
y se exploran las correlaciones existentes entre los patrones de los mismos, y par-
tiendo de esta informacion, los patrones encontrados son organizados o agrupados
en categoras.
Aprendizaje hbrido. Este tipo de aprendizaje combina las estrategias utilizadas
por los dos anteriores. bajo este esquema, algunos pesos en la red son determinados
a traves de un enfoque supervisado, mientras que los demas se asignan aplicando el
enfoque no supervisado.
346 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
En el aprendizaje a partir de datos se deben tener presente los siguientes aspectos
relacionados con el mismo: capacidad, complejidad de las muestras y complejidad
computacional. La capacidad se reere a la cantidad de patrones que pueden al-
macenarse, y con el tipo de funciones y decisiones que puede realizar la red. La
complejidad de las muestras tiene que ver con la cantidad de patrones de entre-
namiento, que es necesaria para garantizar la generalizaci on de la red. Por otro
lado, la complejidad computacional, se reere al tiempo requerido para que un al-
goritmo de aprendizaje obtenga una solucion con los datos de entrenamiento.
Los aspectos anteriores son fundamentales al momento de dise nar algoritmos que
sean ecientes para el aprendizaje de una RNA. Asimismo, independientemente del
paradigma de aprendizaje utilizado, existen cuatro tipos b asicos de reglas aplicadas
durante este proceso: 1) correccion de error, 2) aprendizaje de Boltzman, 3) regla
de Hebbian, y 4) regla de aprendizaje competitivo. Una breve descripcion de cada
regla se dara a continuacion.
1) Correccion de error. En el paradigma de aprendizaje supervisado, a la red se
le proporciona la salida deseada para cada patron de entrada. Durante el proceso
de aprendizaje, la salida y generada por la red puede no ser la salida deseada d.
El principio basico de las reglas de aprendizaje basadas en la correccion del error,
es usar la se nal de error (d y) con el n de ajustar los pesos de las conexiones
y reducir gradualmente esta se nal. La regla de aprendizaje de la red perceptron se
basa en este principio.
2) Aprendizaje Boltzman. La maquina de Boltzman es una red recurrente y
simetrica consistente de unidades binarias (+1 para indicar on, y 1 para o).
El termino simetrica, signica que el peso en la conexion de la unidad i a la unidad
j, es igual con el peso de la conexion entre la unidad j y la unidad i (w
ij
= w
ji
).
En este esquema, solamente un subconjunto de neuronas (neuronas visibles) son
las que interact uan con el ambiente. Cada neurona es una unidad estocastica que
genera una salida (estado) de acuerdo con la distribucion estadstica de Boltzman.
Las maquinas de Boltzman tienen dos formas de operacion: restringido, en el cual
las neuronas visibles se encuentran sujetas a estados especcos determinados por el
ambiente; y de libre ejecucion, en el que tanto las neuronas visibles como las ocultas
operan libremente. Esta regla de aprendizaje, es una regla de tipo estocastica, basa-
da en los principios de teora de la informacion y de la termodinamica. El objetivo de
esta regla de aprendizaje, consiste en ajustar los pesos de las conexiones, de tal forma
que los estados de las neuronas visibles satisfagan una distribucion de probabilidad
especca. Este aprendizaje puede ser visto como un caso especial del mecanismo de
aprendizaje de correccion de error, donde el error no es manejado como la diferencia
5.2. REDES NEURONALES (RN) 347
entre la salida deseada y la actual, sino, como la diferencia de correlaciones entre
las salidas de dos neuronas bajo condiciones de operacion restringida y libre.
3) Regla de Hebbian. La mas antigua de las reglas de aprendizaje utilizadas por
las redes neuronales, se basa en el postulado de aprendizaje de Hebb. Hebb baso es-
ta regla en la siguiente observacion derivada de experimentos neurobiologicos: Si
las neuronas estan conectadas a ambos lados, entonces las sinapsis son activadas de
manera sncrona y repetida, la fuerza de la sinapsis, es selectivamente incrementada,
es decir, el peso en el tiempo t + 1 depende del peso en el tiempo t. Esta regla de
aprendizaje es local, es decir, el ajuste de los pesos en las sinapsis depende solamente
de las actividades de las dos neuronas conectadas por cada sinapsis. Esta propiedad
simplica en gran medida la complejidad de aprendizaje.
4) Regla de aprendizaje competitivo. A diferencia del aprendizaje Hebbiano,
en el cual m ultiples unidades de salida pueden ser activadas (disparadas) de forma
simultanea, en el aprendizaje competitivo, las unidades de salida compiten entre
ellas para su activacion. Resultado de este proceso, es que solamente una unidad de
salida se encuentra activa a la vez. Este tipo de aprendizaje se ha encontrado en las
redes de neuronas biologicas. Bajo este enfoque, los datos de entrada son agrupados
o clasicados, de tal manera que los patrones similares son agrupados por la red y
representados por una unidad. El proceso de agrupamiento se hace automaticamente
basandose en la correlacion de los datos. Un determinado patr on de entrada puede
activar diferentes unidades de salida en diferentes iteraciones durante el aprendiza-
je. Esto trae como consecuencia la estabilidad del sistema de aprendizaje. Se dice
que el sistema alcanza la estabilidad, si ning un patron de entrada (durante el en-
trenamiento) cambia su categora despues de un n umero nito de iteraciones. Una
forma de alcanzar la estabilidad del sistema, consiste en forzar la razon de apren-
dizaje a disminuir gradualmente hasta cero. El ejemplo mas conocido de aprendizaje
competitivo, es la cuantizaci on vectorial, proceso aplicado en la compresion de datos.
La cuantizaci on vectorial, ha sido ampliamente utilizada en el procesamiento de voz
y de imagenes como un enfoque eciente de almacenamiento, transmision y mod-
elado. La idea en este proceso, es la representacion un conjunto o distribucion de
vectores de entrada, mediante un reducido n umero de vectores prototipo (en RNA:
vectores de pesos), o tambien conocido como: libro de codigos (codebook).
5.2.2. Clasicacion
Existen dos criterios sobre los que usualmente se basa la clasicacion de las redes
neuronales, el primero es tomando en cuenta su arquitectura y el segundo es en
base a la estrategia de aprendizaje utilizada. Ya se han mencionado en los parrafos
348 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
anteriores ambos esquemas. En este apartado se va ampliar la explicacion de esta
tecnica en base a su arquitectura.
1. Redes multicapas con alimentacion hacia adelante. La RN mas popular
de esta clase es la perceptron de m ultiples capas
1
, la cual es una extension de la
red perceptron de una capa propuesta inicialmente por Frank Rosenblatt en 1958,
como una generalizacion al modelo inicial de McCulloch y Pitts. El perceptron se
considera el primer modelo de RNA, su exito inicial se debio a que era capaz de
aprender y reconocer patrones sencillos. Con el desarrollo del perceptron, surge el
area de las Redes Neuronales Articiales dentro de la Inteligencia Articial.
Al modelo del perceptron se le conoce actualmente como perceptron cl asico, ya que
en 1960 Marvin Minsky y Seymur Papert perfeccionaron el perceptron inicial y a
este modelo perfeccionado se le conoce simplemente como perceptron. Lo innovador
en el perceptron clasico fue la introduccion de pesos numericos y el uso de un patron
de conexion especial. En este modelo, las unidades de computo son elementos de um-
bralizacion y la conectividad se determina de forma estocastica. El aprendizaje se
realiza ajustando los pesos de la red con un algoritmo numerico.
La red perceptron fue basada en el modelo biologico del ojo humano, en el cual
la retina responde a se nales luminosas. Como se ilustra en la Figura 5.25, la se nal
luminosa incide en la retina y los impulsos generados en la misma se transmiten a las
unidades localizadas en el area de asociacion, a su vez, cada una de estas unidades
se conecta de forma aleatoria a unidades del area de proyeccion. Cuando aparece un
conjunto de estmulos en la retina, estos son proyectados a alg un elemento activado
del area de asociacion por elementos existentes en el area de proyeccion. Un elemento
del area de asociacion se activa si la suma de sus entradas excede un valor de umbral,
en este momento enva su salida a la capa de respuestas. Las conexiones de la retina
a las unidades de proyeccion son deterministas, mientras que las conexiones a las
unidades de la segunda y tercera capas son seleccionadas de forma estocastica con
el n de hacer al modelo matematico consistente con su contraparte biologico. La
idea consiste en entrenar el sistema para reconocer ciertos patrones de entrada en
la region de conexion (pesos).
En esencia, el entrenamiento implica un proceso de aprendizaje por refuerzo en el
cual, la salida de las unidades del area de asociacion se incrementan o decrementan
dependiendo si los elementos contribuyen o no a las respuestas correctas para un
patron de entrada dada. Es decir, se aplica una entrada a la retina, y el estmulo
1
En las redes neuronales de varias capas, algunos autores no cuentan la capa de entrada debido
a que ah no se realiza ning un tipo de procesamiento, de tal forma que, si se habla de una red
de tres capas, tecnicamente son cuatro. A las capas que se encuentran entre la de entrada y la de
salida se les conoce como capas ocultas.
5.2. REDES NEURONALES (RN) 349
Figura 5.25: Ilustracion del perceptron clasico.
se propaga a traves de las capas hasta que se activa una unidad de respuesta. Si
se activa la unidad de respuesta correcta, se incrementa la salida de las unidades
del area de asociacion participantes. En caso contrario, se disminuye la salida de las
unidades de asociacion participantes.
En sus comienzos, el Perceptron se utilizo en tareas de reconocimiento de patrones
de una manera muy limitada, pues al ser una red con una sola capa, su unica neurona
de salida realizaba la suma ponderada de las entradas, restaba el umbral y pasaba
el resultado a una funcion de transferencia de tipo escalon (ver Figura 5.26). En tal
modelo, la regla de decision consista en mostrar +1 si el patron presentado en la
capa de entrada perteneca a la clase A, o 1 si perteneca a la clase B (ver Figura
5.26), la salida y dependa de la entrada neta (sumatoria de x
i
w
i
). Una manera
para analizar el comportamiento del Perceptron, consiste en presentar en un mapa
las regiones de decision creadas en el espacio multidimensional de entradas X
i
de
la red, en estas regiones se visualiza que patrones pertenecen a una clase y cuales
a otra, el Perceptron separa las regiones por un hiperplano cuya ecuacion queda
determinada por los pesos de las conexiones y el valor umbral de la funcion de acti-
vacion de la neurona, en este caso los valores de los pesos pueden jarse o adaptarse
empleando diferentes algoritmos de entrenamiento. El Perceptron, al constar de una
sola capa de entrada y otra de salida con una unica neurona, tiene una capacidad de
representacion bastante limitada, este modelo solo es capaz de discriminar patrones
muy sencillos, patrones correspondientes a dos clases linealmente separables (ver
Figura 5.26). Esto se debe a las unidades basicas del perceptron, cuya limitacion
reside principalmente en la funcion de activacion, la cual separa las entradas en dos
salidas, de manera que con todas las entradas posibles se forma un hiperplano cuyos
350 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
elementos de salida son separados en dos partes (ver Figura 5.26 (inferior)).
Actualmente y gracias a la integracion de diferentes funciones de activacion tal como
la sigmoidal, as como al uso de mejores algoritmos de aprendizaje, tal como el de
propagacion hacia atras (back-propagation), utilizado para determinar los pesos en
un perceptron de m ultiples capas, las redes neuronales del tipo perceptron permiten
la aproximacion de funciones no lineales. Por lo anterior, estas redes se han vuelto
las mas populares entre los investigadores y usuarios de redes neuronales. Asimismo,
el perceptron es la unica red neuronal que tiene un teorema de convergencia el cual
establece que, si el problema es linealmente separable, el perceptron encontrara la
solucion. Aunque no se sabe cuanto tiempo le llevara encontrar la solucion y mucho
menos si la solucion encontrada sera la optima.
Redes de funcion de base radial (RBF). La red RBF, que consta de dos capas, es
un caso especial de redes con alimentaci on hacia delante que utilizan como elemento
de activacion una funcion de base radial, tal como el kernel Gaussiano, es decir, ca-
da unidad de salida implementa una combinacion lineal con funciones de este tipo.
Estas redes utilizan generalmente un tipo de aprendizaje hbrido para ajustar sus
parametros, el cual converge mas rapido que el de propagacion hacia atras utilizado
por las redes perceptron multicapas. Sin embargo, para muchos problemas, las redes
RBF requieren de un gran n umero de unidades ocultas, esto causa que durante la
ejecucion, sean mas lentas que las redes perceptron multicapas. Las eciencias (error
generado contra tama no de la red) de ambas redes son dependientes del problema.
Existen varios aspectos que se deben de considerar en las redes con alimentaci on
hacia delante, tales como: i) n umero de capas necesarias para realizar una tarea
determinada, ii) n umero de elementos por capa, iii) habilidad para generalizar, es
decir, que tan bien la red identica datos no mostrados en el entrenamiento, y iv)
el tama no del conjunto de datos de entrenamiento para obtener una buena gen-
eralizacion. Aunque este tipo de redes se han utilizado ampliamente en tareas de
clasicacion y aproximadotes de funciones, algunos parametros de dise no a un se de-
terminan por prueba y error.
2. Mapas auto-organizativos de Kohonen(SOM). Los modelos de Mapas Auto-
organizativos (SOM) fueron introducidas por T. Kohonen en 1984. Son redes neu-
ronales articiales que utilizan aprendizaje no supervisado para determinar sus
parametros. Por lo tanto, la principal diferencia entre estas redes y otros mode-
los convencionales, es que la salida correcta para un patron de entrada no puede
denirse a priori, por lo que la indicacion del error mediante un valor numerico no
puede ser utilizado.
5.2. REDES NEURONALES (RN) 351
Figura 5.26: Arquitectura del perceptron. En la imagen se muestra la arquitectura
del perceptron para un patron de entrada consistente de solo dos caractersticas (X
1
y X
2
). Como se puede apreciar, la red esta formada por dos capas, una de entrada con
un par de unidades y una unidad de salida, conectada a las de entrada mediante una
conexion ponderada (W
1
, W
2
). En la imagen inferior se ilustra la funcion principal
de esta red que consiste en manejar clases (A y B) linealmente separables utilizando
una funcion discriminante lineal para crear una frontera de decision.
352 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Las ventajas de los SOM, radica en que son capaces de preservar la topologa del
espacio de los datos, es decir, permiten el mapeo de datos altamente dimensionales
a una representacion matricial de baja dimension. El exito de estas redes, se debe a
su propiedad de crear representaciones internas espacialmente organizadas de varias
caractersticas de las se nales de entrada y de sus abstracciones [139]. El algoritmo de
aprendizaje utilizado por estas redes consiste en un procedimiento iterativo capaz
de representar la estructura topologica del espacio de entrada (discreto o continuo)
por medio de un conjunto discreto de prototipos de vectores de peso asociados a
neuronas de la red (ver Figura 5.27). Las SOM mapean los patrones de entradas
vecinos a neuronas vecinas. El mapa es generado estableciendo una correspondencia
entre las se nales de entrada y las neuronas localizadas en una cuadrcula discreta.
La correspondencia se obtiene a traves de un algoritmo de aprendizaje competitivo
consistente en una secuencia de pasos de entrenamiento que modica iterativamente
el vector de pesos de las neuronas de la cuadrcula.
Como ya se menciono, en una red tipo Kohonen, las unidades de salida son or-
denadas, usualmente en una cuadrcula bidimensional o arreglo, aunque este or-
denamiento en ultima instancia depende de la aplicacion. Durante el proceso de
ordenamiento, el cual en algunas ocasiones es seleccionado por el usuario, se deter-
mina la vecindad entre las neuronas de salida. Durante el aprendizaje, cuando un
patron se presenta en las unidades de entrada, los pesos en las unidades de salida
se adaptan de tal manera que el orden presente en el espacio de entrada (dimen-
sion n) sea preservado en las unidades de salida. Esto signica que los patrones de
entrenamiento cercanos (con respecto a la medida utilizada en la unidad ganadora)
deben ser mapeados a unidades de salida las cuales deben ser cercanas unas a otras
(las mismas o unidades vecinas). El proceso de mapeo, el cual representa una dis-
cretizacion del espacio de entrada, es el que preserva la topologa. Cuando un nuevo
patron se presenta en las unidades de entrada, todas las neuronas compiten para
representarla. La unidad que mejor se ajusta es la que resulta ganadora y en conjun-
to con sus vecinas de la cuadrcula aprenden la se nal. En este proceso, las neuronas
vecinas gradualmente ajustan su peso para representar se nales de entradas similares
y las representaciones se organizaran y ordenaran en la cuadrcula del mapa. Debido
a este esquema de aprendizaje colectivo, las se nales presentes en la entrada cercanas
unas con otras, seran mapeadas a neuronas vecinas. De esta forma, la topologa pre-
sente en las se nales de entrada seran preservadas en el mapeo, tal como se muestra
en la Figura 5.27.
Las SOM han demostrado ser una herramienta muy utilizada en una variedad de
aplicaciones tales como: proyeccion de datos multivariados, agrupamiento, minera
de datos, metodologa para el descubrimiento de conocimiento en base de datos,
reconocimiento de patrones, analisis de imagenes, monitoreo de procesos y deteccion
5.2. REDES NEURONALES (RN) 353
Figura 5.27: Conservacion de la topologa de una red Kohonen. En la imagen se
ilustran los vectores de pesos con dos entradas y un arreglo de neuronas de salida
de 8x8. Una lnea en cada una de las imagenes conecta los pesos de las neuronas y
sus vecinas. La imagen de la izquierda (iteraci on 0) muestra los pesos iniciales, y
la imagen de la extrema derecha (iteraci on 1900) muestra el mapa casi terminado
[138].
de fallas, entre otras.
3. Modelos que aplican la Teora de Resonancia Adaptiva (ART). El dilema
de la estabilidad exible es un aspecto importante en el aprendizaje competitivo.
Esto se reere a la capacidad de aprender nuevas cosas (exibilidad) y asegurarse de
que el conocimiento previo no sea modicado o borrado (estabilidad). Los modelos
de resonancia adaptiva (ART1, ART2, y ARTMap) propuestos por Gail Carpenter
y Stephen Grossberg en 1986, fueron desarrollados con la nalidad de cumplir con
el dilema mencionado. Esta propuesta se trata mas de una teora que de un algorit-
mo y se enfoca principalmente a clasicar una secuencia estocastica de vectores en
grupos, aplicando para ello un tipo de aprendizaje no supervisado. El procedimiento
para esta tarea sigue los siguientes pasos: 1) el patron de entrada se clasica en una
categora, 2) la categora en la que se agrupa es con la que tiene mayor similitud (de
acuerdo a alg un criterio), 3) si el vector de entrada no se parece a ninguna categora
existente, se crea una nueva. En estas redes el algoritmo de aprendizaje actualiza
los prototipos almacenados pertenecientes a una categora solamente si el vector de
entrada es sucientemente similar a ellos. Se dice que un vector de entrada y un
prototipo almacenado entran en resonancia cuando son muy similares. El aspecto
de similitud es controlado por un parametro de vigilancia , el cual tiene un val-
or comprendido entre 0 y 1. Este parametro se encarga tambien de determinar el
n umero de categoras. Ya se menciono que, cuando un vector de entrada no es lo
sucientemente similar con alguna categora existente se crea una nueva, y como
resultado, una unidad sin compromiso se asigna a esta categora, manteniendo al
vector de entrada como su prototipo inicial. A continuacion se va a describir la ar-
354 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.28: Arquitectura del modelo ART-1 [140].
quitectura de estas redes.
La arquitectura ART-1 fue propuesta para tratar con vectores binarios, la cual fue
posteriormente generalizada (ART-2) para manejar vectores en el dominio de los
reales. Finalmente, el modelo ART-2 fue extendido al ART-3, cuya dinamica esta de-
terminada por ecuaciones diferenciales similares a las encontradas en la descripcion
de las se nales qumicas. En este apartado solo se mencionara la arquitectura corre-
spondiente al modelo ART-1. En la Figura 5.28, se muestra la estructura basica de
este modelo, se nota que existen dos capas con unidades de computacion. La capa
F
2
contiene elementos que se activan de acuerdo con el metodo el ganador se lleva
todo. Solamente el elemento que recibe el maximo escalar, resultado del producto
de su vector de pesos y la entrada, se activa a 1. En este ejemplo, el segundo elemento
de la izquierda en la capa F
2
ha generado la salida con valor de 1, mientras que las
unidades restantes se mantienen desactivadas. Los vectores de peso correspondientes
a las unidades de la capa F
2
inicialmente contienen el mismo valor (1) y se van a ir
modicando gradualmente conforme el aprendizaje progresa.
La capa F
1
, recibe vectores de entrada binarios a partir de las fuentes de entrada.
En esta capa todas las unidades manejan un valor de umbral de 2, esto signica que
la unidad de atencion (ver Figura 5.28) solo puede ser desactivada por la capa F
2
.
Cuando un vector se presenta a la entrada, es pasado a la capa F
1
y de ah a la capa
5.2. REDES NEURONALES (RN) 355
F
2
. Cuando alg un elemento de la capa F
2
se activa, los pesos con valor negativo
desactivan la unidad de atencion, y la unidad que resulta ganadora en la capa F
2
enva de regreso una se nal con valor de 1 a traves de las conexiones de las capas F
2
y F
1
. En este momento, cada elemento en la capa F
1
se convierte en un elemento
de entrada para el correspondiente vector de entrada x y del vector de pesos w. La
i esima unidad de F
1
compara los valores de x
i
con w
i
y obtiene el producto de am-
bos. La unidad de reset recibe esta informacion as como los componentes del vector
x ponderados por y el parametro de atencion, obteniendo con estos parametros un
valor que corresponde a un dato de prueba. La unidad de reset se activa solamente si
la entrada cae fuera del cono de atencion de la unidad ganadora. Una se nal de reset
se enva a la capa F
2
solamente si la unidad ganadora es inhibida. Esto ocasiona que
la unidad de atencion (vigilancia) se active nuevamente y un nuevo ciclo de calculos
computacionales vuelve a empezar.
El proposito de la se nal de reset consiste en inhibir a todos los elementos que no
estan en resonancia con el vector de entrada. Si se presenta un vector de entrada que
no es similar a ninguno de los prototipos existentes, una unidad en la capa F
2
que
a un no se usa, puede ser seleccionada para un nuevo grupo que contenga al vector
de entrada x.
La estrategia utilizada por los modelos ART es solo uno de tantos enfoques prop-
uestos en la literatura para resolver problemas de agrupamiento. Este enfoque tiene
la desventaja de construir grupos del mismo tama no, independientemente de la dis-
tribucion de los datos. Una solucion mas apropiada, es permitir que los grupos sean
de tama no variable (manejar el parametro de atencion), el enfoque de maxima en-
tropa puede ser una propuesta para este problema.
4. Red de Hopeld. Esta red fue dise nada en los a nos 1980 por John Hopeld
durante el estudio de modelos auto-asociativos. Debido a su operacion, esta red se
puede incluir dentro de las redes recurrentes, ya que cada neurona (de la capa me-
dia) se conecta a todas las demas. Lo que marca la diferencia entre esta red y las
recurrentes es que funciona como una memoria asociativa. Hopeld utilizo una fun-
cion de energa como herramienta para dise nar redes recurrentes y comprender su
comportamiento dinamico. El esquema formulado por Hopeld hizo explcito el prin-
cipio de almacenamiento de informacion como atractores dinamicamente estables y
popularizo el uso de redes recurrentes como memorias asociativas y para resolver
problemas de optimizacion combinatoria. Una red del tipo Hopeld y que dispone
de n unidades, puede manejar dos tipos de se nales de entrada: binarias y continuas,
dando lugar cada una a diferentes arquitecturas. Para redes que manejan datos bi-
narios, las unidades de salida pueden presentar dos valores +1 y 1. En las redes
356 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
que manejan informacion continua, las unidades de salida pueden tener cualquier
valor entre 0 y 1. Las redes de Hopeld son simetricas, es decir, si w
i
j es el peso
sinaptico entre la unidad i y la unidad j, entonces w
ij
= w
ji
, ademas como no son
redes retroalimentadas w
ii
= 0. La dinamica de la red permite actualizar sus estados
por lo menos de dos formas: sncrona y asncrona. En un esquema de actualizacion
sncrono, todas las unidades se actualizan en cada momento. Bajo este esquema,
un reloj central se encarga de sincronizar el proceso. Mientras que en el esquema
asncrono, en el proceso de actualizacion, se elige una neurona de forma aleatoria
y actualiza su estado. Estas redes utilizan una funcion de energa cuya propiedad
principal consiste en que la red evolucione de acuerdo a la din amica descrita por
tal funcion. En este proceso, la energa de la red siempre decrece y eventualmente
alcanza un punto de mnimo local (atractor), en el cual, la red siempre se mantiene
con energa constante.
Memoria asociativa. Cuando un conjunto de patrones es almacenado en los atrac-
tores de la red de Hopeld, esta puede ser utilizada como una memoria asociati-
va. Una memoria asociativa generalmente opera en dos etapas: almacenaje y recu-
peraci on. En la etapa de almacenaje, los pesos de la red se determinan de tal forma
que los atractores memorizan un conjunto de p patrones ndimensionales a ser al-
macenados. En este caso, una generalizacion de la regla de aprendizaje Hebbian
puede utilizarse para ajustar los pesos de conexion w
ij
. En la etapa de recuperacion,
el patron de entrada es usado como el estado inicial de la red y la red evoluciona de
acuerdo a su dinamica. Un patron es generado (o recuperado) cuando la red alcanza
el equilibrio. La capacidad de almacenamiento en estas redes es nita y depende de la
cantidad n de unidades binarias, ya que una red con n unidades tiene un maximo de
2
n
estados diferentes, de los que no todos son atractores. Ademas, no todos los atrac-
tores (estados estables) pueden almacenar patrones utiles, ya que tambien pueden
existir atractores espurios. Se ha demostrado que el n umero maximo de patrones
aleatorios que una red de Hopeld puede almacenar es aproximadamente de 0,15n.
Cuando el n umero de patrones almacenados es menor a 0,15n, puede alcanzarse una
recuperacion casi perfecta. Por otro lado, cuando los patrones almacenados en la
memoria son ortogonales en lugar de aleatorios, un mayor n umero de ellos puede
almacenarse. Se han propuesto varias reglas de aprendizaje con el n de incrementar
la capacidad de memoria en las redes tipo Hopeld. Como nota, se indica lo sigu-
iente: se requieren n
2
conexiones en la red para almacenar p patrones de nbits [137].
Las redes de Hopeld siempre evolucionan en la direccion que conduce a reducir la
energa de la red. Esto implica que si un problema de optimizacion combinatoria
se formula para minimizar esta energa, la red de Hopeld puede ser utilizada para
encontrar la solucion optima (o suboptima) al permitirle evolucionar libremente. De
5.2. REDES NEURONALES (RN) 357
hecho, cualquier funcion cuadratica puede ser reescrita en la forma de una funcion
de energa de la red de Hopeld. Por ejemplo, el clasico problema del agente viajero
puede ser formulado (y resuelto) como una red de este tipo. Asimismo, estas redes
pueden aplicarse para explicar algunos aspectos neurofuncionales, al utilizarse co-
mo un modelo sencillo para explicar como ocurren las asociaciones entre ideas (o
recuerdos) en las redes de neuronas del cerebro.
5.2.3. Desarrollos actuales y aplicaciones
A poco mas de 25 a nos de que surgiera un renovado interes en trabajos de investi-
gacion relacionados con las redes neuronales, este campo interdisciplinario ha llegado
a ocupar un lugar importante y mantenerse como una solucion necesaria en varias
areas de las ciencias. En este apartado se van a mostrar algunos aspectos relaciona-
dos con el desarrollo y aplicacion de este interesante campo de la IA.
El interes mostrado en las RNAs en los ultimos a nos las han convertido en solu-
cion para un importante rango de dominios de problemas, en areas tan diversas
como las siguientes: medicina, ingeniera, nanzas, geologa, fsica y biologa. Des-
de un enfoque estadstico, las RNAs son interesantes debido a su uso potencial en
problemas de clasicacion y prediccion. Las redes neuronales articiales operan ba-
jo un enfoque autoadaptativo y manejado con datos no lineales, en oposicion a los
metodos tradicionales basados en modelos. Permiten identicar y aprender patrones
correlacionados entre un conjunto de datos de entrada y los correspondientes valores
objetivo. Asimismo, pueden procesar problemas que involucran aspectos de incer-
tidumbre (ruido e imprecision) en datos no lineales, tales como los datos relacionados
con la agricultura. Una caracterstica muy importante en este modelo consiste en
su naturaleza adaptativa, donde el aprendizaje basado en ejemplos reemplaza a la
programacion tradicional en la solucion de problemas. Asimismo, esta caracterstica,
vuelve a las RNAs una opcion atractiva en dominios de aplicacion donde se tiene
un entendimiento incompleto del problema a resolver, pero se tienen disponibles los
datos de entrenamiento.
Estas redes son neuronales en el sentido que han sido inspiradas por un mode-
lo biologico, aunque no necesariamente guardan mucha semejanza con el modelo
biologico o con aspectos cognitivos. De hecho, la mayora de las redes estan mas
relacionadas a los tradicionales modelos estadsticos o matematicos, tales como los
clasicadores de patrones no parametricos, algoritmos de agrupamiento, ltros no
lineales, y modelos de regresion estadstica.
358 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Las RNAs han sido aplicadas en una variedad de aplicaciones donde los metodos
estadsticos son tradicionalmente empleados, algunos ejemplos son: problemas de
clasicacion, tales como la identicacion de objetos bajo el agua a traves del sonar,
reconocimiento de voz, prediccion de estructura secundaria en protenas; aplicaciones
con series temporales, prediccion del rendimiento en el mercado de valores; aplica-
ciones estadsticas, estos problemas son generalmente resueltos a traves de metodos
estadsticos clasicos : analisis de discriminantes, regresion, analisis bayesiano, m ulti-
ple regresion. Por lo tanto, esto convierte a las redes neuronales en una herramienta
poderosa para el analisis de datos.
Este modelo se ha utilizado en la solucion de importantes problemas en diferentes
areas de interes cientco. Entre las principales categoras en las que se han aplicado
guran las siguientes:
Procesamiento de datos. Donde se han utilizado en tareas de ltrado,
agrupamiento y compresion.
Clasicacion. Se utilizan en aspectos de reconocimiento de patrones, de-
teccion y toma de decisiones.
Robotica. En este campo las redes neuronales se utilizan en aspectos de
control numerico computarizado y direccion de manipuladores.
Aproximador de funciones. Conocido tambien como analisis de regresion,
en esta categora las RNAs son aplicadas para realizar tareas de prediccion
en series temporales y modelado.
Enseguida, se mencionan algunos de los trabajos que se estan desarrollando actual-
mente con respecto a esta disciplina.
Laboratorio de redes neuronales y aprendizaje en maquinas. Este labora-
torio perteneciente a la Universidad de Brigham Young en Inglaterra, se enfoca al
desarrollo de nuevos algoritmos de aprendizaje, especcamente dise nados para ser
aplicados en sistemas roboticos autonomos. Asimismo, los esfuerzos se aplican en
tecnicas de aprendizaje por refuerzo aplicadas a la soluci on de grandes problemas,
de tal forma que sean lo sucientemente rapidas para que puedan operar en lnea.
Ademas, este laboratorio esta apoyando el desarrollo de proyectos de investigacion
en areas como las siguientes: transferencia de conocimiento, seleccion y composicion
de habilidades, aproximacion de funciones, y aprendizaje en m ultiples agentes. Mu-
chos de estos mecanismos de aprendizaje estan basados en redes neuronales, tales
5.2. REDES NEURONALES (RN) 359
como las redes recurrentes las que forman metodologas basicas en la solucion de
problemas.
Laboratorio de reconocimiento de patrones e imagenes. Perteneciente a la
Universidad Temple en Philadelphia, desarrolla actualmente el proyecto: Evolvable
Block-based Neural Networks for ECG Signal Monitoring, en el cual se trabaja
con redes neuronales capaces de recongurar (de forma autonoma) su estructura
y pesos de conexion durante su operacion en escenarios reales. El modelo de red
neuronal basado en bloques, consiste de un arreglo de dos dimensiones de bloques
basicos que pueden modicar su estructura y pesos de conexion aplicando algoritmos
evolucionarios, este modelo es implementado en hardware digital recongurable (ver
Figura 545). Este modelo, ha demostrado su potencial para el analisis de se nales
de electrocardiogramas (ECG) con el n de monitorear la condicion del corazon
en lnea y es insensible a variaciones entre individuos, horario, y bajo diferentes
condiciones del cuerpo. Este dispositivo, es de gran importancia para personas que
laboran en ambientes peligrosos (militares, bomberos, mineros), as como para per-
sonas mayores que requieren de un monitoreo constante con el n de pronosticar
posibles enfermedades.
Laboratorio de Vision Computacional y Redes Neuronales (CVNN). Este
laboratorio ubicado en la Universidad George Mason, en el estado de Virginia, en-
foca sus trabajos en estrategias de aprendizaje para mejorar el rendimiento visual.
Entre las areas de estudio guran las siguientes: interaccion humano-computadora
inteligente, biometrica, reconocimiento de objetos, agentes inteligentes en navegacion
autonoma, atencion y mecanismos de control.
Laboratorio de Redes Neuronales Articiales. Este laboratorio se encuentra
localizado en el Instituto de Semiconductores en China. Este es un centro academico
y de investigacion interdisciplinario, cuyos trabajos se enfocan hacia desarrollos en
microelectronica, con enfasis en tecnologas de computo conexionistas y el proce-
samiento inteligente de se nales. Los principales topicos de investigacion incluyen:
nuevas teoras y tecnologas de redes neuronales articiales, reconocimiento de pa-
trones biometricos, entre otros. algunos de sus proyectos recientes son: teora de la
aplicacion de redes neuronales a biologa computacional y bioinformatica, nuevas
tecnologas en el problema de las maquinas pensantes, nuevas teoras para el re-
conocimiento de patrones biomimeticos y aplicaciones de identicacion personal,
nuevos modelos y algoritmos en redes neuronales articiales y su implementacion en
dispositivos hardware, y sistemas inteligentes basados en redes neuronales.
El uso de las RN en el desarrollo de modelos aplicados para el aprendizaje automa-
tizado ha sido un aspecto relevante desde sus inicios. Actualmente, la construccion
360 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.29: Estructura de RNAs basada en bloques. Se ilustra una red neuronal
congurada en un bloque de m las y n columnas, que puede tener hasta m en-
tradas y m salidas. Un nodo puede manejar una se nal ya sea de entrada o de salida
dependiendo de la conguracion interna la cual a su vez es determinada por el ujo
de la se nal. En estas redes, la capacidad de generalizar surge a traves de varias con-
guraciones internas de los bloques. En la imagen inferior se muestra el dispositivo
hardware basado en este modelo de red [141].
5.2. REDES NEURONALES (RN) 361
de sistemas inteligentes capaces de extraer representaciones signicativas a partir
de datos de alta dimensionalidad son la base para resolver una variedad de proble-
mas relacionados con IA. Argumentos obtenidos a partir de investigacion biologica,
sugieren que la construccion de tales sistemas requieren modelos con una estructura
jerarquica capaz de soportar varios niveles de inferencia. Enseguida se van a mostrar
un par de recientes trabajos en el ambito del aprendizaje y, en los que se han uti-
lizado redes neuronales en su desarrollo.
1. Aprendizaje de funciones complejas. Recientemente se ha introducido un
enfoque de aprendizaje conocido como Arquitecturas de aprendizaje profundo,
en el cual, complicadas funciones que representan abstracciones de alto nivel, tales
como las utilizadas en vision, procesamiento del lenguaje natural, aprendizaje en
maquinas, y otras tareas de IA, pueden ser aprendidas a traves de pocos ejemplos,
tal como lo hacen los humanos. Estas arquitecturas se forman mediante una estruc-
tura jerarquica de m ultiples capas, donde cada capa puede ser representada por un
enfoque diferente (no lineal como en redes neuronales o proposicional como en las
redes bayesianas). La b usqueda en el espacio de parametros de estas arquitecturas
es una tarea difcil, pero se han propuesto algunos algoritmos de aprendizaje tales
como los aplicados en las redes neuronales de m ultiples capas que han resuelto de
forma exitosa este problema. Las redes neuronales han participado en aspectos de
aprendizaje relacionado con estas arquitecturas. Tal como se muestra en trabajos
recientes realizados por investigadores de la Universidad de Toronto y del Institu-
to de Tecnologa de Massachusetts (MIT). Ruslan y otros, proponen un modelo de
aprendizaje basado en arquitectura profunda con el n de aprender representaciones
abstractas que soportan la transferencia con tareas relacionadas, es decir, con pocos
ejemplos de entrenamiento son capaces de reconocer una categora nueva y realizar
signicativas generalizaciones a nuevas instancias. En el modelo propuesto por Rus-
lan y otros se utilizan las fortalezas de dos enfoques utilizados de forma reciente en
el aprendizaje no supervisado: redes neuronales y redes bayesianas no parametricas
[142].
2. Redes de Convolucion. Son un tipo de redes neuronales con capas espacial-
mente organizadas y donde la fortaleza sinaptica depende de la separacion entre las
unidades. Este enfoque es muy utilizado para el aprendizaje de caractersticas invari-
antes, donde a traves de m ultiples capas estructuradas bajo un esquema jerarquico se
pueden aprender caractersticas en varios niveles de jerarqua. El esquema jerarquico
es utilizado para representaciones internas apropiadas del mundo externo. Por ejem-
plo, en vision los pxeles se agrupan para formar regiones, estas a su vez forman
objetos o partes de ellos, los cuales describen escenarios. Esta observacion sugiere
que para algunas arquitecturas aplicadas en tareas de reconocimiento (vision, audio,
362 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
lenguaje natural) el entrenamiento debe realizarse bajo una estructura jerarquica o
capas, las cuales deben mantener comunicacion entre s. Este enfoque da lugar a
dos interrogantes: como realizar una estructura en capas?, y como entrenar tal
estructura?. Las redes de convolucion son la respuesta a la primer interrogante,
mientras que el aprendizaje supervisado basado en gradiente fue utilizado para re-
sponder a la segunda interrogante. Sin embargo, este tipo de aprendizaje requiere
de grandes cantidades de datos etiquetados para su entrenamiento, pero trabajos de
investigacion recientes en tecnicas de aprendizaje profundo ha generado metodos
de aprendizaje supervisado que reducen de forma notable la necesidad de ejemplos
etiquetados [143]. Estas redes pueden utilizarse para representar operaciones basicas
en procesamiento de imagenes, as como para modelar las primeras etapas en un sis-
tema de vision articial. Existen aplicaciones comerciales basadas en este enfoque y
relacionada con aspectos de vigilancia automatizada con vdeo.
Durante esta breve presentacion de las redes neuronales articiales se han menciona-
do importantes aspectos relacionados con sus usos y desarrollo, se va a nalizar este
tema mostrando un resumen de sus aplicaciones y otros datos de interes. Las areas
de aplicacion mas importantes en las que el modelo de RNAs ha participado son las
siguientes:
Sistemas de identicacion y control. En este campo, las aplicaciones han
sido tan diversas como el control de vehculos (tripulados y no tripula-
dos), control de procesos (industriales, nancieros), y manejo de recursos
naturales.
Reconocimiento de patrones. En sistemas de radar, para la identicacion
de rostros, y el reconocimiento de objetos.
Toma de decisiones. Se han creado modelos que apoyan la toma de deci-
siones en diferentes areas: nanzas (sistemas de comercio automatizado),
economa, industrias, seguridad, en juegos (poker, ajedrez, backgammon).
Reconocimiento de secuencias. Asimismo se han creado modelos para re-
conocer secuencias de caracteres manuscritos, de gestos y de voz.
Minera de datos. Se han aplicado tecnicas basadas en redes neuronales
para descubrir conocimiento en grandes bases de datos, as como en as-
pectos de visualizacion y ltros de correo basura.
Entre sus aplicaciones de gran impacto social, se encuentra la de servir como tecni-
ca principal en sistemas CAD para diagnosticar diferentes tipos de enfermedades,
tales como el cancer. Una red neuronal del tipo hbrido, se utilizo como herramienta
para mejorar la precision en el diagnostico de cancer de pulmon. Asimismo, se han
utilizado con buenos resultados para el diagnosis de cancer de prostata.
5.3. VISI

ON ARTIFICIAL 363
Actualmente, existe una gama diversa de software desarrollado para esta disciplina,
tanto comercial como libre, algunos de estos son los que se mencionan a continuacion.
Software comercial: Statistical Neural Network, TNs2Server, DataEngine, Know
Man Baic Suite, Partek, Saxon, ECANSE (Environment for Computer Aided Neu-
ral Software Engineering, Neuroshel l, Neurogen, Matlab:Neural Network Toolbar.
Software libre: Net II, Spider Nets Neural Network Library, NeuDC, Binary Hopeld
Net with free Java source, Neural Shel l, PlaNet, Brain neural network Simulator.
De igual forma, se han creado foros academicos y de investigacion donde se muestran
los ultimos avances en RNAs, tales como: IEEE Transactions on Neural Networks,
Neural Networks, Neural Computation, Neural Processing Letters, Network: Com-
putation in Neural Systems, Neural Computing Surveys, Machine Learning Online,
Advances in Neural Information Processing Systems (NIPS), entre otros.
5.3. Vision articial
Vision computacional o vision articial es la disciplina que integra todos los procesos
y elementos que proporcionan el sentido de la vista a una maquina. En la obtencion
de este objetivo participan otras disciplinas tales como: Ciencias Computacionales,
Reconocimiento de Patrones, Procesamiento de Se nales, y Vision Humana. La infor-
macion con la que trabaja la vision se obtiene de imagenes, las cuales a su vez son
obtenidas principalmente de camaras, vdeocamaras y esc aneres. Como resultado de
las investigaciones realizadas en este campo, los sistemas de vision por computadora
han tenido un fuerte impacto en la actividad humana. La variedad de aplicaciones
en las que intervienen crece cada da. Entre las aplicaciones mas importantes guran
las siguientes: Reconocimiento de objetos, Reconocimiento de gestos, Inspeccion In-
dustrial y Control de Calidad, Medicina, Astronoma, Sensado Remoto, Seguridad,
Diagnostico no invasivo, Robotica, Deteccion y reconocimiento de eventos, Adminis-
tracion de datos basada en contenido, Modelado de objetos o escenarios y Dise no de
interfaces. En esta seccion, se van a mostrar los aspectos fundamentales en los que
se basa este campo de investigacion, as como los trabajos que se estan realizando
actualmente por algunos de los centros o instituciones de investigacion. Finalmente,
se mostraran las aplicaciones en las cuales esta area de las ciencias ha desempe nado
un papel relevante.
364 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
5.3.1. Conceptos basicos
De acuerdo con Marr, Vision es un proceso que produce a partir de las imagenes
del mundo exterior una descripcion que es util para el observador y que no tiene
informacion irrelevante [144]. Esta denicion resalta tres aspectos importantes de
la vision articial: (i) es un proceso computacional, (ii) la descripcion que se va a
obtener depende del observador, y (iii) eliminar la informacion que no sea de utilidad.
En ocasiones, el procesamiento de imagenes se maneja como un sinonimo de vision
computacional. Sin embargo, aunque estos campos tienen muchos aspectos comunes,
sus objetivos son diferentes. Mientras el campo de procesamiento de imagenes se
enfoca a mejorar la calidad de una imagen para hacer mas evidentes ciertos detalles,
la vision computacional tiene como objetivo la extraccion de caractersticas de una
imagen y su posterior analisis mediante una computadora. Ademas, el resultado del
procesamiento de imagenes es otra imagen, la cual generalmente es interpretada por
una persona, mientras que, el resultado de un proceso de vision articial es una
descripcion de la imagen, la cual generalmente se interpreta por una computadora.
En la Figura 5.30 se muestra en forma graca estas diferencias.
El diagrama mostrado en la Figura 5.31 ilustra las etapas que com unmente estruc-
turan un proyecto de vision articial. Generalmente, en muchps trabajos no todas
estas etapas esten presentes, o en otros, algunas de estas tareas estan includas en
una sola. A continuacion se va a proporcionar una descripcion de cada una estas
etapas.
Adquisicion de la imagen. La adquisicion de la imagen (imagenes) que se va(n) a
procesar, se realiza generalmente a traves de una camara o vdeocamara, o conjun-
to de ellas. Las caractersticas de este dispositivo depende de varios factores, tales
como: relevancia del color en el procesamiento (si se va a utilizar para reconocer
formas, el color no es necesario: camara monocromatica), calidad requerida de la
imagen (determina la resolucion del dispositivo), analisis de escenarios estaticos o
en movimiento (determina la salida del dispositivo: entrelazada o no entrelazada, ve-
locidad del obturador), etc. Independientemente de las caractersticas del dispositivo
de captura, la informacion con la que se trabaja en vision articial es una imagen
o secuencia de imagenes. Debido a que en vision articial la informacion se obtiene
de una imagen, resulta pertinente conocer algunos aspectos de la misma [147].
Una imagen es la representacion visual en terminos de la funcion f(x, y) de un objeto
iluminado por una fuente radiante. En tal representacion, x e y son dos variables
reales cuyos valores indican la posicion espacial de un punto (pxel ) en la imagen y
f indica la amplitud (brillantez) de dicho punto. Una imagen digital, es una matriz
donde la interseccion de un renglon (y) y una columna (x) identican un punto
5.3. VISI

ON ARTIFICIAL 365
Figura 5.30: Procesamiento de Imagenes y Vision Articial. En la imagen (a) se
muestra el rostro de Lena poco visible debido al oscurecimiento de la imagen, en (b)
se muestra el mismo rostro, despues de un proceso de mejoramiento de la imagen,
en (c) se ilustra el objetivo de la vision articial, la imagen del rostro de una persona
es procesado con el n de extraer informacion relevante, representarla y proceder en
este caso a su identicacion, proceso totalmente realizado por una computadora.
366 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.31: Tareas que componen un proyecto de vision articial.
5.3. VISI

ON ARTIFICIAL 367
dentro de la imagen, al cual se le conoce como elemento de imagen o pxel. En una
imagen monocromatica, los pxels se muestran en diferentes tonalidades de gris, esto
depende de como son representados. Por ejemplo, es com un representarlos mediante
un byte, esto genera 256 tonalidades de gris, identicados como niveles de gris (L),
donde el valor 0 (00h) indica el color negro, y el valor 255 (FFh) el blanco, todas las
demas tonalidades estan entre estos valores (ver Figura 5.32). Al proceso de obtener
L valores de gris, representados por un n umero entero en una imagen digital se le
conoce como cuantizaci on. Los valores usuales, para los niveles de gris (L) son: 2
(imagen en blanco y negro), 64, 256, 1024, 4096, y 16384.
Otro aspecto importante en una imagen digital es el muestreo tambien conocido
como digitalizaci on. Durante este proceso, la imagen es dividida en N las y M
columnas. La frecuencia del muestreo determina el tama no del pxel, de manera
informal, se puede indicar que el muestreo debe ser dos veces mas peque no que el
detalle mas peque no de interes en la imagen. Los valores comunes para el parametro
M son: 256, 512, 768, 1024, y 1320, mientras que para el parametro N, algunos de
sus valores usuales son: 256, 512, 525, 625, 1024, y 1035. El efecto del muestreo y
cuantizaci on en una imagen digital se visualizan en la Figura 5.33 [147].
Resulta comprensible considerar el manejo de valores de cuantizacion y muestreo
altos para resaltar los detalles de una imagen. Sin embargo, estos valores tambien
originan una enorme cantidad de datos que se tienen que procesar. De esta for-
ma, se tiene que buscar un equilibrio en el valor de estos parametros para que el
procesamiento no sea lento, sobretodo cuando se trata de aplicaciones en tiempo real.
Durante el proceso de digitalizacion, debido a diferentes factores (perturbacion oca-
sionada por el dispositivo de captura, ruido ambiental, iluminacion, etc.), la imagen
obtenida puede no ser muy adecuada para el objetivo de la aplicacion, por lo que es
sometida a un tratamiento previo (preprocesamiento), con el n de resaltar ciertas
caratersticas de interes para las siguientes fases de procesamiento.
Preprocesamiento de la imagen. En esta fase, se trabaja con los pxeles de la
imagen con el n de resaltar algunas de las siguientes caractersticas: oril las, color,
textura, y gradiente o profundidad. Las operaciones que se aplican a los pxeles de
una imagen de entrada f(x, y) y generar una imagen de salida g(x) son clasicadas
en alguna de las siguientes tres categoras:
Operaci on Puntual. En esta operacion, el valor de un pxel en una coordenada es-
pecca en la imagen de salida, depende unicamente del valor del pxel en la misma
coordenada de la imagen de entrada. Algunas operaciones puntuales son: (a) bina-
rizacion, donde se determina un valor de umbral T, el cual indica que valores en la
368 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.32: Imagen monocromatica donde se muestran los valores que tienen los
pxeles en la region que ocupa el rectangulo amarillo. Los valores mostrados en las
las 3 y 4 son tonos grises oscuros (valores cercanos al 0 que es el negro), mientras
que los valores de los pxeles de la la 0 indican un tono de gris mas cercano al
blanco. En esta imagen, el valor f(2, 3)= 81.
5.3. VISI

ON ARTIFICIAL 369
Figura 5.33: Ilustracion del efecto que tiene el muestreo y cuantizacion en una imagen
digital monocromatica. En las imagenes (a) y (b) se observa el efecto del muestreo
en una imagen digital. En la imagen (a) el muestreo dividio a la imagen en 256 las
y 256 columnas, mientras que en (b) el muestreo dividio a la imagen en 32x32. Se
observa que mientras mas no sea el muestreo, los detalles de la imagen se perciben
mejor. En las imagenes (c) y (d) se muestra el efecto de la cuantizacion o niveles de
gris, es obvio que mientras mas niveles de gris tenga la imagen, la percepcion de la
misma por una persona es mejor; (c) imagen con 256 niveles de gris (L=256), y (d)
imagen con solamente 2 niveles de gris (L=2).
370 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
imagen original van a tomar el valor 1 (blanco), y cuales el valor de 0 (negro) en la
imagen de salida (ver Figura 5.34(b)).
Operaci on Local. En esta operacion, el valor de un pxel en una coordenada especca
en la imagen de salida, depende del valor de una vecindad de pxeles que tiene como
centro la misma coordenada en la imagen de entrada. La operacion representativa
en este caso es el ltrado. Filtrar una imagen f consiste en aplicar una transforma-
cion T a la imagen original con el n de obtener una nueva imagen g, donde ciertas
caractersticas son disminudas o acentuadas. El proceso de ltrado se puede llevar
a cabo en el dominio del espacio o en el de la frecuencia. Algunos de los ltros mas
usuales son los de suavizamiento (empleados en la eliminacion de ruido o detalles
peque nos que no sean de interes), acentuamiento (muy util para resaltar orillas),
enfasis de altas frecuencias, en frecuencia, adaptables (estos ltros ofrecen ventajas
sobre los de suavizamiento, ya que al mismo tiempo que eliminan ruidos preservan
las orillas). Algunas de las herramientas matematicas que se aplican en este tipo de
operaciones, sobretodo en el proceso de ltrado en el dominio de la frecuencia son
la convolucion y la transformada de Fourier [147].
Operaci on Global. El valor del pxel en una coordenada especca en la imagen de
salida, depende de los valores de todos los pxeles en la imagen de entrada. En esta
operacion, generalmente se transforman los valores de intensidad en la imagen de
entrada. Dentro de las transformaciones mas comunes se encuentran las siguientes:
(a) obtener el negativo de una imagen (ver Figura 5.34 (c)), (b) aumento del con-
traste, una forma muy com un es a traves de la ecualizacion del histograma de la
imagen original(ver Figura 5.34 (d)).
A continuacion se van a mencionar las tecnicas que generalmente se aplican en el
procesamiento de una imagen con la nalidad de obtener caractersticas de interes
para las etapas siguientes de una aplicacion basada en vision articial.
Deteccion de orillas. La deteccion de orillas es importante ya que es la base en
tareas de separar o segmentar objetos en una imagen. La manera usual para detec-
tar orillas es utilizando alg un tipo de derivada o diferencial. A su vez, la integracion
o union de orillas da como resultado los bordes. Algunas de las tecnicas mas usuales
para la deteccion de orillas son basadas en operadores de gradiente (Sobel, Roberts y
Prewitt), y operadores direccionales ( de Kirsh, mascaras ortogonales de Frei-Chen).
Color. El uso del color en vision computacional es muy importante, ya que puede
apoyar la extraccion de caractersticas as como la identicacion de objetos en la
5.3. VISI

ON ARTIFICIAL 371
Figura 5.34: Ejemplo de operaciones puntuales: (a) imagen original, (b) imagen
binarizada con un valor de umbral de 80, (c) negativo de la imagen original, (d)
aumento lineal de contraste [?].
372 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
imagen. Fsicamente, la luz visible es parte del espectro electromagnetico, donde el
color tiene que ver con la longitud de onda dentro del espectro visible (rango com-
prendido entre 400 nanometros (color violeta) y 700 nanometros (color rojo)). La luz
blanca se forma al combinar todos los colores del espectro. Los atributos de interes
en una imagen de color son la longitud de onda dominante o croma, pureza o sat-
uraci on, y bril lantez o intensidad. Existen basicamente dos clases de modelos para
la representacion del color: (i) modelos sensoriales, los cuales estan mas orientados
a los equipos, como camaras y monitores de television, dentro de este grupo existen
tres modelos com unmente utilizados en trabajos de vision: RGB, CMY, e YIQ, y (ii)
modelos perceptuales, los modelos de este grupo se asemejan mas a la percepcion
humana y son los mas utilizados en procesamiento de imagenes y vision por com-
putadora, los modelos que pertenecen a este grupo son HSV, HLS, y HSI, los cuales
pueden ser convertidos a RGB. Los metodos aplicados a imagenes monocromaticas
tambien se aplican a las imagenes de color.
Texturas. En una imagen muchos objetos o regiones no son uniformes, sino que
estan compuestos por peque nos elementos indistinguibles y entrelazados conoci-
dos como textura. En algunas imagenes, estos elementos basicos o primitivos son
claramente distinguibles (ver Figura 5.35). A los elementos basicos de textura se
les conoce como texel. Se dene un texel como una primitiva visual con ciertas
propiedades invariantes (forma, color, tama no, nivel de gris) que ocurre de forma
repetida a diferentes posiciones, deformaciones y orientaciones en un area [?]. El
manejo de texturas es util para segmentar una imagen, reconocer objetos, detec-
tar de formas y en tareas relacionadas con la recuperacion de la tercera dimension.
La representacion de esta caracterstica se realiza a traves de modelos estructurales
(para estructuras regulares y uniformes), modelos estadsticos (para representar es-
tructuras que no son regulares y uniformes, se manejan en forma de momentos,
energa en el dominio espacial, y matrices de dependencia espacial), y modelos es-
pectrales (aplican la transformada de Fourier, la cual describe informacion global de
la imagen, en especial patrones periodicos).
Vision 3D. Cuando una escena del mundo real (3D) se captura en una imagen (2D)
se pierde informacion en la conversion, ya que un objeto en el sistema de coorde-
nadas XYZ, pasa a ser representado en un sistema de coordenadas XY, es decir, se
pierde la profundidad (dimension Z) en este proceso. Sin embargo, es necesario en
algunas aplicaciones considerar el manejo de 3D, para ello existen existen algunas al-
ternativas para poder recuperar la tercera dimension. Una opcion es el uso de visi on
estereo. En este caso, se utilizan dos camaras que observan el mismo escenario y
se intenta descubrir la profundidad manejando datos conocidos de las camaras, por
ejemplo su posicion y distancia con respecto a alg un objeto del escenario. Una segun-
da opcion consiste en utilizar la forma de sombreado, aqu se parte de la observacion
5.3. VISI

ON ARTIFICIAL 373
Figura 5.35: Ejemplos de texturas en imagenes monocromaticas. Las texturas cor-
responden a: bejuco, frijoles, ladrillo, monedas, y traza de alambrey son mostradas
respectivamente de izquierda a derecha y de arriba hacia abajo. [?].
de que el mundo esta constitudo en gran parte, por objetos opacos relativamente
continuos, y si se considera una iluminacion constante y una reectividad del objeto
relativamente uniforme, se puede obtener informacion de 3D a partir de los cambios
de intensidad o sombreado del objeto. El analisis de la textura ofrece otra opcion
para determinar el gradiente o profundidad relativa de una supercie. En este caso,
se manejan aspectos de orientacion, inclinacion, y razon del cambio del tama no de
primitivas en diferentes direcciones con respecto al eje de la camara para dar una
estimacion de la profundidad.
Segmentacion. El objetivo de la segmentacion consiste en dividir una imagen en
los objetos o regiones que la conforman. En este proceso se busca generar una rep-
resentacion mas compacta de la imagen (es mejor tratar con unos cuantos objetos
que con miles de pxeles). A su vez, la segmentacion es un paso importante para el
reconocimiento de objetos. Los aspectos que se tienen que considerar en una imagen
digital para segmentarla se clasican en dos grandes clases (ver Figura 5.36): (i)
segmentaci on basada en bordes, y (ii) segmentaci on basada en regiones. Una breve
descripcion de cada tipo de segmentacion se ofrece a continuacion.
Segmentacion basada en bordes. El agrupamiento de orillas para formar bordes
los cuales a su vez determinan regiones, es una forma de segmentar una imagen.
Tres de las tecnicas mas representativas para generar bordes a partir de orillas
son las siguientes: (1) transformada de Hough, es una tecnica orientada a detectar
374 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.36: Formas basicas para segmentar una imagen: i) a traves de bordes o
contornos, y ii) mediante regiones.
contornos cuya forma basica es conocida y que puede representarse como una curva
parametrica (lneas, crculos, elipses, etc.), (2) b usqueda en grafos, estas tecnicas
se basan en considerar una imagen de orillas (magnitud y direccion) como un grafo
pesado, donde el entorno se puede encontrar como un proceso de b usqueda en grafos
(ver Figura 5.37(a) y (b)), y (3) agrupamiento perceptual, estas tecnicas se basan en
una serie de principios o heursticas (proximidad, similitud, continuidad, simetra,
etc.) en las que se supone los humanos perciben y agrupan elementos en contornos
o regiones (ver Figura 5.37(c) y (d)).
Segmentacion basada en regiones. En este tipo de segmentacion se parte en la
observacion de que la mayora de las imagenes estan formadas por regiones o zonas
que tienen caractersticas homogeneas (nivel de gris, textura, momentos, etc.). Gen-
eralmente, estas regiones corresponden a objetos o partes de de ellos. Segmentar
en base a regiones consiste en dividir o particionar una imagen en varias zonas o
regiones homogeneas y disjuntas, utilizando caractersticas que permitan discrimi-
nar unas regiones de otras. Los atributos mas comunes con los que se trabaja para
segmentar regiones son: intensidad de los pxeles, color, textura, gradiente y profun-
didad relativa. Las tecnicas para segmentar por regiones se clasican en tres tipos: i)
locales, agrupan pxeles en base a sus atributos y los de sus vecinos, ii) globales, se
basan en propiedades globales de la imagen, y iii) division y agrupamiento, combi-
nan las tecnicas anteriores. A continuacion se ofrece una breve descripcion de estas
tecnicas las cuales se basaran en el atributo: nivel de intensidad.
5.3. VISI

ON ARTIFICIAL 375
Figura 5.37: Ejemplo de segmentacion basada en bordes: (a) Imagen de gradientes,
(b) grafo de b usqueda correspondiente a la imagen (a), (c) imagen obtenida por un
endoscopio mostrando el interior del colon y donde se muestran las orillas superpues-
tas obtenidas en la imagen (d) aplicando el metodo de agrupamiento perceptual.
376 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.38: Ilustracion de segmentacion por crecimiento de region. En la imagen de
la izquierda se muestra la imagen original en la cual se indica un grupo de pxeles
seleccionados como semilla, en la imagen de la derecha se observa el crecimiento de
la region en base a las caractersticas de la semilla. En este caso se puede considerar
que la caracterstica de la semilla o region inicial, es el valor de intensidad o nivel
de gris de los pxeles seleccionados.
Locales. Una de las tecnicas de segmentacion muy conocidas y que entra en este
grupo, es el metodo de segmentacion por crecimiento de regiones. En esta tecnica,
se elige un pxel o grupo de ellos, los cuales forman una region inicial conocida como
semilla. La semilla empieza a crecer (agrupando pxeles con caractersticas similares
a la semilla) hasta alcanzar ciertos lmites (ver Figura 5.38). En esta tecnica se pre-
sentan dos problemas basicos: 1) eleccion inicial del pxel o grupo de pxeles, donde
se determinan puntos especcos de la imagen (valor de gris, intensidad, informacion
previa) para hacer la eleccion inicial, y 2) criterio de similitud, donde se consideran
aspectos relacionados con el proceso del crecimiento (diferencia entre pxeles, n umero
maximo de regiones). Dos variantes de esta tecnica son: i) el metodo de b usqueda
en espacio de estados, en el cual se considera a la imagen como un estado discreto y
cada pxel como una region distinta, y ii) tecnicas basadas en grafos, en la cual los
nodos representan regiones y los arcos relaciones con otras regiones vecinas.
Globales. La segmentacion basada en histogramas en la cual se seleccionan uno
o mas valores de umbral es un ejemplo clasico de estas tecnicas. Este tipo de seg-
mentacion se basa en un aspecto muy simple: se selecciona un parametro denom-
inado umbral (valor numerico que indica el nivel de gris o intensidad de un pxel)
y en base a este valor se analiza cada pxel de una imagen de entrada f(x, y), y se
genera una imagen de salida g(x, y), donde se visualizan dos regiones. Tales regiones
son determinadas de la siguiente manera: Si f(x, y) entonces g(x, y) = 1, de
5.3. VISI

ON ARTIFICIAL 377
otra manera g(x, y) = 0. Resulta comprensible que determinar el valor de umbral
para segmentar correctamente los objetos presentes en una imagen es de gran im-
portancia (ver Figura 5.39). Existen diferentes metodos que han sido propuestos
para determinar el valor de umbral apropiado para una imagen, tales como: el al-
goritmo isodata, y el algoritmo de Otsu, entre otros. El uso de histogramas para
segmentar objetos presentes en una imagen resulta conveniente cuando los objetos
presentan diferente valor de intensidad. Sin embargo, cuando existen varios objetos
en una imagen con valor de intensidad igual o muy similar, el histograma resultante
no nos ofrece informacion de cada elemento individual, sino que la informacion pro-
procionada corresponde a toda la imagen de ah el nombre de tecnica global. La
Figura 5.39, nos ofrece una ilustracion de este problema. Otra de las limitaciones
de este enfoque es que se aplica en imagenes relativamente simples, es decir, cuando
tiene pocos elementos.
Segmentacion por division y agrupamiento (split-and-merge (SM)). En este
esquema de segmentacion se combinan tecnicas locales y globales. Este algoritmo
desarrollado por Pavilidis en 1974, consiste en una tecnica de segmentacion eciente
y muy utilizada en diferentes aplicaciones. El esquema de operacion de este algoritmo
es el siguiente: primero, realiza una division de los objetos mediante la aplicacion de
un valor de umbral con el n de homogeneizar las regiones en la imagen, y segundo,
agrupa las regiones que son identicas a un valor de umbral preestablecido para
homogeneizar las regiones segmentadas. A pesar de ser un algoritmo eciente, tiene la
desventaja de ser muy dependiente de los valores de umbral utilizados, ocasionando
con ello los mismos problemas que enfrenta el enfoque basado en histogramas. Sin
embargo, se han realizado varias extensiones a este algoritmo con el n de corregir
estas limitantes, una de ellas es el trabajo propuesto por T. Bronx y otros en 2001
[145], en el que se utilizan varios criterios para el agrupamiento, de tal manera que
cuando uno de ellos no puede ser satisfecho por mas tiempo, otro criterio se toma
en cuenta. En la Figura 533 se puede ver de forma graca este algoritmo. Dada la
importancia de este algoritmo, los trabajos que buscan mejorarlo contin uan, tal como
el modelo presentado en el 2008 por Farquzzaman y otros, donde se propone una
generalizacion a este algoritmo a la que llamaron: segmentaci on robusta de objetos
basada en SM (ROSSM). En este trabajo se reducen drasticamente las limitantes
iniciales del algoritmo.
Las tecnicas de segmentacion indicadas con anterioridad, se basan en heursticas
generales y no consideran las posibles interpretaciones que pudiera tener cada re-
gion. Una forma de mejorarlas y por consiguiente hacer mas eciente el proceso
de segmentacion, es a traves de incorporar informacion del dominio. Es decir, inte-
grar informacion a priori de varios parametros de cada region, tales como: forma
de la region, posicion en la imagen, posicion respecto a otras regiones, y dimensiones.
378 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.39: Ejemplo de segmentacion basada en histogramas. En las imagenes (b)
y (c) se ilustra la importancia de seleccionar un valor de umbral apropiado para
segmentar los elementos de la imagen, (a) es la imagen original, (b) es la imagen
resultante con un valor de umbral de 150, y (c) imagen resultante con un valor de
umbral de 200. En las imagenes (d) y (e) se muestra una de las limitaciones de
esta tecnica, en (d) se muestra una imagen con 2 objetos con valores de intensidad
muy similares, en (e) se muestra el histograma de la imagen, solo se muestran dos
regiones: la del fondo y la otra que corresponde a los dos objetos.
5.3. VISI

ON ARTIFICIAL 379
Figura 5.40: Ejemplo de segmentacion basada en division y agrupamiento. En la
imagen de la izquierda se muestran 4 objetos con valores de intensidad muy sim-
ilares al menos 3 de ellos, y en la imagen mostrada a la derecha se observa la
segmentacion de estos 4 elementos aplicando el procedimiento de m ultiples criterios
al algoritmo SM propuesto por T. Brox [145]
Una vez que se ha realizado la fase de segmentar una imagen, el paso siguiente es el
reconocimiento de los objetos que se encuentran presentes en la misma. Para esto,
es necesario extraer las caractersticas de interes de estos objetos con el n de crear
un modelo y proceder a su reconocimiento.
Extraccion de caractersticas. Una vez que los objetos de una imagen se en-
cuentran segmentados, el siguiente paso consiste en extraer una serie de medidas
o parametros que denan sus caractersticas (forma, textura, color, etc.) necesarias
para la siguiente etapa (generalmente: reconocimiento). Las propiedades que se bus-
ca en estos parametros o descriptores son las siguientes: i) discriminar, separar a
los objetos que pertenezcan a clases diferentes, ii) sucientes, agrupar a todos los
objetos que pertenezcan a una misma clase, iii) invariantes, deben ser capaces de
identicar objetos sin importar la posicion o tama no en que aparezcan en la imagen.
Este proceso tiene como objetivo reducir la cantidad de informacion (dimensionali-
dad) presente en la imagen original, de tal forma que, con un mnimo de informacion
(relevante) se obtengan los resultados esperados de acuerdo a cada aplicacion. Los
descriptores generalmente utilizados pertenecen a alguna de las siguientes tres cat-
egoras: 1) descriptores de bordes, 2) descriptores de regiones, y 3) descriptores de
elementos 3D. Una breve descripcion de los tipos 1 y 2 se ofrece a continuacion.
Descriptores de bordes. Estos descriptores se utilizan para representar la forma
de una imagen. Existen varios metodos para modelar la forma de un objeto a partir
del contorno, tales como: codigos de cadena, signaturas, aproximaciones poligonales,
representaci on polar, esqueletizacion, descriptores de Fourier. En este caso, se va
380 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.41: Ejemplo de aplicacion del codigo de cadena. (a) muestra un objeto con
el contorno gris sobre fondo blanco, (b) ilustra el codigo de cadena de 8 direcciones
(vecindad de 8) que se va a utilizar, (c) muestra el reemplazo de cada pxel del
contorno por su correspondiente codigo, en este caso con una conectividad de 8:
I2000006666533342.
a describir los codigos de cadena, por ser una de las tecnicas mas utilizadas. Este
metodo funciona como sigue: primero, se selecciona un punto de inicio en el contorno
del objeto, y a partir de este punto y en sentido de las manecillas del reloj les va
asignando un codigo (usualmente un n umero en el rango de 3 bits) que representa la
direccion del segmento (ver Figura 5.41(b)). De esta manera, el elemento de interes
en la imagen queda representado por una cadena de n umeros, en lugar de una gran
cantidad de pxeles, es decir, un pxel que generalmente es representado por uno o
dos bytes, ahora es representado por 3 o 4 bits (ver Figura 5.41(c)). A partir del
contorno de los objetos, se pueden obtener descriptores utiles como el permetro,
diametro, y curvatura.
Descriptores de region. A diferencia del metodo anterior que busca representar
la forma de los objetos a partir de los descriptores de su contorno, en este caso, se
busca describir la forma u otra caracterstica a partir de la region encerrada por el
contorno. En este caso, los descriptores buscan representar informacion relacionada
con el area: centroide (centro de gravedad), y momentos, entre otros. El area de un
objeto esta formada por el n umero de pxeles encerrados en la region, una forma
rapida de calcularla consiste en contabilizar los pxeles por la en el contorno. A su
vez, el centro de gravedad se puede calcular de dos formas: 1) calculando la media
de todas las coordenadas de los puntos del contorno, y 2) calculando la media de las
coordenadas de los puntos encerrados en el contorno. El segundo metodo, aunque es
mas lento es un poco mas preciso. Los momentos son medidas estadsticas que se cal-
culan tomando como referencia coordenadas relativas al origen de la imagen, o bien
relativas al centro de gravedad del objeto. El uso de momentos, nos permite obtener
de forma rapida y able algunas medidas relacionadas con la imagen, tales como su
permetro, area, y centro de gravedad (momentos de orden 0, 1 y 2 respectivamente).
5.3. VISI

ON ARTIFICIAL 381
Aunque solo se mostro de forma limitada el paso siguiente a la segmentacion, a traves
del uso de descriptores como una forma de representar informacion relevante. Hay
que tener presente, que existe mucha mas informacion que puede ser representada
o extrada a partir de una imagen segmentada, tal como: la orientacion del objeto,
el uso de guras geometricas para aproximar la forma del objeto, el analisis de las
texturas, medidas densitometricas y el uso de la energa, entre otras. As mismo, es
muy com un el uso de otras medidas estadsticas para representar las propiedades de
una region, tales como la media, varianza, y desviacion est andar.
Una vez que se tienen identicados (representados a traves de sus caractersticas)
a los objetos presentes en una imagen, el siguiente paso consiste en la aplicacion
de algoritmos co nes de reconocimiento y clasicacion de estos elementos. A esta
etapa dentro de un sistema de vision se le conoce generalmente como: visi on de alto
nivel.
Reconocimiento de objetos. Una vez que se han extrado y representado las
caractersticas de los elementos de interes presentes en una imagen (generalmente
segmentada), el siguiente paso consiste en reconocerlos y proceder a su clasicacion.
Durante el proceso de reconocimiento, generalmente se compara alguna caractersti-
ca del objeto (presente en la imagen), por ejemplo: el color, contra las caractersticas
de m ultiples objetos almacenados en una base de datos (representacion interna del
mundo). Si la caracterstica a comparar encuentra una coincidencia (exacta o aprox-
imada), entonces el objeto queda reconocido. Sin embargo, y casi siempre, con el
n de hacer mas conable este proceso, se utiliza mas de una caracterstica, por
ejemplo: color, forma, y textura. Es com un manejar las caractersticas representadas
por descriptores en forma de un vector, y aplicar tecnicas de reconocimiento de pa-
trones para su clasicacion. Bajo este enfoque, tambien es usual incluir aspectos de
aprendizaje automatico (supervisado y no supervisado) con el n de ajustar algunos
parametros del modelo utilizado para la clasicacion de los objetos. En el proceso de
aprendizaje del tipo supervisado, se recaba informacion de cierta cantidad (puede
llegar a ser del orden de los miles) de objetos del tipo que se pretende identicar,
con el n de obtener un vector representativo. Se pretende que las representaciones
tengan entre otras, las siguientes propiedades: invariantes, ecientes, genericas y
robustas, con el n de que sean apropiadas para el proceso de reconocimiento.
De acuerdo con Sucar y Gomez, los sistemas de vision utilizados en esta fase se
clasican en dos tipos principales: 1) sistemas basados en modelo, los cuales utilizan
una representacion geometrica y el reconocimiento se basa en correspondencia, y 2)
sistemas basados en conocimiento, los cuales aplican una representacion simbolica y
382 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
el reconocimiento lo basan en inferencia.
Sistemas basados en modelos. Este esquema consiste en utilizar una serie de
modelos geometricos previamente denidos y almacenados para su comparacion. El
proceso de reconocer un objeto en una imagen se basa en una correspondencia ge-
ometrica entre la descripcion obtenida en la imagen con el modelo interno. Algunos
de los enfoques empleados por estos sistemas son los siguientes:
i). Enfoque estadstico. Este enfoque se aplica de forma general cuando las carac-
tersticas se representan a traves de descriptores globales. Este consiste, basicamente
en buscar dentro de un espacio de parametros a la clase mas cercana con la descrip-
cion del objeto en la imagen. Una tecnica muy conocida, basada en la teora de la
probabilidad y representativa de este enfoque es el clasicador bayesiano simple.
ii). Optimizacion parametrica. Estas tecnicas se orientan a la correspondencia
entre modelos parametricos y representaciones de bajo nivel (lneas, puntos, angu-
los). Bajo este enfoque, la representacion se determina por un vector de parametros
y una funcion de merito la cual describe que tan bien la representacion describe a
los atributos de la imagen. En este caso, el problema de reconocimiento se plantea
como un problema de optimizacion.
Vision basada en conocimiento (Sistemas Expertos). En este enfoque, se utiliza
conocimiento a priori de los objetos y de sus relaciones a traves de un conjun-
to de proposiciones almacenadas previamente en una base de conocimientos. En
este caso, el proceso de reconocimiento de objetos presentes en una imagen se re-
aliza mediante inferencia aplicada a una imagen simbolica y utilizando la base de
conocimientos. Algunas de las tecnicas aplicadas para representar el conocimiento
y esquema de razonamiento son las reglas de produccion, redes semanticas, prototi-
pos, y las redes probabilsticas o redes bayesianas [?]. Las redes neuronales, son otro
tipo de representacion del conocimiento utilizado para este n [137]. Resulta con-
veniente mencionar que algunas representaciones (reglas de produccion, prototipos,
redes semanticas) no consideran aspectos de incertidumbre proveniente de diversos
factores (ruido, proceso de adquisicion y digitalizacion, errores en el procesamiento
de bajo nivel, conocimiento incompleto, (oclusiones)), mientras que otras, como las
redes bayesianas y la logica difusa si consideran este aspecto. Algunas de las tecnicas
com unmente aplicadas en este enfoque son las siguientes.
Redes Bayesianas. Una red bayesiana consiste en un grafo acclico dirigido, donde
cada nodo son variables que representan informacion del dominio y los enlaces rela-
ciones causales entre las variables cuanticadas por probabilidades condicionales.
5.3. VISI

ON ARTIFICIAL 383
Para su aplicacion en vision, se puede considerar a la red bayesiana organizada en
niveles, donde el nivel inferior representa las caractersticas de una imagen, el nivel
intermedio representa las regiones y partes de objetos, y el nivel superior corresponde
a los objetos de interes. En el proceso de reconocimiento, se instancian los nodos
inferiores, propagando su efecto hacia arriba hasta llegar al nivel superior. De esta
forma se obtiene la probabilidad posterior para cada objeto, seleccionandose como
interpretacion de la imagen el que tenga mayor probabilidad.
Redes neuronales. Una red neuronal es un conjunto de procesadores muy simples
(neuronas) interconectados que forman lo que se considera un modelo simplicado
del cerebro. Una neurona articial tiene generalmente varias entradas y una sali-
da. La salida es una funcion de la suma de la entradas, multiplicadas por pesos
asociados a las interconexiones entre neuronas. Las redes neuronales se utilizan,
normalmente, como elementos clasicadores o memorias asociativas, asociando una
serie de patrones de entrada con patrones de salida. Para ello se entrena la red,
alterando los pesos de las interconexiones de acuerdo a la relacion deseada. Una
forma de aplicar las redes neuronales para reconocimiento es mediante su aplicacion
a ventanas de pixels en forma analoga a las mascaras aplicadas en la deteccion de
orillas. Primero se entrenan con varios ejemplos positivos y negativos de los objetos
de interes, y despues se aplican a toda la imagen detectando la localizacion de di-
chos objetos donde se tenga mayor respuesta. Esto se puede extender a diferentes
resoluciones para hacer el proceso mas eciente.
Aunque en este apartado solo se menciono el analisis de una imagen monocromatica,
en muchas aplicaciones de vision se analiza una secuencia de imagenes, obtenida a
traves de una videocamara. En estas condiciones, se consideran otros aspectos para
el procesamiento, tal como el tiempo y la caracterstica de movimiento. Bajo estas
circunstancias las tecnicas a utilizar deben tener la capacidad de manejar el tiempo
en su analisis, tales como: los modelos ocultos de Markov (HMM), las redes de
decision dinamicas (DDN), y las redes bayesianas dinamicas (DBN), entre otras.
5.3.2. Desarrollos actuales y aplicaciones
En este apartado, se van a mostrar los trabajos de investigacion que se estan desar-
rollando actualmente en esta area por algunos de los principales laboratorios.
CMU (Carnegie Mel lon University). El grupo de vision computacional de la Uni-
versidad de Carnegie Mellon se integra por siete investigadores liderados por Martial
Hebert. Los trabajos realizados por este grupo comprenden las principales areas de
384 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
vision por computadora: reconocimiento de objetos y analisis de escenas, geometra y
reconstruccion en 3D, seguimiento y analisis de movimiento, vision basada en fsica,
y analisis de datos en 3D. Con respecto al area de reconocimiento de objetos y anali-
sis de escenas, en los ultimos 5 a nos se han enfocado al uso de herramientas mas
sosticadas provenientes del grupo de aprendizaje, as como al manejo de grandes
volumenes de informacion visual (imagenes y vdeos) obtenidos principalmente de
repositorios existentes en la web, esto ha trado el desarrollo de nuevos algoritmos.
Este campo ha profundizado en los ultimos a nos en el estudio de clasicacion de
pxeles para tener una mayor comprension de las escenas, incluyendo la geometra,
contexto y otras restricciones del mundo fsico. En a nos recientes se ha visto un
nuevo interes hacia tareas de reconocimiento donde el objetivo ahora es reconocer
instancias de un objeto especco mas que reconocer amplias categoras de obje-
tos como se haca anteriormente. Este renovado interes se debe a las aplicaciones
roboticas y a tareas de vision centradas en humanos donde el objetivo consiste en
entender el ambiente en que se encuentra una persona. En el caso del problema
de reconstruir la geometra de objetos a partir de m ultiples vistas el cual ya es un
problema trabajado en ambientes estaticos, el objetivo ahora consiste en trasladarlo
a escenarios dinamicos el cual a un sigue siendo un problema desaante. Un reciente
y ambiciosos programa de investigacion dirigido por T. Kanade incluye investigar
el uso de un gran n umero de sensores basados en el concepto de sensar tareas com-
plejas, cuyo objetivo a futuro incluye la informacion proporcionada por camaras en
movimiento tales como las de los dispositivos moviles. Los aspectos relacionados con
humanos (deteccion, seguimiento, analisis) con el n de reconocer rostros, cuerpos,
y actividades son enfocadas por este grupo (ver Figura 5.42). Los trabajos actuales
relacionados con estas tareas involucran importantes desarrollos tanto en el aspecto
teorico como en el algortmico, los cuales incluyen el an alisis de la expresion fa-
cial, recuperacion de la postura humana y seguimiento, as como el reconocimiento
de acciones y actividades se han expandido con nuevos enfoques. El area de vision
basada en fsica ha enfocado su desarrollo en tres campos relevantes: (i) el modelado
matematico de la interaccion entre la luz con objetos materiales y la atmosfera, (ii)
el desarrollo de nuevas camaras con una mayor resolucion en el espacio, color e in-
tensidad, y (iii) el desarrollo de nuevos algoritmos para la interpretacion de escenas
(ver Figura 5.43). Los avances en este campo ha contribudo al desarrollo en otros
campos tales como: robotica, entretenimiento, sensado a distancia y tratamiento de
imagenes. Entre sus investigaciones recientes guran el desarrollo de nuevas solu-
ciones tecnologicas para el desplegado visual de informaci on.
ETH Zurich. El Laboratorio de Vision Computacional en Zurich, trabaja en la
interpretacion automatica de grandes conjuntos de datos de imagenes en 2D y 3D,
obtenidos de fuentes convencionales y no convencionales. Asimismo, este laboratorio
realiza investigacion en los siguientes campos: Analisis y visualizacion de imagenes
5.3. VISI

ON ARTIFICIAL 385
Figura 5.42: Aprendiendo una metrica para alinear imagenes [163].
Figura 5.43: Ejemplo de analisis de escenas. En la secuencia de im agenes se muestra
en primera instancia una imagen original, posteriormente se muestra la misma im-
agen con una region faltante, posteriormente se busca determinar la region faltante
comparando con m ultiples escenas, si existe alguna correspondencia se muestra la
imagen resultante [149].
386 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
medicas, reconocimiento de objetos, analisis de gestos, seguimiento, modelado y com-
prension de escenas. Los trabajos que se realizan en este laboratorio son liderados
por los profesores Luc Van Gool y Gabor Szekev. Entre los actuales proyectos de
investigacion guran) los siguientes: (1) Comunicacion y comprension en imagenes,
el cual a su vez involucra las siguientes areas:
i) Reconocimiento de objetos. En este campo de investigacion, se estan desarrol-
lando actualmente 4 proyectos, entre los cuales se encuentra IMIM (Manejo de In-
formacion Multimodal e Interactiva). Este proyecto se esta realizando en el Centro
Nacional de Investigacion en Competencias (NCCR), instituci on enfocada al desar-
rollo de tecnologas para la coordinacion de interfaces naturales (voz, imagen, gestos,
movimientos con la cabeza y el cuerpo, sensores siologicos).
ii) Modelado en 3D. En este campo se estan realizando 3 proyectos entre ellos: Gen-
eracion de un modelo especco del paciente para una ciruga simulada. El objetivo
del proyecto es extender y modicar metodos previamente desarrollados a escenarios
especcos de un paciente. Ademas, se intenta que los modulos desarrollados sean
combinados en una herramienta que genere un escenario de entrenamiento amigable
con el usuario. En este contexto, seran considerados los siguientes aspectos: interac-
cion humano-computadora, ujo de tareas, y usabilidad.
iii) Seguimiento y analisis de gestos. Los trabajos desarrollados en este campo se
enfocan a varios objetivos. Por un lado, se estudia el seguimiento de personas en
ambientes reales y se determinan sus trayectorias. Asimismo, se trabaja en el desar-
rollo de algoritmos para el analisis detallado de la postura a partir de vdeo. En uno
de los proyectos en progreso, se trabaja en la combinacion del seguimiento visual de
la mano y la captura del correspondiente informacion haptica, mientras una persona
manipula un objeto. Otro de los proyectos es RADHAR , en el cual se desarrolla un
sistema de asistencia robotica que involucra la percepcion ambiental, el modelado y
percepcion de un conductor, y la toma de decisiones automatizada.
iv) Realidad aumentada. En este campo se esta desarrollando el proyecto AERI-
AL CROWDS, el cual tiene como objetivo llevar la realidad aumentada fuera del
ambiente de un laboratorio, y situarla en un ambiente urbano real, donde pue-
da ser utilizada para remover o agregar de manera virtual edicios y crowds. Las
multitudes virtuales seran personalizadas mediante la seleccion de una variedad de
comportamientos y apariencias realistas.
(2). investigacion en imagenes medicas. En esta area de la investigacion se estan
5.3. VISI

ON ARTIFICIAL 387
desarrollando proyectos en las siguientes subareas:
i) La realidad virtual en la medicina. En este campo de investigacion, se trabaja en
el desarrollo de sistemas para simular intervenciones quir urgicas con una gran deli-
dad, as como la integracion en estos sistemas de realidad aumentada y herramientas
hapticas visuales con el n de mejorar la interaccion humano-computadora. Este
grupo se encuentra dirigido por el Dr. Matthias Harders. Uno de los proyectos en
desarrollo es Beaming, en el cual se esta desarrollando la tecnologa de un ambiente
remoto, en el que por primera vez las personas van a tener la sensacion de estar
fsicamente en una localidad remota interactuando con otras personas, sin la necesi-
dad de viajar a esos sitios. Este es un proyecto de cuatro a nos que inicio en enero
del 2010. En este proyecto participan las siguientes instituciones: Universidad de
Barcelona (Espa na), La Universidad y Colegio de Londres (Reino Unido), Escuala
Superior de Estudios Universitarios y perfeccionamiento de Santa Ana (Italia), In-
stituto de Tecnologa de Israel (Israel), Laboratorio IBM de Investigacion HAIFA
(Israel), Consorcio de Investigaciones Biomedicas (Espa na), Universidad Aalborg
(Dinamarca), Universidad Tecnica de Munchen (Alemania).
ii) Analisis de Imagenes Medicas. Este grupo de investigacion dirigidos por los Dres.
Christine Tanner y Orcun Goksel, se enfoca al desarrollo de metodos para medir y
estudiar el movimiento de organos en 4D, as como la reconstruccion de imagenes
3D a partir de imagenes de endoscopa en 2D, y al registro de imagenes medicas
multimodales. Uno de sus proyectos actualmente en desarrollo es FUSIMO, el cual
tiene como meta desarrollar, implementar y validar un modelo multinivel para
analizar el movimiento de organos abdominales con el n de ser utilizado en una
ciruga de ultrasonido guiada por resonancia magnetica.
iii) Simulacion Biomedica. El objetivo de este grupo de tabajo consiste en aplicar
tecnicas computacionales para desarrollar simuladores biomedicos. Entre los ben-
ecios obtenidos con estos trabajos, gura el tener una mejor comprension de los
mecanismos siologicos involucrados en el desarrollo de enfermedades sociales, tales
como deformaciones vasculares o cancer. Este grupo es liderado por el Dr. Sven
Hirsh. Uno de los proyectos en proceso es ReCoVa (Reconstruccion de Redes Cere-
brovasculares), donde su principal aporte es la reconstruccion completa de la corteza
cerebrovascular a partir de datos de imagenes tomogracas de alta resolucion y con
informacion parcial. Al respecto, el grupo esta desarrollando algoritmos inteligentes
basados en caractersticas morfologicas conocidas de los vasos cerebrales.
iv) Microsistemas biomedicos. Este grupo de investigacion enfoca sus esfuerzos al
desarrollo de sistemas a escala microscopica. Consideran, que estos sistemas tienen
388 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
un gran potencial en aplicaciones biomedicas que a un no ha sido explorado, ya que
permiten mejorar las tecnologas actuales y habilitar nuevos procedimientos medi-
cos para diagnostico y tratamiento. Uno de sus proyectos actuales, tiene que ver
con el dise no de microsistemas con la capacidad de desplazarse en lquidos (micro
nadadores articiales), es decir, mecanismos de propulsion a escala micro con la ca-
pacidad de desplazarse (nadar), posicionarse y direccionamiento. Asimismo, realizan
investigacion para comprender los parametros que intervienen en el nado, basandose
en analizar microorganismos biologicos (bacterias, algas, y demas organismos age-
lares).
Laboratorio de Vision Computacional de la Universidad de Columbia. Los
trabajos de investigacion que se realizan en este laboratorio se enfocan a las sigu-
ientes areas: creacion de sensores de vision, dise no de modelos basados en fsica para
vision, y al desarrollo de algoritmos para la interpretacion de escenas. Este grupo de
investigacion se encuentra formado por 16 investigadores dirigidos por el Dr. Shree
K. Nayar. A continuacion se van a mostrar algunos de los proyectos que se estan
desarrollando en cada una de las areas mencionadas.
i)Sensores de vision. Los trabajos que se llevan a cabo en este campo tienen como
objetivo mejorar y extender las caractersticas de las camaras tradicionales. Estas
mejoras se realizan al incorporar en el esquema tradicional de captura de imagenes,
aspectos computacionales y novedosas herramientas opticas. A este novedoso de-
sarrollo le denominan: camara computacional. La motivaci on en desarrollar estas
camaras es la creacion de nuevas funcionalidades (campo de vision mejorado, res-
olucion espectral, rango dinamico, resolucion temporal, manipulacion de paramet-
ros opticos), que seran muy complicadas o imposibles de realizar con el modelo
de camara tradicional. Uno de sus proyectos en desarrollo es: Difusse Structured
Light (luz difusa estructurada). Actualmente, los sistemas de luz estructurada, son
ampliamente utilizados en tareas de: ensamble robotico, inspeccion visual, ciruga,
juegos y entretenimiento. Sin embargo, actualmente, estos sistemas enfrentan dos
serias limitaciones: en primer lugar son incapaces de manejar regiones con fuertes
iluminaciones ocasionadas por reexion especular. Segundo, no pueden recuperar in-
formacion util en regiones que se encuentran entre las sombras. En la Figura 5.44 se
observan estos problemas en una semiesfera metalica y en un cubo. En este proyecto
se propone un metodo basado en luz estructurada difusa, un enfoque simple pero
efectivo que disminuye notablemente los problemas anteriores (ver Figura 5.44). La
observacion clave es que muchos sistemas de luz estructurada utilizan patrones de
iluminacion con simetra traslacional, es decir, son patrones 2D que varan solamente
a traves de una de las dimensiones. En la propuesta se demuestra que, para esta
clase de patrones, la difusion de los mismos a traves de los ejes de traslacion permite
mitigar los problemas mencionados.
5.3. VISI

ON ARTIFICIAL 389
Figura 5.44: Ilustracion de luz estructurada convencional y luz estructurada di-
fusa. Se muestran imagenes donde se observa el tratamiento de objetos aplicando
el metodo tradicional y el metodo propuesto. Es notable la mejora obtenida en la
reconstruccion de las imagenes cuando se utiliza el enfoque propuesto basado en la
luz estructurada difusa.
390 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.45: Reconstruccion de la forma en objetos reales. En la imagen de la izquier-
da se presenta la imagen original, en la imagen del centro se muestra a la imagen
reconstruda aplicando el metodo propuesto (micro phase shifting) y en la imagen
de la derecha se ilustra la reconstruccion del objeto inicial aplicando el metodo de
recuperacion tradicional (phase shifting).
ii) Vision basada en la fsica. Uno de los trabajos recientes en este campo de estudio
es el proyecto: Micro Phase Shifting (giro de fase microscopico). En este proyecto se
trata el problema relacionado con la recuperacion de formas en escenarios reales. El
problema que se presenta se deriva de aspectos relacionados con: iluminacion global
y desenfoque de la iluminacion, los cuales introducen errores signicativos durante
el proceso de recuperacion de formas. El enfoque propuesto por Gupta y Nayar,
consiste en introducir una tecnica basada en luz estructurada que resuelve los incon-
venientes mencionados. La idea clave en la propuesta consiste en proyectar patrones
senoidales con frecuencias limitadas a una reducida banda de altas frecuencias. Es-
tos patrones generan un conjunto de imagenes, donde los efectos de la iluminacion
global y el desenfoque se mantienen constantes para cada punto de la escena. Esto
hace posible, reconstrucciones de gran calidad de escenas que tradicionalmente han
sido consideradas difciles, usando solamente unas pocas imagenes (ver Figura 5.45).
iii) Representacion y recnocimiento. En este campo, los trabajos se enfocan al de-
sarrollo de nuevas propuestas para el reconocimiento de objetos en ambientes no
controlados. Se desarrollan nuevos algoritmos y se extienden algunos ya existentes
como el de los k vecinos cercanos. Uno de los proyectos desarrollados de manera re-
ciente se reere al desarrollo de una nueva propuesta para la deteccion de rostros bajo
condiciones no controladas. En este caso, se comparan dos imagenes pertenecientes
a la misma persona, pero tomadas con muchos a nos de diferencia (ver Figura 5.46)
y se intenta contestar a la pregunta: son la misma persona?. Para manejar este
problema, Kumar, Berg, Belhumeur y Nayar, proponen un nuevo mecanismo para
la vericacion de rostros, el cual se basa en dos metodos complementarios. El primer
metodo basado en clasicadores de atributos, utiliza un clasicador binario entrena-
do para reconocerla presencia, ausencia, o el grado de atributos de descripcion visual
5.4. L

OGICA DIFUSA (FUZZY LOGIC) 391


(sexo, edad, raza, color de pelo, color de ojos, etc.). El segundo metodo basado en
clasicadores de similitud, remueve el etiquetado manual requerido para entrenar
a los clasicadores de atributos. Al igual que el clasicador de atributos, el clasi-
cador de similitudes es binario y entrenado para reconocer las similitudes de rostros
o regiones de rostros hacia referentes especcos. La idea consiste en aprender au-
tomaticamente algunas similitudes que distinguen a una persona de las demas.
Al igual que los centros de investigacion mencionados, en Mexico varias instituciones
se encuentran desarrollando trabajos de investigacion relacionados con procesamien-
to de imagenes y vision. Entre estas instituciones se encuentra el INAOE (Instituto
Nacional de Astrofsica

Optica y Electronica) ubicada en Puebla, UNAM, Instituto
de Investigacion en IA en Veracruz, Centro de Investigacion en Computacion (CIC)
en el D.F., CINVESTAV en sus unidades de Mexico D.F. y Guadalajara, entre otras.
Algunas instituciones academicas, realizan trabajos a menor escala relacionado con
este campo, generallmente encaminados hacia aplicaciones especcas. Por ejemplo,
en el Instituto Tecnologico de Acapulco esta en progreso un proyecto nanciado por
FOMIX , el cual consiste en desarrollar un sistema computacional que tiene como
objetivo clasicar lesiones en imagenes de mamografas.
Conforme la investigacion en el campo de vision computacional obtiene madurez,
mayores oportunidades en aplicaciones y colaboracion con otras areas se veran in-
crementadas. De igual manera, los desarrollos en esta area fortaleceran el de otras,
tales como: Robotica, Sistemas expertos y Aprendizaje automatizado, entre otras.
5.4. Logica difusa (Fuzzy Logic)
En la vida cotidiana resulta com un realizar algunas tareas en base a nuestra experi-
encia. Por ejemplo, al ir conduciendo un vehculo por una carretera y observamos que
la luz del semaforo esta cambiando de verde a ambar, empezamos a frenar, la fuerza
que aplicamos al freno debe ser la apropiada para que el frenado sea suave. En este
caso, la fuerza que se aplica al freno se basa en la experiencia, despues de haber real-
izado esta tarea muchas veces. Asimismo, si colocamos un palo (como los que tienen
las escobas o trapeadores) en la palma de nuestra mano y lo queremos mantener en
lnea recta, de forma natural realizamos una serie de movimientos para mantenerlo
en equilibrio. En los ejemplos anteriores hacemos uso de un comportamiento innato
y natural, ya sea para controlar el frenado o mantener un palo en equilibrio. De la
misma manera, tenemos la capacidad para poder realizar un sinn umero de tareas
con un mnimo de esfuerzo, por ejemplo, identicar rostros. Si deseamos dise nar un
392 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.46: Ejemplo de vericacion de rostros. En (a) se muestran imagenes a
las que se les aplicaron clasicadores de atributo, los cuales pueden reconocer la
presencia o ausencia de aspectos descriptibles relacionados con apariencia visual. En
las imagenes mostradas en (b) se aplicaron clasicadores de similitud, entrenados
para reconocer las similitudes de partes de rostros especcas.
5.4. L

OGICA DIFUSA (FUZZY LOGIC) 393


sistema para automatizar el control de estos y otros procesos similares, resultara
bastante complicado hacerlo a traves de modelos matematicos exactos, ya que las
formulas empleadas seran muy complejas, y su solucion, seguramente no se podra
obtener en tiempo real. La logica difusa, surge como una respuesta al dise no de
mecanismos de control que intentan imitar el comportamiento del humano al hacer
estas tareas. Con el n de modelar el comportamiento humano al realizar tareas co-
mo las mencionadas anteriormente, los modelos difusos utilizan variables ling usticas
y realizan operaciones con las mismas. Para este n los modelos difusos se basan en
dos teoras: la logica difusa y los conjuntos difusos.
La logica difusa fue propuesta en 1965 por el profesor Lot A. Zadeh como una
extension a la logica clasica o booleana. La logica difusa a diferencia de la logica
convencional, permite el manejo de informacion imprecisa (variables ling usticas) a
traves de un conjunto de reglas formadas por variables ling usticas. En este mismo
sentido, los conjuntos difusos establecen las reglas para que las variables ling usti-
cas determinen su alcance, a un cuando los lmites no sean muy claros. Un conjunto
difuso se encuentra asociado por un valor ling ustico que esta denido por una pal-
abra, etiqueta ling ustica o adjetivo. Por ejemplo, en la tarea de frenar un vehculo
se puede denir la variable ling ustica fuerza de frenado o simplemente fuerza, para
representar a un conjunto difuso, el cual a su vez debe estar formado por elementos
tales como: mucha, poca, muy-poca, reriendose con esto a la fuerza ejercida sobre
el freno. Asociado a los conjuntos difusos, existe el termino: funci on de pertenencia,
el cual determina el grado de pertenencia del valor de una variable a un conjunto.
Esta funcion puede tomar valores dentro del intervalo entre [0, 1].
La logica difusa pertenece a un paradigma conocido como computacion suave (soft
computing), el cual tambien incluye a las redes neuronales, algoritmos geneticos y
razonamiento probabilstico. Cada una de estas tecnicas, ya sea de forma individual
o combinadas, se utilizan para dise nar sistemas inteligentes. Y, aunque cada una de
ellas se enfoca a problemas especcos
2
, existen areas de traslape, donde se observa
que estos sistemas mas que ser competitivos son complementarios.
Con respecto a su ambito de inuencia, la logica difusa se puede aplicar en la solucion
de procesos demasiado complejos, cuando no existe un modelo de solucion simple
o un modelo matematico preciso. Tambien resulta util cuando se requiere usar el
conocimiento de un experto que utiliza conceptos ambiguos o imprecisos. Asimismo,
se puede aplicar cuando ciertas partes de un sistema a controlar son desconocidas y
no pueden medirse de forma conable. Es decir, la logica difusa al igual que el en-
2
Las RNAs proporcionan algoritmos de aprendizaje para tareas de clasicaci on y optimizaci on.
La l ogica difusa se enfoca a problemas relacionados con el razonamiento aplicado a un nivel ling usti-
co, mientras que el enfoque probabilstico trata con aspectos de incertidumbre objetiva y subjetiva.
394 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
foque basado en redes neuronales se puede aplicar para modelar sistemas no lineales
y tienen la propiedad para aprender de datos utilizando algoritmos de aprendizaje.
Sin embargo, a diferencia del enfoque neuronal, la logica difusa puede utilizar el
conocimiento de expertos. Por otro lado, no es recomendable utilizar la logica difusa
cuando alg un modelo matematico resuelve de forma eciente un problema, cuando
los problemas son lineales o cuando no tienen solucion.
En esta seccion, se van a mostrar algunos aspectos relacionados con la logica di-
fusa, tecnica que ha despertado un gran interes por parte de algunas comunidades
cientcas. Se va a iniciar con una explicacion de sus principios de operacion y se
continuara mostrando los trabajos que se estan realizando actualmente por algunps
grupos de trabajo as como sus aplicaciones.
5.4.1. Conceptos basicos
Las teoras de conjuntos difusos y logica difusa fueron creadas para permitir a las
computadoras imitar la forma imprecisa o incompleta de razonar de los humanos.
Estas teoras pueden ser vistas como un esquema matematico formal para repre-
sentar aspectos de incertidumbre relacionada con conceptos vagos e imprecisos uti-
lizados por las personas durante el proceso de razonamiento y toma de decisiones,
por ejemplo: Si la temperatura en el cuarto es caliente, aumenta la velocidad del
ventilador. En este apartado se van a describir aspectos relacionados con estas dos
teoras que permiten el manejo de este tipo de informacion, posteriormente, se va
a mostrar un ejemplo de como se integran para ofrecer solucion a una variedad de
problemas.
A continuacion se van a describir tres conceptos muy importantes en los cuales se
basan los sistemas difusos, nos referimos a: imprecisi on, vaguedad e incertidumbre,
informacion tomada del artculo escrito por Henri Dubois y otros [150].
Vaguedad. Una caracterstica esencial con el termino: vaguedad, es que se relaciona
con el signicado de las palabras en un lenguaje. Este termino es manejado como un
caso particular de ambig uedad. Se dice que un concepto es vago cuando su signica-
do no esta denido con claridad. Existe una degradacion natural, en situaciones en
las que una nocion vaga se aplica completamente y situaciones en las que no se aplica
del todo. Este es un fenomeno de degradacion conocido comopertenencia gradual
o borrosidad. La vaguedad, restringida al ambito de difusidad o borrosidad, puede
manejarse, a traves de asignar a cualquier situacion un grado de aplicabilidad en
relacion a un concepto dado. Una caracterstica de las proposiciones que manejan
5.4. L

OGICA DIFUSA (FUZZY LOGIC) 395


conceptos vagos, es que no son verdaderas y tampoco son falsas cuando describen
una situacion, sino que tienen una pertenencia parcial a cualquiera de estos terminos.
La representacion simbolica de pertenencia a grados de verdad, puede ser encontra-
da en los lenguajes naturales en casos como: tal vez, muy, casi no, y otros.
Por ejemplo, si alguien es considerado muy joven, indica que el grado o nivel de
verdad de la oracion esta persona es joven es muy, lo cual signica que esta
persona tiene un elevado nivel de pertenencia a la clase de las personas jovenes.
Imprecision. La imprecisi on es una caracterstica de los lenguajes naturales y de
manera particular se aplica a conceptos y propiedades medibles. Debido a que tales
conceptos son representados por n umeros, seguido se utiliza el termino imprecision
numerica para describirlos. Tal imprecision surge del hecho de que cualquier medi-
cion produce resultados de exactitud limitada. Muy seguido se habla de una corre-
spondencia de uno a muchos, entre los resultados de mediciones y n umeros reales,
generalmente se aplican intervalos. En logica, la imprecision aparece bajo la forma
de disyunciones: la sentencia en que una proposicion p OR q es verdadera contiene
imprecisiones, ya que no se sabe si p, o q, o ambas, son verdaderas. A esta situacion
usualmente se le conoce como incompletez.
Incertidumbre. Mientras que la vaguedad y la imprecisi on se relacionan con el
contenido de una parte de informacion expresada en alg un lenguaje. La incertidum-
bre se reere a cuanticar la creencia parcial hacia algunas proposiciones. El tipo
de incertidumbre manejada en logica de proposiciones se deriva de informacion in-
completa o imprecisa. Sin embargo, cuando tal informacion es difusa, se obtiene un
modelo de incertidumbre gradual (cuanticada con valores dentro de un intervalo).
Con el n de claricar los conceptos anteriores, se van a proporcionar las siguientes
descripciones relacionadas con un vehculo.
Este vehculo tiene una antig uedad entre 10 y 15 a nos (imprecision pura).
Este vehculo es muy grande (imprecision y vaguedad).
Este vehculo probablemente fue ensamblado en Alemania (incertidum-
bre).
En el primer caso, existe una falta de conocimiento, debido a la carencia de habilidad
para medir o evaluar propiedades o caractersticas numericas. En el segundo caso, se
carece de una denicion precisa de la nocion grande donde el modicador muy indica
una aproximacion poco detallada de grandeza o tama no, y el tercer caso expresa
incertidumbre acerca de una proposicion bien formada, tal vez basada en estadstica.
396 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Conjuntos difusos. Los conjuntos difusos fueron introducidos por Lot Zadeh en
1965, y son una extension a la nocion que tenemos del conjunto clasico. En la teora
clasica de conjuntos, la pertenencia de los elementos al conjunto se da en terminos
binarios o de condicion bivalente, es decir, un elemento pertenece o no pertenece
al conjunto. A diferencia del enfoque clasico, la teora de conjuntos difusos permite
la evaluacion de una pertenencia gradual o membresa de los elementos a un con-
junto. Esta pertenencia gradual se describe a traves de una funcion conocida como:
funcion de pertenencia, valuada en el intervalo real unitario [0, 1]. Los elementos
de un conjunto difuso usualmente son etiquetas ling usticas que expresan terminos
difusos o vagos, tales como: joven, alto, veloz, y bueno, entre otros. Como ya se
menciono con anterioridad, no existe un valor cuantitativo unico que dena de for-
ma precisa alguno de los terminos anteriores. Por ejemplo, para algunas personas
alguien que tiene 25 a nos de edad es joven, mientras que para otros, una persona
con una edad de 35 a nos tambien es joven. De esta manera, algunos terminos como
joven, no tienen lmites precisos. Lo usual en los sistemas difusos es manejar un ran-
go de valores para ubicar dentro de lmites a estos terminos, por ejemplo, podemos
indicar que una persona es joven si su edad oscila entre 20 y 35 a nos (ver Figura 5.47).
De esta forma, las personas cuya edad se encuentran dentro de este intervalo pertenecen
de acuerdo a la teora de conjuntos difusos al grupo de personas jovenes. Resulta
claro que una persona de 24 a nos es mas joven que una de 34 a nos. Este es un
aspecto de incertidumbre que en logica difusa se resuelve a traves de la asignacion
de grados de pertenencia a los elementos de un conjunto. En este sentido, en lo
sistemas difusos se determina que una persona de 24 a nos tiene un mayor grado de
pertenencia al grupo de jovenes que una persona de 34 a nos.
De acuerdo con lo mostrado en la Figura 5.47, el grupo de personas que tienen entre
25 y 30 a nos de edad, tienen un grado de pertenencia de 100 % al grupo de personas
jovenes. A continuacion se mostraran los aspectos formales relacionados con la teora
de conjuntos difusos.
Conjuntos difusos y funciones de pertenencia. Sea X una coleccion de objetos
denotados genericamente por x, un conjunto difuso A perteneciente a X se dene
como un conjunto de pares ordenados A = ((x,
A(x)
)[x X, donde, al termino

A(x)
se le conoce como: funcion de pertenencia del conjunto difuso A. Esta funcion,
mapea cada elemento del conjunto X con un valor numerico en el rango [0 - 1], el
cual indica el grado de pertenencia del elemento x al conjunto X. Cuando este valor
es restringido a 0 y 1, entonces A se reere a un conjunto convencional o clasico.
Usualmente a los conjuntos clasicos se les reere como conjuntos: convencionales,
precisos, no difusos, o simplemente conjuntos. Asimismo, a X se le conoce como el
universo de discurso, o solamente universo, y puede estar formado por elementos
5.4. L

OGICA DIFUSA (FUZZY LOGIC) 397


Figura 5.47: Grados de pertenencia a un conjunto. Ilustraci on del conjunto difuso
para el termino joven. En la imagen se muestra el grado de pertenencia de dos
personas (de 24 y 34 a nos respectivamente) al conjunto de personas j ovenes. Se
observa que la persona con 24 a nos de edad tiene un grado de pertenencia de 0.80
(en una escala de 0-1) a este conjunto, mientras que la persona que tiene 34 a nos,
tiene un menor grado de pertenencia (0.20) al mismo conjunto.
discretos (ordenados o no ordenados) o por elementos continuos. Estos aspectos se
van a claricar con los siguientes ejemplos.
Conjuntos difusos con universo de elementos discretos no ordenados. Sea X =
Cuernavaca, Queretaro, Guanajuato el conjunto formado por ciudades selec-
cionadas para vivir. El conjunto difuso A = ciudad deseable para vivir, puede
ser descrito como: A = (Cuernavaca, 0.6), (Acapulco, 0.5), (Queretaro, 0.9)
3
. En
este caso, el universo es discreto y contiene elementos no ordenados, sin embargo,
los grados de pertenencia asignados son subjetivos, otra persona puede hacer una
descripcion diferente y tambien se considera valida.
Conjuntos difusos con universo discreto y ordenado. Sea X = 0, 1, 2, 3, 4, 5, 6 el
conjunto indicando el n umero de hijos que una pareja desea tener. En este caso, el
conjunto difuso B podra ser n umero de hijos deseados en una familia, el cual po-
dra ser descrito como: B = (0,0.1), (1,0.3), (2,0.7), (3, 1), (4,0.7), (5,0.3), (6,0.1),
la representacion graca de este conjunto se muestra en la Figura 5.48. Al igual
que el caso anterior, la asignacion de los grados de pertenencia, fueron realizados de
acuerdo a una apreciacion subjetiva.
3
Se est a considerando como uno de los factores para la seleccion, la inseguridad que priva en
estas ciudades.
398 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.48: Ilustracion del conjunto difuso B = n umero de hijos deseables en una
familia.
En el caso de un universo continuo, la funcion de pertenencia se caracteriza por
ser una funcion continua, de igual manera su representacion graca es continua, tal
como la que se muestra en la Figura 5.47, en la que se selecciono una representacion
tipo trapezoidal, otras representaciones muy usuales son la triangular y la gaussiana.
Algunos elementos que pueden ser caracterizados con funciones de este tipo son la
altura de una poblacion y la edad, entre otros.
De los casos presentados, resulta comprensible que la construcci on de un conjunto
difuso depende de dos factores: i) identicacion de un apropiado universo de discur-
so, y ii) especicacion de una funcion de pertenencia. La especicacion de la funcion
de pertenencia es subjetiva, esto signica que una funcion relacionada con un mismo
concepto, pero especicada por diferentes personas puede variar considerablemente.
El no tener una base formal para especicar la funcion de pertenencia es una de
las diferencias entre la logica difusa y otros enfoques, por ejemplo el probabilstico.
En la practica, y generalmente para universos continuos el universo usualmente se
particiona en varios conjuntos difusos cuya funcion de pertenencia cubre al universo
X de una forma mas o menos uniforme. Una caracterstica de estos conjuntos es
que son nombrados mediante etiquetas ling usticas. Por ejemplo, si X representa
la edad de una poblacion, entonces, este universo puede estar representada por los
siguientes conjuntos difusos: joven, adulto, y viejo. La representacion de estos con-
juntos se ilustra en la Figura 5.49.
Operaciones sobre conjuntos difusos. De la misma manera que se realizan opera-
ciones en los conjuntos convencionales, los conjuntos difusos tambien tienen esta
capacidad [151]. Enseguida se van a describir tales operaciones:
5.4. L

OGICA DIFUSA (FUZZY LOGIC) 399


Figura 5.49: Conjuntos difusos del universo X = edad. Se ilustra la representacion de
las etiquetas ling usticas: joven, adulto, y viejo, para indicar el universo de discurso
X = edad.
Union. Sean A y B dos conjuntos difusos cuyas funciones de pertenen-
cia son
A
y
B
respectivamente. La operacion de union aplicada a los
conjuntos A y B, da como resultado una nueva funcion de pertenencia
(
AB
), cuyo valor queda determinado por el criterio del valor maximo, es
decir:

AB
= max(
A
,
B
)
Esta operacion es equivalente a la operacion OR en algebra Booleana.
Interseccion. La funcion de pertenencia que resulta de la interseccion de
dos conjuntos difusos A y B, con funciones de pertenencia
A
y
B
re-
spectivamente, se determina de acuerdo con el criterio del valor mnimo,
es decir:

AB
= min(
A
,
B
)
Esta operacion es equivalente a la operacion AND en algebra Booleana.
Complemento. La funcion de pertenencia que resulta al aplicar la op-
eracion de complemento a un conjunto difuso A, con funcion de pertenen-
cia
A
, se dene mediante el criterio de negacion, de la siguiente manera:

A=1
A
Aunque existen otras operaciones, las mencionadas son las mas utilizadas en los
sistemas difusos. Asimismo, las operaciones anteriores cumplen al igual que en la
teora clasica de conjuntos, las propiedades siguientes: asociativa, conmutativa, dis-
tributiva y las leyes de Morgan. Sin embargo, a diferencia de la teora clasica, los
conjuntos difusos no cumplen el principio de contradiccion ni el de exclusion.
400 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Los conjuntos difusos tienen las siguientes propiedades:
Soporte. Se reere al conjunto de elementos cuyo grado de pertenencia es distinto
de cero, es decir:
Sop(A) = x[
A
(x) 0, x X
Altura. La altura del conjunto difuso A, se representa por el grado de pertenencia
con el mayor valor numerico de los elementos del conjunto, es decir:
Altura(A) = max h[h =
A
(x), x X
N ucleo. El n ucleo de un conjunto difuso A, esta formado por el conjunto de elementos
cuyo grado de pertenencia es igual a 1, esto es:
Nucleo(A) = x X[
a
(x) = 1
Conjunto difuso normal. Se dice que un conjunto difuso A es normal si su altura es
igual a 1, es decir:
Altura(A) = 1.
Enseguida se van a describir aspectos relacionados con la logica difusa.
Logica difusa. La logica difusa o logica borrosa puede ser conceptualizada como
una generalizacion de la logica clasica. Tal generalizacion se logra al reemplazar los
valores bivalentes (verdadero/falso, si/no, encendido/apagado) que emplea la logi-
ca convencional, por valores difusos obtenidos a traves de funciones de pertenencia
difusas. La version moderna de esta logica (propuesta por Lot A. Zadeh) fue de-
sarrollada para modelar problemas que utilizan datos imprecisos, en los cuales, las
reglas de inferencia son formuladas de una forma muy general y aplicando categoras
difusas. En esta logica, existe un rango continuo de valores de verdad generalmente
comprendidos en el intervalo [0-1] para ser asignados a las proposiciones. Por lo
tanto, a diferencia de la logica clasica en la cual una proposicion solamente puede
ser verdadera o falsa, en la logica difusa una proposicion puede tener asignado un
valor de verdad, por ejemplo, A =0.7, indica que la proposicion A es verdadera en
0.7 (mas verdadera que falsa). Asimismo, a diferencia de la logica clasica, en la logi-
ca difusa una proposicion A puede tener asignado el valor 0.4 y su complemento el
valor 0.5 dependiendo del tipo de operador de negacion utilizado.
5.4. L

OGICA DIFUSA (FUZZY LOGIC) 401


Asimismo, y al igual que la logica proposicional o de primer orden, la logica difusa
se basa en proposiciones. Las proposiciones en la logica difusa contienen terminos
ling usticos, por ejemplo, La presion es baja, la velocidad es alta. Generalmente,
un sistema difuso captura el conocimiento de expertos humanos mediante un con-
junto de reglas difusas cuyos componentes basicos son las proposiciones difusas. En
una regla difusa, el antecedente, el consecuente o ambos, son difusos. La forma mas
com un de una regla difusa es: Si x es A Entonces y es B, donde A y B representan
valores (terminos) ling usticos denidos por conjuntos difusos en el universo de dis-
curso X y Y . Ejemplos de reglas difusas son las siguientes: i) Si la presi on es baja
Entonces el volumen es alto, ii) Si la velocidad es alta Entonces presiona un poco
el freno, y iii) Si es joven y la percepcion es poca Entonces el riesgo de asignar un
prestamo es alto.
El proceso de razonamiento logico consiste en combinar varias proposiciones una
y otra vez hasta llegar a alguna conclusion. Las proposiciones pueden ser com-
binadas de varias maneras, todas ellas derivadas de tres operaciones basicas: i)
conjuncion (p q), donde se eval ua la ocurrencia simultanea de las proposiciones
p y q, ii) disyuncion (p q), donde se eval ua la veracidad de alguna o de am-
bas proposiciones, iii) implicacion (p q), donde usualmente se considera una
regla de la forma: SI-ENTONCES, iv) funcion de pertenencia de una implicacion,

pq
(x, y) = max(1
p
(x),
q
(y)) , donde
pq
mide el grado de verdad de la
relacion de implicacion entre x y y. Asimismo, en la logica difusa existen las reglas
de inferencia modus ponens y modus tol lens utilizadas por la logica proposicional
y de primer orden, como formas de razonamiento. Sin embargo, en este caso son
reglas generalizadas, por ejemplo, el modus ponens generalizado se expresa como:
Premisa: x es A

Implicacion: Si x es A Entonces y es B
Consecuencia: y es B

Donde A, A

, B, B

son conjuntos difusos y x, y representan nombres simbolicos para


objetos.
Inferencia difusa. Los sistemas de inferencia difusa, consisten de reglas que es-
pecican una relacion entre las entradas y las salidas de conjuntos difusos. A su vez,
las relaciones difusas presentan un grado de presencia o ausencia de asociacion entre
los elementos de dos o mas conjuntos. Si U y V son dos universos de discurso, una
402 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
relacion difusa es un conjunto en el espacio U V caracterizado por la funcion de
pertenencia
R
(x, y), donde x U y y V , y
R
(x, y) [0, 1]. Las funciones de
relacion difusa desempe nan un papel importante en el proceso de inferencia de los
sistemas difusos. Una regla de la forma Si x es A Entonces y es B, donde x U y
y V , tienen una funcion de pertenencia denida por
AB
.
La interpretacion de la regla difusa involucra 2 pasos: 1) evaluacion del antecedente,
donde se incluye la fuzzicaci on de la entrada y la aplicacion de operadores difusos,
y 2) aplicar el resultado del antecedente al consecuente (implicacion), aqu se eval ua
la funcion de pertenencia
AB
. Para la mayora de las aplicaciones, la evaluacion
de la implicacion de la funcion de pertenencia mencionada, se obtiene a traves del
mnimo o implicacion del producto, obtenidos respectivamente como sigue:

AB
(x) = max[
A
(x),
B
(x)]

AB
(x) = min[
A
(x),
B
(x)]
Un par de metodos que se aplican para realizar inferencia en los sistemas difusos
son los siguientes: i) metodo propuesto por Mamdani en 1977, el cual obtiene la im-
plicacion a traves del operador mnimo, y ii) metodo de Larzen propuesto en 1980,
el cual obtiene la implicacion aplicando el operador del producto.
Ejemplo de un sistema difuso. En este apartado se va a mostrar un ejemplo del
uso mas com un que tienen los sistemas difusos: sistemas de control. En este ejemplo,
se pretende dise nar un sistema basado en logica difusa con el n de controlar la
temperatura en un espacio cerrado. La arquitectura general de un sistema difuso se
muestra en la Figura 5.50.
El proceso para realizar este sistema consta de los siguientes pasos.
Paso 1. Un conjunto de entradas bien denidas o precisas son obtenidas a partir
de alg un dispositivo de entrada, en este caso: un termostato. Estas entradas son
transformadas a variables ling usticas y terminos ling usticos.
Paso 2. Se determinan las funciones de pertenencia considerando los conjuntos di-
fusos denidos con anterioridad.
5.4. L

OGICA DIFUSA (FUZZY LOGIC) 403


Figura 5.50: Arquitectura de un sistema basado en Logica Difusa.
Paso 3. Se construye el conjunto de reglas (base de reglas en la Figura 5.50) que
van a servir para controlar la temperatura.
Paso 4. El siguiente paso consiste en transformar los datos de entrada en sus re-
spectivos valores difusos, a este proceso se le conoce como fuzzicacion (ver Figura
5.50.
Paso 5. Considerando los valores difusos obtenidos en el proceso de fuzzicacion
se procede a la evaluacion de las reglas almacenadas en la base de reglas. En este
proceso, se combinan los resultados de cada regla (proceso de inferencia).
Paso 6. Una vez conocida la salida difusa, que se obtuvo como un consecuente de
la regla o reglas seleccionada(s) en el paso previo, se realiza su conversion a un valor
denido para ser manejado como dato de salida (proceso de defuzzicacion).
En este caso, se busca dise nar un sistema basado en logica difusa para controlar la
temperatura de un recinto cerrado. Para esto, el sistema debe ajustar la temperatura
del recinto considerando su temperatura actual y una temperatura de referencia
(temperatura objetivo). Se va a muestrear de forma periodica la temperatura de
entrada y se va a comparar contra la de referencia y dependiendo del resultado
de esta comparacion se va a afectar la velocidad del compresor del sistema de aire
acondicionado. Para nes de este ejemplo, se va a considerar que la temperatura
en el espacio cerrado va a depender de la velocidad del compresor. Se va asumir
que cuando la velocidad del compresor sea alta, la temperatura en el recinto va a
descender ocasionando que el recinto se enfre, y cuando la velocidad del compresor
sea baja, la temperatura en el recinto va a aumentar ocasionando que el recinto
404 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.51: Arquitectura para un controlador difuso de aire acondicionado.
comience a calentarse. La arquitectura propuesta para este sencillo controlador se
muestra en la Figura 5.51.
Determinacion de las variables ling usticas. La seleccion de las variables que
va a utilizar este sistema deben ser claras y acordes a la tarea. Por lo tanto, ya que
se trata de controlar la temperatura de un espacio cerrado, la variable ling ustica a
utilizar debe ser: temperatura (t). Hay que tener presente que una variable ling ustica
es un conjunto difuso cuyos elementos son terminos ling usticos. En este caso, los
terminos relacionados con la temperatura son terminos usuales en la vida cotidiana,
tales como: caliente, agradable, fra, los cuales representan valores ling usticos de la
temperatura. En este ejemplo, se van a utilizar los siguientes valores para la variable
de entrada seleccionada, T(t) =(muy-fro, fro, agradable, caliente, muy-caliente (ver
Figura 5.52). En el mismo sentido, para la variable de salida se va a considerar el
termino: velocidad del compresor. Los valores que se van a considerar para este
conjunto difuso son los siguientes: (muy-baja, baja, moderada, alta, muy-alta (ver
Figura 5.53). Cada uno de los terminos ling usticos que forman los conjuntos difusos
de entrada y salida van a comprender un rango de valores dependiendo del caso.
Funciones de pertenencia. Estas funciones se van a utilizar en diferentes opera-
ciones del proceso, tales como la fuzzicacion y la defuzzicacion de datos, con el n
de mapear valores de entrada precisos a terminos difusos y viceversa. En las Figura
5.52 y 5.53 se muestran las funciones de pertenencia para los diferentes terminos
ling usticos de la variable de entrada: temperatura, y de salida: velocidad.
Reglas difusas. En un sistema basado en logica difusa, se crea una base de reglas
con la nalidad de controlar la variable de salida, en este caso, la temperatura en un
espacio cerrado. Estas reglas, generalmente se presentan como una matriz, donde
5.4. L

OGICA DIFUSA (FUZZY LOGIC) 405


Figura 5.52: Funciones de pertenencia de la variable difusa: temperatura. Se mues-
tran los terminos difusos que conforman a esta variable (muy-frio, frio, agradable,
caliente, muy caliente), asimismo, se aprecia con lneas punteadas el valor de la
temperatura de referencia.
Figura 5.53: Funciones de pertenencia de la variable de salida: velocidad. Se obser-
va que esta variable esta integrada por los siguientes elementos: (muy-baja, baja,
moderada, alta, muy-alta).
406 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
las etiquetas para las las y columnas corresponden a las variables de entrada, y
los puntos de interseccion a la variable de salida. En este ejemplo, solamente se
esta manejando una variable de entrada y una de salida, as como una referencia,
que para el caso, puede tomar los mismos valores de los terminos de la variable de
entrada. Por lo tanto, la matriz de reglas es de tama no 5x5, ya que se tienen 5
terminos ling usticos para la velocidad, que es la variable de entrada. Sin embargo,
en esta explicacion se van a mostrar solamente una muestra de estas reglas, cuando
se toma como temperatura de referencia: agradable. Por lo tanto, las reglas para este
caso son las siguientes:
Regla 1. Si (temperatura es muy-fria) Y (referencia es agradable) Entonces veloci-
dad es muy-baja.
Regla 2. Si (temperatura es fria) Y (referencia es agradable) Entonces velocidad es
baja.
Regla 3. Si (temperatura es agradable) Y (referencia es agradable) Entonces veloci-
dad es moderada.
Regla 4. Si (temperatura es caliente) Y (referencia es agradable) Entonces veloci-
dad es alta.
Regla 5. Si (temperatura es muy-caliente) Y (referencia es agradable) Entonces ve-
locidad es muy-alta.
Con estas sencillas reglas se establecen las condiciones para que el mecanismo de con-
trol mantenga la temperatura agradable en un espacio cerrado. En el antecedente de
cada regla, aparecen los valores de temperatura (frio, muy-frio, agradable, caliente,
muy-caliente) que puede tener actualmente el espacio cerrado, as como el valor de
la temperatura de referencia, en este caso: agradable. En esta parte de la regla, se
realiza la comparacion de estas temperaturas (actual contra la de referencia), si esta
condicion se cumple se realiza la accion que aparece en el consecuente de cada regla.
Fuzzicacion de las entradas. Las entradas de un sistema difuso son valores bi-
en denidos de alguna variable fsica. Estos valores tienen que ser transformados a
terminos ling usticos para que sean procesados por el sistema. Este proceso, da como
resultado un vector de valores que caracteriza una situacion de la entrada, la cual
puede ser por ejemplo, el estado del sistema. Esta situacion se muy similar a la que
se observa en las premisas de las reglas, solo que en este caso, se manejan valores
5.4. L

OGICA DIFUSA (FUZZY LOGIC) 407


Figura 5.54: Imagen que muestra la pertenencia a subconjuntos difusos de la variable
temperatura, cuando la temperatura actual en el recinto es de 27 grados centgrados.
numericos indicando la pertenencia del valor de entrada a los diferentes subcon-
juntos. Es decir, un valor numerico al ser fuzzicado puede pertenecer a diferentes
conjuntos con diferente grado de pertenencia a cada uno de ellos. Para claricar
la situacion, suponga que la temperatura actual en el recinto tiene un valor de 27
grados centgrados. Tenemos que conocer la pertenencia de este valor a los sigu-
ientes subconjuntos: muy-frio, frio, agradable, caliente, muy-caliente. Para realizar
este calculo, generalmente se utilizan cuatro tipos de fuzzicadores: i) Singleton, ii)
Gaussiano, iii) Trapezoidal, y iv) Triangular, cada uno de ellos cuentan con sus re-
spectivas expresiones para realizar la conversion. En este caso, se van a utilizar las ex-
presiones para el caso trapezoidal que es el que estamos utilizando (ver Figura 5.54).
La pertenencia de este valor a los subconjuntos es la siguiente:
muyfrio
(27)=0.0,

frio
(27)=0.0,
agradable
(27)=0.8,
caliente
(27)=0.3,
muycaliente
(27)=0.0.
Inferencia. Durante este proceso se pasa de una representacion de entrada difusa
a una decision difusa. La representacion de una entrada fsica medible en terminos
difusos se realizo en el paso anterior, por lo tanto, ahora corresponde determinar
una decision difusa. Para ello, la inferencia se estructura por tres pasos: agregacion,
activacion, y acumulacion. A continuacion se van a describir estos pasos [152].
Agregacion. En este paso se considera la forma en que se enlazan las proposiciones
del antecedente de cada regla. En nuestro caso, se tienen dos proposiciones: i) la que
trata con la temperatura de entrada, y ii) la que maneja la temperatura de referencia.
Estas proposiciones estan conectadas por el operador AND. Como se menciono con
408 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
anterioridad en las operaciones con conjuntos difusos, el operador AND equivale al
valor mnimo de los valores de pertenencia de los subconjuntos involucrados. Apli-
cando estos valores a las reglas descritas tenemos lo siguiente:
Regla 1. Si (temperatura es muy-fria) Y (referencia es agradable) Entonces veloci-
dad es muy-baja. MIN (0.0, 1.0) = 0.0 muy-baja (0 % muy-baja).
Regla 2. Si (temperatura es fria) Y (referencia es agradable) Entonces velocidad es
baja. MIN (0.0, 1.0) = 0.8 baja (80 % baja).
Regla 3. Si (temperatura es agradable) Y (referencia es agradable) Entonces veloci-
dad es moderada. MIN (0.8, 1.0) = 0.8 moderada (80 % moderada).
Regla 4. Si (temperatura es caliente) Y (referencia es agradable) Entonces veloci-
dad es alta. MIN (0.3, 1.0) = 0.3 alta (30 % alta).
Regla 5. Si (temperatura es muy-caliente) Y (referencia es agradable) Entonces ve-
locidad es muy-alta. MIN (0.0, 1.0) = 0.0 muy-alta (0 % muy-alta).
Activacion. Una regla difusa es la conexion de dos proposiciones difusas, donde
tal conexion puede ser interpretada bajo un esquema de la teora de conjuntos u
operadores logicos. La interpretacion mas simple, consiste en que la conjuncion de
la premisa y la conclusion sea de tal manera que la operacion apropiada corresponda
al mnimo. Por lo tanto, los conjuntos difusos en la conclusi on de cada regla, corre-
sponden con el valor mnimo obtenido en el antecedente de la misma. En la Figura
5.55(a) se muestran las correspondientes salidas activadas.
Acumulacion. Generalmente, una base de reglas se interpreta como una disyuncion
de las reglas individuales, donde cada regla se puede ver como la opinion indepen-
diente de un experto. En la tarea de acumulacion, se combinan estas opiniones de
expertos, las cuales son de hecho, conjuntos difusos de valores de salida recomen-
dados. Consecuentemente, una operacion de acumulacion apropiada, debe ser la de
valor maximo. Por lo tanto, se toman los valores de pertenencia maximos para cada
uno de los subconjuntos de salida activados. Un ejemplo de esta operacion se mues-
tra en la Figura 5.55(b).
A este esquema de inferencia, donde se aplican las operaciones de mnimo y despues
la de maximo se le conoce como inferencia max min. El resultado del proceso
5.4. L

OGICA DIFUSA (FUZZY LOGIC) 409


Figura 5.55: Imagen (a): muestra los subconjuntos activados cuando el operador
seleccionado es el de valor de pertenencia mnimo. Imagen (b): acumulacion de
subconjuntos de salida difusos aplicando el operador correspondiente al de valor
maximo de grado de pertenencia.
de inferencia, es un conjunto difuso de salida a partir del cual se debe obtener un
valor preciso para enviarse al sistema fsico a controlar, en este caso, el compresor
del sistema acondicionador de aire.
Defuzzicaci on. En el proceso de defuzzicaci on, se busca el valor numerico que
mejor representa la informacion contenida en el conjunto difuso de salida. Existen
varios metodos para obtener este valor, sin embargo uno de los mas empleados es
el conocido como: defuzzicacion del centro de gravedad (CoG), en el cual se trata
de calcular el centroide de la gura formada por el conjunto difuso correspondi-
ente a la variable de salida (ver Figura 5.55(b)). Para este ejemplo, con un valor de
temperatura de entrada de 27 grados centgrados, la velocidad del compresor debe
ser aproximadamente de 2150 rpm, con el n de disminuir la temperatura actual y
mantener la temperatura de referencia.
De acuerdo con Charles Elkan, en una rapida revision que realizo de una gran can-
tidad de artculos relacionados con logica difusa (mas de un millon) desde 1988, la
410 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
conclusion a que llego, es que, esta logica, muy rara vez es aplicada para razonar bajo
condiciones de incertidumbre, as como tampoco en tareas que requieren extensivo
uso de conocimiento (diagn osticos, calendarizacion, dise no, analisis de datos). La
mayora de estos sistemas son controladores en oposicion a sistemas de razonamien-
to [153]. La razon de este uso muy limitado, es que los elementos del conocimiento
incierto deben combinarse cuidadosamente para evitar inferencias incorrectas.
La aplicacion mas exitosa de la logica difusa consiste en dise nar sistemas de con-
trol basados en heursticas, ya que, existe un amplio consenso en que las tecnicas
matematicas de teora de control resultan inadecuadas en estos sistemas. Las ra-
zones de ello incluyen la dependencia en el uso de metodos tradicionales aplicados
a los modelos lineales que representan los sistemas a controlar, y su enfoque ha-
cia aspectos de estabilidad y convergencia, en lugar de considerar la eciencia. Las
tecnicas de control heurstico, sacrican las garantas de rendimiento de los modelos
matematicos formales a favor de un mayor realismo y un mejor rendimiento practi-
co. La primera demostracion de logica difusa en el dise no de sistemas de control fue
publicada en la decada de 1970. Estos trabajos continuaron en la decada de 1980, y
a principios de 1990 se observo un gran desarrollo en trabajos industriales basados
en este enfoque.
5.4.2. Desarrollos actuales y aplicaciones
Al igual que sucede con otras areas de trabajo relacionadas con la IA, existen grupos
de investigacion en diferentes partes del mundo desarrollando sistemas basados en
logica difusa. Algunos de estos grupos se mencionan a continuacion.
El Grupo de Investigacion Sistemas Inteligentes de Informacion y Com-
putacion Suaveformado por participantes de instituciones academicas de Espa na
(Universidad de Granada, Escuela Tecnica Superior de Ingeniera, Informatica y
Telecomunicaciones, Departamento de ciencias Computacionales e Inteligencia Ar-
ticial) integran un total de siete laboratorios. Uno de estos centros de investigacion,
el Laboratorio de Sistemas Inteligentes y Minera de Datos Difusa y Evolutiva (EF-
DaMIS), se enfoca al desarrollo de sistemas inteligentes y algoritmos de minera de
datos, basados en sistemas difusos y algoritmos evolutivos. Se trabaja en el desar-
rollo de nuevas propuestas en el campo de extraccion del conocimiento, as como
en esquemas combinados basados en logica difusa y algoritmos geneticos para ser
aplicadas en robotica y otras ramas de la ingeniera. En este momento, sus areas de
interes son las siguientes:
5.4. L

OGICA DIFUSA (FUZZY LOGIC) 411


Sistemas Basados en Reglas Difusas (FRBS). Donde el interes se centra en el
analisis de los componentes de los FRBS as como en el dise no y aplicacion de los
mismos a resolver diferentes problemas de ndole cientco y de ingeniera.
Sistemas Geneticos Difusos (GFS). En este caso se trabaja en el desarrollo
de sistemas difusos que utilizan un esquema de aprendizaje basado en algoritmos
geneticos. En esta area, los trabajos se enfocan al desarrollo de nuevas propuestas
para este tipo de modelos, tratando de mantener un compromiso entre interpretacion
y precision. El uso de algoritmos geneticos con m ultiples objetivos, se considera una
herramienta interesante para alcanzar este objetivo durante el proceso de aprendiza-
je.
Aprendizaje con Conjuntos de Datos Desbalanceados. Esta area, es uno de
los desafos actuales en el aprendizaje de maquinas. El problema de desbalance de
datos se presenta cuando existen mas ejemplos de datos de una clase que de otras.
Se han propuesto varias soluciones con el n de resolver este problema, tal como, la
modicacion de metodos existentes o aplicar etapas de preprocesamiento, consiguien-
do avances signicativos, aunque sin resolver completamente el problema. El interes
hacia este problema, es que hay varias aplicaciones que deben enfrentar este tipo de
aprendizaje, tales como la deteccion de fraudes, deteccion de intrusos, identicacion
biologica y medica, entre otros. El trabajo en esta area, consiste en explorar modelos
geneticos y difusos con la nalidad de desarrollar nuevas propuestas a este problema.
Aplicaciones de Ingeniera. El uso de sistemas basados en conocimiento represen-
tan un enfoque eciente para el manejo de sistemas en aplicaciones de la ingeniera
e industria, proporcionando estrategias de control automatizado con caractersticas
de IA. Los trabajos desarrollados en esta area, se enfocan al dise no de sistemas de
control basados en logica difusa y la integracion de algoritmos geneticos con el n de
mejorar su comportamiento. Se busca el empleo de sistemas difuso-geneticos para
el desarrollo de controladores inteligentes, sobretodo aplicados en sistemas de aire
acondicionado.
Robotica Inteligente. Los robots autonomos realizan tareas en ambientes incier-
tos sin la intervencion humana. Ademas, la informacion que perciben a traves de
sus sensores es ruidosa y no muy conable. La logica difusa, ha demostrado ser una
herramienta util al tratar con este tipo de incertidumbre y se ha utilizado de manera
importante en aspectos del comportamiento de robots. En esta area, los trabajos se
enfocan al dise no de estrategias de aprendizaje con el n de permitirle a los robots
una mejor interaccion en el desarrollo de sus tareas. Especcamente, se estan uti-
lizando diferentes metaheursticas (algoritmos geneticos, ant systems) en el dise no
412 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
de controladores difusos empleados en aspectos de aprendizaje.
En el Laboratorio de Sistemas Inteligentes de la Universidad de Toronto,
se realiza investigacion relacionada con el desarrollo e implementacion de soluciones
para la minera de datos basadas en logica difusa. Asimismo, se realizan propuestas
novedosas para la integracion de sistemas neurodifusos enfocados a una amplia var-
iedad de aplicaciones.
En la Universidad de Ostrava, Checoslovaquia, se fundo en 1996 el Instituto de
Investigacion y Aplicaciones de Logica Difusa, donde el topico de interes prin-
cipal consiste en la investigacion y desarrollo de metodos de computacion suave (soft
computing). Los trabajos realizados en este instituto, han contribuido de manera im-
portante con la teora y desarrollo de varias herramientas de software, que ofrecen
nuevas alternativas de solucion y que permiten aplicarse en areas como: control,
toma de decisiones, analisis de datos, analisis de se nales, y solucion de ecuaciones
diferenciales, entre otras. Actualmente se encuentran trabajando en los siguientes
proyectos de investigacion:
Teora algebraica de la estructura de los valores de verdad en logica difusa.
En este proyecto, los trabajos se enfocan hacia los siguientes temas: i) estudio de es-
tructuras algebraicas y modelos, as como a las propiedades de estas y su integracion
en logica difusa, ii) investigacion y desarrollo de varios metodos de aproximacion,
as como de su aplicacion en el estudio de fenomenos.
Teoras formales de logica difusa. En este proyecto se realizan estudios con la in-
tencion de desarrollar esquemas formales para el razonamiento aproximado, es decir,
el razonamiento realizado por las personas sobre la base de informacion imprecisa
expresada en lenguaje natural. Los trabajos realizados en este proyecto se enfocan
principalmente a los siguientes temas: i) logica difusa con sintaxis evaluada, ii) logica
difusa de orden superior, iii) teora de modelos de logica difusa y su categorizacion,
iv) teora de cuanticadores generalizados con extensiones no estandarizadas a logi-
ca difusa.
Otros proyectos de interes para este grupo de investigacion son los siguientes: a)
Desarrollo de nuevos algoritmos evolutivos para optimizacion global en modelos di-
fusos, b) Representacion ling ustica para el conocimiento y el razonamiento basado
en el, y c) teora y metodos de aproximacion difusa.
Entre las principales aplicaciones desarrolladas por este grupo guran las siguientes:
5.4. L

OGICA DIFUSA (FUZZY LOGIC) 413


Control ling ustico. Herramienta desarrollada para facilitar esquemas de control
basados en logica difusa utilizando lenguaje natural. Bajo esta herramienta se de-
sarrollo tambien un controlador ling ustico con logica difusa (LFLC) orientado a
realizar control acorde a instrucciones verbales.
Asociaciones ling usticas en minera a partir de datos numericos. Esta apli-
cacion trata con una de las tareas de la minera de datos: asociaci on. En este caso,
se trata de proporcionar una herramienta encargada de hacer asociaciones ling usti-
cas a partir de datos numericos. La minera de datos se puede ver como un proceso
no trivial de identicacion valida, novedosa, potencialmente util, y nalmente, de
conocimiento comprensible, obtenido en grandes concentraciones de datos. En este
campo, son de particular interes las asociaciones ya que reejan relaciones entre
datos en este conjunto. En el proceso de descubrir asociaciones entre los datos,
muchas veces esta presente la incertidumbre y la imprecision en los mismos. De tal
manera, que el uso de herramientas aplicables para este n son de gran importancia.
Asimismo, este grupo ha desarrollado las siguientes aplicaciones: i) supervision de
la toma de decisiones, ii) prediccion en series temporales, y iii) procesamiento de
imagenes.
En la Universidad de Magdeburg, Alemania, se encuentra el Grupo de In-
vestigacion de Redes Neuronales y Logica Difusa. Este grupo de trabajo se
encuentra dirigido por el Prof. Rudolf Kruze, y sus trabajos se enfocan principal-
mente al analisis de vaguedad e imprecision de los sistemas basados en conocimiento,
as como el desarrollo de nuevas propuestas para enfrentarlos.
El grupo de investigacion en Analisis de Patrones y Maquinas Inteligentes
(PAMI) de la Universidad de Waterloo, es un grupo de trabajo que realiza
investigacion en diferentes areas de interes. Entre estas areas, se encuentra la de
Procesamiento Difuso de Imagenes, en la cual se realizan trabajos relacionados con
el procesamiento de imagenes aplicando tecnicas difusas. El procesamiento difuso
de imagenes consiste en una coleccion de enfoques con el n de comprender, repre-
sentar y procesar imagenes, manejar los aspectos de segmentaci on y extraccion de
caractersticas desde una perspectiva difusa.
Centro Europeo de Computacion Suave. Este centro de investigacion se en-
cuentra ubicado en Asturias, y tiene como objetivos tanto la investigacion basica
y aplicada en el area de computacion suave, como la transferencia de tecnologa
414 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
en aplicaciones industriales relacionada con el dise no de sistemas inteligentes para
resolver problemas reales. La investigacion que se realiza en este centro se enfoca
principalmente a las siguientes areas : 1) Aplicaciones difuso-evolutivas, 2) Analisis
inteligente de datos, 3) Computacion perceptual, 4) Sistemas inteligentes colabora-
tivos, y 5) Fundamentos de computacion suave. Asimismo, algunos de los proyectos
que se encuentran desarrollando son los siguientes:
Desarrollo de una plataforma para la programacion de generacion eoli-
ca basada en tecnicas de computo suave. Este proyecto tiene que ver con la
prediccion de la generacion de energa electrica, la cual, no es una tarea sencilla
debido al manejo datos no correlacionados procedentes de diversas fuentes. Por lo
tanto, este proyecto intenta desarrollar un sistema basado en tecnicas provenientes
de computo suave, con el n de mejorar la prediccion en parques de energa eolica.
Analisis de video en tiempo real para aplicaciones de seguridad. En este
proyecto, se trabaja en el desarrollo e implementacion de un sistema para detectar
situaciones de vandalismo en espacios p ublicos. El sistema busca integrar tecnicas
como algoritmos geneticos, logica difusa, y redes neuronales, con el n de realizar
el analisis semantico y sintactico de datos provenientes de video en tiempo real y
obtener conclusiones.
Desarrollo de un sistema inferencial borroso para la cuanticacion de in-
tangibles. Este proyecto busca crear una forma para caracterizar y valorar propiedades
subjetivas (aroma, sabor, aspecto) de productos utilizando l ogica difusa. El objetivo
principal del mismo, consiste en desarrollar una tecnologa innovadora para evaluar
de forma numerica las descripciones cualitativas relacionadas con las propiedades
intangibles de los objetos.
Motor de interaccion mediante lenguaje natural. En este proyecto se bus-
ca mejorar la capacidad de las maquinas o dispositivos para interaccionar con el
usuario a traves del lenguaje oral o del cuerpo. El objetivo principal es la creacion
de agentes conversacionales embebidos capaces de establecer un dialogo a traves de
caractersticas del habla o gestuales, empleando tecnologas semanticas. El anali-
sis de las se nales ac usticas y visuales permitira al agente establecer la escena que
esta teniendo lugar. De este modo, el agente virtual podra establecer una comuni-
cacion natural con el usuario, adaptando su comportamiento a las circunstancias y
caractersticas del mismo, y del entorno. As mismo, el agente virtual estara dotado
de diferentes personalidades, apariencias y gestos, de tal manera que le permitan
establecer una interaccion empatica con el usuario y una interaccion emocional.
5.5. PROCESAMIENTO DE LENGUAJE NATURAL (PLN) 415
Otros proyectos relacionados con este centro de investigaci on son los siguientes: Op-
eracion de autopistas seguras, inteligentes y sostenibles, Tecnologas para prestar
servicios en movilidad en el futuro universo inteligente, Tecnologas para la gestion
automatizada e inteligente de las redes de distribucion energetica del futuro, y Sim-
ulacion y optimizacion de promociones comerciales.
Al igual que los mencionados, existen numerosos centros de investigacion realizando
trabajos alrededor del mundo en esta area. Por ejemplo, en Mexico, el Centro Na-
cional de Investigacion y Desarrollo Tecnologico (CENIDET) en su area de posgrado
de Inteligencia Articial, es una de varias instituciones que desarrollan trabajos de
investigacion relacionados con este campo.
As como existen existen instituciones dedicadas a realizar investigacion relacionadas
con la logica difusa, tambien hay organismos que promueven estos trabajos. En
este sentido, hay organismos internacionales que promueven el desarrollo de la logi-
ca difusa, entre sus actividades se encuentran las siguientes: soportar el desarrollo
de la teora de conjuntos difusos, publicar revistas internacionales con este tema,
programar conferencias internacionales, entre otras. Asimismo, hay dieciseis tipos
de publicaciones de ndole academico-cientco con periodicidad bimestral, trimes-
tral, cuatrimestral y semestral, algunas de las cuales derivan en libros editados por
Springer-Verlag.
5.5. Procesamiento de Lenguaje Natural (PLN)
El procesamiento del lenguaje natural (PLN), es un campo de estudio relacionado
con la IA que tiene como objetivo: el dise no y construccion de sistemas computa-
cionales capaces de analizar lenguajes humanos, y generar sus respuestas o resultados
en un lenguaje natural tambien. Se busca que este proceso se realice de forma similar
a como lo hace un humano, es decir, obtenga inferencias, resuma y responda a pre-
guntas relacionadas con la informacion procesada . En sus inicios (decada de 1940s),
se manejo como el objetivo de un PLN: la comprension del lenguaje natural, sin
embargo, hasta nuestros das este objetivo no se ha cumplido. De acuerdo con Liddi,
un sistema computacional capaz de comprender un lenguaje natural debe ser capaz
de realizar las siguientes tareas [154]:
a) b) c) a) Parafrasear un texto de entrada.
b) Traducir el texto en alg un lenguaje.
416 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
c) Responder a preguntas relacionadas con el contenido del texto.
d) Obtener inferencias del texto.
Si bien se han hecho avances signicativos para alcanzar los objetivos 13, el hecho
de que los sistemas PLN a un no puedan obtener conclusiones de un texto hace que
la comprension del lenguaje siga siendo su principal objetivo.
Por el momento, la mayora de los trabajos realizados en esta area manejan ob-
jetivos mas practicos, generalmente relacionados con aplicaciones especcas. Por
ejemplo, un sistema PLN utilizado para recuperar informacion tiene como objetivo:
proporcionar informacion completa y precisa a la necesidad de informacion de un
usuario. Generalmente, la informacion se extrae de grandes vol umenes de datos, los
cuales, ademas de textos tambien pueden contener documentos multimedia (audio
y video). En este caso, el objetivo del sistema consiste en mostrar el signicado real
a la consulta del usuario y mostrarlo de manera natural en un lenguaje cotidiano
como si estuviera comunicandose con un bibliotecario. El PLN involucra una gran
variedad de aplicaciones, tales como las siguientes: i) Comprension del lenguaje nat-
ural, cuyo objetivo consiste en extraer el signicado de una oracion de entrada (en
forma verbal o escrita), ii) Clasicacion de textos, la meta en este caso es asignar un
texto de entrada a una de varias clases (deportes, nanzas, investigacion, poltica,
etc.), iii) Traduccion automatica, iv) Interfaces de usuario, v) Reconocimiento de
voz, vi) Inteligencia articial y vii) Sistemas expertos.
Al igual que otras areas de estudio relacionadas, el PLN ha tenido inuencias im-
portantes de varias disciplinas, tales como: a) Ling ustica, se enfoca al estudio de
representaciones formales de los lenguajes, esta area de trabajo ha tenido un gran
impacto en PLN de tal forma que al PLN este se le conoce tambien como ling ustica
computacional, b) Ciencias Computacionales, util para la representacion interna y
procesamiento eciente de los modelos de lenguajes, y c) Psicologa Cognitiva, en-
foca el manejo del lenguaje como un marco para los procesos cognoscitivos humanos.
En esta seccion, se van a proporcionar aspectos relacionados con el PLN, tales co-
mo: fundamentos, aplicaciones y desarrollos actuales que se encuentran realizando
diferentes grupos investigacion relacionados con esta disciplina.
5.5.1. Conceptos basicos
El lenguaje (hablado o escrito) es indudablemente un aspecto clave en el desarrollo de
los humanos, ya que es un medio de comunicacion utilizado tanto para la transmision
del conocimiento como para determinar la interaccion y comportamiento social. De-
bido a su importancia, existen comunidades cientcas (ling uistas, psicoling uistas,
5.5. PROCESAMIENTO DE LENGUAJE NATURAL (PLN) 417
Figura 5.56: Ilustracion de los diferentes niveles del lenguaje. Donde se muestran las
etapas necesarias para extraer un signicado de las cosas y convertirlo en lenguaje.
matematicos, y losofos), que lo han estudiado desde sus propias perspectivas. Desde
un enfoque del PLN, se estudian tecnicas que permitan desarrollar modelos com-
putacionales del lenguaje de tal forma que reejen lo mejor posible las caractersticas
del mismo, con el n de ser utilizados en diferentes aplicaciones. De acuerdo con Eliz-
abeth Liddy, una denicion para esta disciplina es la siguinte: PLN es un conjunto
de tecnicas computacionales utilizadas para el analisis y representacion de textos en
uno o mas niveles de analisis ling ustico con el proposito de realizar un procesamien-
to del lenguaje de forma similar a la humana al ser empleado en una variedad de
aplicaciones.
En este sentido, el objetivo de investigadores y desarrolladores de PLN es crear sis-
temas que procesen textos de cualquier tipo de la misma forma como lo hacen los
humanos. Es decir, extraer informacion relevante de textos (hablados o escritos) y
convertirla en lenguaje. En la Figura 5.56, se muestran los niveles de procesamiento
del lenguaje manejados por los ling uistas del conocimiento, este esquema es utilizado
para explicar como los humanos comprenden e interpretan el lenguaje. Es intere-
sante notar en base a este esquema que los humanos extraen signicado de las cosas
en cualquier nivel del lenguaje y no solo a nivel semantico (como es com un suponer)
[154].
Enseguida se ofrece una breve descripcion de estos niveles:
418 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Nivel morfologico. Este nivel tiene que ver con el manejo de las unidades mas
peque nas de informacion en un lenguaje: morfemas. Por ejemplo, en espa nol el mor-
fema do al nal de un verbo indica que la accion se realizo en el pasado (jugado,
empezado, cambiado, etc.). Asimismo, al agregar el morfema in al inicio de algunas
palabras (seguro, capaz, gobernable, etc.) se cambia drasticamente su signicado
4
.
En el analisis que se realiza en este nivel se consideran las siguientes reglas: 1) reglas
foneticas, se aplican para analizar el sonido entre las palabras, 2) reglas fonemicas,
las cuales analizan las variaciones de pronunciacion entre las palabras que son pro-
nunciadas juntas, y 3) reglas prosodicas, se encargan de analizar la uctuacion en la
pronunciacion de una oracion.
Nivel lexico. Este nivel se encarga de interpretar el signicado de palabras indi-
viduales. Asimismo, incluye el marcado de palabras dentro de la oracion durante el
procesamiento, de tal forma, que las palabras que caben en mas de una oracion, se
asignan a la mas probable de acuerdo con el contexto manejado. Cuando las per-
sonas leen o escuchan una oracion, determinan si una palabra funciona como verbo
o sustantivo, esto ayuda a claricar su signicado. El nivel lexico puede requerir del
uso de un lexicon (conjunto de reglas o diccionario) el cual depende del enfoque
utilizado por el PLN. Los lexicones pueden ser muy simples, incluyendo solamente
las palabras a usar, o pueden ser muy complejos, de tal manera que contengan in-
formacion de la clase semantica de la palabra, los probables argumentos que puede
tomar, las limitaciones semanticas de tales argumentos, y las deniciones de la rep-
resentacion semantica en un sistema especco.
Nivel sintactico. Es en este nivel, donde el orden o arreglo de palabras en una
oracion adquiere signicado. Por ejemplo, la oracion: Enrique le gano a Andres
contiene las mismas palabras que Andres le gano a Enrique, sin embargo, el or-
den en que estan colocadas genera un signicado totalmente diferente. Este nivel se
centra en el analisis de las palabras en una oracion a n de descubrir la estructura
gramatical de la misma. Para esta tarea se requiere de una gramatica y un anal-
izador. La salida de este nivel consiste en una representacion de la oracion indicando
la relacion de dependencia estructural entre las palabras. Existen varias gramaticas
que pueden ser utilizadas para este n, las cuales a su vez, determinan la eleccion del
analizador. No todos los sistemas para el PLN requieren de un completo analizador
de oraciones. Por lo tanto, los retos pendientes en el analisis de frases preposicionales
no deben obstaculizar aquellas aplicaciones donde las dependencias entre frases y
clausulas son sucientes. El analisis sintactico transmite un signicado en la mayora
4
En otros trabajos, antes del nivel de morfema se introduce el analisis a nivel de fonemas, en el
cual se analizan los sonidos en la palabra hablada.
5.5. PROCESAMIENTO DE LENGUAJE NATURAL (PLN) 419
de los idiomas al asignar un orden y una dependencia a las palabras en una oracion.
Nivel semantico. En este nivel se estudian y analizan los diferentes metodos para
comprender el signicado de las palabras dentro de un contexto. Los humanos son
capaces de comprender claramente el signicado de las palabras al escucharlas o
leerlas, a un cuando muchas palabras tienen m ultiples interpretaciones. El proce-
samiento semantico determina los posibles signicados de una frase, centrandose
en las interacciones entre los signicados a nivel palabra en una oracion. Este niv-
el de procesamiento puede incluir la desambig uedad semantica de las palabras con
m ultiples interpretaciones. La claricacion (desambig uedad) semantica permite que
solamente uno de los signicados de alguna palabra sea seleccionado e incluido en
la representacion semantica de la oracion. Por ejemplo, entre los diferentes signi-
cados de la palabra perl se pueden mencionar las siguientes dos: 1) la vista de
alg un objeto en una determinada posicion, 2) conjunto de caractersticas que deter-
minan el comportamiento de cierto individuo. Se aplican diferentes metodos para
llevar a cado la desambig uedad al analizar una oracion, cada uno requiriendo alg un
tipo de informacion, tal como la frecuencia en la cual cada signicado ocurre en un
corpus particular de interes o de uso general, algunos consideran el contexto local
otros mas utilizan el conocimiento pragmatico del dominio del documento. Uno de
los recientes trabajos desarrollados en torno a este nivel es el realizado por Jlaiel
y otros, en el cual los autores desarrollan una propuesta novedosa para asegurar
la unicacion semantica de patrones no estructurados. Tales patrones, no solamente
pueden ser expresados en diferentes formatos (PDF, WORD, HTML, etc.) sino tam-
bien en diferentes formas (Ambler, PPDL, UML-PP) [155].
Nivel de discurso. En este nivel se manejan unidades de texto mayores a una
oracion, por ejemplo: parrafos. El discurso es un area nueva en aplicaciones ling usti-
cas, inicio su integracion en la ling ustica en la decada de 1970s. Este nivel, se enfoca
al estudio de caractersticas ling usticas que habilitan a los humanos realizar abstrac-
ciones de alto nivel, por ejemplo, determinar el signicado de la octava oracion, a
partir del signicado extrado de las siete anteriores. Asimismo, el discurso tambien
utiliza el hecho de que los textos de ciertos tipos (generos) poseen una estructura
informativa predecible, permitiendo que los humanos utilicen esta estructura para
inferir signicados que no estan explcitos en los demas niveles.
Nivel pragmatico. Este nivel trata con el conocimiento y signicado que las per-
sonas asignan a los textos en base a su conocimiento del mundo. Por ejemplo, la frase:
Pases del tercer mundo no solamente signica lo que indican esas tres palabras,
sino que el conocimiento pragmatico re une una cantidad de otras interpretaciones,
tales como: quienes son los pases llamados del tercer mundo y las condiciones so-
420 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
cioeconomicas de esos pases.
Un punto de interes en este modelo es que mientras mas externo sea el nivel, mayor
es el tama no de las unidades que se analizan, iniciando desde partes de una palabra
hasta alcanzar un texto completo. Por otro lado, conforme el tama no de la unidad
analizada se incrementa las reglas de procesamiento son menos precisas, es decir,
hay menos reglas en que basarse y solo existen regularidades. Por ejemplo, hay reglas
precisas que nos indican como escribir correctamente una oracion, sin embargo, solo
hay regularidades acerca de como se debe escribir un artculo en un periodico. En
este sentido, el PLN es mas difcil de manejar en los niveles m as exteriores y no se
basa solamente en simples reglas como las utilizadas en los niveles inferiores. Este
hecho explica el porque muchos trabajos se limitan solamente al procesamiento de los
niveles inferiores. Un sistema PLN completo debe ser capaz de extraer conocimiento
de todos los niveles del lenguaje.
Una vez que se conocen los niveles que forman el modelo para obtener conocimiento
o signicado de las cosas descritas a traves de un lenguaje, el paso siguiente consiste
en describir los principales enfoques utilizados para procesar estos niveles, y ofrecer
de esta forma un sistema automatizado capaz de ser empleado en m ultiples aplica-
ciones.
Enfoques utilizados en el procesamiento del lenguaje natural. Los diferentes
enfoques que se han utilizado para el PLN caen dentro de las siguientes categoras:
1) simbolico, 2) estadstico, 3) conexionista, e 4) hbrido. Se va a proporcionar una
descripcion de cada enfoque considerando sus principales caractersticas tales como:
tecnicas que utilizan, aspectos de procesamiento, contabilidad, robustez, exibilidad
y adaptabilidad a las tareas.
1. Enfoque simbolico. Este enfoque realiza un profundo analisis del fenomeno
ling uista, y se basa en una representacion explcita acerca de hechos del lenguaje a
traves de esquemas y algoritmos de representacion del conocimiento bien estableci-
dos. De hecho, la descripcion de los niveles del lenguaje mencionada anteriormente
se ofrece desde esta perspectiva. La fuente de evidencia primaria en los sistemas
simbolicos, se obtiene de reglas y lexicones desarrollados por humanos. Un ejemplo
de este enfoque son los sistemas logicos basados en reglas, donde el componente
simbolico se presenta usualmente en forma de proposiciones. La manipulacion de
tales estructuras se determinan por procedimientos de inferencia. Estos sistemas
consisten generalmente de un conjunto de reglas, un mecanismo de inferencias y
una memoria de trabajo. Las reglas o hechos representan el conocimiento, mientras
que el mecanismo de inferencia realiza el razonamiento con el n de llegar a una con-
5.5. PROCESAMIENTO DE LENGUAJE NATURAL (PLN) 421
Figura 5.57: Esquema general del procesamiento que sigue el parser en un sistema
PLN simbolico [158, 159].
clusion. Otro ejemplo del enfoque simbolico son las redes sem anticas, metodologa
de representacion y manejo del conocimiento descrito en el Captulo 3. Este enfoque,
ha sido utilizado por varias decadas en aplicaciones PLN tales como: extraccion de
informacion, clasicaci on de textos, resolucion de ambig uedades, y adquisici on de
lexico. Algunas de las tecnicas tpicas empleadas en este esquema son las siguientes:
aprendizaje basado en explicaciones, aprendizaje basado en reglas, programacion
logica inductiva, arboles de decision, agrupamiento conceptual, y algoritmos de los
k-vecinos mas cercanos [156, 157].
En la Figura 5.57 se muestra la estructura de un sistema PLN basado en un en-
foque simbolico, se observa que almacena dos tipos de conocimiento: 1) conocimien-
to ling ustico, el cual aparece en forma de gramatica, lexico y modelo conceptual
del mundo, la gramatica consiste en una denicion abstracta de un conjunto de el-
ementos estructurados y bien formados, y 2) programa o parser, programa basado
en un algoritmo que relaciona cadenas de smbolos con el conocimiento ling ustico
almacenado.
Los algoritmos de parsing son los encargados de seleccionar las reglas y el orden en
que se van a evaluar. Dependiendo del algoritmo de parsing utilizado, se determina
la combinacion de los parametros (analisis ascendente/descendente, procesamiento
secuencial/paralelo, procesamiento determinista/no determinista) utilizados, as co-
mo de las estructuras de trabajo.
Enfoque estadstico
5
. El empleo de la probabilidad y estadstica en el estudio
5
Un libro que proporciona una descripcion detallada del enfoque estadstico, es Foundations of
422 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
del lenguaje tiene una antig uedad equivalente a la de los modelos formales. Bajo
este enfoque, el objetivo consiste en inferir conocimiento a traves de la b usqueda
de regularidades signicativas en los datos. Por lo tanto, entre mas datos se ten-
gan, el modelo que los representa resulta mas conable. Estos enfoques, emplean
varias tecnicas matematicas y generalmente utilizan grandes corpus de texto con
el n de desarrollar modelos aproximados de fenomenos ling uistas. A diferencia del
enfoque simbolico, este metodo emplea datos observables como la fuente primaria
de evidencia. Ademas de la probabilidad y estadstica, que forman el fundamento
formal de estos sistemas, tambien utilizan la teora de la informacion como funda-
mento teorico [160]. Este enfoque proporciona una solucion al problema vigente de
los modelos simbolicos: ambig uedad, al seleccionar la interpretacion mas probable
en una oracion con varias interpretaciones posibles. Bajo este esquema, la tecnica
basica consiste en calcular la frecuencia en que aparecen las palabras en un texto
o conjunto de textos, y a partir de este dato obtener las probabilidades medias y
las condicionadas. Con esto, lo que se intenta es predecir acontecimientos a partir
de datos incompletos, por ejemplo, determinar el signicado mas probable de una
oracion en un texto considerando los analisis anteriores. En el trabajo realizado por
Antonio Moreno [159], se muestra una rese na del metodo de estimacion mas sencil-
lo, el cual emplea frecuencias relativas obtenidas de un conjunto de datos (corpus
ling ustico). Las etapas consideradas en tal metodo son las siguientes:
a) Coleccion de datos. Donde se obtiene una muestra representativa obteni-
da de varios textos.
b) Etiquetado de las unidades del corpus. En este paso se marca el
texto con informacion adicional con el n de inferir estadsticas que ofrez-
can informacion util al proceso. La anotacion puede realizarse de forma
manual o automatica. En el etiquetado manual, los datos son marcados
por especialistas que determinan las ambig uedades. Posteriormente, estos
datos son utilizados para el aprendizaje de anotadores automaticos
6
.
c) Calculo de frecuencias de las unidades. En esta etapa se calcula la
ocurrencia de cada unidad (palabra, concepto, morfema, fonema, etc.) en
un texto. Una manera de realizar esta tarea consiste en calcular la proba-
bilidad asociada a cada palabra con una determinada categora sintactica
(ver Figura 5.57). Algunas de las tecnicas estadsticas mas usuales para re-
alizar este calculo son las siguientes: ley de Bayes, teorema de probabilidad
condicionada, arboles de decision y los n gramas.
Statistical Natural languaje Processing, escrito por Christopher D. Manning y Hinrich Schutze, una
copia electronica del mismo se encuentra disponible de manera gratuita en la web.
6
El Penn Tree Bank, es uno de los metodos mas utilizados para realizar anotaci on automatica
en un texto.
5.5. PROCESAMIENTO DE LENGUAJE NATURAL (PLN) 423
Cuadro 5.1: Ejemplo ilustrativo del calculo de la frecuencia probabilstica en un
corpus.
Palabra Ocurrencias Probabilidad
sobre, PREP 115 veces 115/10555=0.0112
sobre, N 13 veces 13/10555=0.0012
sobre, V 11 veces 11/10555=0.0010
sobre 139 veces 139/10555=0.0135
Cuadro 5.2: Ejemplo de calculo de la probabilidad condicionada en los elementos de
un corpus.
Categora Probabilidad Condicionada P(A/B) = P(A B/P(B))
P(PREP/sobre) 0.0112/0.0135=0.829
P(N/sobre) 0.0012/0.0135=0.088
P(V/sobre) 0.0010/0.0135=0.074
Con el n de claricar la tarea realizada en el paso 3, se muestra un ejemplo, el cual
dispone de un corpus con 10,255 palabras. Se asume que en pasos anteriores, estas
palabras fueron etiquetadas en sus respectivas categoras sintacticas (preposiciones
(PREP), nombre (N), verbo (V)), etc.). Tomando como referencia estos datos se
calculan las frecuencias y demas resultados parciales (ver Tabla 5.1).
Los datos mostrados en la Tabla 5.1 indican la probabilidad de ocurrencia de la
palabra sobre con relacion a toda la muestra (10,255). Sin embargo, resulta conve-
niente mostrar la probabilidad condicionada de cada categora de la palabra sobre
con respecto a todas las categoras descritas, con el n de determinar la categora
sintactica (PREP, N, V) mas probable de tal palabra (ver Tabla 5.2).
De acuerdo a la informacion proporcionada por la Tabla 5.2, se puede concluir que
la interpretacion mas probable para la palabra sobre es la de una preposicion.
Cuando se tienen datos con pocas ocurrencias (baja frecuencia) o incluso para al-
gunos que no aparecen en el corpus, se determina un valor de probabilidad cercano
a cero. Bajo esta circunstancia y debido a que se puede generar un grave proble-
ma en los calculos y por ende en la abilidad de la estimacion, los sistemas PLN
recurren a metodos mas sosticados, tales como la tecnica estadstica conocida co-
mo n gramas. Este metodo, aunque no es de los mas utilizados en los sistemas
424 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
PLN, si proporciona mejores resultados, ya que permite mejorar la abilidad en la
estimacion al considerar parte del contexto local. Asimismo, este modelo asume que
solo unas pocas unidades manejadas con anterioridad condicionan la probabilidad
de aparicion de la siguiente unidad. Considerando que n representa el n umero de
unidades que se toman en cuenta, el modelo obtenido se denomina n grama. Los
valores de n en casi todos los sistemas varan entre 2 y 7. El metodo mas utilizado
en este esquema es el trigrama, en el cual se obtiene la probabilidad condicionada
de una unidad dadas las dos unidades anteriores [161].
Otro modelo estadstico frecuentemente usado en sistemas PLN el cual fue hereda-
do de la comunidad de reconocimiento de voz son los modelos ocultos de Markov
(HMMs) [162]. Un HMM es un automata de estado nito que tiene un conjunto
de estados con probabilidades asignadas a cada transicion entre ellos. Aunque las
salidas son visibles, los estados en s no son directamente observables, es decir, son
ocultos a observaciones externas. En este modelo, cada estado genera una salida
observable con cierta probabilidad.
Los enfoques estadsticos se han aplicado usualmente en tareas de reconocimiento de
voz, analisis de frases, etiquetado de palabras, traduccion automatizada, aprendizaje
de gramaticas, entre otras.
Enfoque conexionista. Este enfoque al igual que el estadstico, tambien se basa
en ejemplos con el n de desarrollar modelos generales utilizados en el fenomeno
ling ustico. Lo que distingue a este enfoque de otros enfoques estadsticos, es que
buscan integrar el aprendizaje estadstico con varias teoras de representacion. En
este sentido, las representaciones conexionistas permiten la transformacion, inferen-
cia y manejo de formulas logicas. Sin embargo, en este enfoque los modelos ling usti-
cos son mas difciles de observar por el hecho de que las arquitecturas conexionistas
tienen menos limitaciones que las basadas en estadstica. Generalmente se describe
a un modelo conexionista como una red de sencillas unidades de procesamiento in-
terconectadas, en la cual el conocimiento se determina a traves de los pesos de las
conexiones de tales unidades (ver Seccion: Redes Neuronales Articiales). La inter-
accion local entre las unidades genera un comportamiento dinamico global, el cual
a su vez controla el proceso de calculo. Algunos modelos de este tipo son llamados
localistas, debido al hecho de que cada unidad de procesamiento puede represen-
tar un concepto. Por ejemplo, una unidad de procesamiento puede representar el
concepto mamfero mientras otra podra estar representando el concepto gato.
En los sistemas conexionistas, las relaciones entre conceptos se codican a traves
de los pesos de las conexiones entre las unidades individuales que los representan.
El conocimiento en estos modelos se extiende por la red y la conectividad entre las
5.5. PROCESAMIENTO DE LENGUAJE NATURAL (PLN) 425
unidades indica una relacion estructural. Los modelos localistas son muy parecidos a
las redes semanticas a diferencia que los enlaces entre las unidades no son etiqueta-
dos como sucede en las redes semanticas. Los sistemas conexionistas son apropiados
para tareas como: manejar la desambig uedad de las palabras, generacion de lengua-
jes y mecanismos de inferencia.
Existe otro tipo de modelos conexionistas conocidos como: modelos distribuidos,
en los cuales, un concepto puede estar representado por la activacion de m ulti-
ples unidades. Estos modelos resultan adecuados para tareas de PLN, tales como:
analizador sintactico, recuperacion asociativa y tareas de traduccion en dominios
limitados.
Comparacion entre los enfoques. De lo mostrado hasta el momento, se observa
que existen similitudes y diferencias entre los diferentes enfoques como resultado de
la manera en como manejan los aspectos relacionados con bases formales y fuentes
de evidencia. Estos aspectos tambien se reejan en el proceso que cada enfoque sigue,
as como en otros del sistema, tales como: robustez, exibilidad y tareas apropiadas.
Enseguida se van a describir cada uno de los elementos anteriores y como se manejan
en cada uno de los enfoques.
Proceso. La investigacion que realizan los distintos enfoques sigue un conjunto de
pasos: coleccion de los datos, analisis de datos y construccion del modelo, construc-
cion de reglas o datos, y la aplicacion de reglas o datos en el sistema. La fase de
coleccion de los datos resulta crtica en los tres enfoques, aunque los sistemas es-
tadstico y conexionista requieren mucho mas datos que el esquema simbolico. Con
respecto al analisis de los datos y construccion del modelo, el enfoque simbolico
confa en el analisis de los datos realizado por humanos con el n de formar una
teora, en tanto que, el esquema estadstico dene manualmente un modelo con el
n de hacer una representacion aproximada de los datos. Por su parte, el sistema
conexionista construye un modelo a partir de los datos. En la fase de construccion de
reglas o datos, el modelo simbolico emplea un esfuerzo manual y la teora obtenida
en el paso anterior se aplica al considerar nuevos casos. En contraste, los esquemas
conexionista y estadstico usan sus modelos como guas para construir reglas o datos
de forma automatica, usualmente en cantidades relativamente grandes. Despues de
haber construido las reglas o datos, todos los enfoques los aplican de manera au-
tomatica a tareas especcas. Por ejemplo, un sistema conexionista puede aplicar las
reglas con el n de entrenar (ajustar) los pesos entre las conexiones de sus unidades.
Aspectos del sistema. Bajo este termino se van a considerar aspectos como: la
fuente de los datos, teora o modelo obtenido a partir del an alisis de los datos, las
426 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
reglas a utilizar y las bases para su evaluacion. Una breve descripcion de tales as-
pectos se proporciona a continuacion:
i) Datos. El esquema simbolico utiliza datos proporcionados por humanos los cuales
no son directamente observables, mientras que, en los enfoques estadstico y conex-
ionista los datos son obtenidos de facetas observables tales como una coleccion de
textos.
ii) Teora o modelo obtenidos del analisis de los datos. Como resultado del analisis de
los datos, se obtiene una teora en el enfoque simbolico mientras que para el esquema
estadstico se genera un modelo parametrico as como un modelo conexionista para
el mismo enfoque.
iii) Reglas. En un sistema simbolico, la fase de construccion de las reglas general-
mente resulta en reglas obtenidas bajo un criterio o aplicacion. En los esquemas
estadsticos, el criterio de aplicacion de las reglas se rigen de forma supercial. En
los sistemas conexionistas, las reglas individuales generalmente no son manejadas.
iv) Base para la evaluacion. En un sistema simbolico, la evaluacion tpicamente se
basa de manera intuitiva y puede apoyarse en medidas internas de crecimiento gen-
eradas por el sistema, por ejemplo, el n umero de nuevas reglas. En contraste, las
bases de evaluacion para los sistemas estadstico y conexionista, son generalmente
puntuaciones obtenidas a traves de una funcion de evaluacion. Sin embargo, si es-
tos enfoques son utilizados para la misma tarea, los resultados de la tarea pueden
ser evaluados y comparados tanto de forma objetiva como subjetiva. Por otro lado,
si importar el enfoque utilizado las evaluaciones aplicadas a sistemas de PLN son
basicamente dos: 1) evaluacion de caja negra, donde se observan los resultados sin
importar como se obtuvieron, y 2) evaluacion de caja de cristal, donde se eval uan
por separado los distintos componentes del sistema. Generalmente, estos metodos
realizan la evaluacion en torno a dos conceptos: a) precisi on, donde se eval ua el
porcentaje de categoras correctas asignadas por el sistema, y b) cobertura, la cual
consiste en un porcentaje que indica el n umero de asignaciones correctas con respec-
to al n umero total de unidades que faltan por asignarles una categora.
Robustez. Los sistemas simbolicos pueden resultar fragiles y mostrar grandes varia-
ciones en sus respuestas cuando manejan datos inusuales o ruidosos. Una manera
que tienen estos sistemas para lidiar con estas anormalidades, es a traves de la an-
ticipacion haciendo las consideraciones necesarias en las gramaticas. Si los datos de
entrenamiento son sucientes, los sistemas estadsticos ofrecen una mejor respuesta
5.5. PROCESAMIENTO DE LENGUAJE NATURAL (PLN) 427
ante la presencia de datos inusuales. Asimismo, los esquemas conexionistas son mas
robustos que los simbolicos debido a que el conocimiento se encuentra distribuido
a traves de la red, de tal forma que, cuando se presenta una entrada ruidosa, la
degradacion en su respuesta es gradual.
Flexibilidad. Debido que los sistemas simbolicos son construidos por analistas hu-
manos a partir de ejemplos bien formulados, estos sistemas pueden carecer de la ex-
ibilidad para adaptarse a cambios dinamicos. En contraste, los sistemas estadsticos
permiten una mayor cobertura y estan mejor adaptados para tratar con textos sin
restricciones. Por su parte, los sistemas conexionistas exhiben exibilidad al adquirir
de forma dinamica un comportamiento apropiado basado en los datos de entrada.
Por ejemplo, los pesos de una red conexionista pueden ser ajustados en tiempo real
para mejorar su rendimiento. Sin embargo, estos sistemas pueden mostrar dicul-
tad en la representacion de estructuras necesarias para manejar complejas relaciones
conceptuales, esto limita su capacidad para manejar aspectos de alto nivel en el PLN.
Tareas apropiadas. Los sistemas simbolicos resultan apropiados para el manejo de
fenomenos que exhiben un comportamiento ling ustico identicable. Estos sistemas
son usados para modelar procesos en todos los niveles ling usticos. Los enfoques
estadsticos han probado su efectividad para modelar aspectos basados en el uso
frecuente del lenguaje, tal como los reejados en los conjuntos de textos. Los aspec-
tos ling usticos que no son bien comprendidos o no exhiben una clara regularidad
son candidatos apropiados para un enfoque estadstico o conexionista. Los esquemas
conexionistas son generalmente aplicados para procesar tareas en los niveles bajos
del modelo del lenguaje, las cuales son generalmente subtareas de un gran problema.
Como se ha mencionado, cada uno de los enfoques posee sus propias debilidades y
fortalezas al enfrentar un problema de PLN. No es com un que un problema de este
tipo sea manejado por estos enfoques de forma individual, lo que se hace es consid-
erar las fortalezas de cada uno con el n de crear modelos hbridos que manejen al
problema PLN de una forma mas efectiva y exible.
Un aspecto de gran interes en los modelos PLN, es el relacionado con los datos de en-
trada (generalmente en forma de textos electronicos). A la coleccion de informacion
textual, de donde generalmente los datos de entrada al modelo son obtenidos, se le
conoce com unmente con el nombre de corpus (ver Figura 5.58). Los enfoques mane-
jados por datos (estadstico y conexionista), deben utilizar grandes corpus de textos
con el n de tener una buena representacion del problema. Obviamente, este corpus
debe contener ejemplos del problema que se pretende resolver. Los corpus pueden
estar marcados (anotados) o etiquetados con informacion adicional, la cual se uti-
428 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.58: Esquema general de utilizacion del corpus durante el proceso de gen-
eracion del modelo.
lizara para facilitar una determinada tarea. Los corpus se diferencian por factores
como el tama no, el idioma (pueden ser multiling ues), el origen de la informacion
adicional (manual o automatica), el contenido (noticias, novelas, publicidad, etc.) o
el formato de las etiquetas (XML, una etiqueta por columna, etc.) [163].
El uso de los corpus proporciona las siguientes ventajas en el desarrollo de aplica-
ciones de PLN:
Los datos son directamente observables.
El corpus representa una fuente de informacion cuantitativa, por ejemplo,
la frecuencia de aparicion de determinados elementos ling usticos no puede
hallarse por introspeccion.
Permite la evaluacion objetiva de resultados para sistemas que realizan
alguna tarea de procesamiento de textos.
Asimismo, algunas de las caractersticas que deben reunir los corpus para ser uti-
lizados son las siguientes:
5.5. PROCESAMIENTO DE LENGUAJE NATURAL (PLN) 429
Deben estar en formato electronico, con el n de procesar de manera
eciente aspectos relacionados con b usqueda, recuperacion, intercambio,
ordenamiento y calculo de los datos.
Deben ser representativos, es decir, deben estar formados por una muestra
amplia que incluya variacion y diversidad ling ustica de la lengua objeto
de estudio o dominio especco.
Deben ser de tama no nito, aunque existen casos donde constantemente
se a nade nuevo material.
Existen diferentes tipos de corpus que pueden ser utilizados por un sistema de PLN,
algunos de los mas usuales son: i) textos marcados o sin marca, algunos textos pueden
contener marcas en XML, con en n de dar indicaciones de su uso o contenido. Esta
anotacion puede ser manual, automatica o semiautomatica, ii) de uso general o
especco, en relacion a la lengua bajo estudio, iii) de contenido general o especco,
iv) monoling ues o multiling ues, y v) auditivos o textuales.
Principales tareas del PLN. Existe una gran cantidad de tareas que realizan los sis-
temas PLN, algunas de las mas empleadas son las siguientes:
1. Analisis morfologico. Es una de las tareas mas conocidas, probablemente
porque constituye el punto de partida para muchas mas. El objetivo de la misma
consiste en tratar de clasicar las palabras de un texto en categoras POS
7
. En estas
categoras se agrupan las palabras que presentan una similitud tanto sintactica como
semantica. El problema principal en esta etapa consiste en la aparicion de palabras
que tienen cabida en varias clases. Por ejemplo, la palabra bajo en un texto se puede
considerar como un adjetivo, sustantivo masculino, preposicion, verbo o adverbio.
Este tipo de ambig uedad que se presenta con las palabras, hace que sea necesario
analizar el contexto para llegar a una decision con respecto a su uso. Al estudiar
las palabras, la morfologa analiza los siguientes procesos: i) la inexion, donde se
analiza el patron prejorazsujo, donde se manejan aspectos como, saber que
los plurales se forman al agregar una s al nal de la palabra, ii) la derivacion,
donde se indican aspectos como el que el sujo mente convierte un adjetivo en ad-
verbio, y iii) composicion, donde se estudia la combinacion de palabras para formar
nuevas, por ejemplo sabelotodo y puntapie, y baloncesto. Los aspectos ante-
riores, ayudan para determinar la categora sintactica a la que pertenece una palabra.
2. Reconocimiento de entidades con nombre(NER). Se puede considerar a
7
Derivado del ingles Part Of Speech: parte de una oracion.
430 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
esta tarea como una subtarea de la Extraccion de Informacion, donde el objetivo es
reconocer alguno de los siguientes cuatro tipos de entidades: nombre de personas, de
organizaciones, de localidades, y de entidades miscelaneas. Los sistemas NER pueden
estructurarse traves de reglas basadas en conocimiento o bien basarse en el corpus.
Bajo el primer enfoque se obtienen buenos resultados aunque la conformacion de
las reglas puede ser un trabajo largo y tedioso sobretodo en el reconocimiento de
expresiones numericas y temporales, ya que el conjunto de entidades generalmente
no se incrementa con el paso del tiempo, como ocurre con otras entidades (nom-
bres propios o localidades). Sin embargo, su fuerte dependencia al lenguaje ocasiona
que no se adapten facilmente al analisis de sistemas multiling ues. En tanto que,
con las tecnicas basadas en el corpus y haciendo uso de algoritmos de aprendizaje
automatico no se tiene esta limitacion. Es com un, el uso de grandes cantidades de
datos etiquetados para el entrenamiento, vericacion y prueba en estas tecnicas.
3. Desambiguedad de signicados. Aunque el ser humano es capaz de distinguir
con precision los signicados de las palabras en el lenguaje natural, la automati-
zacion de este proceso, no es una tarea trivial, debido a la ambig uedad presente en
el lenguaje. En esta tarea se debe hacer acopio de todo el conocimiento y recursos
posibles, con el n de quitar la ambig uedad en las palabras. Con este n, G. Miller
creo WordNet, herramienta computacional que permite analizar miles de palabras y
clasicarlas de acuerdo a su signicado. La evaluacion de resultados en esta tarea
agrega un problema adicional, ya que no siempre existen acuerdos en el signicado
de una palabra [164].
4. B usqueda de respuestas. La intencion de las tareas relacionadas con la b usque-
da de respuestas, tiene que ver con el analisis de textos en busca de la mejor respuesta
a una pregunta formulada por el usuario. Para esto se debe realizar un analisis de la
pregunta con el n de saber que es lo que busca (nombre de una persona, un sitio es-
pecco, una fecha, etc.), as como de las expresiones seleccionadas como candidatas
para ser la respuesta. Esta tarea, realiza una b usqueda para localizar al fragmento
de menor tama no dentro de un texto que responda a la pregunta.
5. Recuperacion de informacion. Esta tarea es una de las mas utilizadas des-
de que la red Internet se constituyo de uso p ublico. En este caso, se buscan en la
red documentos relacionados con alg un tema de interes escrito por el usuario. Con
el n de realizar la b usqueda generalmente se usan palabras clave que le otorguen
relevancia a un documento, ya sea por su presencia en el mismo o por las relaciones
entre las mismas (sinonimia, polisemia), de tal forma que su analisis indique el tema
principal del documento.
5.5. PROCESAMIENTO DE LENGUAJE NATURAL (PLN) 431
6. Extraccion de informacion o descubrimiento del conocimiento. En esta
tarea se trata de recuperar alg un tipo especco de informacion, ya sea estructurada
o semi-estructurada a partir de grandes vol umenes de informacion. En este caso lo
que el usuario busca es localizar datos especcos y no grandes trozos de informa-
cion que posteriormente deben ser procesados manualmente. En este sentido, de lo
que se trata, es de mapear grandes cantidades de datos de bajo nivel en una forma
mas abstracta, de tal modo que los patrones presentes en los datos puedan ser ex-
plorados y las inferencias obtenidas a partir de ellos. Los sistemas PLN ofrecen en
esta area, la habilidad para ir mas alla de la informacion almacenada en bases de
datos estructuradas o relacionales, las cuales han sido las fuentes principales para
estos trabajos. La mayora del conocimiento del mundo se almacena en forma de
textos libres (enciclopedias, periodicos, libros de texto), es decir, no estructurados.
Por lo tanto, es necesario tener los mecanismos para procesar, etiquetar, y extraer
informacion util de estos textos con el n de generar nuevos recursos para obtener
conocimiento. De hecho, los sistemas de PLN apoyan a esta tarea de dos maneras:
1) se pueden usar para crear de manera automatica bases de conocimiento a partir
de textos libres, las bases creadas, pueden ser manipuladas por una variedad de
tecnicas estadsticas, y 2) los sistemas de PLN pueden usarse para explotar estas
bases de conocimiento, es decir, los sistemas de PLN habilitan a los usuarios para
explorar el conocimiento almacenado en estas bases de datos a traves de preguntas
directas. Un sistema de extraccion de informacion basado en sistemas de PLN, tiene
la capacidad de obtener conocimiento en todos los niveles ling usticos representados
en la base de conocimientos.
7. Traduccion automatica. La nalidad de esta tarea consiste en convertir un
texto de un idioma a otro. Para realizar esta tarea ademas del enfoque seleccionado
se utilizan algunos recursos ling usticos, tales como: diccionarios, listas de palabras,
corpus, etc. La importancia de esta tarea queda fuera de toda duda al aportar a
cualquier sistema la capacidad de procesar informacion textual independientemente
del idioma en el que se presente. El interes mostrado actualmente para que las apli-
caciones desarrolladas sean multiling ues, es una necesidad que hace que el n umero
de trabajos realizados con este n sea tan variado.
8. Generacion de res umenes. Esta tarea tiene como objetivo proporcionar al
usuario con un resumen de la informacion que considera relevante en un documento,
liberando con esto al humano de horas de trabajo. Este ahorro de tiempo algu-
nas veces considerable, hace que una herramienta de este tipo, sea de gran interes
para las personas. Durante este trabajo, se establecen relaciones entre las palabras
del texto, asimismo, se clasica el contenido ordenando sus elementos por orden
de prioridad o relevancia. Lo anterior se hace con la nalidad de seleccionar aquel-
432 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.59: Ilustracion del modelo que representa los diferentes pasos que estruc-
turan un sistema de PLN.
las palabras que se encuentran por encima de un determinado umbral preestablecido.
En la Figura 5.59 se muestra el modelo que forma la base de las tareas descritas.
Tal modelo consiste de cuatro pasos: 1) En el primer paso se asume que el texto se
encuentra en texto libre, tal como el presente en libros, artculos de revistas, libros,
reportes, transcripciones de reportes televisivos, entre otros, 2) El segundo paso con-
siste en la extraccion, en el cual se realizan tareas como el etiquetado o marcado
de las partes de una oracion, estandarizacion y categorizacion de nombres propios,
indicacion de parametros y demas, 3) En el tercer paso la informacion extrada en
el paso anterior es representada semanticamente, tal representacion puede ser en
forma de una red semantica, grafo conceptual, reglas logicas, o cualquier otra que se
adapte a los requerimientos de la aplicacion, 4) Finalmente, el cuarto nivel consiste
en el producto de conocimiento actual, el cual puede estar representado a traves
de diferentes tecnicas y que permita ser utilizado como un producto que se pueda
explorar.
La siguiente seccion menciona algunos de los trabajos que se encuentran desarrol-
lando actualmente diferentes comunidades cientcas en torno al procesamiento del
lenguaje natural. Asimismo, se indican las aplicaciones actuales en esta area de
interes cientco vigente.
5.5. PROCESAMIENTO DE LENGUAJE NATURAL (PLN) 433
5.5.2. Desarrollos actuales y aplicaciones
Una cantidad signicativa de grupos de investigacion localizados en diferentes ambitos
(instituciones academicas, corporaciones privadas, laboratorios del gobierno), se en-
cuentran actualmente realizando aportaciones relacionadas con procesamiento del
lenguaje natural. En estos desarrollos de recursos y tecnologas, destacan dos em-
presas de Estados Unidos, que sin duda alguna han destinado buena parte de sus
recursos (humanos, economicos, infraestructura) a desarrollar aplicaciones PLN son
Google y Microsoft. Sin embargo, la existencia de diversos grupos de investigaci on
tambien han contribuido a con sus aportaciones a fortalecer este campo. A contin-
uacion se mostraran los trabajos que se encuentran realizando algunos de ellos.
Universidad de Sheeld, Reino Unido. El grupo de investigacion en proce-
samiento del lenguaje natural creado en la Universidad de Sheeld en 1993, es uno
de los mas solidos a nivel internacional en este campo. Las areas de interes de este
grupo constituido por treinta investigadores, son las siguientes: i) acceso de infor-
macion, ii) recursos del lenguaje y arquitecturas para sistemas basados en PLN, iii)
traduccion automatica, iv) sistemas de dialogo humano-computadora, v) deteccion
de anomalas, y vi) Temas fundamentales. A continuacion se va a proporcionar una
descripcion general de las areas mencionadas.
1. Acceso a la Informacion. En esta area de investigacion se trabaja en el de-
sarrollo de sistemas para mejorar el acceso a la informacion en colecciones masivas
de textos, los topicos relacionados con este campo de estudio son los siguientes: a)
Extraccion de informacion, minera de textos y anotaci on semantica. El grupo ha
trabajado de manera intensa en temas relacionados con la extraccion de la infor-
macion, desarrollando componentes los cuales se encuentran bajo libre distribucion
en la plataforma GATE, as como en el desarrollo de sistemas embebidos. Se ha
investigado el uso de tecnicas que van desde enfoques de ingeniera del conocimiento
motivados en la ling ustica (interpretacion del discurso, conocimiento del mundo,
tecnicas de parsing) hasta enfoques de aprendizaje en maquinas (supervisados y
no supervisados). Asimismo, han trabajado en una variedad de dominios y areas
de aplicacion, tales como: el analisis de reportes de investigacion biomedica para
soportar la investigacion cientca, analisis de registros clnicos para soportar la in-
vestigacion clnica y cuidados del paciente, entre otras, b) Preguntas y respuestas.
Es un topico de gran interes que ha experimentado grandes avances en el desarrollo
de sistemas no solo para dar respuesta a preguntas especcas (por ejemplo, cuando
se invento el telefono?), sino, tambien para dar opciones cuando la pregunta no es
tan especca (quien fue Aristoteles?). Este grupo de investigacion dirigido por los
Dres. Rob Gaizauskas, Mark Greenwood, Mark Hepple y Yorik Wilks, ha contribui-
do al desarrollo de varios sistemas de pregunta-respuesta as como a la literatura
434 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
para evaluarlos, c) Res umenes. Como ya se mostro con anterioridad, el objetivo
en este campo consiste en tomar uno o mas documentos y generar como resultado
otro documento que contiene la informacion relevante de los textos analizados. Este
grupo de trabajo ha explorado varios enfoques para resumir informacion obtenida de
documentos individuales o en grupo bajo diferentes enfoques. Este grupo ha desar-
rollado SUMMA, la cual es una herramienta robusta y personal con la nalidad de
experimentar varios enfoques para generar res umenes de documentos (individuales
o en grupo). Asimismo, al igual que los otros grupos de trabajo, han contribuido con
la elaboracion de metodos y recursos usados para evaluar mecanismos aplicados en
el resumen de documentos. De igual manera, han explorado tecnicas para obtener
res umenes enfocados a topicos, ademas son pioneros en trabajos relacionados con
el resumen de m ultiples documentos para la captacion de im agenes. Algunos de los
proyectos en proceso que se encuentran realizando los integrantes de este grupo de
investigacion, son los siguientes.
ARCOMEM. Este proyecto se relaciona con las instituciones que guardan difer-
entes tipos de registros, tales como: museos, bibliotecas, archivos en la epoca de la
Web. El objetivo en este proyecto, es mantener de forma inteligente una coleccion
de archivos que preserve la sabidura de la humanidad. Este es un gran desafo,
considerando la manipulacion actual de la informacion en las redes sociales.
KDisc. Este proyecto que inicio en el 2012 y se pretende terminar en el 2015, se rela-
ciona con el descubrimiento del conocimiento en literatura medica. El conocimiento,
producto de la investigacion publicado en las diferentes literaturas es tan vasto y a
la vez fragmentado, que a veces, resulta imposible para cualquier individuo manten-
erse al da con los avances relacionados a su area. Por lo tanto, este trabajo intenta
desarrollar tecnologas basadas en PLN con el n de ofrecer un esquema de infor-
macion relacionada con la investigacion medica que resulte de gran interes para los
usuarios de diferentes areas.
PATHS. En este proyecto se pretende crear un sistema que facilite a los usuarios
la exploracion de material cultural, conduciendolos a lo largo de un trayecto crea-
do por expertos, por ellos mismos y por otros usuarios. Entre los objetivos que se
pretenden alcanzar guran los siguientes: i) crear trayectos personalizados a traves
de colecciones de bibliotecas digitales, ii) ofrecer sugerencias relacionadas con datos
de interes y apoyarlos en su interpretacion y iii) ofrecer soporte al usuario para que
pueda descubrir y explorar nuevos conocimientos.
TrendMiner. El reciente crecimiento masivo en medios de comunicacion en lnea
as como el incremento de contenidos creados por usuarios (weblogs, Twitter, Face-
5.5. PROCESAMIENTO DE LENGUAJE NATURAL (PLN) 435
book) ha dado lugar a problemas de como acceder e interpretar estos datos mul-
tiling ues en forma oportuna, eciente y asequible. Cientcamente, este oleaje de
medios de comunicacion en lnea plantean nuevos desafos, debido a su naturaleza
(mas coloquial, mas ruidosa, secuencia temporal basada en contexto). Las tec-
nologas del lenguaje existentes son incapaces de enfrentar esta situacion debido
a su imprecision, escalabilidad y portabilidad. El objetivo de este proyecto con-
siste en desarrollar metodos multiling ues de minera de datos, que sean innovadores,
portables, abiertos, funcionen en tiempo real y capaces de realizar res umenes a gran
escala. Este proyecto se realizara a traves de un enfoque interdisciplinario, com-
binando metodos ling usticos de procesamiento de textos, razonamiento basado en
conocimiento a partir de la ciencia de la Web, aprendizaje de maquina, economa y
ciencias polticas. No se requeriran costosas anotaciones realizadas por humanos de-
bido al uso de datos de series temporales (por ejemplo, mercados nancieros, sondeos
polticos). Una novedad clave sera el uso de algoritmos de aprendizaje debilmente
supervisados empleados en el descubrimiento automatizado de nuevas tendencias y
correlaciones. Los aspectos de escalabilidad y rentabilidad se abordaran en tiempo
real a traves de una infraestructura basada en minera de textos.
2. Arquitecturas y recursos del lenguaje. En este campo de interes, se utilizan
metodos computacionales en el estudio del lenguaje o en el desarrollo de sistemas
prototipos para el procesamiento del lenguaje, donde, tanto los datos como los re-
cursos de procesamiento son necesarios. Los recursos de datos (seleccion de textos:
anotados y no anotados) son necesarios tanto para el analisis y entrenamiento como
para las pruebas. Los recursos de procesamiento reusables (analizadores, compo-
nentes de oraciones, unidades) habilitan la investigacion, al permitir reimplementar
componentes en los nuevos trabajos. La habilitacion de m ultiples datos y recursos
de procesamiento con el n de ser accesibles y operar en un ambiente es una tarea
desaante y requiere de una arquitectura o plataforma para el procesamiento del
lenguaje. En este sentido, este grupo de trabajo ha desarrollado la que es probable-
mente la arquitectura para la ingeniera del lenguaje mas conocida y ampliamente
utilizada para trabajos de ingeniera de textos: GATE. GATE es una poderosa
plataforma para la ingeniera del lenguaje con capacidad de procesamiento para un
amplio rango de formatos en documentos (XML, HTML, PDF, Word, email, Tex-
to plano, etc.), la cual consta de una estructura modular utilizando componentes
reusables con la capacidad de evaluar y visualizar resultados. Asimismo, puede ser
utilizada como una plataforma en trabajos de investigacion o como un ambiente de
desarrollo integrado para la construccion de m ultiples sistemas de PLN, los cuales
pueden ser integrados en aplicaciones de usuario. Esta plataforma a un sigue crecien-
do gracias a las aportaciones de diferentes grupos de investigacion en PLN. Algunos
de los proyectos que se estan realizando actualmente por este grupo de investigacion
son los siguientes:
436 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
CLARIN. El proyecto CLARIN, consiste en un gran esfuerzo de colaboracion eu-
ropeo, con el n de crear una infraestructura de investigacion integral y teleoperable
para los recursos y tecnologas del lenguaje. La idea es ofrecer una infraestructura
estable, persistente, accesible y extendible, tanto al usuario com un como a los gru-
pos de investigacion. Este proyecto ofrecera servicios a: i) las diferentes comunidades
de ling uistas con el n de optimizar sus modelos y herramientas, ii) poblacion es-
tudiantil, facilitando el acceso a los recursos y tecnologas del lenguaje, y iii) la
sociedad, con el n de quitar las barreras a los contenidos multiculturales y multi-
lingusticos. En este trabajo, se enfoca la necesidad de enfrentar los desafos de un
creciente interes en los medios de comunicacion electronicos. Asimismo, con el interes
de preservar en los jovenes la identidad cultural y al mismo tiempo prepararlos para
una competencia globalizada, con el interes de mejorar sus aspectos multiculturales
y multiling ustas, es en este sentido, donde este proyecto desea hacer su contribucion.
FLaReNet (Fomentar la red de recursos de idioma en todo el mundo). Este proyec-
to, al igual que el anterior es un esfuerzo de varias instituciones academicas y gru-
pos de investigacion de Europa (Inglaterra, Espa na, Austria, Francia, Italia, Sue-
cia, Gracia). Uno de sus objetivos consiste en desarrollar en los proximos a nos una
plataforma com un para el manejo de los recursos y tecnologas ling usticas, as como
fomentar una estrategia para la consolidacion de este campo en Europa y en todo
el mundo. La Union Europea requiere de mecanismos para resolver la barrera del
lenguaje entre sus ciudadanos y las industrias en un entorno mundial globalizado. La
gran mayora de las aplicaciones tecnologicas industriales que manejan el lenguaje
natural (traduccion automatica, recuperaci on de informacion en m ultiples idiomas,
indexado automatico de documentos, sistemas de preguntas y respuestas, interfaces
basadas en lenguaje natural, etc.) incluyen recursos del lenguaje como componentes
crticos. Aunque las tecnologas del lenguaje pueden consistir de motores independi-
entes del lenguaje, ellas dependen de la disponibilidad de conocimiento dependiente
del lenguaje, bajo la forma de recursos del lenguaje para su implementacion en la
vida real. Algunas compa nas como Google o Microsoft desempe nan un papel dom-
inante en este aspecto, ya que tienen acceso a una enorme cantidad de datos en
diferentes idiomas, dedican recursos considerables al desarrollo de tecnologas del
lenguaje, utilizando un poder de computo masivo as como un nuevo modelo de in-
vestigacion basado en los conocidos servicios libres. Con el n de llevar a cabo su
objetivo, FLaReNet se enfoca en nueve aspectos relacionados con el procesamien-
to del lenguaje natural a los cuales denomina dimensiones. Las nueve dimensiones
que son relevantes para los recursos en el campo del lenguaje son las siguientes: i)
Documentaci on, ii) Interoperabilidad, iii) Disponibilidad, Compartir y Distribuir, iv)
Calidad y Adecuaci on, v) Sustentabilidad, vi) Reconocimiento, vii) Desarrol lo, viii)
5.5. PROCESAMIENTO DE LENGUAJE NATURAL (PLN) 437
Infraestructura y ix) Cooperaci on internacional.
Basandose en estas dimensiones que deben funcionar como un sistema coherente, es
como este proyecto va a intentar alcanzar sus objetivos.
3. Traduccion automatica. Este grupo de investigacion se enfoca al desarrollo
de aplicaciones para la traduccion automatica del lenguaje humano, permitiendo
con ello el acceso a una vasta cantidad de informacion escrita en diferentes idiomas,
as como para facilitar la comunicacion entre usuarios que hablan idiomas distintos.
El creciente uso de la Internet para accesar informacion -muchas veces escrita en
una lengua diferente a la del usuario- ha requerido el empleo cada vez mayor de tra-
ductores automaticos para enfrentar esta demanda. Las tecnicas actuales aplicadas
en la traduccion automatica aplican un enfoque manejado por datos, el cual basa
su aprendizaje (proceso de traducir) a traves de datos en la forma de textos parale-
los: texto en lenguaje original y texto traducido. Estos modelos, los cuales son muy
basicos en forma, poseen un doble benecio: simplican el proceso de aprendizaje y
son facilmente portables a otros idiomas. Sin embargo, un reto en la investigacion de
estos modelos, consiste en buscar la mejor forma de integrar un an alisis ling ustico
mas profundo en los mismos lo cual resolvera muchos de sus actuales errores sis-
tematicos. Este grupo de trabajo, ha sido pionero en la investigacion de sistemas de
traduccion mediante metodos basados en reglas, desde los inicios de la inteligencia
articial hasta el empleo de los modelos estadsticos de la actualidad. Actualmente,
sus trabajos se enfocan al desarrollo de metodos de induccion automatica utilizados
en los modelos de traduccion a partir de corpus paralelos empleados tanto para los
analizadores basados en frases como los basados en sintaxis. De igual manera, tra-
bajan en el desarrollo de decodicadores para encontrar la mejor traduccio, y en la
adquisicion de corpus paralelos utilizados para la traduccion. Uno de sus proyectos
en curso es el siguiente:
ACCURAT. Este es un proyecto de colaboracion nanciado por la Union Euro-
pea. El objetivo del mismo consiste en la investigacion de metodos y tecnicas para
resolver uno de los problemas centrales en la traduccion automatica: carecer de re-
cursos ling usticos necesarios para el desarrol lo en esta area. El objetivo principal
es buscar, analizar y evaluar nuevos metodos para explotar corpus comparables con
el n de compensar las limitaciones de los recursos ling uistas y en ultima instancia,
mejorar de manera signicativa la calidad en los trabajos de traduccion automatica
en lenguajes y dominios especcos. La aplicabilidad de los metodos manejados por
datos dependen de la disponibilidad de grandes cantidades de corpus paralelos. Por
tal motivo, la calidad de traduccion de muchos sistemas actuales vara de manera
signicativa. Por ejemplo, la disponibilidad de buenos corpus de pares de lenguajes
438 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
(espa nol-ingles) y la nula disponibilidad para otros (Latvian y Croata). En este senti-
do, un objetivo nal del proyecto es alcanzar un incremento signicativo en la calidad
de traduccion para este tipo de lenguajes. Un punto medular en este proyecto sera la
creacion de metodologas y herramientas de medicion, buscar y usar corpus compa-
rables para mejorar la calidad en el proceso de traduccion automatica en idiomas con
dominio limitado. De esta forma, se buscara proporcionar una contribucion relevante
no solamente para areas especcas como la teora de la traduccion automatizada,
corpus ling usticos, la extraccion de informacion, sino tambien para el PLN en gen-
eral. Los objetivos cientcos que se persiguen en este trabajo son los siguientes: a)
Creaci on de metricas, con el n de determinar un criterio para la comparacion de los
corpus utilizados, b) Investigacion de metodos de extraccion de datos ling usticos, c)
Investigacion de metodos para adquisicion automatizada de corpus en la Web, y d)
Mejoramiento de mediciones. Asimismo, este proyecto utilizar a el estado del arte en
tecnicas y metodos basados en reglas relacionados con la traduccion automatica, y
partiendo de esta informacion, proporcionara nuevos metodos para alcanzar mejores
resultados extendiendo estos sistemas a traves del uso de corpus comparables.
4. Sistemas de dialogo humano-maquina. Los trabajos de investigacion que
realiza este grupo liderado por el Dr. Rob Gaizauskas, tienen que ver con la apli-
cacion de tecnicas de aprendizaje para el manejo de dialogos, la segmentacion del
dialogo y la identicacion de la voz. Los sistemas de dialogo humano-m aquina son
un area creciente dentro del PLN en los cuales participan un humano y un sistema
modelado por computadora. Este campo abarca todos los niveles dentro del analisis
y generacion de dialogos: procesamiento y comprension de las unidades de entrada
basadas en conocimiento almacenado, funciones pragmaticas concernientes con la
conversacion, etc. La mayor parte de la investigacion y desarrollo en esta area se ha
realizado en tareas orientadas a dialogos donde existe una aplicacion concreta, tal
como los centros de atencion automatizada que proporcionan informacion acerca de
servicios de transportacion o agencias de viajes. Asimismo, existen en este campo
aplicaciones desaantes donde la tarea no esta bien denida o la fuente de infor-
macion computacional no es estructurada. Por ejemplo, el papel de la maquina que
participa en el dialogo puede estar situada en una sala de chat tratando un rango
limitado de temas, o puede servir de apoyo a un usuario para ayudarlo a comprender
cierto topico. En este sentido se ha explorado el uso de tecnicas para la extraccion de
informacion a partir de entradas ruidosas provenientes de sistemas automatizados
de reconocimiento de voz. Los proyectos que se estan desarrollando actualmente en
este campo de investigacion son los siguientes:
Companions. El objetivo de este proyecto consiste en desarrollar compa nas vir-
tuales para conversar. Esto viene a cambiar la forma de relacionarse entre las per-
5.5. PROCESAMIENTO DE LENGUAJE NATURAL (PLN) 439
sonas, las computadoras y la Internet. Asimismo, este proyecto tiene que ver con
el manejo de tecnicas, algoritmos y metodos para el desarrollo de interfaces mul-
timodales, las cuales deben cumplir con las siguientes caractersticas: inteligentes,
persistentes y personalizadas. En este sentido, este trabajo dara como resultado un
sistema de interaccion social que va mas alla del enfoque tradicional basado en tar-
eas. Este proyecto cuenta con la participacion de catorce instituciones de Europa y
Estados Unidos. La Comision Europea inicio este proyecto en el marco de la sexta
convencion relacionada con Tecnologas de la Informaci on.
SERA. Este proyecto (nalizado en el a no 2010) se enfoco al desarrollo de sistemas
relacionados con la interaccion social entre robots y agentes. Los trabajos obtenidos
en el mismo fueron de gran apoyo para avanzar en el campo de la aceptacion social
entre robots verbalmente interactivos y agentes, con un enfoque hacia tecnologas
de asistencia (compa nas, mayordomos virtuales).
5. Deteccion de anomalas y reusabilidad. En muchas ocasiones los autores de
textos con derechos reservados tienen especial interes en saber cuando sus trabajos o
parte de ellos han sido utilizados por otras personas, ya sea con permiso o sin el. En
este sentido, se puede estar interesado en saber cuando un evento anomalo (cambio
de autores, insercion de texto) relacionado con el texto ha ocurrido. Este grupo de
trabajo es pionero en realizar investigacion relacionada con el uso de tecnicas para
detectar la reutilizacion de textos, asimismo ha desarrollado metodos para el analisis
de conceptos en corpus, recursos para el marcado de corpus y metodos automati-
zados para detectar y medir el reuso. Asimismo, este grupo ha contribuido con el
dise no de nuevos enfoques estadsticos para la identicaci on de segmentos anomalos
entre los textos.
6. Topicos fundamentales. Bajo este nombre se dene un area del PLN rela-
cionada con el desarrollo de aplicaciones para el procesamiento del lenguaje natural
con capacidades similares a las humanas. Algunas de sus campos de interes incluyen
quitar la ambig uedad en el sentido de las palabras y la semantica de tiempos y
eventos. Con el n de eliminar la ambig uedad presente en las palabras, este grupo
ha desarrollado algunos enfoque novedosos. De manera especca, han desarrollado
tecnicas que combinan m ultiples fuentes de conocimiento con el n de mejorar la
precision. Estos enfoques estan siendo utilizados para quitar la ambig uedad en el
dominio biomedico, para mejorar los resultados en la traduccion automatica y en los
sistemas de recuperacion de informacion. Con respecto a la semantica de tiempos y
eventos, esto se reere a la capacidad de un sistema para identicar tiempos, eventos
y relaciones temporales en un texto. Este aspecto es requisito fundamental para la
comprension de texto en la mayora de las aplicaciones enfocadas al procesamiento
440 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
del lenguaje. Un esfuerzo reciente realizado por este grupo y con colaboracion in-
ternacional es el desarrollo de TimeML. TimeML es un estandar de XML para el
etiquetado de tiempos, eventos y relaciones temporales en textos escritos en lenguaje
natural. Asimismo, este estandar provee un recurso de datos tanto para estudiar el
rango y distribucion de fenomenos temporales en un texto como para servir de en-
trenamiento a algoritmos adaptativos en la extraccion de referencias entre tiempos
y eventos en la determinacion de relaciones temporales entre ellos. De igual man-
era, este grupo ha propuesto enfoques para la evaluacion de textos con anotaci on
temporal, y ha contribuido a la organizacion y puesta en marcha del primer ejercicio
internacional de evaluacion de anotaciones temporales: TempEval.
Universidad de Masaryk, Checoslovaquia. El Laboratorio de Procesamiento
del Lenguaje Natural de la Universidad de Masaryk, dependiente de la Facultad
de Informatica y dirigido por el Dr. Karel Pala, realiza trabajos tanto teoricos co-
mo de investigacion aplicada en las siguientes areas: analisis de textos escritos en
diferentes niveles (morfologico, sintactico y semantico), manejo de corpus de bases de
datos lexicas, representacion semantica de expresiones del lenguaje natural, semanti-
ca de la Web, ontologas, representacion del conocimiento y razonamiento, sntesis
y reconocimiento de palabras (en idioma checoslovaco), representacion y manejo de
dialogos,y aplicaciones de aprendizaje de maquina para la desambig uedad de datos
en los corpus. Ademas de los topicos mencionados, este laboratorio apoya a los es-
tudiantes de posgrado en el entrenamiento de una nueva disciplina: Ingeniera del
Lenguaje.
Laboratorio de Procesamiento del Lenguaje Natural, Universidad de Pitts-
burgh. Este laboratorio dirigido por Diane Litman, Janyce Wiebe y Rebecca Hwa,
se enfoca la investigacion de un amplio rango de problemas del PLN, tales como:
analisis de discurso y dialogos, procesamiento del lenguaje hablado, computacion
afectiva, aprendizaje del lenguaje natural, analisis estadstico, y traduccion au-
tomatica. Algunos de los proyectos en proceso liderados por este grupo de trabajo
son los siguientes:
Mejora de un sistema tutor para el lenguaje natural acerca de un razon-
amiento profundo de dialogos acerca de la fsica. El perodo de trabajo para
este proyecto comprende de Junio del 2010 a Mayo del 2013. El interes en el mismo
se debe a que estudios recientes en USA indican que sus estudiantes se encuentran
rezagados con relacion a otros de pases desarrollados en las areas de matematicas
y fsica. Debido a que la tutora personalizada ha demostrado ser una opcion al-
tamente efectiva de instruccion, muchos profesores y promotores de polticas ed-
ucativas, han vuelto la mirada hacia los Sistemas Tutores Inteligentes como una
5.5. PROCESAMIENTO DE LENGUAJE NATURAL (PLN) 441
alternativa para ofrecer instruccion individualizada a estudiantes, de tal manera que
les permita mejorar su comprension y habilidad hacia las matematicas y ciencias.
El objetivo de este proyecto consiste en desarrollar un sistema de aprendizaje por
software tan efectivo como un tutor humano. Para esto, se pretende construir una
version mejorada de un sistema de dialogos en lenguaje natural que involucre a los
estudiantes en un razonamiento profundo a traves de dialogos de reexion. En este
sentido, una vez que los estudiantes resuelven problemas cuantitativos en Andes
(sistema de tutor inteligente en fsica), el tutor debera guiarlos (a traves de dialo-
gos en lenguaje natural) en una dinamica consistente en responder preguntas que
requieren profundo razonamiento. al igual que los tutores humanos, este sistema es-
tara dise nado para ser sensible al nivel de abstraccion de las respuestas en cualquier
etapa del dialogo. Asimismo, se pretende que el sistema sea capaz de modicar su
esquema de dialogo con el n de guiar al estudiante a una forma de aprendizaje es-
pecializado o abstracto. Se espera que el resultado de este proyecto, sea una version
mejorada de los dialogos reexivos de Andes, que pueda servir como una platafor-
ma de investigacion que permita comparar la efectividad de futuros sistemas tutores.
Ense nando, Escribiendo y Argumentando con Revision Personalizada So-
portada por IA
8
. El objetivo de este proyecto consiste en dise nar sistemas tutores
inteligentes que apoyen el aprendizaje en dominios no estructurados. Este traba-
jo se diferencia de sus similares en que no opera en dominios bien estructurados
(enfocados a un topico especco), mas bien su intencion consiste en compartir la
responsabilidad de ense nanza con un tutor humano. Este proyecto se basa en un
esquema tecnico-social (personas y maquinas trabajando juntas) con el n de tratar
diferentes temas y con esto, apoyar a un estudiante a preparar mejor sus ensayos o
argumentos. Las areas de conocimiento que estan participando en este proyecto son
las siguientes: comprensi on del lenguaje natural, sistemas tutores inteligentes, apren-
dizaje en maquinas, argumentaci on, solucion de problemas complejos, y minera de
datos. Por lo tanto, re une a un grupo de especialistas en diferentes disciplinas: in-
teligencia articial, ingeniera, y psicologa cognitiva.
Enfoques semi-supervisados al procesamiento de m ultiples idiomas. La
tarea de procesar datos que no estan escritos en el idioma ingles se ha vuelto ac-
tualmente muy importante. Por lo tanto, el interes en desarrollar tecnologas de
procesamiento de lenguaje natural para m ultiples idiomas es de gran valor. Para
este n se aplican tecnicas de aprendizaje de maquinas, en el cual los sistemas son
entrenados utilizando pares de textos en diferentes idiomas (por ejemplo: ingles-
espa nol ). Sin embargo, resulta com un durante la fase de entrenamiento de estos
sistemas la falta de acceso a recursos en distintos idiomas. Por lo tanto, el tipo
8
Este proyecto tiene un perodo de realizaci on de 4 a nos a partir de septiembre del 2011.
442 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
de aprendizaje mas utilizado en este caso es el no supervisado (aprender sin ayuda
externa). Aunque este enfoque tiene el benecio de requerir intervencion humana
mnima, el costo es que el sistema probablemente no aprenda bien. Por lo que, en
este proyecto se explora la aplicacion de tecnicas de aprendizaje semi-supervisado
para mejorar el procesamiento de m ultiples idiomas, tomando la ventaja de contar
tanto con informacion de datos marcados como una abundante informacion de datos
no marcados.
Descubrir las motivaciones, posturas y anomalas a traves del reconocimien-
to e interpretacion del estado privado. En este proyecto se denominan estados
privados a los estados mentales que resultan de la especulacion, opini on, evaluacion,
sentimientos, juicios y creencias. La comprension de estos estados resulta de gran
interes, ya que permite entender las motivaciones y en este sentido explicar las ra-
zones de las acciones realizadas. Asimismo, estos estados son omnipresentes en el
ambito del idioma, aparecen tanto en la lengua hablada como en la escrita, que van
desde las editoriales, comentarios, argumentos polticos, correos electronicos y los
medios sociales; en entrevistas cara a cara y en conversaciones informales. El obje-
tivo de este proyecto, es dotar a un sistema PLN con la habilidad para descubrir
las motivaciones subyacentes, emergentes y en desarrollo de los agentes (personas,
organizaciones, grupos y pases) mediante el analisis y reconocimiento, de informa-
cion explcita e implcita de los estados privados plasmados en los textos.
Los diferentes proyectos que se estan desarrollando en este laboratorio se realizan
con la participacion de grupos de investigadores de diferentes disciplinas y de difer-
entes instituciones.
Laboratorio de Procesamiento del Lenguaje Natural, Universidad de Columbia
Britanica, Vancouver. El grupo de investigacion para el procesamiento del lengua-
je natural en esta universidad depende del Departamento de Ciencias Computa-
cionales y del area de Inteligencia Articial, y esta dirigido por los Dres. Giuseppe
Carenini y Raymond Ng. La mayora de los trabajos realizados en este laboratorio
se realizan con la participacion del Laboratorio de Minera de Datos y del Labora-
torio de Administracion de Datos. Las areas de interes son las siguientes: evaluaci on
de textos y minera de conversaciones, comprensi on y abstraccion de res umenes, y
generaci on del lenguaje natural. Algunos de los proyectos que se encuentran desar-
rollandose actualmente por este grupo son los siguientes:
Resumen de conversaciones. El interes principal en este trabajo consiste en el
desarrollo de herramientas que puedan generar de forma automatica res umenes de
conversaciones humanas obtenidas de reuniones, correos, blogs, salas de conversacion,
5.5. PROCESAMIENTO DE LENGUAJE NATURAL (PLN) 443
y entrevistas. Para este n, este grupo de trabajo realiza investigacion relacionada
con los siguientes temas: analisis de discurso, analisis de sentimientos, y adaptabili-
dad del dominio. Uno de los recursos mas utilizados en este proyecto es el corpus de
conversaci on BC3 desarrollado en este laboratorio. Dicho corpus esta formado por
40 hilos (threads) para correos electronicos as como de 3,222 oraciones extradas del
corpus W3C.
Visualizacion de conversaciones. Este proyecto consiste en dise nar y desarrollar
herramientas multimedia para visualizar conversaciones humanas. Utiliza los mis-
mos recursos que el proyecto anterior y cuenta con el nanciamiento de las siguientes
empresas: IBM, NSERC, NSERC BIN y BObjects.
Analisis de discurso. Los participante en este proyecto se interesan en el desar-
rollo de tecnicas para encontrar estructuras (topicos, acto del dialogo, retorica) al
nivel de discurso.
Al igual que los ejemplos mencionados, en Mexico tambien hay grupos de trabajo re-
alizando investigacion en el campo del PLN. Algunas de las instituciones nacionales
que realizan aplicaciones en PLN son las siguientes:
Laboratorio de lenguaje Natural y Procesamiento de Textos, CIC, IPN.
Desde 1996, este laboratorio dirigido por el Dr. Alexander Gelbukh realiza investi-
gacion relacionada con el procesamiento del lenguaje y ling ustica computacional.
Las principales areas de interes que manejan son las siguientes: quitar la ambig uedad
en el sentido de las palabras, medidas similitud en textos, analisis automatizado de
diccionarios, analisis morfologico, analisis de recursos semi-estructurados, res umenes
de textos, analisis de emocion en textos, analisis de textos legales, gramaticas y anal-
izadores sintacticos, y sistemas de recomendacion.
Grupo de investigacion en procesamiento del lenguaje natural, INAOE.
Este grupo de investigacion en PLN liderado por los Dres. Manuel Montes, Hugo
Escalante, Luis Villase nor y Aurelio Lopez, realizan desarrollos PLN principalmente
en los siguientes topicos: procesamiento y recuperaci on de informacion, y sistemas
conversacionales. El objetivo que persigue este grupo es desarrollar metodos aplica-
dos en el modelado y procesamiento automatico del lenguaje humano, tanto en su
forma oral como escrita.
Ademas de los grupos de trabajo existentes en Mexico en PLN, se realizan eventos
academicos con el n de mostrar los trabajos (en proceso y concluidos) relacionados
444 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
con este campo de estudio. Por ejemplo, la Asociacion Mexicana para el Proce-
samiento de Lenguaje Natural (AMPLN), organiza anualmente dos congresos
con ponencias en espa nol: el Coloquio de Ling ustica Computacional, realizado
en la UNAM y el Taller de Tecnologas del Lenguaje Humano organizado por
el INAOE. En este mismo sentido, el IPN organiza anualmente el congreso interna-
cional CICLing, el cual no siempre se realiza en Mexico.
Con el n de tener una mejor comprension en este topico de investigacion, el
Dr. Alexander Gelbukh, profesor del CIC (IPN) realizo un libro de texto titulado
Procesamiento automatico del espa nol con enfoque en recursos lexicos grandes, el
cual se encuentra disponible en la Internet en formato electronico.
5.6. Sistemas Expertos (SE)
Los Sistemas Expertos (SE), se consideran un campo de estudio derivado de la IA
que tiene como objetivo el dise no de sistemas computacionales (hardware y software)
que tratan de simular el conocimiento de un experto humano en un area de espe-
cializacion determinada, e intentar resolver problemas en esta area. En este sentido,
un SE intenta realizar tareas propias de un experto humano (desde luego, con un
grado razonable de conabilidad) tales como: procesar y memorizar informacion,
aprender, razonar en situaciones inciertas, tomar decisiones y explicar la toma de
decisiones.
En las ultimas decadas se ha observado un crecimiento en el desarrollo de aplica-
ciones basadas en sistemas expertos. Tal como lo demuestra el analisis realizado
por Durkin en 1994, donde al examinar alrededor de 2,500 trabajos relacionados
con SE y clasicarlos en base a diferentes criterios, obtuvo informacion importante.
De acuerdo con este trabajo, los principales campos de aplicacion para los SE son
los siguientes (indicados en orden descendente): Negocios, Industria, medicina, inge-
niera, ciencias aplicadas, militar, espacio, transporte, educacion y otros. En el mismo
sentido, en 1986 Waterman determino que las principales tareas realizadas por los
SE en los distintos campos de aplicacion son las siguientes: i) Interpretacion, la
idea es obtener conclusiones de alto nivel a partir de datos, ii) Prediccion, se tra-
ta de proyectar los probables resultados, iii) Diagnostico, el objetivo consiste en
determinar las probables causas de fallas en equipos, enfermedades en seres vivos,
etc., iv) Dise no, la meta consiste en encontrar la mejor conguracion basada en
alg un criterio, v) Planeacion, resolver el problema de la planicacion en distintas
ambitos (educacion, economa, industrias) con miras a optimizar ciertos objetivos es
sin duda uno de los grandes retos para los sistemas expertos, vi) Monitoreo, en esta
5.6. SISTEMAS EXPERTOS (SE) 445
tarea se trata de comparar el comportamiento observado contra el comportamiento
esperado, vii) Instruir, el objetivo es asistir en el aprendizaje, viii) Control, la
tarea es dirigir el comportamiento de un sistema, por ejemplo, el control de tra-
co, y ix) Transacciones bancarias, los cajeros automaticos son sistema expertos que
proporcionan la funcion de un cajero humano con la ventaja inherente que puede
ser utilizado a todas horas, actualmente, algunas disposiciones de este tipo se estan
extendiendo a los dispositivos moviles [171].
En esta seccion, se va a mostrar informacion relacionada con un campo de investi-
gacion derivado de la IA y que ha tenido grandes aportaciones por diferentes grupos
de trabajo desde mediados del siglo pasado: Sistemas Expertos. Se van a mostrar
los aspectos fundamentales relacionados con este campo de estudio as como los
trabajos que actualmente se estan realizando en relacion con los mismos.
5.6.1. Conceptos basicos
El sistema experto opera como un sistema interactivo que responde preguntas, pide
aclaraciones, hace recomendaciones y generalmente apoya en la toma de decisiones.
Estos sistemas han ganado popularidad debido a su trabajo especializado en domin-
ios especcos. El proceso de codicar y almacenar el conocimiento en un dominio
especco resulta economico debido a su peque no tama no. Recurrir a especialistas
humanos es costoso, por lo que un SE es una alternativa util y economica a largo
plazo.
Con el n de explicar los conceptos basicos relacionados con los sistemas expertos se
va a referenciar la Figura 5.60, la cual ilustra los componentes principales que forman
a estos sistemas. La descripcion de cada uno de estos elementos se proporciona
enseguida.
Humanos que interact uan con el sistema. La componente humana relacionada
con los SE se integra por los siguientes elementos: i) Experto humano, esta formado
por todos los individuos expertos en su area y que se encargan de resolver problemas
especcos del area de interes (medicos, ingenieros, economistas, etc.), ii) Ingeniero
del conocimiento, esta persona es la encargada de traducir el conocimiento del ex-
perto a una forma declarativa que sea facilmente interpretada por el ingeniero en
sistemas, iii) Ingeniero de sistemas
9
, su funcion es la de construir la interfaz con el
usuario, dise nar el formato declarativo de la base de conocimientos, e implementar el
motor de inferencias, y iv) Usuario, es la persona que realiza la consulta al SE con la
9
Generalmente y dependiendo del tama no del sistema experto, el ingeniero del conocimiento y
el ingeniero en sistemas son la misma persona.
446 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.60: Ilustracion de los componentes de un Sistema Experto.
nalidad de ser aconsejado en la solucion de un problema, por ejemplo, proveer los
sntomas con el n de que el sistema le indique la posible enfermedad (diagnostico)
y le sugiera como manejarla (receta).
Base de conocimientos. Los expertos humanos son los responsables de propor-
cionar a los ingenieros del conocimiento una base de conocimiento ordenada y es-
tructurada, as como un conjunto de relaciones bien denidas y explicadas. Esta
forma estructurada de manejar la informacion requiere que los expertos humanos
realicen una serie de actividades tales como: pensar (a veces de forma repetida),
reorganizar, y reestructurar la base de conocimientos. En muchas ocasiones, como
resultado de este proceso, el experto humano se convierte en un mejor conocedor de
su propio campo de especialidad. Aunque ya se menciono en el Captulo 3, se va a
mostrar en este apartado la diferencia entre dato y conocimiento. Mientras los datos
se reeren a informacion especca de alguna aplicacion particular, el conocimiento
se reeren a informacion general en forma de reglas, distribuciones de probabilidad,
etc. Por ejemplo, en el campo del diagnostico medico, los sntomas, las enfermedades
y las relaciones entre ellos, forman parte del conocimiento en este campo, mientras
que los sntomas especcos de alg un paciente forman parte de los datos. Por lo
tanto, debido a que el conocimiento parte de informacion veraz, lo hace un aspecto
permanente el cual es almacenado en la base de conocimientos. A su vez, los datos
son temporales y se almacenan en la memoria de trabajo.
5.6. SISTEMAS EXPERTOS (SE) 447
Memoria de trabajo. La memoria de trabajo representa el conjunto de hechos
conocidos acerca del dominio. Los elementos presentes en este espacio reejan el
estado actual del mundo y dependen del tipo de aplicacion. En un sistema exper-
to, la memoria de trabajo generalmente contiene informaci on relacionada con una
instancia particular del problema que esta siendo enfocado. El estado inicial de la
memoria, puede contener la informacion a priori del sistema. El motor de inferencia
utiliza esta informacion, junto con la almacenada en la base de conocimientos para
obtener informacion adicional del problema que se esta manejando.
El motor de inferencia. Se considera al motor de inferencia como el componente
principal de un sistema experto, ya que es el mecanismo a traves del cual se derivan
las recomendaciones a partir de la base de conocimientos y los datos especcos del
problema (almacenados en la memoria de trabajo). Por ejemplo, en un sistema eper-
to para el diagnostico medico, los sntomas mostrados por un paciente (datos) son
analizados considerando la relacion entre sntomas y enfermedades (conocimiento).
Las conclusiones obtenidas por el motor de inferencia pueden generarse a partir de
dos tipos de conocimiento: determinista o probabilstico. Aunque el resultado que
se obtiene bajo condiciones de incertidumbre sigue un proceso mas complicado que
el que se obtiene en condiciones deterministas, hay que tomar en cuenta, que la
mayora de las situaciones que surgen en el mundo real no son deterministas. En
muchos casos, algunos hechos (datos) no se conocen con absoluta certeza. Por ejem-
plo, cuando se ofrece un diagnostico de alguna enfermedad basado en los sntomas
que indica el paciente, no se sabe con precision si la enfermedad diagnosticada es
la que padece el paciente, mas bien, se puede considerar como la mas probable. En
este caso, se esta haciendo un diagnostico en condiciones de incertidumbre, ya que
algunos sntomas se presentan en varias enfermedades. La propagacion de la incer-
tidumbre (conocimiento incierto) en un SE basado en razonamiento probabilista, es
funcion del motor de inferencia, y permite obtener conclusiones. El mecanismo de
inferencia, resulta en ocasiones tan complicado (sistemas que manejan incertidum-
bre) que hace que el motor de inferencia, sea el componente mas debil de un SE. Dos
sistemas que se derivan de los resultados obtenidos por el motor de inferencia son
los siguientes: i) Sistema de ejecucion de ordenes, este sistema es el que habilita a
un sistema experto iniciar acciones una vez que se conoce el resultado del motor de
inferencia, y ii) Sistema de generaci on de explicaciones, es el componente encargado
de dar explicaciones a peticion del usuario, las cuales generalmente se basan en las
conclusiones obtenidas por el motor de inferencia o durante la ejecucion de ordenes.
En muchos dominios, es necesario explicar la conclusion de un SE debido a los ries-
gos asociados con las acciones a ejecutar. Por ejemplo, en el campo del diagnostico
medico, los medicos son los responsables a ultima instancia del diagnostico, inde-
pendientemente de la tecnica utilizada para arribar a las conclusiones. Bajo estas
circunstancias, sin un sistema encargado para generar explicaciones, los medicos no
448 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
pueden ser capaces de explicar a sus pacientes las razones de un diagnostico.
Interface de usuario. Esta componente es la encargada de controlar el dialogo
entre el usuario y el sistema experto. Por ello, para que un sistema experto sea una
herramienta efectiva, debe incorporar mecanismos ecientes para mostrar y obtener
informacion de forma facil, comprensible y agradable. Un ejemplo de la informacion
que debe ser mostrada, es el de las conclusiones a que llega el motor de inferencias.
Un usuario debe saber las razones que expliquen como se llego a determinada con-
clusion, asimismo, debe saber las acciones que va a llevar a cabo el sistema experto
una vez que se determino la conclusion. Por otra parte, cuando el motor de inferencia
no puede llegar a una conclusion, debido por ejemplo, a la ausencia de informacion,
la interfase de usuario es el mecanismo para obtener la informacion requerida por
parte del usuario. Consecuentemente, una implementacion inadecuada de la inter-
fase de usuario que no facilite este proceso disminuira de manera signicativa la
calidad de un sistema experto. Otra razon de la importancia de este componente,
tiene que ver con la evaluacion de un SE por parte de los usuarios.
Un aspecto que no aparece en la Figura 5.60 pero que forma parte de los sistemas
expertos es el relacionado con el aprendizaje. La capacidad de aprender le permite a
los sistemas expertos modicar su comportamiento basados en la experiencia. En un
SE basado en un enfoque probabilsta se van a distinguir dos tipos de aprendizaje:
estructural y parametrico. El aprendizaje estructural enfoca aspectos relacionados
con la estructura del conocimiento (reglas, distribuciones de probabilidad, etc.). En
este sentido, descubrir nuevo sntomas que son relevantes para determinar alguna en-
fermedad o bien la inclusion de una regla en la base de conocimientos son derivados
de este conocimiento. Por otro lado, el aprendizaje parametrico se enfoca a determi-
nar los parametros necesarios para construir la base de conocimientos. Estimar las
frecuencias o las probabilidades asociadas a algunos sntomas, o enfermedades es un
ejemplo de aprendizaje parametrico.
Los componentes descritos son los que habilitan a un sistema experto a realizar una
variedad de tareas.
Un aspecto relevante en el estudio de los SE es el que corresponde a su dise no e
implementacion. De acuerdo con Weiss y Kulikowski [165], en el desarrollo de un
sistema experto se deben considerar las siguientes etapas (ver Figura 5.61).
1. Planteamiento del problema. El primer paso en el dise no de un SE consiste
en determinar el problema a resolver. Puesto que el objetivo principal de un sistema
5.6. SISTEMAS EXPERTOS (SE) 449
Figura 5.61: Ilustracion de las etapas sugeridas para desarrollar un sistema experto.
experto es responder a preguntas y resolver problemas, esta etapa es quizas la mas
importante en el desarrollo de un sistema experto. Si el sistema esta mal denido,
es de esperar que muestre respuestas erroneas.
2. Buscar el apoyo de expertos humanos. Una vez que se tiene denido el
problema que se pretende resolver, el siguiente paso consiste en buscar el apoyo de
expertos humanos que resuelven este tipo de problemas. En ocasiones, el empleo de
bases de datos disponibles en la red pueden apoyar en esta fase.
3. Dise no del sistema experto. Esta etapa involucra la especicacion y dise no
de los siguientes elementos: estructuras empleadas para almacenar el conocimiento,
creacion del mecanismo de inferencia, y determinacion de la interfaz para comuni-
carse con el usuario.
4. Determinacion de la herramienta de desarrollo. Una vez que se ha denido
450 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
el dise no del sistema experto, se debe convertir a un formato que lo entienda la
computadora. Para esto, se deben determinar las siguientes herramientas computa-
cionales: plataforma que se va a utilizar, elegir el lenguaje de programacion (bajo,
intermedio o de alto nivel), determinar si se va a utilizar alguna herramienta para
apoyar este desarrollo (shel ls). La eleccion de estas herramientas debe basarse tanto
en el aspecto economico como en la abilidad de las mismas.
5. Prueba del sistema. En esta fase se deben realizar las pruebas iniciales que
indican si el sistema dise nado cumple o no con las expectativas. Para esto, se debe
vericar la operacion de cada componente del sistema. Generalmente, en esta etapa
se tiene un sistema que funciona de manera satisfactoria.
6. Ajuste del sistema. En esta etapa se corrigen las fallas que no fueron detectados
en la etapa de pruebas. Asimismo, se realizan ajustes nos en algunos componentes
del sistema y se incluyen caractersticas no contempladas en el dise no inicial.
7. Puesta en marcha. En esta etapa, el usuario plantea problemas o defectos del
prototipo, corrige errores, actualiza el producto con nuevos avances, etc.
Las etapas anteriores inuyen en la calidad del sistema experto resultante, el cual
siempre debe ser evaluado y mejorado en funcion de las aportaciones de los usuarios.
En el apartado que sigue se va a mostrar la clasicacion de los sistemas expertos.
Basicamente, se consideran dos aspectos para clasicar a un sistema experto: 1) el
modelo utilizado para representar el conocimiento, y 2) el metodo empleado para
controlar la informacion almacenada en la base de conocimientos. Basado en esta
informacion, un sistema experto puede ser clasicado en alguno de los siguientes
tipos: i) Basados en reglas, ii) Estadsticos o basados en datos, iii) Descriptivos, iv)
una combinacion de los anteriores.
5.6.2. Clasicacion
La clasicacion de un SE puede realizarse en base a diferentes criterios. Por ejemplo,
en algunos trabajos, se muestra una clasicacion de los sistemas expertos basandose
en su aplicacion (diagnostico, prediccion, control, etc.). En este material educativo,
se va a mostrar la clasicacion de sistemas expertos basandonos en dos aspectos: i) la
forma en como se representa el conocimiento y ii) la manera en que este conocimien-
to es manejado. Basandonos en lo anterior, se van a mostrar los siguientes tipos de
5.6. SISTEMAS EXPERTOS (SE) 451
sistemas expertos: basados en reglas, basados en estadstica, basados en conocimien-
to descriptivo y manejando una combinacion de los anteriores. En relacion a los SE
basados en reglas, en este apartado se va a mostrar una descripcion general de este
metodo, debido a que en el Captulo 3 se dio una amplia descripcion de los sistemas
basados en reglas de produccion.
Sistemas expertos basados en reglas. Existe un tipo de conocimiento llama-
do conocimiento supercial, el cual forma la base para la mayora de los sistemas
expertos, se basa en reglas de produccion las cuales codican heursticas para
resolver problemas de forma rapida. Las reglas de producci on son utiles para resolver
de forma rapida y eciente problemas de diagnostico. En estos sistemas expertos a
la base de conocimientos usualmente se le conoce como base de reglas. La razon de
la popularidad de estos SE, es que casi cualquier trozo de conocimiento puede ser
escrito como una regla. En algunos casos las reglas son la unica alternativa para
codicar el conocimiento. Asimismo, las reglas simulan el comportamiento cognitivo
de los expertos humanos, son faciles de leer, comprender y mantener. Cada regla de
produccion en la base de conocimientos implementa una parte de la experiencia y
cuando el conjunto de estas reglas se integran en un motor de inferencias, se produce
un resultado mejor que el que producira cualquiera de las reglas de forma individ-
ual. De hecho, las reglas son muy independientes y agregar una nueva regla puede
contradecir a algunas de las que ya se encuentran almacenadas, o bien, generar una
revision de las mismas. La base de reglas es una coleccion de reglas individuales,
donde cada una enfoca un aspecto diferente del problema. Asimismo, como ya se
menciono anteriormente, el mecanismo que realiza la b usqueda y el razonamiento
en los sistemas expertos basados en reglas es el motor de inferencia, el cual se activa
cuando un usuario solicita una consulta. El proceso de la inferencia es el siguiente:
el motor de inferencia encuentra las reglas que corresponden con los hechos dados
en la consulta, selecciona una regla para ejecutar y coloca los hechos generados en la
memoria de trabajo. Asimismo, el motor de inferencias deduce los hechos o muestra
las conclusiones a partir de informacion almacenada en la base de conocimientos.
Recordar que existen tres metodos para inferir hechos o conclusiones de la base de
conocimientos: i) encadenamiento hacia delante, ii) encadenamiento hacia atras, y
ii) combinacion de los anteriores. Durante el proceso de inferencia, se puede obtener
conocimiento nuevo a partir del ya existente en la base de conocimientos. El metodo
de razonamiento maneja los hechos como smbolos arbitrarios, en este sentido, el
mismo metodo de inferencia puede ser utilizado por diferentes clases de conocimien-
to. Varios algoritmos pueden realizar esta tarea, uno de los mas utilizados por los
SE es el Algoritmo RETE [166].
Los sistemas basados en reglas generalmente no tienen en cuenta la incertidumbre,
452 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
ya que los objetos (variables) y las reglas que describen sus relaciones son tratados
bajo un enfoque determinista, y como sabemos, en la mayor parte de la aplicaciones
la incertidumbre es la norma y no la excepcion. Se ha intentado manejar la incer-
tidumbre en los sistemas basados en reglas a traves de los factores de certeza, donde
se asigna un grado de certeza a una conclusion. Sin embargo, este enfoque no cap-
tura de forma correcta las dependencias entre las variables. Es decir, cuando una
regla se activa el peso de la conclusion depende unicamente de las premisas sin con-
siderar el origen de la informacion. Ademas, los factores de certeza son incapaces de
representar la dependencia entre las observaciones y la forma en la que se combina
el conocimiento. Por lo tanto, es conveniente el uso de otros formalismos para tratar
la incertidumbre.
Enfoque Descriptivo. En el ambito de las aplicaciones medicas, sobretodo en el
problema de diagnostico, los sistemas basados en reglas algunas veces han mostrado
deciencias. La razon, es que en muchas aplicaciones la validez del proceso de in-
ferencia es en gran medida sensible al contexto. Esto ocasiona que los antecedentes
tiendan a ser muy grandes, que contengan muchas precondiciones, y que el n umero
de reglas se incremente de forma importante. En este sentido, la formulacion de la
inferencia en las reglas tiende a ser un procedimiento subjetivo y ad hoc, en esta
situacion el experto humano experimenta dicultad para articular su experiencia.
Una alternativa a esta situacion presentada en el dominio medico, consiste en de-
scribir las consecuencias de las enfermedades mas que indicar de manera explicita
como interpretar los sntomas. Esta forma de conocimiento descriptivo de las en-
fermedades debe ser acoplado a alg un mecanismo de inferencia apropiado el cual
realice la tarea inversa, es decir, encontrar la enfermedad que mejor corresponda
a las conclusiones. Con el n de explicar el enfoque descriptivo nos vamos apo-
yar de INTERNIST, uno de los sistemas expertos en medicina mas conocidos [167].
Este sistema experto, abarca aproximadamente el 80 % de conocimiento en medicina
general, y describe aproximadamente unos 750 desordenes obtenidos de la literatura
medica y de entrevistas con especialistas. En lo que sigue, los componentes del SE
seran basados en INTERNIST.
Representacion del conocimiento. Cada enfermedad esta descrita por una lista
de sus manifestaciones (sntomas, signos, etc.), de tal forma que pueda ser explicada
por la presencia de estos elementos. Asimismo, cada manifestacion indicada en la
lista, esta asociada con dos n umeros: i) el primer n umero se reere a un valor de
frecuencia que indica la frecuencia con el que una enfermedad produce tal mani-
festacion, y ii) el segundo n umero se reere a la frecuencia con la cual la enfermedad
explica la manifestacion. Estos n umeros son expresados de forma discreta en un
rango de 0 a 5. A toda manifestacion tambien se le asigna un valor de importan-
5.6. SISTEMAS EXPERTOS (SE) 453
cia, independiente de cualquier enfermedad, el cual indica la necesidad de que tal
manifestacion deba ser explicada al termino del diagnostico. Este valor tambien se
expresa de forma discreta y en un rango de 0 a 5. Un valor de 1 asignado a la
importancia indica que la manifestacion se presenta de manera com un en personas
normales, por lo tanto, su explicacion puede ser desechada, mientras que un valor
de 5 indica que su explicacion es absolutamente necesaria. La importancia de una
manifestacion puede verse como la frecuencia con la cual puede ser explicada por
alguna enfermedad reconocida. De hecho, algunas de las 750 enfermedades contem-
pladas en INTERNIST son generalizaciones de otras. De manera opuesta, algunas
otras son mas bien determinadas como estados patosiologicos, por ejemplo, la
anemia. INTERNIST utiliza una red semantica para representar el conocimiento,
donde los enlaces entre los objetos (enfermedades, manifestaciones) son de varias
clases indicando diferentes tipos de relaciones.
Algoritmo de Inferencia. Cuando los hallazgos clnicos de un paciente son intro-
ducidos en la computadora, una lista de las enfermedades es compilada, buscando
aquella que pueda explicar alguna de las manifestaciones. Se calcula un puntaje
aplicando un sistema heurstico para cada una de las enfermedades. Para el
calculo de este puntaje se consideran los siguientes aspectos: i) el n umero de fre-
cuencia en el que una enfermedad puede explicar el sntoma, ii) la importancia de
la manifestacion, y iii) los valores de las frecuencias de las manifestaciones ausentes.
Las enfermedades mas comunes son retenidas en la lista en lugar de las enfermedades
mas especcas, ya que las ultimas son incapaces de explicar los datos observados.
Enseguida, se identica la enfermedad con la puntuacion mas alta. Se dice que dos
enfermedades son competidoras, cuando los hallazgos explicados de forma positiva
por una enfermedad son un subconjunto de las explicaciones ofrecidas por otra. Si
no existen enfermedades competidoras o si las mas cercanas tienen 90 o mas pun-
tos de diferencia, entonces INTERNIST concluye que la enfermedad con el puntaje
mas alto esta presente. De otra manera, se selecciona otra estrategia de diagnosti-
co considerando los puntajes obtenidos por las diferentes enfermedades. Cuando se
concluye la presencia de una enfermedad, las manifestaciones explicadas por la mis-
ma son removidas de consideraciones adicionales y el proceso se repite nuevamente.
Esto habilita el diagnostico de m ultiples desordenes coexistentes.
Rendimiento. Cuando INTERNIST se probo en 19 casos que haban sido publi-
cados en la literatura medica, su precision de diagnostico fue muy aproximada al
ofrecido por los medicos. Las principales debilidades identicadas con el proceso de
razonamiento fueron las siguientes: i) incapacidad de tener una amplia vision del
caso, ii) incapacidad de razonamiento temporal, y iii) incapacidad de razonamiento
anatomico.
454 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
INTERNIST utiliza modelos especcos del paciente. Esto signica que, si
el motor de inferencia elabora una explicacion para un grupo especco de hallazgos
bajo consideracion, determina cual es en alg un sentido el m as probable. Sin em-
bargo, una regla de clasicacion de maxima verosimilitud puede ser enga nosa. Por
ejemplo, consideremos el caso donde existen tres explicaciones alternas que resultan
consistentes con los datos clnicos del paciente:
E
1
: El paciente tiene las enfermedades e
1
y e
2
.
E
2
: El paciente tiene las enfermedades e
1
y e
3
.
E
3
: El paciente tiene las enfermedades e
4
y e
5
.
Ahora consideremos que las probabilidades para estas explicaciones condicionadas
a los hallazgos (S) son:
p(E
1
[S = s) =0.3
p(E
2
[S = s) =0.3
p(E
3
[S = s) =0.4
Donde resulta que la explicacion mas probable es E
3
, es decir, el paciente tiene las
enfermedades e
4
y e
5
. Sin embargo, la enfermedad e
1
es la mas probable de estar
presente (p(e
1
[S = s)=0,6) que las enfermedades e
4
o e
5
(p(e
4
[S = s) = p(e
5
[S =
s)=0,4). Esta es una anomala potencial que se acent ua mas conforme el n umero de
posibles explicaciones alternas se incrementa.
Sistemas Expertos Basados en Probabilidad. En los primeros sistemas exper-
tos se eligio la probabilidad como una forma de tratar la incertidumbre. Sin embargo,
muy pronto se presentaron problemas con este enfoque debido al uso incorrecto de
algunas hipotesis de independencia empleadas para reducir la complejidad de los
calculos. Como resultado, la probabilidad fue considerada como una medida de in-
certidumbre poco practica, debido al elevado n umero de parametros que utilizaban,
a la imposibilidad de una asignacion o estimacion precisa de los mismos, as como
al manejo de hipotesis para manejar la independencia poco realistas. Sin embargo,
con la aparicion de las redes probabilsticas (principalmente las redes Bayesianas y
5.6. SISTEMAS EXPERTOS (SE) 455
Markovianas), este enfoque resurgio de manera signicativa, de tal forma que actual-
mente se les considera el formalismo mas aceptado para manejar la incertidumbre.
En los sistemas expertos basados en probabilidad, las relaciones entre las variables se
describen a traves de su funcion de probabilidad conjunta. Por lo tanto, esta funcion
forma parte del conocimiento especicado en estos sistemas. En este apartado se va a
describir cada componente de un sistema experto basado en un enfoque probabilista.
La Base de Conocimientos. A diferencia de la base de conocimientos de un sis-
tema basado en reglas, la cual esta formada por un conjunto de objetos (variables)
y un conjunto de reglas, en un SE probabilista la base de conocimientos consta
de un conjunto de variables (X
1
, . . . , X
n
y una funcion de probabilidad conjunta
p(x
1
, . . . , x
n
) denida sobre ellas. Por lo tanto, la tarea de determinar la funcion de
probabilidad conjunta de las variables resulta importante en estos sistemas. Gen-
eralmente, esta funcion se determina por especicacion directa, es decir, mediante
la asignacion de un valor numerico (parametro) a cada posible combinacion de las
variables. Desafortunadamente, este metodo conduce a la determinacion de un gran
n umero de parametros. Por ejemplo, con n variables binarias, la funcion de prob-
abilidad conjunta mas general dara lugar a 2
n
parametros, es decir, las probabili-
dades para todas las posibles combinaciones de las n variables. Esto da lugar a un
n umero tan grande, que sera complicado encontrar una computadora que lo pue-
da almacenar, a un para un valor de n tan peque no como 50. Sin embargo, en la
mayora de los casos practicos se ha observado que muchos subconjuntos de vari-
ables pueden ser independientes o condicionalmente independientes. Aprovechando
esta situacion, se pueden hacer reducciones importantes en la estructura del modelo
general, obteniendose con ello reducciones signicativas en el n umero de parametros.
Se van a mostrar dos enfoques para realizar la reduccion del n umero de parametros
en un modelo general. El primer enfoque es ad hoc, y es uno de los cuatro metodos
mas utilizados en el campo medico, se le conoce como Modelo de Sntomas Depen-
dientes. El segundo enfoque, es un metodo general, y aunque la mayor parte de los
trabajos se han realizado en el campo medico tambien puede ser aplicado a una
variedad de areas, este enfoque esta basado en Redes Bayesianas.
Modelo de Sntomas Dependientes (MSD). Con el n de describir este metodo,
se va a utilizar el problema de diagnosticar una enfermedad e dado un conjunto
de sntomas s
1
, . . . , s
n
. La Figura 5.62 muestra de forma graca la representacion
del modelo MSD. Para esto, se va a especicar la funcion de probabilidad conjunta
de la enfermedad y los sntomas p(e, s
1
, . . . , s
n
). Con el n de reducir el n umero
de parametros se van a imponer restricciones; el modelo de sntomas dependientes
es el que impone la restriccion. Se va asumir lo siguiente: las enfermedades son
456 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.62: Ilustracion del modelo de sntomas dependientes, con e
m
enfermedades
independientes entre s y s
n
sntomas. Es notable la cantidad de parametros que
se deben de considerar, la razon es que existe una conexion completa en todos los
componentes de este modelo.
independientes entre s dados los sntomas. La funcion de probabilidad conjunta
para el modelo se describe como:
P(e
i
, s
1
, . . . , s
n
) = p(s
1
, . . . , s
n
)p(e
i
[s
1
, . . . , s
n
) (5.1)
Donde el termino p(e
i
[s
1
, . . . , s
n
) se puede expresar como:
p(e
i
[s
1
, . . . , s
n
) = p(e
i
)p(s
1
, . . . , s
n
[e
i
) (5.2)
La proporcionalidad indicada en (5.2) indica una constante de normalizacion. Es de
notar que en la Ec. (5.2), solo se incluyen probabilidades a prioriy verosimilitudes
(probabilidades condicionales de los sntomas para cada una de las enfermedades)
cuyos valores pueden estimarse de forma objetiva a partir de las frecuencias de enfer-
medades y sntomas en la poblacion. Asimismo, la Ec (5.2) indica que los parametros
necesarios para crear la base de conocimientos del MSD son: i) las probabilidades
marginales p(e
i
), para todos los valores posibles de E, y ii) las probabilidades condi-
cionales p(s
1
, . . . , s
n
[e
i
) de las posibles combinaciones de sntomas dadas las enfer-
medades.
Para el caso de m enfermedades y n sntomas binarios, este modelo requiere un total
de m2
n1
parametros. Con el n de ilustrar el empleo del modelo MSD, considere
5.6. SISTEMAS EXPERTOS (SE) 457
los datos mostrados en la Figura 5.63. En este caso, la unica enfermedad de interes
es el adenocarcinoma gastrico. Por lo tanto, la variable E (enfermedad) toma dos
posibles valores: g cuando el paciente tiene la enfermedad, y g cuando el paciente
no padece la enfermedad. Asimismo, hay tres sntomas: D, V y P . En ocasiones
es conveniente utilizar los n umeros 1 y 0 para indicar la presencia y la ausencia
del sntoma. Para denir el MSD, se necesita conocer la funci on de probabilidad
marginal p(e
i
) y las funciones de probabilidad condicional de los sntomas dada la
enfermedad, p(d, v, p[e
i
). Estas funciones de probabilidad se obtienen de la Figura
5.63 y se muestran en la Tabla 5.3.
Aplicando la Ec (5.2) y la funcion de probabilidad (p(g[d, v, p) )mostrada en la Tabla
5.3 (considerarla encima de E = g, E = g), se puede calcular la probabilidad de la
enfermedad para cualquier combinacion de sntomas (ver Tabla 5.4). Por ejemplo,
para determinar la probabilidad de que un paciente padezca la enfermedad, dado
que presenta los tres sntomas (ver ultima la de la Tabla 5.4), se obtiene como
sigue:
p(g[d, v, p)

= p(g)p(d, v, p[g) = 0,3 0,013 = 0,0039


p(g[d, v, p)

= p(g)p(d, v, p[g) = 0,7 0,314 = 0,2198


Normalizando los valores anteriores, se obtiene:
p(g[d, v, p) = 0,0039/0,2237 = 0,02
p(g[d, v, p) = 0,2198/0,2237 = 0,98
El problema principal en este modelo, es que necesita un n umero muy alto de
parametros para cubrir todas las combinaciones. Esta situaci on se complica cuan-
do el n umero de sntomas y enfermedades se incrementa. Por ejemplo, para una
situacion con 100 enfermedades y 200 sntomas, el n umero de parametros (frecuen-
cias) que se requieren para determinar todas las combinaciones es mayor que 10
62
(incapaz de almacenarse en las computadoras actuales). Adem as, el calculo anterior
asume sntomas binarios, por ejemplo, tiene dolor o no tiene dolor. Resulta com-
prensible que este calculo se incrementa de forma signicativa cuando un sntoma
posee mas de dos alternativas.
Debido a la imposibilidad de aplicar el modelo MSD en muchas situaciones practicas,
resulta conveniente buscar opciones para su simplicacion. Una de estas opciones
458 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.63: La imagen ilustra el n umero de pacientes de un hospital clasicados por
la enfermedad de adenocarcinoma gastrico y por tres sntomas (dolor (D), vomito (V)
y perdida de peso (P)) asociados a la enfermedad. De 1000 pacientes, 700 padecen la
enfermedad (region sin sombrear) de adenocarcinoma gastrico (G). Cuando un nuevo
paciente llega al hospital con alguno de estos sntomas, existe una probabilidad de
700/1000 (70 %) de que padezca la enfermedad, esta es la probabilidad a priori,
antes de conocer mas informacion del paciente. Asimismo, la imagen indica que la
probabilidad a priori del n umero de pacientes que vomitan el de 0,44 (440/1000).
Asimismo, hay un 0.1 % de pacientes que tienen la enfermedad y que no muestran
alguno de los sntomas.
5.6. SISTEMAS EXPERTOS (SE) 459
Cuadro 5.3: Funciones de probabilidad requeridas para especicar el MSD.
d v p E=g E=g
0 0 0 0.014 0.377
0 0 1 0.136 0.253
0 1 0 0.014 0.167
0 1 1 0.136 0.103
1 0 0 0.036 0.040
1 0 1 0.314 0.030
1 1 0 0.036 0.017
1 1 1 0.314 0.013
Cuadro 5.4: La funcion de probabilidad condicionada p(e[d, v, p) con los valores de
e = nog y e = g, para el modelo MSD.
d v p E=g E=g
0 0 0 0.08 0.92
0 0 1 0.56 0.44
0 1 0 0.17 0.83
0 1 1 0.75 0.25
1 0 0 0.68 0.32
1 0 1 0.96 0.04
1 1 0 0.83 0.17
1 1 1 0.98 0.02
460 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
consiste en suponer que, para una enfermedad dada, los sntomas son condicional-
mente independientes entre s. Esta asumcion da lugar a otro modelo: el modelo de
sntomas independientes. Asimismo, y bajo problemas que se van presentando en
cada uno de los modelos se van proponiendo alternativas como la consideracion de
otro par de modelos: el modelo de sntomas relevantes independientes, y el modelo
de sntomas relevantes dependientes. La desventaja de estos modelos es que estan
hechos a la medida del problema, lo cual hace que solamente sean aplicados a situa-
ciones particulares.
El Motor de Inferencias. Existen dos tipos de conocimiento que se manejan en los
SE probabilsticos: 1) el conocimiento descrito por una funcion de probabilidad con-
junta almacenada en la base de conocimientos, y 2) datos de evidencia, consisten de
valores provenientes de variables conocidas por el usuario (por ejemplo: sntomas),
la cual se almacena en la memoria de trabajo. El motor de inferencia emplea los
dos tipos de informacion con el n de responder a preguntas hechas por el usuario.
La inferencia consiste en el proceso a traves del cual se utiliza la informacion al-
macenada, con el n de proporcionar una respuesta a las preguntas del usuario.
Por ejemplo, la inferencia puede consistir en calcular la probabilidad marginal de
diferentes enfermedades (p(E = e
i
), i = 1, . . . , m) para responder a preguntas, tales
como, cual es la enfermedad mas probable que pueda tener un paciente?, desde
luego, que esta probabilidad es una probabilidad a priori, es decir, el valor obtenido
se calcula antes de tener mas informacion (evidencia) acerca del paciente.
Por otro lado, esta la situacion donde se conocen los sntomas (s
1
, . . . , s
k
) que tiene
el paciente, y el objetivo consiste en determinar la enfermedad mas probable. En
este caso, se tiene informacion de evidencia (sntomas observables), por lo que el
problema consiste en calcular la funcion de probabilidad conjunta de cada una de
las enfermedades dada la evidencia disponible, p(E = e
i
[s
1
, . . . , s
k
), i = 1, . . . , m, es
decir: la probabilidad a posteriori.
Una de las tareas del motor de inferencia en los SE probabilsticos, consiste en actu-
alizar las probabilidades condicionales a la luz de nueva evidencia, para ello aplica
la siguiente expresion:
p(e
i
[s
1
, . . . , s
k
) = p(e
i
, s
1
, . . . , s
k
)/p(s
1
, . . . , s
k
); i = 1, . . . , m (5.3)
La informacion que se presenta a medicos y pacientes, es un grupo reducido de enfer-
medades que tienen los valores de probabilidad mas altos, con el n de que puedan
5.6. SISTEMAS EXPERTOS (SE) 461
llegar a conclusiones. En la Ec 5.3, el termino que aparece en el denominador act ua
como una constante de normalizacion, por lo que, una decision basada en el maximo
valor de p(e
i
[s
1
, . . . , s
k
) coincide con el maximo de p(e
i
, s
1
, . . . , s
k
).
Cabe mencionar que el Teorema de Bayes es una alternativa com unmente usada
para obtener las probabilidades a posteriori, cuando el n umero de variables que se
maneja no es alto. Cuando esto no es as, se tiene metodos mas ecientes de obtener
estos valores, los cuales son conocidos bajo el nombre de: tecnicas de propagacion
de la evidencia o propagacion de la incertidumbre. Como se menciono al princi-
pio de este apartado, el modelo MSD es un modelo ad hoc aplicado para situaciones
particulares tales como el area medica. Sin embargo, existen SE probabilsticos basa-
dos en otros modelos que pueden ser aplicados para resolver una amplia variedad de
problemas. Una de estas alternativas se basa en las redes causales o redes bayesianas.
Sistema experto basado en Redes Bayesianas. Las redes bayesianas son una
herramienta muy empleada para modelar sistemas expertos en dominios con incer-
tidumbre [170, 172]. Se representa por un grafo acclico dirigido, donde los nodos
determinan las variables del dominio del problema y los enlaces indican relaciones
de independencia condicional entre las mismas. Su representacion graca es facil-
mente comprensible para los humanos. Ademas, debido a que unicamente denen un
modelo de probabilidad conjunta, la inferencia (obtencion de conclusiones a partir
de observaciones) se obtiene de una base matematica solida: el calculo de proba-
bilidades, esto implica que la consistencia matematica as como la correctez en el
proceso de inferencia estan garantizados. En otras palabras, todas las asumciones
consideradas en el metodo estan contenidas en el modelo, es decir, la denicion de las
variables, la estructura graca y los parametros (tablas de probabilidad condicional).
La especicacion de una red Bayesiana se realiza en dos partes, una parte cualitativa
y una cuantitativa. La parte cualitativa consiste en determinar la estructura del grafo
mientras la parte cuantitativa en especicar las tablas de probabilidad condicional.
De manera ideal, ambas especicaciones deben ser inferidas automaticamente a par-
tir de datos. Sin embargo, en la practica muchas veces los datos son insucientes
para determinar la parte cuantitativa, por lo que resulta una practica com un la par-
ticipacion de expertos humanos en esta etapa. Enseguida se va a proporcionar de
manera informal el fundamento matematico en este caso: elemental relacionado
con las redes Bayesianas.
Teora basica. Para comprender el fundamento matematico de las redes Bayesianas,
se va a iniciar con la denicion de la distribucion de probabilidad conjunta, o modelo
probabilstico, P(X
1
, . . . , X
n
) de n variables aleatorias, la cual en su notacion corta
462 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.64: Ilustracion de una red Bayesiana como un grafo accli-
co dirigido. La distribucion de la probabilidad conjunta de estas vari-
ables bajo la consideracion de dependencia condicionada se expresa como
P(x
1
)P(x
2
[x
1
)P(x
3
)P(x
4
[x
1
)P(x
5
[x
2
, x
3
, x
4
)P(x
6
[x
3
).
se expresa como:
P(X
1
= x
1
, . . . , X
n
= x
n
) = P(x
1
, . . . , x
n
)
Donde X
j
indica una variable aleatoria y x
j
el estado de la variable en un momento
determinado. Una red Bayesiana es un modelo probabilstico P representado por
un grafo acclico dirigido, donde cada nodo i en el grafo, representa a una vari-
able aleatoria X
i
junto a una distribucion de probabilidad condicional P(x
i
[x
(i)
),
donde (i) indica a los padres de la variable i (ver Figura 5.64). La distribucion de
probabilidad conjunta de una red Bayesiana se calcula a traves del producto de las
distribuciones de probabilidad condicional, como se muestra en la siguiente expre-
sion:
P(x
1
, . . . , x
n
) =
n
i=1
P(x
i
[x
i1
, . . . , x
1
)
En una red Bayesiana se asume que
P(x
i
[x
i1
, . . . , x
1
) = P(x
i
[x
(i)
Es decir, la distribucion de probabilidad conjunta de un conjunto de variables, se re-
sume al producto de las variables condicionadas a sus padres. Es decir, cada variable
de la red, es condicionalmente independiente de todas las demas dados sus padres
(vease la Figura 5.64). Esta asumcion es la que permite simplicar de manera sig-
nicativa el n umero de calculos en este modelo graco probabilstico.
Ya que una red Bayesiana es un modelo probabilstico, es posible calcular la dis-
tribucion marginal y la condicional de cada variable aplicando las reglas del calculo
5.6. SISTEMAS EXPERTOS (SE) 463
probabilstico. En estos calculos surge el problema de explosion combinatoria, ya
que el n umero de combinaciones de variables y sus estados se vuelve exponencial
al n umero de variables. En redes Bayesianas con variables discretas, existen algo-
ritmos que explotan de manera eciente la estructura graca de la red, tal como el
algoritmo de arbol de uniones propuesto por Lauritzen y otros en 1988, el cual se
aplica para obtener las distribuciones condicional y marginal de la variables de una
red tipo arbol [169].
Modelado de la red Bayesiana. La construccion de una red Bayesiana consiste
en decidir el n umero de variables que van a representar el dominio del problema y
los valores (estados) que va a tomar cada variable. Una vez realizado lo anterior, se
deben determinar las relaciones entre estas variables, si este paso se va a realizar
de forma manual, es buena regla construir la red basandose en una relacion causa-
efecto. Este proceso inicia con la denicion de los nodos raz los cuales representan
causas, despues se contin ua con la denicion de variables a las que ellos inuencian,
y se continua en este sentido hasta llegar a las hojas, las cuales representan a las
variables que no tienen inuencia sobre ninguna. Este procedimiento muy seguido
termina en una estructura de red, comprensible para los humanos y con escasos
nodos. Para redes mas complejas, los dise nadores se apoyan en software especial-
izado, tales como HUGIN, ELVIRA, y NETICA, entre otros, con el n de realizar
la especicacion de la red a partir de datos. Con el apoyo de la interfaz de usuario
provista por el software de apoyo, se crean los nodos. Generalmente, se asume que
las variables de la red toman valores de un conjunto nito, asimismo, cuando un
nodo se enlaza con otro, se debe cuidar en no crear ciclos. Finalmente, se dene la
tabla de probabilidad condicional, algunas veces por apoyo de expertos y otras veces
inferidas a traves de datos.
Ejemplo de sistema experto basado en una red causal. Suponga que se desea
construir un sistema experto que apoye a un mecanico que trabaja en su cochera
a determinar las posibles fallas en automoviles. Un SE general para este problema
contara con cientos de variables, sin embargo, para nes ilustrativos se van a mane-
jar solamente cinco:
A: Alternador funciona correctamente.
B: Batera cargada.
C: Carburador funciona correctamente.
M: Motor arranca.
L: Luces funcionan.
Asimismo, se van a considerar solamente dos valores para cada variable, un valor
464 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.65: Red causal que representa el problema de diagnosticar la probable falla
que presenta un vehculo, a un lado de cada nodo se muestra la tabla de probabilidad
condicional, es decir, la fortaleza de la relacion entre nodos hijos y padres.
de la variable con subndice 1 corresponde al estado verdadero (armacion) de
la variable y un valor de la variable con subndice 0 indica el estado falso (ne-
gacion) de la variable. Por ejemplo, la variable A toma los valores (a
0
, a
1
), donde
a
0
indica que el alternador no funciona correctamente mientras que a
1
indica que el
alternador funciona correctamente. Una vez que se determinan las variables y sus es-
tados, el siguiente paso consiste en denir la relacion causa-efecto entre las mismas.
Para esto, se tiene que buscar el apoyo de un mecanico el cual con las variables selec-
cionadas nos proporciona la siguiente informacion: i) las luces encienden si la batera
esta cargada, ii) el motor arranca si la batera esta cargada y si el carburador fun-
ciona correctamente, iii) la batera se carga si el alternador funciona correctamente,
y iv) el carburador funciona siempre que el alternador funcione. Con la informacion
anterior se decide el orden de las variables en la red. Posiblemente nos sorprenden
algunas relaciones, como la iv, donde no vemos la aparente conexion. Sin embargo,
recordar que el auto tiene que ser llevado a una cochera para su reparacion. Por lo
tanto, con la informacion del experto y las variables seleccionadas se especica la
estructura del modelo (ver Figura 5.65).
Las tablas de probabilidad condicional se obtienen de datos de entrenamiento o de
conocimiento experto, sin embargo, en este caso los valores son cticios. Una vez
determinadas las tablas de probabilidad condicional, las probabilidades conjuntas
son facilmente obtenidas a partir de estas tablas. Por ejemplo, para obtener la prob-
abilidad conjunta de la combinacion p(a
1
, b
1
, c
0
, m
0
, l
1
), se observa la relacion de
independencia condicional entre las variables de la red causal mostrada en la Figura
5.65, y recordando esta asumcion se llega a lo siguiente:
5.6. SISTEMAS EXPERTOS (SE) 465
p(a
1
, b
1
, c
0
, m
0
, l
1
) = p(a
1
)p(b
1
[a
1
)p(c
0
[a
1
)p(e
0
[b
1
, C
0
)p(l
1
[b
1
) = 0,81x0,89x(10,95)x(1
0,23)x0,94 = 0,026
Es decir, la probabilidad de que el alternador funcione correctamente y que la batera
funcione bien y el carburador no funcione y que el motor no arranque y que las luces
enciendan, es de 2,6 %. Al especicar la estructura y parametros de la red Bayesiana,
equivale a tener descrito el conocimiento para este sistema experto. Si una variable
tiene mas de un padre (causa directa), puede resultar poco factible estimar todas las
entradas en la tabla de probabilidad condicional a partir de datos de entrenamiento.
En este caso, es razonable considerar un modelo estadstico para manejar la de-
pendencia de esta variable y sus causas directas. Tal modelo existe y es conocido
como: Compuerta OR ruidosa. En este modelo, se asume que una variable puede
ser verdadera si al menos uno de sus padres es verdadero. Una red en la cual todas
sus tablas de probabilidad condicional son denidas de esta forma se le conoce como
grafo probabilista causal. La eleccion del modelo muchas veces es sugerido por los
datos de entrenamiento.
Una vez que se tiene especicada la red que va a representar el conocimiento experto,
el paso siguiente es determinar la tecnica de inferencia, es decir, el proceso que va a
seguir el sistema para obtener conclusiones cuando el usuario realice alguna consulta
e introduzca informacion o evidencia por ejemplo, en un sistema experto medico,
determinar un diagnostico basado en ciertos sntomas. El proceso a traves del cual
se actualizan los valores de las variables al tener evidencia de alguna de ellas se le
conoce como propagacion de la evidencia
10
, y es el tema que se va a tratar enseguida.
Inferencia. Aunque las redes Bayesianas son un metodo eciente para representar
la distribucion de probabilidad conjunta sobre un conjunto de variables, el proceso
de inferencia resulta ser una tarea NP-hard [168]. Existen tres tipos de algoritmos
para realizar la propagacion de la evidencia: i) Exactos, cuando el calculo de las
probabilidades en las variables se realiza de forma directa aplicando la teora de
probabilidad, ii) Aproximados, en este caso el calculo de probabilidades para las
variables se realiza de forma aproximada mediante simulacion, estos algoritmos se
utilizan cuando el uso de algoritmos exactos resulta demasiado costoso en terminos
computacionales y, iii) Simbolicos, permiten manejar tanto parametros numericos
como simbolicos, en este caso, las probabilidades son obtenidas en funcion de los
parametros. En este apartado se va a describir de forma general el algoritmo de
propagacion desarrollado por Pearl en 1982 [172], con el n de mostrar una idea del
10
Algunos autores se reeren a este proceso como: propagacion de la incertidumbre o inferencia
probabilstica
466 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
proceso de propagacion de la evidencia.
Algoritmo de propagacion utilizado en redes tipo arbol. El primer metodo
de propagacion de la evidencia utilizado en redes Bayesianas, fue el algoritmo de
propagacion en arboles, desarrollado por Judea Pearl en 1982. La idea en que se
basa este algoritmo es la siguiente: cuando se modica la probabilidad asociada a
un nodo, este comunica la modicacion a sus nodos vecinos mediante un conjunto
de mensajes (ver Figura 5.67); estos a su vez, procesan la informacion recibida jun-
to con la que ellos poseen y la pasan a sus nodos vecinos (a un no modicados) y
as sucesivamente hasta que todos los nodos han actualizado su informacion. Este
algoritmo opera en dos fases:
1) Fase de inicializacion. En esta fase se obtienen las probabilidades a priori de
todos los nodos de la red, dejando a la red en un estado inicial identicado como S
0
.
2) Fase de actualizacion. Esta fase inicia cuando una variable es instanciada, en
este caso se actualiza el estado de la red, obteniendose las probabilidades a poste-
riori de las variables de la red basadas en la evidencia considerada, adoptando la
red un estado identicado como S
1
. Este paso se repite cada vez que una variable
es instanciada.
La idea en que se basa este algoritmo es la siguiente. Cada vez que una variable
es instanciada, informa a sus nodos vecinos a traves de mensajes enviados como
sigue: i) el nodo instanciado enva a su padre un mensaje (mensaje) (ver Figura
5.67(a)), para informarle que ha cambiado su valor, ii) el nodo instanciado enva a
cada uno de sus hijos un mensaje ( mensaje) (ver Figura 5.67(b)), para infor-
marles que ha cambiado su valor. De esta manera, la informacion se va propagando
por la red tanto en sentido ascendente ( a traves de mensaje) como descendente
(a traves de mensaje). A su vez, estos mensajes asignan a cada nodo de la red
unos valores conocidos como valor y valor. El producto de estos valores
generan las probabilidades a posteriori de cada nodo en la red. Tanto los mensajes
como los valores, son vectores numericos. En la Figura 5.66 se muestra el algoritmo
de propagacion descrito.
Resumiendo. En este algoritmo, al ser instanciados ciertos nodos estos envan men-
sajes a sus padres e hijos, los cuales se propagan hasta a llegar a la raz u hojas,
o hasta encontrar otro nodo instanciado (ver Figura 5.67). Por lo tanto, la propa-
gacion se hace en un solo paso y en un tiempo proporcional al tama no de la red. La
ventaja de este algoritmo es que funciona en un orden de tiempo lineal respecto al
5.6. SISTEMAS EXPERTOS (SE) 467
Figura 5.66: Ilustracion del algoritmo de propagacion de la evidencia en redes tipo
arbol. Las formulas que hace referencia el algoritmo pueden ser consultadas en [172].
468 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.67: Imagen que muestra el sentido de la propagacion a traves de mensajes:
(a) sentido de los mensajes que los nodos hijos envan al nodo padre, (b) direccion
de los mensajes que los nodos padres envan a sus nodos hijos.
n umero de nodos de la red, pero su principal limitacion es que solo se puede aplicar
a redes con estructura de arbol, restriccion demasiado fuerte, ya que, en la practica,
la presencia de otras estructuras es signicativa.
En esta seccion se mostraron los tipos principales de sistemas expertos tomando co-
mo criterio de clasicacion el enfoque empleado para denir la base de conocimientos
y la funcion del motor de inferencia. En base a estos aspectos, los sistemas expertos
son usualmente de tres tipos: basados en reglas, descriptivos y basados en probabili-
dad. Asimismo, existen sistemas expertos que enfrentan la incertidumbre bajo otra
perspectiva, tal como los sistemas expertos basados en logica difusa. Otros traba-
jos, combinan los enfoques anteriores con el n de obtener un sistema experto que
combine las fortalezas de los enfoques anteriores, tal como el propuesto por Sar-
avanan en 2010, donde propone la construccion de un sistema experto basado en
redes Bayesianas y reglas. En este trabajo, Saravanan combina la habilidad de las
redes Bayesianas para modelar de manera precisa un dominio con su esquema de
razonamiento automatizado, esto, aunado a la habilidad de proporcionar una expli-
cacion clara y comprensible al usuario, obtenida de un enfoque basado en reglas [173].
Actualmente, existe un gran desarrollo y proyectos que se estan realizando por dis-
tintos grupos de investigacion en relacion a este topico. En la siguiente secion se
mostraran algunos de estos trabajos.
5.6. SISTEMAS EXPERTOS (SE) 469
5.6.3. Desarrollos actuales y aplicaciones
Los sistemas expertos tambien conocidos como sistemas basados en conocimiento se
identican como una rama de la IA. El desarrollo de estos sistemas se caracterizan
por la participacion de otros campos relacionados con la IA, tales como: aprendiza-
je en maquinas, razonamiento probabilstico, redes neuronales, sistemas difusos y
reconocimiento de patrones, entre otros. En la investigacion de estos sistemas, han
participado tanto instituciones educativas como centros de investigacion nanciados
por el gobierno y por la iniciativa privada. Algunos ejemplos del desarrollo de los
sistemas expertos realizados en universidades podemos citar los siguientes:
Laboratorio de Tecnologas para Sistemas Expertos, Universidad de Berke-
ley, Ca. Los trabajos que se realizan en este laboratorio se relacionan con inteligencia
articial aplicada, sistemas expertos y tecnologas de informacion. Uno de los desar-
rollos vigentes en este laboratorio es el siguiente:
Vehculos Inteligentes. En este proyecto se propone un enfoque para realizar
el monitoreo y diagnostico en vehculos automatizados. En este trabajo convergen
varias disciplinas: IA, Sistemas Expertos, y Tecnologas de la Informacion. El ob-
jetivo en este proyecto consiste en desarrollar metodologas de control supervisorio
para la deteccion y aislamiento de fallas, controlar la reconguracion de grupos de
sensores, actuadores y controladores aplicados en el control. La arquitectura de con-
trol supervisorio opera en dos niveles: nivel de regulacion y nivel de coordinacion.
Las actividades del control supervisorio en la capa de regulacion tratan con la vali-
dacion y fusion de los datos obtenidos de sensores, as como del diagnostico de fallas
en los actuadores, sensores, y de los vehculos en s. Por otro lado, las actividades
del control supervisorio en la capa de coordinacion trata con la deteccion de fallas
potenciales, recomendando la factibilidad de maniobras para evitar accidentes en
situaciones de emergencia. Debido al ruido inherente en la informacion proporciona-
da por los sensores, esta resulta incierta, por lo que, aplican un sistema experto
basado en logica difusa con el n de diagnosticar probables fallas en el sistema de
sensores.
Laboratorio de IA, Universidad de Stanford. En el Laboratorio de Inteligencia
Articial de la Universidad de Stanford, se realizan investigaciones relacionadas con
los campos que integran esta disciplina, entre ellos: los sistemas expertos. Como se
menciono con anterioridad, el campo de los sistemas expertos es multidisciplinario,
por lo que muchos de los trabajos que se estan desarrollando en este campo ya fueron
expuestos en otras secciones de este captulo. En este sentido, se va a mencionar, al
igual que el caso anterior, uno de los proyectos vigentes dirigidos por la Dra. Daphne
Koller.
470 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Analisis sistematico de caractersticas morfologicas para descubrir cancer
de mama. La interpretacion morfologica de secciones histologicas forman la base
para el diagnostico de cancer de mama. En el diagnostico de los carcinomas, los
patologos realizan un analisis semi-cuantitativo de un conjunto peque no de car-
actersticas morfologicas para determinar el grado histologico del cancer. Por otro
lado, los medicos utilizan la informacion anterior para evaluar la agresividad de la
enfermedad en el paciente. Sin embargo, en la determinacion del diagnostico, solo
se analiza un peque no conjunto de caractersticas morfologicas obtenidas de celulas
epiteliales. Daphne y demas, trabajan en el desarrollo de un sistema que emula el
trabajo de un patologo, que realiza la medicion y analisis de un conjunto formado
por 6642 caractersticas obtenidas de celulas epiteliales de la mama, con el n de
dar un diagnostico mas preciso de la presencia de este carcinoma en el paciente.
Universidad de Carolina del Norte. En la Universidad de Carolina del Norte se
estan desarrollando aplicaciones novedosas de sistemas expertos. Una de estas apli-
caciones tiene que ver con el dise no de un sistema experto para aconsejar los lmites
de velocidad en carreteras, mientras otro se enfoca al manejo de colorantes en la
industria textil. Una breve descripcion de cada trabajo se expone a continuacion.
Sistema Experto para recomendar lmites de velocidad en autopistas y
carreteras locales. Este trabajo fue resultado de la participacion de un equipo
multidisciplinario de expertos en areas relacionadas con la asignacion de leyes y se-
guridad en carreteras. En este proyecto participaron diferentes dependencias tanto
privadas como gubernamentales relacionadas con la investigacion para la seguridad
en autopistas, regulaciones en carreteras y transportes . Se pretende que este SE
sirva como herramienta de apoyo a las autoridades responsables de autorizar los
lmites de velocidad en las carreteras, con el n de mejorar la seguridad y eciencia
de operacion en estas vas. El sistema no considera algunos aspectos estatutarios
de control de la velocidad,tales como: la determinacion de los lmites de velocidad
en zonas escolares o de trabajo, o variaciones en la velocidad como consecuencia de
la variacion del ujo de traco o condiciones de la temperatura. Mas bien, este SE
se dise no para ser implementado como una aplicacion software basada en la Web.
Su conocimiento esta representado por un conjunto de reglas de decision en cuyo
desarrollo participaron 148 expertos entre los que destacan: ingenieros especializa-
dos en traco, ociales de transito, profesionales involucrados con la seguridad en
carreteras y personal especializado en el conocimiento de leyes para la asignacion de
lmites de velocidad. La informacion de este grupo de expertos se obtuvo a traves de
cuestionarios y participaciones. De esta reunion se obtuvieron las reglas de decision
clasicadas en varias categoras, las cuales formaran la base de conocimientos del
5.6. SISTEMAS EXPERTOS (SE) 471
sistema experto. Asimismo, la informacion obtenida de esta reunion sirvio para de-
tectar las variables crticas que inuyen para determinar la velocidad lmite en cierto
tramo de carretera. Algunas de las variables indicadas por los especialistas son las
siguientes: velocidad de operaci on, estadsticas de accidentes, seccion de cruces, ge-
ometra del terreno, friccion, actividad peatonal o de bicicletas y proximidad a una
zona escolar.Este proyecto fue terminado recientemente en el a no 2007 y estuvo lid-
erado por el Prof. Andrew C. Lemer [174].
Sistema Experto para Diagnosticar Fallas en la Coloracion de Textiles.
Este proyecto fue emprendido por el Colegio de Textiles, perteneciente a la Uni-
versidad de carolina del Norte. El objetivo del mismo, consiste en desarrollar un
sistema experto para el diagnostico de fallas en la industria de la coloracion. Esta
industria enfrenta el problema de la escasez en personal especializado en pruebas de
coloracion en textiles. La industria de la coloracion es un dominio muy complejo que
contiene muchas variables las cuales pueden afectar el resultado del proceso. Uno de
los principales desafos asociados con el proceso de la coloracion consiste en la repro-
ducibilidad de los resultados. En este sentido, un sistema experto puede apoyar en
la realizacion de esta tarea. Asimismo, pueden ser utilizados como una herramienta
educativa para reducir la brecha entre los coloristas expertos y los novatos, y tomar
decisiones similares a las tomadas por los expertos humanos.
Desarrollos de sistemas expertos gestionados por organismos guberna-
mentales y privados. Al igual que las instituciones academicas, algunos trabajos
de investigacion relacionados con sistemas expertos han sido gestionados y empren-
didos por iniciativa de sectores p ublicos y privados. A continuacion se van a propor-
cionar algunos ejemplos de estos trabajos.
COLOSSUS. Este nombre fue asignado a un sistema experto desarrollado por la
Corporacion de Ciencias Computacionales, a nes de la decada de 1990 en Australia.
Este sistema, el cual ha sido ampliamente utilizado por las compa nas aseguradoras
a nivel mundial, brinda soporte a los ajustadores de las aseguradoras en la valoracion
de reclamos por da nos.
Analizador de ADN. Los sistemas de justicia de muchos pases, confan en los
resultados obtenidos a traves del analisis de ADN realizado por los expertos forenses
como base para emprender alguna accion legal. Sin embargo, el procedimiento actual
para el analisis del ADN no es muy simple, ya que la muestra debe ser analizada
por dos expertos y compararla en una base de datos nacional, completar estos pasos
de forma rapida es todo un desafo. Por lo tanto, y con el n de agilizar el trabajo
de los analistas humanos, se propuso el dise no de un sistema experto cuyo objetivo
472 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
es incrementar la velocidad del proceso de revision. Los sistemas expertos capturan
todas las circunstancias posibles localizadas por los expertos humanos y determinan
las respuestas apropiadas. Los sistemas expertos, no solo proporcionan a los analistas
resultados mas exactos y consistentes, sino que, tambien los apoyan en la revision
y comparacion de perles en la base nacional de datos de una forma mas rapida [175].
Sistema experto en procedimientos de emergencia en aviaci on. En 1984
Michael Norman y Dale Mackall [176] desarrollaron e implementaron un sistema
experto con el n de apoyar a los pilotos de la NASA en los procedimientos de emer-
gencia. Durante el vuelo el tiempo disponible para tomar las decisiones apropiadas
puede ser limitado, y la sobrecarga de trabajo del piloto resulta extremadamente de-
mandante. Por lo que, una manera para reducir la sobrecarga de trabajo de un piloto
en casos de emergencia es involucrar el desarrollo de un piloto auxiliar aplican-
do tecnologas de sistemas expertos. En este sentido, se desarrollaron tres sistemas
expertos para asistir al piloto en situaciones de emergencias: i) Un sistema experto
para asistir en procedimientos de emergencia en caso de falla del sistema de energa
electrica, ii) Un segundo SE para asistir en caso de falla del sistema de control de
vuelo, y iii) Un tercer sistema experto, el cual va a operar como supervisor y cuyo
objetivo es el de seleccionar el conocimiento apropiado que van a utilizar los dos
sistemas anteriores. El conocimiento en este sistema se representa a traves de reglas.
La produccion y comercio en el sector agrcola ha evolucionado hasta llegar a con-
vertirse en una compleja red de negocios, requiriendo la acumulacion e integracion
de conocimiento e informacion de fuentes muy diversas. Actualmente y con el n de
mantenerse competitivos, los agricultores confan en la informacion proporcionada
por asesores especializados en asuntos del campo con el n de tomar sus decisiones.
Sin embargo, estos especialistas no siempre estan disponibles cuando se requieren.
Por lo tanto, y con el n de ofrecer una solucion a este problema, los sistemas ex-
pertos se consideraron una opcion con gran potencial. Estos sistemas integran el
conocimiento, experiencia e intuicion de expertos humanos en asuntos del campo
tales como: horticultores, ingenieros agronomos, meteorologos y entomologos, en un
marco que proporciona asesora especca a los agricultores. Bajo este marco se han
desarrollado algunos sistemas expertos.
Laboratorio Central de Sistemas Expertos para la Agricultura, Egipto.
En 1987, el Ministro de Agricultura de Egipto, reconocio que los sistemas expertos
eran la tecnologa apropiada para acelerar el desarrollo en el sector de la agricul-
tura. En 1989, se inicio formalmente el proyecto, con el apoyo de la Organizacion
para la Agricultura y los Alimentos de las Naciones Unidas, uniendoseles en 1991
el Centro de Investigacion en Agricultura. A traves del desarrollo, implementacion
5.6. SISTEMAS EXPERTOS (SE) 473
y evaluacion de sistemas para el soporte de decisiones basados en conocimiento, el
Laboratorio de Sistemas Expertos para la Agricultura ofrece apoyo a los granjeros
con el n de optimizar el uso de sus recursos y por consiguiente la produccion de
alimentos. Como resultado de estos trabajos, se han desarrollado una variedad de
sistemas expertos enfocados a ofrecer asesora relacionada con el cuidado de plan-
tas, diagnostico, tratamiento, irrigacion y fertilizaci on. Cada sistema desarrollado se
especializa a un determinado grupo de plantas. El nombre de cada sistema indica
el tipo de plantas para el cual esta especializado; tales como los siguientes: Cucum-
ber, Orange, Lemosn, Citrus, Rice, Wheat, Beans, Grape, Mango y Tomatoes, entre
otros. Los trabajos que se estan realizando en este laboratorio cuenta con la partic-
ipacion de 37 investigadores y 5 especialistas, dirigidos por el Dr. Fathy Ashmawy
Ahmed.
Algunos trabajos recientes relacionados con la incursion de los sistemas expertos en
areas tan dismiles como la fsica y la Web, se mencionan a continuacion.
Sistema basado en conocimiento para la clasicacion de partculas. Este
trabajo realizado este a no por Jallatileke [177], describe el desarrollo de un sistema
computacional basado en conocimiento, el cual tiene como objetivo, clasicar los
procesos de reaccion y decaimiento que se llevan a cabo durante las reacciones en-
tre las partculas fsicas. Tales reacciones se clasican en: fuerte, electromagnetica
y debil. El conocimiento relacionado con la fsica de las partculas indicado por las
leyes de conservacion hacen posible explicar la existencia de reacciones permitidas
y prohibidas.
Arquitectura hbrida para sistemas expertos basados en la Web. Una tecni-
ca reciente para representar el conocimiento experto consiste en usar el formato
XML. Los analizadores de XML son usados para convertir estos datos en un codigo
de lenguaje para sistemas expertos. Posteriormente, este codigo es ejecutado o in-
terpretado cuando el sistema responde a preguntas del usuario. La arquitectura de
un sistema experto basado en la Web puede ser caracterizada acorde al sitio donde
reside el conocimiento base de la aplicacion. Neil Dunstan [178] propone una arqui-
tectura hbrida, en la cual los servidores responden a solicitudes complejas usando
un esquema de procesamiento de codigo basado en servidores, y los clientes manejan
solicitudes sencillas usando los datos de la base de conocimientos XML. Es decir,
tanto el cliente como el servidor tienen acceso a la base de conocimientos y com-
parten el procesamiento de solicitudes manejadas por el usuario. Estos conceptos
son ilustrados a traves de una descripcion comprensible provista por un peque no
sistema de informacion de paso de mensajes integrado en la arquitectura. Para esto
se habilita un servidor XML que escribe la red, los servicios, las estaciones y las
474 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
conexiones. Este esquema de la base de conocimientos es importada por la pagi-
na Web generica del cliente y utilizada para proporcionar una interfaz de usuario
integrada consistiendo de entidades derivadas de la base de conocimientos. En el
servidor, el formato XML es convertido a codigo en Prolog para el manejo de solic-
itudes.
Aplicaciones. Algunas de las aplicaciones actuales de los sistemas expertos se en-
focan a resolver problemas en el ambito de las empresas, negocios, corporativos.
En estas areas, algunos problemas tienen que ver con la adquisicion y manejo del
conocimiento experto en diferentes areas y ponerlos a disposicion de las corpora-
ciones. Algunas de las aplicaciones en este ambito son las siguientes:
a) Diagnostico y reparacion de equipos y procesos. El desarrollo de
sistemas expertos para capturar, diagnosticar y proporcionar informacion
detallada para realizar reparaciones de equipo en lnea, de forma similar a
estar consultando un experto en lnea. El usuario puede accesar el sistema
interactivo desde cualquier navegador de la Web, hacer consultas y con-
seguir un asesoramiento detallado para diagnosticar la falla e indicar los
pasos para la reparacion. En la mayora de estos sistemas, el conocimien-
to se representa por reglas probabilsticas, y el proceso de razonamiento
para llegar a un diagnostico se basa en varios enfoques: i) encadenamiento
hacia adelante, ii) encadenamiento hacia atras, iii) razonamiento basado
en casos.
b) Soporte de expertos en lnea. En este caso se trabaja en la creacion de
sistemas para automatizar la tecnologa del conocimiento en operaciones
de manufactura (entrenamiento de operadores, vericar consistencias en
operaciones, solucion de problemas complejos). El objetivo es el desarrollo
de sistemas expertos para el asesoramiento en lnea, tomando en cuenta
que la Web es el tipo de comunicacion primaria que actualmente utilizan
la mayora de las empresas con sus clientes.
c) Conguracion se sistemas complejos. Tiene que ver con el dise no
de sistemas expertos que aconsejen a usuarios sobre la conguracion de
equipos (redes de computadoras) asimismo, para que realicen implementa-
ciones de grandes vol umenes de informacion. Durante el desarrollo de esta
aplicacion, se tiene que manejar el aspecto de obtener conocimiento de
diferentes fuentes.
d) Obtencion de conocimiento corporativo. Muchas veces las corpo-
5.6. SISTEMAS EXPERTOS (SE) 475
raciones se ven afectadas por la ausencia (retiro no previsto por causa
de enfermedades, jubilacion) de empleados con decadas de experiencia.
Esta aplicacion de sistemas expertos, tiene como n desarrollar sistemas
computacionales que permitan aprovechar el potencial de conocimiento
disponible en grandes corporaciones, de tal forma que cuando un emplea-
do con gran potencial (mucho conocimiento) no este presente, la empresa
pueda continuar funcionando como si este experto humano estuviera pre-
sente.
e) Asesoramiento de alto nivel en negocios. Las grandes corporaciones
consideran que el asesoramiento en lnea es un paso necesario para mejorar
la relacion con los clientes. Asimismo, consideran pertinente la automati-
zacion de su experiencia, con el n de generar servicios de alto nivel en un
mercado cada vez mas creciente. Estos sistemas, deben tener una comuni-
cacion con el cliente de tal forma que este pueda tanto resolver sus dudas
como sus reclamos de forma clara y rapida. Estos sistemas deben estar
integrados en la infraestructura de la empresa, de tal forma que puedan
conocer y manejar toda la informacion relacionada con sus clientes. Si un
problema expuesto por un cliente a un no se ha manejado con anterioridad,
se examina y se resuelve por expertos del mas alto nivel capa dentro del
sistema experto. Una vez, que el problema es comprendido, se represen-
ta como conocimiento agregando nuevas reglas a la base de conocimientos.
f ) Conocimiento avanzado para los negocios. La tecnologa de reglas
para los negocios mejoran signicativamente la habilidad para implemen-
tar rapidamente reglas de regulacion. Este sistema proporciona un ambi-
ente para mantener, almacenar registros, solucion de problemas y apoyar
de manera efectiva el diagnostico de problemas.
De acuerdo con Edward Feigenbaum, los sistemas expertos actuales se especializan
en el manejo de dominios restringidos. Sin embargo, para que estos sistemas realicen
de manera competitiva un amplio rango de tareas, se les debe de proporcionar un
conocimiento mas amplio. Por lo tanto, se pretende que la siguiente generacion de
sistemas expertos deben tener acceso a grandes bases de conocimiento.
5.6.4. Ejercicios
a) Realice una comparativa entre las partes del cuerpo humano y las de un
sistema robotico que intenta imitarlas.
b) Explique a traves de un ejemplo el proceso de programacion de un robot
476 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
que va a ser utilizado para las siguientes actividades: a) ensamble de piezas
en una fabrica.
b) Servir de mascota en un hogar.
c) Probar un modelo de navegacion en un laboratorio.
d) Equipo de f utbol.
c) Busque a las instituciones mexicanas que estan desarrollando trabajos
de investigacion relacionados con robotica, asi mismo identique a los
investigadores que lideran estos grupos de investigacion.
d) Clasique el uso de robots en Mexico.
e) Comparar la arquitectura von Newman contra la arquitectura de las redes
neuronales articiales y obtenga sus propias conclusiones.
f ) Porque motivo la comunidad cientca permanecio por varias decadas
desinteresada en el paradigma de las RNAs?
g) Explique la operacion de las redes Adaline y Madaline.
h) Busque en la red alg un software libre aplicado al uso de redes neuronales
y utilcelo en el dise no de una red tipo Perceptron. Analice los resultados
obtenidos.
i) Utilice MatLab para realizar las siguientes operaciones sobre una imagen
digital monocromatica: (a) binarizar la imagen, pruebe con diferentes val-
ores de umbral, (b) trate de mejorar el contraste utilizando ecualizacion
del histograma, (c) pruebe el uso de diferentes ltros y observe su efecto
en la imagen.
j) Agregar ruido gaussiano a una imagen monocromatica y aplique ltros
observando su efecto en la misma. Comente los resultados.
k) Aplique los operadores de prewitt, Sobel y laplaciano a una imagen monocromatica,
Que diferencia observa en la imagen de salida al aplicar cada uno de estos
operadores?Que ventajas ofrecen estos enfoques?
l ) Busca mas informacion con respecto a las texturas y su uso en el proce-
samiento de imagenes.
m) Analizar el aspecto de transformar un objeto del mundo real a una imagen,
asimismo describa las alternativas para recuperar la tercera dimension de
un objeto al ser convertido en una imagen.
n) Describa los descriptores com unmente usados para representar las sigu-
ientes caractersticas: color y textura.
n) Busque alg un artculo de publicacion actual relacionado con el proceso de
extraer y seleccionar caractersticas para reconocer objetos en una imagen,
menciona que nuevas tecnicas se estan desarrollando para este n dentro
de la comunidad de vision computacional.
5.6. SISTEMAS EXPERTOS (SE) 477
o) Leer el artculo original de logica difusa escrito por Lot A. Zadeh en 1965,
y hacer un exposicion de su contenido.
p) Realice una trabajo relacionado con los diferentes tipos de incertidumbre.
q) Busque los orgenes de la logica difusa propuesta por Zadeh.
r) Utilice MatLab para dise nar un sistema de control basado en Logica Di-
fusa.
s) Leer el artculo Natural languaje processing: a historical review escrito
por Karen Sparck Jones, y presente un resumen escrito, indicando los as-
pectos relevantes en las etapas, por las cuales esta disciplina ha transitado
desde sus inicios.
t) Realice un trabajo y exposicion relacionado con las principales gramaticas
utilizadas en el procesamiento del lenguaje natural.
u) Dena ontologa y determine su uso dentro de un sistema PLN.
v) Busque recursos y tecnologas disponibles para desarrollar aplicaciones
para el PLN.
w) Explique las formas de adquirir el conocimiento en un sistema experto.
x) Realice un trabajo donde explique las ventajas y desventajas en el uso de
los sistemas expertos.
y) Haga una exposicion donde explique con mayor detalle las funciones de
cada componente humana en un sistema experto.
z) Utilice una herramienta disponible en Internet para desarrollar un sistema
experto del tipo probabilstico. Explique en clase este trabajo.
) Busque en la Internet un trabajo relacionado con alguna aplicacion de un
sistema experto basado en logica difusa y otro basado en redes neuronales.
Comprendalo y explquelo en clase.
) Bajar de la Internet el artculo A prole of information systems research
published in expert systems with applications from 1995 to 2008 realizado
por Wen-Lung Shiau, y realice un resumen de su contenido.
478 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Bibliografa
[1] Nils J.Nilsson. Problem-Solving Methods in Articial Intelligence
, McGraw-Hill, eds. 1971.
[2] Nils J. Nilsson. Principios de Inteligencia Articial, Daz de Santos,
1987.
[3] Rich and Knight. Inteligencia Articial , McGraw-Hill, eds., 1994.
[4] Nils J. Nilsson. Inteligencia Articial: Una Nueva Sntesis, Edit.
McGraw-Hill, 2001.
[5] Nils J. Nilsson. The Quest for Articial Intelligence: A History
of Ideas and Achievements, Web Version Print version published by
Cambridge University Press, http://www.cambridge.org/us/0521122937,
Stanford University, consultada en febrero del 2012.
[6] C.S. Krishnamoorthy and S. Rajeev. Articial Intelligence and Ex-
pert Systems for Engineers, CRC Press, CRC Press LLC, 1996.
[7] Judea Pearl. Heuristics: Intelligent Search Strategies for Comput-
er Problem Solving, Addison Wesley, 1984.
[8] RC. Chakraborty. Problem Solving, Search & Control Strategias:
AI course, www.myreaders.info/articialintelligence.html, 2012.
[9] R. Detcher. Constraint Proceessing, Morgan Kaufmann, 2003.
[10] J. Bitner and E. Reingold. Backtracking programming techniques,
Communications of the ACM, Vol. 18, No. 11, pp. 651-656, 1975.
[11] I. Miguel and Q. Shan. Solution techniques for constraint satis-
faction problems, Advanced approaches, Articial Intelligence Review,
Vol.15, pp.243-267, 2001.
[12] J. Gashnig. Performance measurement and analysis of search al-
gorithms, Technical Report, CMU-CS-79-124, Carnegie Mellon Univer-
sity, 1979.
[13] Felip manya y Carla Gomes. Tecnicas de resolucion de problemas
de satisfaccion de restricciones , Proyecto TIC2001-1577-C03-03, pp.
1-12, 2001.
479
480 BIBLIOGRAF

IA
[14] Zermelo. Uber eine Anwendung der Mengelehere auf der theorie
des Schachpiels, Proceedings of the Fifth International Congress on
Mathematics, 1913.
[15] Borel. Applications aux Jeux de Hasard, Traite du Calcul des
Probabilities et ses Applications, GauthierVillar, Pars, 1938.
[16] O. Morgenstern and J. Von Neumann. Theory of Games and Eco-
nomic Behavior, The Review of Economics Statistics, 1944.
[17] Elvio Accinelli y Daniel Vaz. Introduccion a la Teora de Jue-
gos, Nota Docente No. 3, Universidad de la Rep ublica de Uruguay,
Facultad de Ciencias Sociales, Departamento de Economa, pp. 1-48,
http://www.fcs.edu.uy/pagina.php, marzo del 2012.
[18] A. Cournot. Researches into the Mathematical Principles of the
Theory of Wealth, McMillan: New York, 1897.
[19] J. Bertrand. Theorie Mathematique de la Richesse Sociale, Journal
of Savants, pp. 499-508, 1883.
[20] T. L. Turocy and B. von Stengel. Game Theory, CDAM Research Re-
port LSE-CDAM-2001-09, October 8, 2001.
[21] S. Monsalve. John Nash y la teora de juegos, Lecturas Matematicas,
Vol. 24, pp. 137-149, Universidad Nacional de Colombia, Bogota, 2003.
[22] J. Nash.Equilibrium points in n person games, Procedings from the
National Academy of Sciences, USA Vol. 36, pp.48-49, 1950.
[23] J. Nash. Non cooperative Games, Ph. D. Dissertation Princeton Uni-
versity, 1950.
[24] J. Nash. The Bargaining Problem, Econometrics, Vol. 18, pp. 155-162,
1950.
[25] D. B. Gillies. Some theorems on n-person games, Ph. D. Dissertation,
Department of Mathematics, Princeton University, 1953.
[26] L. S. Shapley. A value for n-person games, Contributions to the The-
ory of Games, vol 2, H. W. Kuhn y A. W. Tucker, eds, 1953.
[27] R. J. Aumann. Values of markets with a continuum of traders,
Econometrica, Vol. 43, pp. 611-646, 1975.
[28] A. Rubinstein. Perfect equilibrium in a bargaining model, Econo-
metrica, Vol. 50, pp. 97-109, 1982.
[29] S. Hart and S. Monsalve. The Asymptotic approach of the
Maschler-Owen values, Journal of Game Theory, 2001.
[30] Ronald C. Brachman and Hector J. Levesque. Knowledge Represen-
tation and Reasoning, Department of Computer Science, University of
Toronto, Canada, 2003.
BIBLIOGRAF

IA 481
[31] S. Sajja Priti and Rajendra Akerkar. Knowledge-Based Systems for
Development, Advanced Knowledge Based Systems: Model, Application
and Research, Vol. 1, pp. 1-11, 2010.
[32] S. Tuthhill S. and S. Levy. Knowledgebased systems: A managers
perspective, TAB Professional & Reference Books, 1991.
[33] R. Davis, H. Shrobe and P. Szolovitz. What is a Knowledge Repre-
sentation?, AI Magazine, 14(1), pp. 17:33, 1993.
[34] P. Hayes. Naive physics I: Ontology for liquids, University of Essex
report, UK, 1978.
[35] Davis S. And Schrobe H. E . Representanting Structure and Behav-
ior of Digital Hardware, IEEE Computer, Special Issue on Knowledge
Representation, 16(10), pp. 75-82.
[36] Yen J. Neches and R. MacGregor . Classicationbased Program-
ming: A deep integration of frames and rules, Report ISI/RR 88
213, USC, Information Sciences Institute, Marina del Rey, CA, 1989.
[37] E. R. Tufte.Visual explanations: Images and quantities, evidence
and narrative, Cheshire, CN: Graphics Press, 1997.
[38] H, Takeuchi and I. Nonaka. Hitotsubashi on knowledge manage-
ment, Singapore, Asia: John Wiley & Sons, 2004.
[39] M. Meier and R. Burkhard. Tube map: Evaluation of a visu-
al metaphor for interfunctional communication of complex
projects, Paper presented at the I-KNOW04, Austria, 2004.
[40] D. P. Ausubel, J. D. Novak and H. Hanesian. Educational psychology:
A cognitive view , 2nd Ed. New York: Holt, Rinehart and Winston,
1978.
[41] J. D. Novak . A theory of education, Ithaca, NY: Cornell University
Press, 1977.
[42] J. D. Novak. Learning, creating, and using knowledge: Concept
maps as facilitative tools in schools and corporations, Mahwah,
NJ: Lawrence Erlbaum Associates, 1998.
[43] J. D. Novak and D. B. Gowin . Learning how to learn, New York, NY:
Cambridge University Press, 1984.
[44] J. D. Novak. Concept map about concept maps, Retrieved April 12,
2004, from http://pavo.coginst.uwf.edu/servlet.
[45] R. R. Homan, J. W. Coey, J. D. Novak, and A. J. Ca nas. Application
of concept maps to web design and web work, In R. W. Proctor &
K. P. L. Vu (Eds.), Handbook of human factors in web design . Mawah,
NJ: Lawrence Erlbaum Associates, pp. 156-175, 2005.
482 BIBLIOGRAF

IA
[46] A. J. Ca nas, G. Hill, and J. Lott . Support for constructing knowl-
edge models in CmapTools, Technical Report No. IHMC Cmap-
Tools 2003-02. Pensacola, FL: Institute for Human and Machine Cogni-
tion, 2003.
[47] K. M. Ford, J. W. Coey, A. J. Ca nas, E. J. Andrews and C. W. Turner.
Diagnosis and explanation by a nuclear cardiology expert sys-
tem, International Journal of Expert Systems,Vol. 9, pp. 499-506, 1996.
[48] J. W. Coey, A. J. Ca nas, T. Reicherzer, G. Hill, N. Suri, R. Car, T.
Mitrovich and D. Eberle. Knowledge modeling and the creation of
eltech: A performance support system for electronic techni-
cians, Expert Systems with Applications, 25(4), pp. 483-492, 2003.
[49] A. J. Ca nas, K. M. Ford and J. W. Coey . Concept maps as a hy-
permedia navigational tool, Paper presented at the Seventh Florida
Articial Intelligence Research Symposium (FLAIRS), Pensacola, FL.,
1994.
[50] John F. Sowa. Knowledge Representation: Logical, Philosophical,
and Computational Foundations, Brooks/Cole Publishing Co., Pa-
cic Grove, CA, 2000.
[51] Robert L. Grith. Three Principles of Representation for Seman-
tic Networks, ACM Transactions on Database Systems, Vol. 7, No. 3,
September 1982.
[52] M. Marcos. Logica de Predicados, Notas basadas en S.Russell &
P.Norvig, 1998.
[53] Enric Sesa i Nogueras. Logica de predicados, www.uoc.edu, 2012.
[54] Nilsson . Principios de Inteligencia Articial, Daz de Santos, eds.,
1987.
[55] Rich and Nnight . Inteligencia Articial, McGrawHill, eds., 1990.
[56] Rolston . Principios de Inteligencia Articial y Sistemas Expertos,
McGrawHill, eds., 1990.
[57] Ronald J. Brachman and Hector J. Levesque . Knowledge Represen-
tation and Reasoning, Morgan Kaufmann,2003 .
[58] T.M. Cover and P.E. Hart. Nearest neighbor pattern classications,
IEEE transaction on information theory, 13(1), pp. 21-27, 1967.
[59] S. Mika, G. Ratsch, J. Weston, B. Scholkopf, A.J. Smola, and K. R. Muller
. Constructing descriptive and discriminative nonlinear features:
Rayleigh coecients in kernel feature spaces, IEEE Transactions
on Patterns Analysis and Machine Intelligence, 25(5), pp. 623-627, May
2003.
BIBLIOGRAF

IA 483
[60] J.R. Quinlan. C4.5: Programs for Machine Learning, Morgan Kauf-
mann, 1992.
[61] V.N. Vapnik. Statistical Learning Theory, John Wiley & Sons, Inc,
1998.
[62] Roberto Cignoli . Verdad y consecuencia en el segmento real: una
formalizacion de la logica borrosa, Anales de la Academia Nacional
de Ciencias Exactas, Fsicas y Naturales, Vol. 52, pp. 9-23, 2000.
[63] Arnold Oostra . Sobre Logicas Multivaluadas, Departamento de
Matematicas y Estadstica Universidad del Tolima, pp. 1-21, Colombia,
2010
[64] Andrew Schumann and Florentin Smarandache . Neutrality and
ManyValued Logics, American Research Press, Digital Li-
brary of Science: http://www.gallup.unm.edu/smarandache/eBooks-
otherformats.htm, 2007.
[65] Francisco Gonzalez Gutierrez. Apuntes de Logica Matematica: Ra-
zonamientos y Demostraciones, Apuntes, Escuela Superior de Inge-
niera, Departamento de Matematicas, Universidad de cadiz, 2005.
[66] Shapiro S. C. Articial Intelligence, Encyclopedia of Articial Intelli-
gence, Second Edition. New York:John Wiley & Sons, 1991.
[67] Alan Turing . Computing Machinery and Intelligence, Magazine
Mind, 1950.
[68] W.S. McCulloch and W. Pitts . A Logical Calculus of Ideas Imma-
nent in Nervous Activity, Bull. Mathematical Bio-physics, Vol. 5, pp.
115-133, 1943.
[69] J. Holland. Adaptation in Natural and Articial Systems, Univer-
sity of Michigan Press, Ann Arbor, 1975.
[70] Bruce G. Buchanan. A chronology of signicant events in the His-
tory of AI, Compiled by , University Professor Emeritus, University of
Pittsburgh, 2012.
[71] E. Alonso. AI and agents: State of the art, Northampton Square,
London EC1V 0HB, UK, 2001.
[72] Carlos Ramos. Ambient Intelligence - a State of the Art from
Articial Intelligence perspective, GECAD - Knowledge Engineering
and Decision Support Group Institute of Engineering - Polytechnic of
Porto, Portugal, 2007.
[73] ISTAG . Scenarios for Ambient Intelligence in 2010, European
Commission Report, 2010.
[74] ISTAG . Strategic Orientations & Priorities for IST in FP6, Eu-
ropean Commission Report,2002.
484 BIBLIOGRAF

IA
[75] ISTAG . Ambient Intelligence: from vision to reality, European
Commission Report, 2003.
[76] M. Weiser. The Computer for the Twenty-First Century, Scientic
American, September, pp. 94-104, 1991.
[77] T. Dillon. Pervasive and Ubiquitous Computing, Futurelab. Avail-
able at http://www.futurelab.org.uk/viewpoint/art71.htm, 2006.
[78] Z. Vale, A. Moura, M. Fernandes, A. Marques, A. Rosado and C. Ramos
. SPARSE: An Intelligent Alarm Processor and Operator As-
sistant, IEEE Expert Special Track on AI Applications in the Electric
Power Industry, 1997, 12(3), pp. 86- 93, 1997.
[79] E. Shortlie. Computer-Based Medical Consultations: MYCIN,
Elsevier North Holland, 1976.
[80] J. Rothi and D. Yen . Why American Express Gambled on an
Expert Data Base, Information Strategy: The Executive Journal, 6(3),
pp. 16-22, 1990.
[81] P.E. Ross. Flash of Genius, Forbes, pp. 98-104, Nov. 1998.
[82] S. Watanabe. Pattern Recognition, Human and Mechanical, New
York: Wiley, 1985.
[83] Ani1 K. Jain, Fellow, Robert P.W. Duin and Jianchang Mao . Statisti-
cal Pattern Recognition: A Review, IEEE Transactions On Pattern
Analysis And Machine Intelligence, Vol. 22, NO. 1, January 2000.
[84] L. Debroye, I. Gyor and G. Lugosi. A Probbabilistic Theory of Pat-
tern Recognition, Berln: Springer-Verlag, 1996.
[85] R. O. Duda and P. E. Llart. Pattern Classication and Scene Anal-
ysis, New York: John Wiley Sons, 1973.
[86] K. S. Fu . Syntactic Pattern Recognition and Applications, Engle-
wood Clis, N.J.: Prentice Hall, 1982.
[87] T. Pavlidis. Structural Pattern Recognition, New York: Springer-
Verlag, 1977.
[88] B. Ripley. Statistical Aspects of Neural Networks, eds. Chapman
and Hall, 1993.
[89] J. Anderson, A. Pellionisz and E. Rosenfeld . Neurocomputing 2: Di-
rections for Research, Cambridge Mass.:MIT Press, 1990.
[90] L. A. Zadeh. Fuzzy sets, Information and Control, vol. 8, pp. 338- 353,
1965.
[91] Jan Lukasiewicz and C. Lejewski. Encyclopedia of Philosophy, Vol.
5, MacMillan, NY, pp. 104-107, 1967.
BIBLIOGRAF

IA 485
[92] L. A. Zadeh. From computing with numbers to computing with
words - from manipulation of measurements to manipulation of
perceptions, J. Appl. Math. Comput. Sci., vol. 12(3), pp. 307-324, 2002.
[93] J. S. Evans. In two minds: dual process accounts of reasoning,
Trends in Cognitive Sciences, vol. 7, pp. 454-459, 2003.
[94] Stuart Russell and Peter Norvig. Articial Intelligence: A Modern
Approach, Prentice-Hall, Inc., 1995.
[95] B. J. Baars. A Cognitive Theory of Consciousness, Cambridge.:
Cambridge University Press, 1988.
[96] B. J. Baars . In the Theater of Consciousness: The Workspace of
the Mind, NY: Oxford University Press, 1997.
[97] B. J. Baars and Stan Franklin. Consciousness is Computational: The
LIDA model of global workspace theory, International Journal of
Machine Consciousness, Vol 1, Issue 1, pp. 23-32, 2009.
[98] Ramamurthy U., B. J. Baars and S. Franklin. LIDA: A Working Model
of Cognition, Proceedings of the 7th International Conference on Cog-
nitive Modelling, p 244-249, 2006.
[99] Bond A. H. and Gasser L. Readings in Distributed Articial Intel-
ligence, (Eds.) Morgan Kaufmann, 1988.
[100] Franklin S . Global Workspace Agents, Journal of Consciousness
Studies, Vol. 4, pp. 322-334, 1997.
[101] A. S. Rao and M. P. George. BDI-agents: from theory to practice,
In Proceedings of the First Intl. Conference on Multiagent Systems, San
Francisco, 1995.
[102] R. Rizo, F. Llorens and M. Pujol. Arquitecturas y Comunicacion
entre Agentes, Depto. de Ciencia de la Computacion e Inteligencia Arti-
cial, Universidad de Alicante, Agentes inteligentes, sistemas multiagentes
y aplicaciones, pp. 181-214, 2012.
[103] Robert Kowalski and Fariba Sadri. Towards a Unied Agent Archi-
tecture that Combines Rationality with Reactivity, Proceedings
of International Workshop on Logic in Databases, San Miniato, Italy,
Springer-Verlag, 1996.
[104] P. Maes. Agents that reduce work and information overload,
Communications of the ACM, 37(7), pp. 31 -40, 1994.
[105] Wooldridge M.and Jennings N. R. Intelligent agents: theory and
practice, The Knowledge Engineering Review, 10(2), pp. 115-152, 1995.
[106] M. Wooldridge. Agent based software engineering, IEEE Proceed-
ings on Software Engineering, 144(1), pp. 26- 37, 1997.
486 BIBLIOGRAF

IA
[107] Marc H. Romanycia and Francijse F. Pelletier. What is a heuristic?,
Departments of Philosophy, Computing Science, Universiyy of Alberta,
Edmonton, Alta, Canada, 1985.
[108] A. Feigenbaum and J. Feldman. Computers and thought, (Editors),
McGraw-Hill Inc., New York, 1963.
[109] G. Polya. How to solve it, Page references to 1957, rev. 2nd ed. Dou-
bleday Anchor, New York, 1945.
[110] Barr and Feigenbaum . The handbook of articial intelligence, (Ed-
itors), Vol. 1. William Kaufmann, Inc., Los Altos, CA, 1981.
[111] A. Newell, J. Shaw and Simon H. Empirical explorations with the
logic theory machine, In Proceedings of the Western Joint Computer
Conference, Vol. 15, pp. 218-239. (Reprinted in Feigenbaum and Feldman
(1963), pp. 109-133).
[112] M. Minsky. Steps toward articial intelligence, Proceedings of the
Institute of Radio Engineers, Vol. 9, pp. 8-30, 1961. (Reprinted in Feigen-
baum and Feldman (1963), pp. 406-450.).
[113] J. R. Slagle. A heuristic program that solves symbolic integration
problems in freshman calculus, In Computers and thought. Edited
by E. A. Feigenbaumand J. Feldman. McGraw-Hill Inc., New York, pp.
191-203, 1963.
[114] D. Lenat. The nature of heuristics, Articial Intelligence, Vol. 19, pp.
189-249, 1982.
[115] M. Boden. Articial intelligence and natural man, Basic Books,
Inc., New York, 1977.
[116] Judea Pearl. Heuristics: intelligent search strategies for computer
problem solving, Addison-Wesley Publ. Co., London, 1984.
[117] J. Sampson . Adaptive information processing, Springer-Verlag Inc.,
New York, 1976.
[118] N. J. Nilsson . Problem-solving methods in articial intelligence,
McGraw-Hill, Inc., New York, 1971.
[119] J. Albus . Brains, behavior, and robotics, Byte Publications Inc.,
Peterborough, NH, 1981.
[120] H. Gelernter. Realization of a geometry-theorem proving ma-
chine , In Proceedings of an International Conference on Information
Processing, Unesco House, Paris, pp. 273-282, 1959.
[121] F. Tonge. Summary of a heuristic line balancing procedure, Man-
agement Science, Vol. 7, pp. 21-42, 1960.
BIBLIOGRAF

IA 487
[122] Arnold Oostra . Algebras de Heyting, XIV Coloquio Distrital de
Matematicas y Estadstica. Universidad Pedagogica Nacional, Bogota,
1997.
[123] Xavier Caicedo. Logica de los haces de estructuras, Revista de la
Academia Colombiana de Ciencias Exactas, Fsicas y Naturales XIX, pp.
569585, 1995.
[124] Robert Goldblatt. Topoi: The Categorial Analysis of Logic, North-
Holland, Amsterdam, 1979.
[125] Saunders Mac Lane and Ieke Moerdijk . Sheaves in Geometry and
Logic, Springer-Verlag, New York, 1992.
[126] Roberto Cignoli, Itala M. L. DOttaviano and Daniele Mundici. Alge-
bras das Logicas de Lukasiewicz, Centro de Logica, Epistemologia e
Historia da Ciencia, UNICAMP, Campinas, 1994.
[127] Cesari Matilde. Sistemas Basados en Reglas, Academia de Ingeniera,
Madrid, (1997).
[128] Castillo E., Gutierrez J.M. and Hadi A.S. Sistemas Expertos y Mod-
elos de Redes Probabilsticas., Academia de Ingeniera, Madrid, 1997.
[129] Randall Davis, Bruce Buchanan and Edward Shortlie. Production
Rules as a Representation for a Knowledge-Based Consultation
Program, Articial Intelligence, pp. 15-45, 1977.
[130] Eric N. Hanson and Jennifer Widom. An Overview of Production
Rules in Database Systems, Knowledge Engineering Review, Vol. 8,
no. 2, pp. 121-143, 1993.
[131] Luis E. Sucar . Introduccion a la robotica, INAOE, 2012.
[132] Bernardo E. Garces, Oscar G. Mora and Oscar A. Vivas . Estudio del
uso de robots industriales como asistentes en operaciones de
laparoscopia, Universidad del Cauca, Popayan, Colombia, redalyc, pp.
91-102, 2009.
[133] P. Mouret. How I developed laparoscopic cholecystectomy, An-
nals of the Academy of Medicine Singapore. Vol. 25, pp. 744-747, 1996.
[134] Antonio Barrientos . Robots en medicina, Universidad Politecnica de
Madrid, Apuntes, 2008.
[135] Lisandro Puglisi and Hector Moreno . Protesis Roboticas, Revista del
Departamento de Automatica e Informatica, Universidad Politecnica de
Madrid, pp. 1-10, 2006.
[136] Kevin Olsen. A Short History of Laboratory Robotics, Chemistry
and Biochemistry Suport Sta, University of Monclair State, NJ, archivo
web consultado en Agosto del 2012.
488 BIBLIOGRAF

IA
[137] Anil K. Jain, J. Mao and K. M. Mohiuddin. Articial Neural Net-
works: A Tutorial, IEEE Computer, pp. 31-44, 1996.
[138] Ben Krose and Patrick van der Smagt. An Introduction to Neural
Networks, Eighth Edition, University of Amsterdan, 1996.
[139] T. Kohonen. The self-organizing map, Proceedings of the IEEE, vol.
78, pp. 1464-1480, 1990.
[140] R. Rojas. Neural Networks, Springer-Verlag, Berlin, 1996.
[141] W. Jiang and S. Kong. A LeastSquares Learning for
Blockbased neural Networks, Advances in Neural Networks, Vol.
14, pp. 242-247, 2007.
[142] Ruslan Salakhutdinov, Joshua B. Tenenbaum and Antonio Torralba.
Learning to Learn Compound HD Models, pp. 1-9, 2012.
[143] Yann LeCun, Koray Kavukcuoglu and Clement Farabet. Convolutional
Networks and Applications, Institute of Mathematical Sciences, New
York, 2009.
[144] D. Marr. Vision, San Francisco: Freeman, 1982.
[145] T. Brox, D. Firin and H. N. Peter. Multistage region merging for
image segmentation, 22nd Symposium on Information theory in to
Benelux, pp. 189-196, Enschede, 2001.
[146] A. B. M. Farquzzaman, N. R. Paiker, J. Arafat, M. A. Ali and G. Sorwar.
Robust Image Segmentation Based on Split and Merge, EEE
TENCON 2008, India, 2008.
[147] Gonzalez, R. C. , and Woods. Digital Image Processing, Addison
Wesley, 2002.
[148] Fernando de la Torre and Minh Hoai Nguyen. Metric Learning for
Image Alignment, Robotics Institute CMU, 2012.
[149] James Hays and Alexei Efros. Scene completion using millions of
photographs, Computer Graphics Proceedings, Anual Conference Se-
ries, 2007.
[150] Didier Dubois, W. Ostasiewicz and Henri Prade. Fuzzy Sets: History
and Basic Notions, Fundamentals of Fuzzy Sets, 1988.
[151] J. C. Bezdek. Editorial: Fuzzy Models What Are They, and Why?
, IEEE Transactions on Fuzzy Systems, Vol. 1, No. 1, February 1993.
[152] Jens Jakel, Ralf Mikut and Georg Bretthauer. Control Systems,
Robotics and Automation, Fuzzy Control Systems- Vol. XVII, 2000.
[153] Charles Elkan. The Paradoxical Success of Fuzzy Logic, University
of Californa, San Diego, TR. pp. 1-47, 1994.
[154] Liddy E. D. In Encyclopedia of Library and Information Science,
2nd Ed. Marcel Decker, Inc., 2001.
BIBLIOGRAF

IA 489
[155] Nahla Jlaiel, Khouloud Madhbouh and Mohamed Ben Ahmed . A Se-
mantic Approach for Automatic Structuring and Analysis of
Software Process Patterns, International Journal of Computer Ap-
plications (0975 - 8887) Vol. 54, No.15, September 2012.
[156] Quinlan, J.R. Decision trees and multi-valued attributes, In J.E.
Hayes & D. Michie (Eds.), Machine intelligence II, Oxford University
Press (in press), 1985.
[157] T. M. Cover and P. E. Hart. Nearest Neighbor Pattern Classica-
tion, IEEE Trans. Inform. Theory, Vol. 13, pp. 21-27, Jan 1967.
[158] T. Winograd. Language as a Cognitive Process: Syntax, Reading,
Addison-Wesley, 1983.
[159] A. Moreno Sandoval. Ling ustica Computacional: Introduccion a
los modelos simbolicos, estadsticos y biologicos, Madrid, Editorial
Sintesis, 1998.
[160] J. Lyons. Introduction to Theorical Linguistics, Cambridge, Cam-
bridge University Press, 1968.
[161] E. Charniak. Statistical Language Learning, Cambridge, The M.I.T.
Press, 1993.
[162] Lawrence R. Rabiner. A Tutorial on Hidden Markov Models and
Selected Applications in Speech Recogition, Proceedings of the
IEEE, Vol. 77, No. 2, pp. 257-286, 1989.
[163] Fernando E. De Salamanca. Tecnicas de Bootstrapping en el
Procesamiento del Lenguaje Natural, memoria de investigacion doc-
toral, Universidad de Sevilla, marzo de 2007.
[164] G. Miller. Wordnet: A lexical database, Communication of the ACM,
Vol. 38, No. 11, pp. 39-41, 1995.
[165] S. M. Weiss and C. A. Kulikowski. A Practical Guide to Designing
Expert Systems, Rowman and Allanheld, Totowa, N.J., 1984.
[166] E. Kock. Expert systemas and knowledge adquisition, University
of pretoria, 2003.
[167] Miller RA, Pople HE and Myers JD . INTERNIST-1, an experi-
mental computer-based diagnostic consultant for general inter-
nal medicine, New England Journal of Medicine, Vol. 8, pp. 468-476,
1982.
[168] Cooper G.F. Current research directions in the development of
expert systems based On belief networks, Applied Stochastic Mod-
els and Data Analysis, Vol. 5, pp. 39-52, 1989.
[169] S. Lauritzen and D. Spiegelhalter. Local computations with proba-
bilities on graphical structures and their application to expert
490 BIBLIOGRAF

IA
systems, Journal of the Royal Statistical Society, Series B (Methodolog-
ical) pp. 157-224, 1988.
[170] F. Jensen. An Introduction to Bayesian networks, UCL, Press,
1996.
[171] E. Castillo, J.M. Gutierrez and A.S. Hadi. Expert Systems and Prob-
abilistic Network Models, Springer, 1977.
[172] Judea Pearl. Probabilistic Reasoning in Intelligent systems: Net-
works of Plausible Inference, Morgan Kaufmann Publishers, Inc.,
1988.
[173] T. Saravanan. Building Bayesian Network Based Expert Systems
from Rules, The University of Texas at Arlington, 2010.
[174] Andrew C. Lemer . An Expert System for Recommending Speed
Limits in Speed Zones, National Cooperative Highway Research Pro-
gram, 2007.
[175] Rhonda K. Roby. Expert Systems Helps Labs Process DNA Sam-
ples, NIJ Journal, Issue No. 260, 2009.
[176] Michael Norman and Dale A. Mackall. Development Experience
With a Simple Expert System Demonstrator for Pilot Emergen-
cy Procedures, NASA technical Report 85919, Ames Research Center,
Edwards, Ca., 1984.
[177] K. P. S. Jallatileke. A Knowledge-based system for Classifying
Particle Reaction and Decay Processes, International Journal of
Articial Intelligence and Expert Systems, Vol. 3, Issue 4, 2012.
[178] Neil Dunstan. A Hybrid Architecture for Web-based Expert Sys-
tems, International Journal of Articial Intelligence and Expert Systems,
Vol. 3, Issue 4, 2012.

Indice alfabetico
extend 3
extension problem 3
extension of a map 3
homotopic 5
homotopy 5
homotopy relative 5
inessential 5
lifting problem 3
nullhomotopic 5
triangular diagrams 4
rel 5
relative homotopy 5
491

You might also like