You are on page 1of 20
INTELIGENCIA ARTIFICIAL Y DERECHO: A Pompeu Casanovas Instituto de Derecho y Tecnologia Universitat Autonoma de Barcelona ‘Sumario: |, Intligencia artificial: De palomas ydngles 2. Intligencia artificial y derecho: replica lo insensato. 3 Web semntica y ontologis jurdicas el arte de pedi lo imposible 1, INTELIGENCIA ARTIFICIAL: DE PALOMAS Y ANGELES Cada ver que se me ocurre pensar lo inteli- gentes que somos los humanos, recuerdo que atin no poseemos una definicién aceptable de inteligencia. ;Qué es una conducta “inteligen- te"? zCon qué base podemos delimitar la linea que separa una conducta inteligente de otra que no lo sea? Depende de la tarea que deba realizarse, Y esto vale también para el uso de la abstraccién, que hasta hace poco crefamos patrimonio ex- clusivo de nuestra especie. Pero no es asi: en la tarea de reconocimiento del espacio, por ejemplo, circunscrito por figuras geométricas en tres dimensiones, cualquier paloma es mu- cho més ripida y precisa que un ser humano (McFarland y Basser, 1993). Desde el aire, en un vuelo ripido, éta es una condicién esen- cial para la orientaciGn y el sorteo de posibles obstéculos. Desde este punto de vista, el ce- rebro de la paloma tiene un comportamiento cognitive mucho més inteligente que el de los humanos. La paloma y su capacidad de vuelo, mds su capacidad de procesamiento de los in- puts provenientes del exterior, conforman un sistema. Esta perspectiva empirica, atenta al contex- toy alas condiciones en que se realiza el pro- cesamiento de informacion, es la que dio lugar al nacimiento de fa denominada inteligencia attificial. Obsérvese que es en la perspectiva de las ciencias formales y en las ingenierfas, tan- to como en el de la filosoffa, donde se sitiia su origen'. No hay ningtin “giro lingiistico” en este campo, donde las nociones de sistema, complejidad, inferencia y algoritmo tienen un carcter matemético més amplio. Esta es, en el fondo, la respuesta que Simon y Einsenstadt dieron a la critica de John Sear- le sobre el hecho de que los ordenadores sean ciegos al significado de sus propias operacio- nes*. La pregunta de si los ordenadores pueden pensar presenta el mismo problema que el de la definicién de inteligencia. Plantea un pro- blema que sélo tiene sentido en el terreno de Ia filosofia del lenguaje o de la ciencia, pero no en el de la ciencia como lenguaje. Interesante, pero fuera del objetivo cientifico o técnico de las ciencias del disefto o de la computacién. ‘Comparte el nivel del estatuto epistemolégico del test de Turing’. Visto desde el sistema resultante de compo- nentes externos ¢ internos —y no como un ce- rebro— es claro que la habitacién china ima- EI 8 rs 2 g § g ginada por Searle puede “pensar”, en el sentido de tansformar la informaci6n a partir de tadios sucesivos. Pero plantearse la pregunta como un problema de la propia LA, implica cometer una variante de la denominada falacia de la morfologia de primer orden: la comple- jidad del sistema es el reflejo del contexto, no reside en las propiedades de sus mecanismos internos de computacién’. El producto de la computacién no es isomorfo con los mecanis mos que lo han generado’. No se trata, pues, de mimetizar o replicar las operaciones mentales tal y como el cere- bro humano de hecho las realiza. Se trata mas bien de identificar y dejarse sorprender por las operaciones que éste posibilita —informacién, memoria, comprensién, entendimiento, len- guaje, expresién y razonamiento— e intentar comprender su estructura y funcionamiento en tanto que operaciones abstractas. Y, si es posible, mejorarlas en maquina para volverlas a insertar luego en contextos reales. Aunque parezca una paradoja, la inteligencia artificial ha tenido desde sus inicios un fuerte compo- hente empitico y una marcada orientacién prictica El modelo, pues, es lo importante aqui, no elobjeto analdgico del que parte. “Para aleanzar el nivel de la inteligencia humana, se requ la propiedad de la autoconciencia” —declara- ba recientemente John McCarthy (2006) re- flexionando sobre el camino recortido desde o de verano de Dartmouth (1956) donde nacié el término inteligencia artificial’. Este no es su objetivo. Al menos para Simon y Newell, la LA se basé desde el principio en cadenas simbélicas recursivas expresables alge- braicamente’. el seminai ‘Modelos bisicos basados en a “inteligencia sin representacidn” (Brooks, 1991) 0 en la “in- teligencia de enjambre” [swarm intel (Bonabeau et al. 1999, Dorigo 2004) o “inteli- gencia cambriana” (Brooks, 1999) de los insee- tos, sin médulo central de representaci6n, son también posibles y han sido desarrollados en robética. Incluso han sido propuestos nuevos modelos de computacién més allé de las mé- quinas de ‘Turing (Wegner y Eberbach, 2004; Goldin y Wegner, 2008). Pero Ia idea basica de representar el conocimiento mediante la aplicacién de lenguajes artificiales permanece incdlume’, En afios sucesivos, fueron aparecien- do nuevas nociones —como las de esquema [schemal, red semdntica [semantic network], discurso [discourse], contexto [context], 0 marco [frame]— para capturar la dinémica y 1a complejidad del procesamiento de informa- Gidn en situaciones reales. Uno de losarticulos mis citados es “A Framework for Representing Knowledge” (MIT 1974), donde Marvin Min- sky anticipa en gran medida el trabajo poste- rior en légica no-monot6nica, los argumentos caneelables (o “derrotables”) y las redes socia- les’. El trabajo seminal de H. S. Simon sobre la byisqueda de un nivel de actuacién aceprable de la red como un conjunto, en lugar de la op- timalidad de un nodo particular, ha sido im- portante también aqui. Se denomina el crite- rio de satisficcién [satisficing] ”. La satisficeion constituye la base para la resolucién colectiva distribuida de problemas. Esta perspectiva muestra el impacto de las ciencias cognitivas emergentes en los modelos originalmente propuestos por la IA. De hecho, lahistoria de la LA,y la de las ciencias cognitivas se desarrolla en paralelo y en estrecho contacto entre si. La convergencia, incluso en fechas, es sorprendente"’. La relacién interdisciplinar era muy estrecha al principio, tal y como muestra la figura que Georges Miller dibujé en 1978: Fiosofia Pricalogia Linatista Cen Arfrepologia Computacional Neurociencia TREROS Cape Same Figura 1. G. A. Miller (2008: 143). Mapa de ls ciencias cognitivas. Cada linea representa investigaciones interdisciplinarias existentes en 1978, Uno de los desarrollos més prometedores, efectuados por la sepunda generacién de in- vestigadores, deudores del trabajo de Simon y Newell, es el de los denominados “sistemas expertos’. Es decit, programas que abundan en el contenido del conocimiento, antes que en su forma, y en una pluralidad de tareas. A partir de un conocimiento base, un sistema ex- perto es capaz de responder de forma répida y fectiva a los problemas planteados desde un dominio determinado. Esto no es ficil, porque implica dotar, ade- mis de su potencia de cileulo y de deduccién, de inferencia inductiva a los ordenadores. Ed- ward Feigenbaum, en su memoria personal, califica los afios que vieron el desarrollo de DENDRAL y MYCIN —

You might also like