104

MENTES, CEREBROS

Y PROGRAMAS

Pylyshyn, Z. W. (1980), "Cornputation and Cognition: Issues in the Foundation of Cognitive Science", Behavioral and Brain Sciences, 3, pp. 111-132. Schank, R. C. y Abelson, R. P. (1977), Scripts, Plans, Coals, and Understanding, Hillsdale, N. J., Erlbaum. Searle, J. R. (1979a), "Intentionality and the Use of Language", en A. Margolit (ed.), Meaning and Use, Dordrecht, Reidel. -(1979b), "What is an Intentional State?", Mind, 88, pp. 74-92. Varios autores (1978), "Cognition and Consciousness in Non-Human Species", Behavioral and Brain Sciences, vol. 1. núm. 4, número completo. Weizenbaum, J. (1965), "ELIZA-A Computer Program for the Study of Natural Language Communication Between Man and Machine", Commun. ACM, 9, pp. 36-45. --(1976), Computer Power and Human Reason, San Francisco, W. H. Freemano Winograd, T. (1973), "A Procedural Model of Language Understanding", en R. C. Schank y K. M. Colby (eds.), Computer Models of Thought and Language, San Francisco, W. H. Freeman, pp. 152-186.

IV. ESCAPE DE LA HABITACIÓN

CHINA *
MARGARET

A.

BODEN

EN SU ARTÍCULO "Mentes, cerebros y programas" (1980), John Searle alega que las teorías de computación en psicología son esencialmente inútiles. Hace al respecto dos afirmaciones importantes: las teorías de computación, de naturaleza puramente formal, no pueden ayudamos en modo alguno a comprender los procesos mentales; y el hardware de la com pu tadora, a diferencia de la neuroproteína, carece obviamente de los poderes causales adecuados para generar procesos mentales. Demostraré aqu que ambas afirmaciones están equivocadas. ,..•. La primera afirmación de Searle da por sentada la suposición (formalista), ampliamente aceptada de que los "cómputos" que se estudian en la ciencia de la computación son puramente sintácticos y que pueden definirse (en términos igualmente adecuados para la lógica simbólica) como
í

el manejo formal de símbolos abstractos mediante la aplicación de reglas [ormales . Según este autor, de ahí se deduce que las explicaciones forma-

listas, aunque adecuadas para explicar el procesamiento de "información" sin sentido o el manejo de "símbolos" en las computadoras, son incapaces de explicar cómo utilizan las mentes humanas la información o los símbolos, propiamente así llamados. El significado o la intencionalidad no pueden explicarse en términos computacionales. Searle no quiere decir con eso que ninguna máquina pueda pensar. Los seres humanos pueden pensar y c:,tos, concede, son máquinas; incluso adopta el credo materialista de que sólo las máquinas pueden pensar. Tampoco dice que los seres humanos y los programas sean totalmente inconmensurables. Acepta que, en cierto nivel sumamente abstracto de descripción, las personas (como todo lo demás) son ejemplificaciones concretas de cornputadoras digitales. Más bien argumenta que nada puede pensar, significar o comprender exclusivamente en virtud de su ejemplificación Concreta de un programa de computadora. Para convencemos de esto, Searle recurre a un ingenioso experimento de pensamiento. Se imagina a sí mismo encerrado en una habitación donde hay una serie de fajas de papeles que contienen garabatos; una ventana a
* Margaret A. Boden, "Escaping from the Chinese Room", tomado del capítulo 8 de Computer Models o[ Mind (1988). Reproducido con permiso de Cambridge University Press.

105

106

ESCAPE DE LA HABITACIÓN

CHINA

ESCAPE DE LA HABITACIÓN

CHINA

107

través de la cual la gente puede pasarle más papeles con garabatos y por la que él puede entregar papeles; y un libro de reglas (en inglés) que le indican cómo aparejar los garabatos, que siempre pueden identificarse por su forma o figura. Searle pasa el tiempo dentro de la habitación manipulando los garabatos de acuerdo con las reglas. Una de estas reglas le indica, por ejemplo, que cuando le pasen guiri guiri entregue guara guara. El libro de reglas también contiene secuencias más complejas de pares de garabatos, donde sólo el primero y el último pasos mencionan la transferencia de papel hacia adentro o afuera de la habitación. Antes de que encuentre alguna regla que le ordene directamente entregar una tira de papel, deberá localizar el garabato plonque y cornpararlo con un garabato plonque, en cuyo caso el resultado de la comparación es lo que determina la naturaleza del garabato que entregue. Algunas veces tendrá que hacer muchas de estas comparaciones de un garabato con otro y las consiguientes selecciones de garabatos, antes de encontrar la regla <¡ue le permita transferir algo hacia afuera. En lo a que concierne a "Searle en la habitación", estos güiris y guaras no son más que garabatos sin sentido. Sin embargo, aunque él no lo sabe, se trata de caracteres chinos. Las personas que se encuentran fuera de la habitación, que son chinas, los interpretan como tales. Más aún, los modelos que entran y salen por la ventana son interpretados por ellos como preguntas y respuestas respectivamente: las reglas son tales que la mayoría de las preguntas tienen su contraparte, ya sea directa o indirectamente, en lo que ellos reconocen como una respuesta sensata. No obstante, el propio SearIe (dentro de la habitación) ignora todo esto. La cuestión, dice Searle, es que "Searle en la habitación" es claramente la representación concreta de un programa de computadora. Es decir, hace un manejo puramente formal de modelos no interpretados: todo en él es sintaxis y nada de semántica. garabatos son equivalentes a las reglas "si ... (por ejemplo) en los sistemas expertos. Algunas de las comparaciones internas entre garabatos podrían equivaler a lo que los estudiosos de la lA en el área de procesamiento de lenguajes naturales llaman guión, por ejemplo, el guión del restaurante descrito por R.e. Schanky R.P. Abelson (1977). En ese caso, el proceso de transferencia de papeles de "Searle en la habitación" podría compararse en esencia con la ejecución del programa de análisis de textos de Schank de "preguntas y respuestas". Sin embargo, este proceso de preguntas y respuestas no consiste en responder las preguntas. "Searle en la habitación" no está realmente respondiendo. ¿Cómo podría hacerla si no comprende las preguntas? La práctica en realidad no sirve de nada (excepto, quizá, para aparear más rápido los garabatos), ya que si "Searle en la habitación" escapara algún Las reglas para aparear

día, seguiría

siendo

tan ignorante

del chino como lo era cuando

lo ence-

rraron. No cabe duda de que los chinos de afuera encontrarían útil mantener bien alimentado a "Searle en la habitación", de la misma manera en que en la vida real estamos dispuestos a invertir grandes sumas de dinero en sistemas de "asesoría" por computadora. Mas el hecho de que la gente que realmente entiende pueda utilizar un sistema de cómputo formalista e intrínsecamente carente de sentido, para proporcionar lo que ellos interpreten (sic) como preguntas, respuestas, designaciones, interpretaciones o símbolos, resulta irrelevante. Sólo lo pueden hacer si logran especificar externamente una correspondencia entre el formalismo y los asuntos que les interesan. En principio, uno y el mismo formalismo puede hacerse corresponder con varios dominios distintos a fin de ser utilizado (por gen te) para responder preguntas acerca de cualquiera de esos dominios. Sin embargo, esto carecería por sí mismo de sentido, al igual que.los símbolos chinos, desde el punto de vista de "Searle en la habitación". De aquí se deduce, de acuerdo con Searle, que ningún sistema puede entender nada exclusivamente en virtud de su representación concreta de un programa de computadora, puesto que, si pudiera hacerla, entonces "Searle en la habitación" entendería chino. Por consiguiente, la psicología teórica no puede fundamentarse apropiadamente en conceptos computacionales. La segunda afirmación de Searle se refiere a cuál sería una explicación adecuada de comprensión. Según él, ésta certificaría que los símbolos significantes deben encontrarse incorporados en algo que cuente con los "poderes causales correctos" para generar comprensión o intencionalidad. Es obvio, dice, que mientras que los cerebros sí tienen estos poderes causales, las computadoras no. Más precisamente (puesto que la organización del cerebro podría ser comparada con la de una computadora), la neuroproteína tiene estos poderes, mientras que el metal y el silicón, no: las propiedades bioquímicas de la materia cerebral son fundamentales. Searle rechaza la definición ampliamente citada de A. Newell (1980) para "sistemas de símbolos físicos", porque ésta exige únicamente que los símbolos se incorporen en algún material capaz de ejecutar cómputos formalistas, cosa que las computadoras -como es evidentesí pueden hacer. Desde el punto de vista de Searle, ninguna computadora electrónica puede de verdad manipular símbolos, ni designar o interpretar realmente nada en lo absoluto, independiente de cualesquiera dependencias causales que vinculen sus modelos físicos internos con su comportamiento. (Esta opinión tan realista de la intencionalidad contrasta con el instrumentalismo de D.e. Dennett [1971]. Para este autor un sistema intencional es aquel cuyo comportamiento se puede explicar, predecir y controlar con sólo atri-

entonces" que suelen utilizarse

108

ESCAPE DE LA HABITACIÓN

CHINA

ESCAPE DE LA HABITACIÓN

CHINA

109

buirle creencias, propósitos y racionalidad. Conforme a este criterio, algu_ nos de los programas de computadora existentes Sonsistemas intencionales y los hipotéticos humanoides tan socorridos en la ciencia ficción serían a [ortiori sistemas intencionales.) Searle declara que la intencionalidad es un fenómeno biológico. Como tal, es tan dependiente de su bioquímica implícita como lo son la fotosíntesis y la lactancia. Searle concede que tal vez la neuroproteína no sea la única sustancia en el universo capaz de dar sustento a la vida mental, del mismo modo en que muchas otras sustancias, además de la clorofila, podrían catalizar (en Marte, tal vez) la síntesis de los carbohidratos, pero rechaza el metal o el silicón como alternativas potenciales, incluso en Marte. También se pregunta si una computadora fabricada con viejas latas de cerveza podría comprender, pregunta retórica cuya respuesta esperada sería un rotundo "[No!", En resumen, para Searle resulta intuitivamente ob\íÍo que las sustancias inorgánicas con las que (en la actualidad) se construyen las computadoras son, en esencia, incapaces de dar soporte a las funciones mentales. Para valorar la crítica de doble punta que hace Searle de la psicología computacional, consideremos primero su opinión de que la intencionalidad debe tener fundamentos biológicos. Podríamos caer en la tentación de considerar ésta como una declaración positiva, en contraste con su declaración (negativa) de que las teorías puramente formalistas no pueden explicar la mentalidad. Sin embargo, al hacerlo le concederíamos más importancia de la que merece, ya que su poder explicativo es ilusorio. Las analogías biológicas que Searle menciona son engañosas, y las intuiciones a las que alude no son confiables. La intencionalidad que produce el cerebro, se nos dice, es comparable con la fotosíntesis, pero ¿lo es en realidad? Podemos definir los productos de la fotosíntesis, distinguir claramente diversos azúcares y almidones que se encuentran dentro del grupo general de los carbohidratos y mostrar de qué manera difieren de otros productos bioquímicos como las proteínas. Más aún, no sólo sabemos que la clorofila es la base de la fotosíntesis, sino que tarn bién entendemos cómo lo hace (ypor qué otras sustancias químicas no pueden hacerlo). Sabemos que es más un catalizador que materia prima y podemos especificar el proceso subatómico mediante el cual ejerce su función catalítica y el momento en el que lo hace. Con respecto al cerebro y al entendimiento, el caso es muy distinto. Nuestra teoría de qué es la intencionalidad (sin importar cómo se genera) no admite comparación con nuestro conocimiento sobre los carbohidratos, ya que la intencionalidad sigue siendo una controversia filosófica. Ni siquiera tenemos la certeza de poder reconocerla cuando la vemos. Por lo general se acepta que las actitudes proposicionales son intencionales y que

los sentimientos y las sensaciones no lo son, pero no existe un consenso claro acerca de la intencionalidad de las emociones. Se han realizado varios intentos de caracterizar la intencionalidad y distinguir sus subespecies como estados intencionales diferentes (creencias u opiniones, deseos, esperanzas, intenciones y similares). El propio Searle ha hecho al respecto varias aportaciones importantes desde sus primeros estudios sobre actos del habla (1969) hasta sus aportaciones más recientes (1983) acerca de la intencionalidad en general. Un criterio comúnmente utilizado (adoptado por Brentano en el siglo XIX y también por Searle) es el psicológico. En palabras de Brentano, los estados intencionales dirigen la mente hacia un objeto; en las de Searle, poseen una capacidad de representación intrínseca o "respectividad": en ambos casos los autores relacionan la mente con el mundo y con otros posibles mundos. No obstante, algunos escritores definen la intencionalidad en términos lógicos (Chisholm, 1967), aunque todavía no está claro si las definiciones lógicas y psicológicas son precisamente coextensivas (Boden, 1970). En pocas palabras, a diferencia de la química de los carbohidratos, ninguna teoría de la intencionalidad es aceptada sin reparos. En cuanto a la "síntesis" bioquímica de la intencionalidad realizada por el cerebro, ésta es aún más misteriosa. Tenemos buenas razones para creer que esa neuroproteína respalde la intencionalidad, pero no tenemos la más mínima idea de cómo (qua neuroproteína) lo hace. Hasta que comprendemos del todo estos asuntos, centraremos nuestra atención en la base neuroquímica de ciertas funciones informativas (como la transmisión, activación e inhibición de rnensajes).incorporadas en las neuronas y sinapsis. Por ejemplo, cómo permite la bomba de sodio de la membrana celular que un potencial de acción se propague a lo largo del axón; cómo causan los cambios electroquímicos que una neurona entre en su periodo refractario y se recupere de él, o cómo pueden alterarse los umbrales neuronales con neurotransmisores como la acetilcolina. Respecto a la célula visual, por ejemplo, una pregunta psicológica fundamental podría ser, si puede funcionar la célula para detectar sus gradientes de intensidad. Si el neurofisiólogo logra decimos qué moléculas pueden hacerlo, mucho mejor. No obstante, desde el punto de vista de la psicología, no es la bioquímica como talla que importa, sino las funciones que transportan información basadas en ella. (Searle admite esto aparentemente cuando afirma: "El tipo de realizaciones que los estados intencionales tienen en el cerebro pueden describirse en un nivel funcional mucho más alto que el de la bioquímica específica de las neuronas involucradas" [1983, p.272].) Como ha mostrado el trabajo en "visión computarizada", el metal y el silicón son, sin duda, capaces de respaldar algunas de las funciones nece-

110

ESCAPE DE LA HABITACIÓN

CHINA

ESCAPE DE LA HABITACIÓN

CHINA

111

sarias para el mapeo de dos a tres dimensiones que entraña la visión. Además, pueden incorporar funciones matemáticas específicas para reconocer gradientes de intensidad (a saber, los "detectores DOG" que computan la diferencia de gausses), que parecen intervenir en muchos sistemas visuales biológicos. También podría ser cierto que el metal y el silicón no pueden respaldar todas las funciones que entraña la visión normal, o el entendimiento en general. Quizá sólo la neuroproteína puede hacerla, así, sólo las criaturas con una biología "terrestre" pueden gozar de intencionalidad. Mas hasta el momento no tenemos ninguna razón específica para pensar así. Lo más importante en este contexto es que cualesquiera razones que podamos tener en el futuro deben basarse en descubrimientos empíricos, es decir, de nada sirven las intuiciones. Si alguien se pregunta qué dependencias de la materia mental son intuitivamente plausibles, la respuesta debe ser ninguna. Ninguno de los que han buscado una solución a la intencionalidad (en oposición a los pote n•ciales de acción) ha exclamado nunca: "El sodio ¡por supuesto!" Las bombas de sodio no son "obviamente" menos absurdas que los chips de silicón; la polaridad eléctrica no es "obviamente" menos irrelevante que las latas viejas de cerveza y la acetilcolina difícilmente sería menos sorprendente que la cerveza. El hecho de que el primer miembro de cada uno de estos tres binomios resulte científicamente apremiante no los hacen intuitivamente inteligibles; nuestra sorpresa inicial persiste. Nuestras intuiciones podrían cambiar con el avance de la ciencia. Es posible que con el tiempo consideremos a la neuroproteína (y quizá también al silicón) como obviamente capaz de englobar a la mente, tanto como ahora consideramos que las sustancias bioquímicas en general (la clorofila entre ellas) son obviamente capaces de producir otras sustancias: intuición que no fue ni obvia ni siquiera para los químicos antes de que se sintetizara la urea. No obstante, en la actualidad nuestras intenciones no tienen nada útil que decir acerca de la base material de la intencionalidad. La declaración "positiva" de Searle, su explicación alterna putativa de la intencionalidad, constituye, en el mejor de los casos, un "pagaré", y en el peor, un mero embaucamiento. No obstante, su declaración negativa -que las teorías computacionales formales no pueden explicar el entendimiento- se rebate menos rápidamente. Mi impugnación, por tanto, tiene dos partes: la primera abordará directamente su ejemplo de la habitación china y la segunda versará sobre su suposición de fondo (de la que depende su ejemplo) de que los programas de computadora son sólo sintaxis. El ejemplo de la habitación china ha suscitado un gran debate, tanto dentro como fuera de las ciencias cognoscitivas. El propio Searle anticipó algunas de las críticas en su artículo original, otras aparecieron acornpa-

ñando a los comentarios de sus colegas (junto con su réplica) y a partir de entonces se han publicado algunas más. Sólo me referiré aquí a dos puntos: lo que Searle llama la réplica del robot y lo que yo denominaré la réplica del inglés. La réplica del robot acepta que la única comprensión del chino que existe en el ejemplo de Searle es la de los chinos que se encuentran afuera de la habitación. La incapacidad de "Searle en la habitación" para relacionar los caracteres chinos con los sucesos del mundo exterior indican que él no entiende el chino. Asimismo, una computadora con teletipo de Schank, que no puede reconocer un restaurante, dar dinero a un mesero ni mascar un bocado, nada entiende de restaurantes, aun cuando pueda "responder" adecuadamente preguntas acerca de ellos. Algo totalmente distinto sería un robot, provisto no sólo con un guión sobre restaurantes, sino también con programas visuales alimentados a través de cámaras y c,9Pextremidades capaces de caminar y recoger cosas. Si el comportamiento de entrada y de salida de información de un robot de este tipo fuera idéntico al de los seres humanos, entonces podría demostrarse que entiende tanto de restaurantes como la lengua natural-el chino, tal vez- que utilizan las personas para comunicarse con él. La primera respuesta de Searle a la réplica del robot pregona ya una victoria, pues concede que la cognición no es exclusivamente una cuestión de manipulación de símbolos formales, sino que además requiere un conjunto de relaciones causales con el mundo exterior. En segundo lugar, Searle insiste en que añadir habilidades perceptivomotoras a un sistema de computación no le agrega intencionalidad o entendimiento. Discute este punto imaginando un robot que, en lugar de contar con un programa de computadora que lo haga funcionar, tiene un Searle miriiaturizado en su interior, en su cráneo tal vez. Con ayuda de un libro de reglas (nuevo), "Searle dentro del robot" ordena los papeles y recibe y entrega güiris y guaras casi de igual manera como antes lo hizo "Searle en la habitación". Mas ahora no son chinos quienes manejan algunos o todos los caracteres en chino, sino procesos causales activados en las cámaras yen el equipo de audio que se encuentran en los ojos y en los oídos del robot. y no son manos chinas las que reciben los caracteres de salida, sino motores y palancas integrados a las extremidades del robot, que se mueven en consecuencia. En pocas palabras, al parecer este robot no sólo es capaz de responder preguntas en chino, sino que también ve y hace cosas en consecuencia: puede reconocer el gérmen de soya crudo y, si así lo pide la receta, revolverlo en un wok tan bien como cualquiera de nosotros. (Los estudios realizados sobre la visióncomputarizada antes mencionados sugieren que el vocabulario en chino necesitaría ser de una extensión Considerable para que este ejemplo pudiera realizarse. Asimismo, la enor-

112

ESCAPE DE LA HABITACIÓN

CHINA

ESCAPE DE LA HABITACIÓN

CHINA

113

me cantidad de investigadores en IA sobre el procesamiento del lenguaje " señala que lo mismo podría decirse del inglés que se requiere para expresar las reglas en el ejemplo inicial de preguntas y respuestas de Searle. De cualquier manera, lo que Searle en la habitación necesita no es tanto el chino, ni siquiera el inglés, sino más bien un lenguaje de programación. Regresaremos en breve a esta cuestión.) Sin embargo, al igual que su antecesor encerrado en la habitación, Searle dentro del robot nada sabe del contexto mayor en el que se encuentra. Es tan ignorante del chino como lo era antes y no tiene más acceso al mundo exterior que en el ejemplo original. Para él, el gérmen de soya y los woks son invisibles e intangibles, pues todo lo que dentro del robot Searle puede ver y tocar, además del libro de reglas y los garabatos, es su propio cuerpo y las paredes interiores del cráneo del robot. Por lo tanto, Searle arguye que no puede acreditársele al robot el entendimiento de ninguno de estos asuntos mundanos. En realidad, no ve ni hace nada en lo absoluto: "se • mueve simplemente como resultado de sus circuitos eléctricos y de su programa" el cual más adelante es representado concretamente por el hombre que se encuentra en su interior, quien "carece de estados intencionales del tipo pertinente" (1980, p. 420). Este argumento de Searle resulta inaceptable como impugnación a la réplica del robot, porque establece una analogía falsa entre el ejemplo imaginado y lo que afirma la psicología computacional. Searle supone que "Searle dentro del robot" ejecuta las funciones que realiza el cerebro humano (de acuerdo con teorías de la computación). Sin embargo, la mayoría de los estudiosos de la computación no atribuyen intencionalidad al cerebro (y los que lo hacen, como pronto veremos, lo hacen de manera muy limitada); Searle caracteriza a "Searle dentro del robot" como a alguien que goza plenamente de intencionalidad genuina, tal como él mismo. La psicología computacional no atribuye al cerebro la capacidad de ver germen de soya o de comprender inglés; estados intencionales como éstos son propiedad de las personas, no de los cerebros. En general, aunque se supone (tanto por los computólogos como por el propio Searle) que las representaciones y los procesos mentales están englobados en el cerebro, las habilidades sensomotoras y las actitudes proposicionales que las hacen posibles se atribuyen a la persona como un todo. De esta manera, la descripción de Searle del sistema dentro del cráneo del robot como un sistema que entiende inglés no corresponde en verdad a lo que los computólogos dicen acerca del cerebro. En efecto, los procedimientos específicos que los psicológos de la computación suponen en calidad de hipótesis y que incorporan en los modelos computarizados de la mente son relativamente estúpidos, y se tornan cada vez más estúpidos a medida que nos desplazamos hacia niveles teóricos

cada vez más básicos. Considérense, por ejemplo, las teorías acerca del análisis gramatical del lenguaje natural. El procedimiento de análisis que busca un determinante no entiende inglés, como tampoco lo hace el procedimiento para localizar la referencia de un pronombre personal: sólo puede hacerla la persona cuyo cerebro realiza esos procesos interpretativos y muchos otros asociados a ellos. La capacidad de entender inglés entraña un sinnúmero de procesos de información que interactúan, cada uno de los cuales realiza sólo una función muy limitada, pero que en conjunto proporcionan la capacidad de aceptar como entrada oraciones en inglés y proprocionar como salida otras oraciones adecuadas en inglés. Pueden hacerse observaciones similares acerca de los componentes individuales de las teorías computacionales sobre la visión, la resolución de problemas o el aprendizaje. Precisamente porque desean explicar el lenguaje, la visión, el razonamiento y el aprendizaje humanos, los psicólogos postulan procesos implícitos que carecen de habilidades. ,..~ En suma, la descripción de Searle de que el pseudocerebro del robot (es decir, "Searle dentro del robot") comprende inglés entraña un error de categoría comparable a considerar al cerebro como portador de inteligencia y no como su fundamento causal. Alguien podría objetar en este punto que me contradigo, que pese a que afirmo que no puede atribuirse intencionalidad al cerebro, eso es precisamente lo que hago implícitamente cuando digo que el cerebro ejecuta procedimientos-componentes "estúpidos", pero la estupidez es virtualmente una especie de inteligencia. Ser estúpido es ser inteligente, pero no mucho (una persona o un pez pueden ser estúpidos, no así una piedra o un río). Mi defensa comprende dos aspectos. En primer lugar, el nivel teórico más básico de todos, sería el equivalente neurocientífico del código de máquina, un nivel construido por la evolución "cual ingeniero". El que una celda sensible a la luz pueda responder a gradientes de intensidad actuando como un detector DOG y el que una neurona pueda inhibir la transmisión de impulsos a otra neurona son fenómenos que se pueden explicar mediante la bioquímica del cerebro. La noción de estupidez, aun en cuotas mínimas, es del todo inapropiada cuando se consideran estos hechos. Sin embargo, estas funciones muy básicas del procesamiento de información (detectores DOG e inhibiciones sinápticas) podrían describirse adecuadamente como "muy, pero muy estúpidas". Esto, desde luego, implica que el lenguaje intencional, aunque sea de un tipo sumamente rencoroso y despectivo, puede aplicarse después de todo a los procesos cerebrales, lo que nos lleva al segundo aspecto de mi defensa. No dije que no pueda atribuirse intencionalidad a los cerebros, sino que no puede atribuírseles intencionalidad genuina. Tampoco dije que los cerebros no puedan entender absolutamente nada, por muy limitados que sean, sino que no pueden (por

114 ESCAPE DE LA HABITACI6N CHINA ESCAPE DE LA HABITACIÓN CHINA

115

entender inglés. Incluso sugerí, párrafos atrás, que algunos pocos estudiosos de la computación atribuyen algún grado de intencionalidad al cerebro (o a los procesos computacionales que se llevan a cabo dentro de él). Estos dos puntos resultarán menos oscuros una vez que consideremos la réplica del inglés y su relación con la suposición de fondo de Searle de que las teorías computacionales sin táctico-formales son puramente sintácticas.
ejemplo)

El punto fundamental de la réplica del inglés es que la representación concreta de un programa de computadora, ya sea que la realice el hombre o una máquina fabricada, sí entraña entendimiento, al menos del libro de reglas. El ejemplo inicial de Searle depende crítica mente de que "Searle en la habitación" sea capaz de entender la lengua en que están escritas las reglas, en este caso, el inglés. De igual manera, si "Searle dentro del robot" no estuviera familiarizado con el inglés, el gérrnen de soya del robot nunca llegaría al wok . Además, como ya se apuntó antes, el vocabulario del inglés « (y también del chino en el caso de "Searle dentro del robot") tendría que modificarse significativamente para que el ejemplo funcionara. Un lenguaje desconocido (sea chino o Lineal B) sólo puede abordarse como un objeto estético o como un conjunto de formas relacionadas sistemáticamente. Los lenguajes artificiales pueden ser diseñados y estudiados, por los lógicos o los matemáticos puros, teniendo sólo en mente sus propiedades estructurales (aunque el ejemplo proporcionado por D.R. Hofstadter [1979] de un sistema pq cuasi aritmético muestra que puede surgir espontáneamente una interpretación psicológicamente apremiante y predecible de un cálculo formal). No obstante, normalmente respondemos de modo muy distinto a los símbolos de nuestra lengua materna; de hecho, es muy difícil "poner entre paréntesis" (ignorar) los significados de palabras conocidas. El punto de vista que mantienen los psicólogos computacionales de que las lenguas naturales pueden caracterizarse en términos de procedimiento resulta importante aquí: las palabras, las cláusulas y las oraciones pueden considerarse como miniprogramas. Los símbolos de una lengua natural que entendemos ponen en marcha diversos tipos de actividad mental. Aprender una lengua implica establecer conexiones causales pertinentes, no sólo entre palabras y el mundo ("gato" y la cosa que está sobre el tapete), sino también entre palabras y la multiplicidad de procedimientos no introspectivos que entraña su interpretación. Además, no es necesario que se diga ex hypothesi (por Searle) que "Searle en la habitación" entiende inglés; su comportamiento dentro de la habitación muestra claramente que lo hace o, mejor dicho, muestra que comprende un Subconjul1to muy limitado del inglés. Daría lo mismo que "Searle en la habitación" padeciera de amnesia total respecto a 99% de su vocabulario en inglés. Las únicas nociones de inglés

que requiere son las necesarias para interpretar (sic) el libro de reglas donde se especifica cómo aceptar, seleccionar, comparar y producir diferentes modelos. A diferencia del propio Searle, "Searle en la habitación" no necesita palabras como "catalizar", "lata de cerveza", "clorofila" ni "restaurante", pero sí podría requerir "encuentre", "compare", "dos", "triangular" v '\'entana" (aunque su comprensión de estas palabras podría ser mucho ~enos completa que la de Searle). También debe entender oraciones condicionales por si alguna regla establece que al ver un guara debe proporcionar un guiri. Asimismo, es muy probable que tenga que entender algún tipo de expresiones negativas, órdenes temporales y (en particular si ha de aprender a realizar su tarea con mayor rapidez) generalizaciones. Si las reglas que utiliza incluyen algunas que analicen gramaticalmente las oraciones en chino, también necesitará palabras para las categorías gramaticales. (No necesitará reglas explícitas para analizar gramatical mente las oraciones en inglés, tales como los procedimientos de análisis gramatical que se utilizan en los programas de lA para procesamiento del lenguaje, porque "Searle en la habitación" ya entiende inglés.) En suma, "Searle en la habitación" necesita entender sólo ese subconjunto del inglés de Searle que equivale al lenguaje de programación que entiende una computadora para generar el mismo comportamiento de entrada y salida de preguntas y respuestas por la ventana. De igual modo, "Searle dentro del robot" debe ser capaz de entender cualquier subconjunto del inglés equivalente al lenguaje de programación que entiende un robot visornotor completamente computarizado. Puede parecer que las dos oraciones anteriores dan por sen tado el pun to en cuestión. En efecto, hablar así del lenguaje de programación que entiende una computadora es contradictorio en sí mismo, ya que la premisa rundamental de Searle -que él supone aceptada por todos los participantes en el debate- estipula que un programa de computadora es de naturaleza puramente formal: la computación que especifica es puramente sintáctica y carece de significado intrínseco o contenido semántico que comprender. Si aceptamos esta premisa, la réplica del inglés esbozada anteriormente puede descartarse de inmediato, pues intenta establecer una analogía cuando ésta no puede establecerse. Más si no procedemos así, si -con todo respeto a Searle (y a otros [Fodor, 1980]); Stich, 1983-10s programas de computadora no sólo se ocupan de la sintaxis, entonces la réplica del inglés quizá resulte pertinente después de todo. Procedamos ahora a esta pregunta fundamental. Sin duda alguna, para ciertos fines podemos imaginar un programa de computadora como un cálculo lógico no interpretado. Por ejemplo, sería factible demostrar, exclusivamente por medios formales, que una fórmula particular bien planteada puede derivarse a partir de las estructuras de los

117
116 ESCAPE DE LA HABITACIÓN CHINA ESCAPE DE LA HABITACIÓN CHINA

datos y del programa de las reglas de inferencia. Además, es cierto que el llamado programa intérprete que podría tomar como entrada la estructura en lista "(PADRE [MARY))" Y devolviera "(LEONARDO)" sólo lo haría basándose en criterios formales sin tener manera de interpretar si estos modelos se refieren a gente real. Asimismo, como señala Searle, los programas provistos con guiones sobre restaurantes no reciben por ello conocimiento acerca de los restaurantes. La existencia de una correspondencia entre un formalismo y un cierto dominio no proporciona en sí misma al manipulador del formalismo ninguna comprensión de ese dominio. Empero, lo que no debe olvidarse es que el programa de computadora es un programa para una computadora: cuando el programa corre en el hardware adecuado, la máquina hace algo en consecuencia (de aquí que en las ciencias de la computación se utilicen palabras como "instrucción" y "obedecer"). En el nivel del código de máquina, el efecto que ejerce el programa en la computadora es directo, porque la máquina se construyó • de forma tal que una instrucción dada produzca una operación única (las instrucciones en lenguajes de nivel superior deben transformarse en instrucciones en código de máquina antes de que puedan ser obedecidas). Una instrucción programada, por tanto, no es un mero modelo formal, ni siquiera es un enunciado declarativo (aunque para algunos propósitos, podría imaginarse bajo cualquiera de estas descripciones). Ésta es la especificación de un procedimiento que, dado un contexto de hardware adecuado, puede causar que se lleve a cabo el procedimiento en cuestión. Esto podría expresarse de otra manera diciendo que el lenguaje de programación es un medio no sólo para expresar representaciones (estructuras que pueden escribirse en papel o proporcionarse a una computadora, algunas de las cuales pueden ser isomorfas de cosas que interesen a la gente), sino también p3J él. causar la actividad representativa de ciertas máquinas. Podría incluso decirse que la iepresentación es una actividad antes que una estructura. Muchos filósofos y p5icó¡~¿(;";; han supuesto que las representaciones mentales son intrínsecamente activas. [".r:~:-c: ~:"'3 defensores recientes de este punto de vista se encuentra Hofstadter r 1985, p. 648) quien específicamerite criuca la explicación de Newell acerca de los simbclos como signos formales manípuiables. En sus propias palabras: "El cerebro por sí mismo no 'manipula símbolos': ei cerebro es el medio en el que Iiotan lo ..•símbolos y se activan entre si" Hoístadter muestra mas simpatía por las teorías psicoiógicas "conexi orns tas" que por las "formalistas". Los eníoq~le5 conexionistas entrenan sistemas de procesarmen« ..l paralelo que en términos generales recuerdan al cerebro y que son propios para modelar las representaciones. símbolos el conceptos cerebrales como aspectos dinámiros . Mas no sólo los conexionistas piensan que los conceptos son intrínsecamente activos y no s6lo las representaciones cerebrales pueden

considerarse de esta manera: esta postura se ha generalizado para abarcar los programas tradicionales de computadora, específicamente los diseñado para máquinas de Von Neumann, El científico de la computación E.e. Sm (1982) afirma que las representaciones programadas también son ith inherentemente activas y que esto es algo que reconocería una teoría adecuada de la semántica de los lenguajes de programación. Smith señala que en la actualidad el conocimiento acerca de estas cuestiones que de ten tan los científicos de la computación es radicalmente inadecuado Y nos recuerda que, como se ha mencionado antes, no hay acuerdo general -ni dentro ni fuera de la ciencia de la computaciónacerca de qué es la intencionalidad y también existen profundas dudas sobre lo que es la representación. Tampoco pueden evitarse las ambigüedades al hablar, más técnicamente, en términos de computación y de manipulación de símbolos formales, ya que la comprensión de los científicos de la computación acerca de lo que realmente son estos fenómenos es también "sumamente intuitiva, El análisis de Smith acerca de los lenguajes de computación identifica algunas de las confusiones fundamentales que surgen dentro de la ciencia de la computación. De particular importancia resulta aquí su afirmación de que los científicos de la computación por lo común hacen una distinción teórica demasiado completa entre las funciones de control de un programa Y su naturaleza como un sistema sintáctico formaL La separación teórica que Smith critica resulta evidente en el difundido enfoque del "cálculo dual" en programación. Este enfoque postula una distinción teórica clara entre una estructura representativa declarativa (o denotativa) Y el lenguaje de procedimiento que la interpreta cuando se corre el programa, En efecto, la relación conocimiento-representación y el intérprete se escriben a veces en dos formalismos bastante distintos (como el cálculo de predicados y el LISP, respectivamente). Sin embargo, con frecuencia ambos se expresan en el mismo formalismo; por ejemplo, LIS? (acrónimo del lenguaje LlSt-Processing), permite que los hechos y procedimientos se expresen de maneras formalmente similares, al igual que PROLOG (PROgramming-in-LOGic). En tales casos, el enfoque del cálculo dual dicta que el lenguaje de programación (único) en cuestión se describa teóricamente en dos formas bastante distintas. Para ejemplificar la distinción aquí expuesta, supongamos que nos interesa representar las relaciones familiares que pudieran utilizarse para dar respuesta a preguntas sobre el tema. podríamos decidir emplear una estructura de listas que representara hechos tales como que Leonardo es el padre de Mary. O podríamos preferir una representación basada en cuadros, donde las rendijas de nombres correspondientes al cuadro PADRE podrían llenarse simultáneamente con "LEONARDO" y "MARY". O bien, podríamos escoger una fórmula del cálculo de predicados y decir que exis-

118

ESCAPE DE LA HABITACI6N CHINA

n.

ESCAPE DE LA HABITACI6N CHINA

119

ten dos personas (a saber, Leonardo y Mary) y que Leonardo es el padrf de Mary. O, por último, podríamos utilizar la oración en español: "Leonai' do es el padre de Mary". s Cada una de estas cuatro representaciones podría escribirse o dibujarse en papel (como las reglas del libro de reglas de "Searle en la habitación") para que las interpretemos, si hemos aprendido cómo manejar la notación correspondiente. Alternativamente, las representaciones podrían incorpo_ rarse en una base de datos computarizada. Mas para que la computadora pueda utilizarla, tiene que haber un programa intérprete que (por ejemplo) pueda encontrar el dato "LEONARDO" cuando, le "preguntemos" quién es el padre de Mary. Nadie con un poco de sentido común. incorpo_ raría estructuras de lista en la computadora sin proporcionarle también un dispositivo para procesar listas, ni le proporcionaría cuadros sin un mecanismo para llenar rendijas, ni fórmulas lógicas sin reglas de inferencia o enunciados en español sin procedimientos de análisis gramatical. (Análo• gamente, la gente que sabe que Searle no habla portugués no le proporcionaría a "Searle en la habitación" un libro de reglas en portugués, a menos de que estuviera dispuesto a enseñarle primero el idioma.) Smith no niega que existe una diferencia importante entre el sentido denotativo de una expresión (en términos generales, cuáles Son los mundos reales o posibles con los que puede establecer una correspondencia) y su consecuencia de procedimiento (en términos generales, qué hace o qué provoca). Una cosa es el hecho de que la expresión "(PADRE [MARY])" sea isomorfo de cierta relación de parentesco entre dos personas reales (y que por ello podamos hacerla corresponder con esa relación) y otra cosa bastante distinta el hecho de que la expresión "(PADRE [MARY])" haga que la computadora localice el dato "LEONARDO".De no ser así, no se habría' desarrollado el enfoque del cálculo dual. No obstante, Smith argumenta que en lugar de insistir en el enfoque del cálculo dual sería más elegante y menos confuso adoptar una teoría "unificada" de los lenguajes de programación, diseñada para abarcar tanto los aspectos denotativos como los de procedimiento. El mismo autor muestra que muchos términos básicos de ambos lados de la separación del cálculo dual presentan tanto profundas coincidencias teóricas como diferencias significativas. El lógico y el científico de la computación entienden la noción variable, por ejemplo, de manera muy similar: ambos conceden que una variable puede tener distintos valores asignados en diferentes momentos. Siendo así, resulta redundante contar con dos teorías distintas acerca de 10 que es una variable. Sin embargo, hasta cierto punto los lógicos y los científicos de la computación también entienden cosas distintas con este término: el valor de una variable en el lenguaje de programación LISP (por ejemplo) es otra expresión LISP, mientras que el

valor de una variable en lógica suele ser algún objeto externo al formalismo en sí. Estas diferencias deben aclararse, al menos para evitar confusión cuando un sistema intenta razonar acerca de las variables utilizando variables. En suma, necesitamos una sola definición de "variable" que tenga en cuenta tanto su uso declarativo (en lógica) como su uso de procedimiento (en programación). Habiendo demostrado que se aplican comentarios similares a otros términos básicos de la computación, Smith esboza una e~plicación unitaria de la semántica de LISP y describe un cálculo nuevo (MANTIQ)diseñado teniendo en mente el enfoque unificado. Como señala el ejemplo del uso de variables para razonar sobre variables, una teoría unificada de la computación podría elucidar cómo hacer posible el conocimiento reflexivo, ya que, dada una teoría de esta índole, las representaciones de datos y de procesos de un sistema -incluidos sus propios procesos internos- serían esencialmente comparables. Esta ventaja teórica tiene importancia psicológica (y motivó en gran medida el trabajo de Smith). No obstante, para nuestros fines actuales el punto es que una teoría fundamental de programas y de computaciones debería reconocer que una de las funciones esenciales de un programa de computadora es hacer que sucedan cosas. Mientras la lógica simbólica se siga considerando un simple juego con cálculos formales no interpretados (como el cálculo de predicados) y la lógica computacional el estudio de relaciones abstractas infinitas en "máquinas" matemáticamente especificadas (como las de Turing), la ciencia de la computación no podrá describirse adecuadamente en ninguna de estas formas. Del argumento de Smith se deduce que es errónea la conocida caracterización de los programas de computación como todo sintaxis y nada de semántica. Las consecuencias de procedimiento inherentes de cualquier programa de computación le confieren un punto de apoyo en la semántica donde la semántica en cuestión no es denotativa sino causal. La analogía radica en la comprensión del inglés que tiene "Searle en la habitación" y no en su comprensión del chino. Esta implicación también se encuentra en el artículo de A. Sloman (1986a; 1986b) acerca del sentido en que debe pensarse que las instrucciones programadas y los símbolos computarizados poseen cierta semántica, no importa cuán restringida sea. En la semántica causal, el significado de un símbolo (ya sea simple o complejo) debe buscarse haciendo referencia a sus vínculos causales con otros fenómenos. Las preguntas medulares son: "¿qué provoca que el símbolo se construya y/o se active?" y "¿qué sucede como consecuencia)" Las respuestas en ocasiones aludirán a objetos externos y a sucesos visibles para un observador y en otras no. Si el sistema es humano, animal o robot podría tener poderes causales

ESCAPE DE LA HABITACIÓN 120 ESCAPE DE LA HABITACIÓN CHINA

CHINA

121

que le permitan referirse a restaurantes y a gérmen de soya (la complejidad ~ filosófica de referirse a objetos externos, e inclusive no observables, se ignora aquí, aunque Sloman la utiliza provechosamente en su análisis). Sin embargo, cualquiera que sea el sistema de procesamiento de información que se considere, las respuestas a menudo describirán procesos corn. putacionales puramente internos, mediante los cuales pueden construirse otros símbolos y activarse otras instrucciones. Entre los ejemplos se encuentran los procesos interpretativos que están en la mente de "Searle en la habitación" (comparables quizá a los procedimientos de análisis gramatical y de semántica definidos para el caso del procesamiento automático de lenguajes naturales), provocados por las palabras en inglés y por los procesos computacionales dentro de un programa de Schank de análisis de textos. Aunque un programa de este tipo no puede utilizar el símbolo "restaurante" para significar restaurante (porque carece de vínculos causales con restaurantes, alimentos, etc.), sus símbolos y procedimientos internos sí abarcan un entendimiento mínimo de algunas otras cuestiones • como, por ejemplo, qué significa comparar dos estructuras formales. Podría pensarse que el "entendimiento" implícito en este caso es tan mínimo que no debería utilizarse para nada esta palabra. Así sea. Sloman deja claro que la pregunta importante no es "[cuándo entiende algo la máquina?" (la cual implica, erróneamente, que existe un punto tajante en que cesa el entendimiento), sino "[qué cosas necesita ser capaz de hacer una máquina (biológica o no) a fin de poder comprender?". Esta pregunta es importante no sólo para que una psicología de la computación sea posible, sino también para que su contenido lo sea. En suma, en mi exposición muestro que el ataque de Searle contra la psicología de la computación está mal fundado. Considerar a "Searle en la habitación" como la representación concreta de un programa de computadora no significa que carezca de toda comprensión. Puesto que las teorías de una psicología de la computación formalista deben parecerse más a programas de computadora que a la lógica formal, la psicología de la computación no es incapaz, en principio, de explicar de qué manera el significado se relaciona con los procesos mentales.

preso en (1978), D. C. Dennett, Brainstorms: Philosophical Essays on Mind and ps\'chology, Cambridge, Mass., MIT Press, pp. 3-22. Fod;r, J. A. (1980), "Methodologial Solipsism Considered as a Research Strategy in Cognitive Psychology", Behavioral and Brain Sciences, 3, pp. 63-110. Reirnpreso en J. A Fodor, Representations: Philosophical Essays on the Foundations oi Cog/1itive Science , Brighton, Harvester Press, 1981, pp. 225-256. Hofstadter, D. R. (1979), Godel, Escher, Bach: An Eternal Golden Braid, Nueva York, _ Basic Books. (1985), "Waking Up from the Boolean Dream; Or, Subcognition as Computation", en D. R. Hofstadter, Metamagical Themas: Questing for the Essence o[ Mi/ld and Pattern, Nueva York, Viking. pp. 631-665. Ncwell, A. (1980), "Physica! Symbol Systern". Cognitive science. 4, pp. 135-183. Schank, R. C. y R. P. Abelson (1977), Scripts, Plans, Goals, and Understanding, Hillsdale, N. J., Erlbaum. Scarle, J. R. (1969), Speech Acts: An Essay in the Philosophy Cambridge University Press. _ (1980), 'Minds, Brains, and Programs', Behavioral _ pp. 417-424. (1983), lntentionality:
An Essay ir! the Philosophy

o[ Languate, Cambridge,
and Biain Sciences, 3,

o[ Mind, Cambridge,

Cambridge University Press. Sloman. A. (1986a), "Reference Without Causal Links", en B. du Boulay y L. J. Stee\s (eds.), Seventh European Conference 0/1 Artificiallntelligence, Amsterdam,
__

North-Holland, pp. 369-381. (1986b), "What Sorts of Machines Can Understand the Symbols They Use?",

Proc. Aristotelian Soc., Supp. 60, pp. 61-80. Smith, B. C. (1982), Reflection and Semantics in a Procedural Language. Cambridge, Mass .. disertación doctoral del MIT y reporte técnico LCSrrR-272. Stich, S. C. (1983). From Folk Psychology to Cognitive Science: The Case Against Belie], Carnbridge. Mass., MIT Press/Bradford Books.

BIBLIOGRAFíA

Boden. M. A. (1970), "Intentíonality and Physical Systerns", Philosophy o[ Science, 37, pp. 200-214. Chisholm, R. M. (1967), "Intentionalíty", en P. Edwards (ed.), The Encyclopedia o[ Philosophy , Nueva York, Macmillan, vol. IV, pp. 201-204. Dennett, D. C. (1971), "Intentional Systems", J. Philosophy, 68, pp. 87-106. Reirn-

Sign up to vote on this title
UsefulNot useful