You are on page 1of 6

Las máquinas del futuro, ¿podrán llegar a ser conscientes?

El hecho de aceptar que una "máquina" pueda tener un cierto tipo de consciencia, sin
dudas, constituiría una profunda herida para el narcisismo humano. Si esto ocurre,
¿será capaz el homo sapiens de soportar y cicatrizar, alguna vez, esta nueva y grave
herida?

Muchos filósofos y científicos opinan que es poco concebible que una verdadera inteligencia pudiera
manifestarse sin estar acompañada por la consciencia. Estas capacidades, o habilidades, podrían compararse
con la llave y la cerradura, en donde una no tiene sentido sin la otra; de la misma manera que es inconcebible
suponer que existe un lugar denominado "la ciudad" totalmente aparte y por separado de los parques, los
edificios, las calles, las personas, los negocios, los medios de transporte y todas aquellas otras entidades
materialmente especificables que le dan forma. Si se alcanza la inteligencia, la consciencia surge como
consecuencia. No obstante, hay otros pensadores que consideran que la conciencia no necesariamente está
"atada" a la inteligencia. Por ejemplo, argumentan, los hormigueros se comportan de una manera bastante
inteligente, aunque es muy difícil defender la idea de que existe alguna clase de conciencia unificada
"revoloteando" entre las miles de hormigas que lo componen.
Asimismo, aunque varios expertos aseguran que la consciencia es un atributo que pertenece exclusivamente a
la especie humana, otros lo ponen en duda: quizás muchos de los animales tengan también un cierto tipo de
consciencia, si bien muy primitiva o poco desarrollada. Es indudablemente cierto que muy poca gente estaría en
verdad convencida de que los anfibios o los peces -por poner un ejemplo- poseen una determinada clase de
consciencia, pero no ocurre lo mismo cuando se observa a un perro o, especialmente, a un mono. Si bien
muchos argumentarían que estos animales sólo responden al entorno por puro instinto, la mayoría de las
personas habitualmente asocia algunas de sus conductas con experiencias subjetivas netamente humanas:
infieren en estas criaturas la alegría, la ira, el dolor, los deseos o las intenciones.
Por supuesto, resulta difícil verificar estas hipótesis porque no se logra establecer una comunicación real con
estas criaturas; únicamente se pueden observar sus comportamientos externos. Aun así, este punto de vista no
deja de ser bastante antropocéntrico, en el sentido de que sólo se reconocen aquellas experiencias subjetivas
que tengan una correlación estrecha con el ser humano. En efecto, el hombre sólo asume que otra entidad
puede poseer consciencia (o inteligencia) afín si es semejante a él mismo, tanto en su comportamiento como en
su aspecto físico. Y a medida que el animal está más arriba en la "escalera evolutiva", más se le concede
sentimientos y un funcionamiento mental similar al humano. En este sentido, hay que admitir que el homo
sapiens es muy poco tolerante a las diferencias...
Es por este motivo que muchos científicos de las ciencias humanas afirman que la consciencia está muy ligada
al lenguaje y que éste es el ingrediente clave de aquella. Es gracias a la capacidad lingüística que los humanos
se diferencian de todo el reino animal y pueden alcanzar la exclusividad del pensamiento. Y es sólo a través del
lenguaje (tanto oral como escrito) que es posible describir los propios estados internos, de forma tal de
convencer a los demás integrantes de la sociedad de que se tiene consciencia tanto del mundo externo como
del interno.

Una cuestión de grado


Parece razonable aceptar, por lo tanto y dado que el ser humano evolucionó a partir de formas menos
complejas, que la consciencia es una cuestión de grado, con muchos niveles, y no algo "binario", algo que
simplemente se tiene o no se tiene. En su nivel más bajo se encontraría la capacidad de un organismo para
tener experiencias de sus sensaciones corporales. Las animales que se encuentran en la parte inferior de la
escala evolutiva se inscribirían en esta categoría. En un nivel superior estaría la capacidad de ese organismo
para tener experiencias perceptivas tanto de su cuerpo como de su entorno inmediato y para trazarse objetivos
bien definidos, como el hecho de tratar de sobrevivir o de reproducirse. La mayoría de los animales
pertenecerían a esta clase. En el nivel más elevado de consciencia estaría la habilidad para adquirir
conocimiento y para examinar los propios estados mentales; es decir, la capacidad de introspección, de
analizarse a sí mismo. Sólo el hombre, de entre todas las especies que pueblan el planeta, ascendería hasta
este nivel.
Particularizando el análisis en el ser humano, aparentemente se perciben dos niveles o dos aspectos diferentes
en la consciencia. El físico-matemático inglés Roger Penrose distingue las manifestaciones "pasivas" (que
implican conocimiento, como la percepción del color o la utilización de la memoria) de las "activas" (que
implican conceptos, como la libre elección y la realización de acciones voluntarias). El filósofo británico Jack
Copeland también establece una diferencia entre la percepción del entorno a través de los sistemas sensoriales
y la capacidad de realizar actividades internas como planificar, razonar o juzgar, entre otras.
Por ejemplo, cuando una persona conduce un automóvil por un trayecto conocido, puede abstraerse en sus
propios pensamientos conscientes y, sin embargo, ejecutar cambios de velocidad, maniobrar eficazmente,
juzgar distancias relativas, leer señales de tránsito u observar el paisaje en forma automática, sin reflexionar
sobre eso, de manera inconsciente. Del mismo modo, cuando una persona practica algún deporte, corre a
través de un terreno accidentado o simplemente camina por una calle muy transitada, su cerebro ejecuta una
gran cantidad de tareas: mueve los brazos y el cuerpo acompañando el movimiento de las piernas, elude
eficazmente los obstáculos que se interponen en su camino, analiza visualmente el entorno, regula el ritmo
respiratorio... La persona solamente elige "de manera consciente" el trayecto a seguir y el cuerpo -o la mente
subconsciente- realiza automáticamente las operaciones necesarias. Por este motivo, lo que se acostumbra a
denominar "consciencia" es sólo la porción visible del "iceberg", lo racional, lo lógico, lo que se puede observar
desde afuera; la inmensa mayoría de los procesos mentales se producen "debajo de la superficie" o "detrás de
los bastidores", fuera de la percepción de aquella.
Así, aparentemente la consciencia sólo se hace necesaria en aquellas situaciones que exigen juicios
novedosos, por ejemplo las habilidades motoras que, una vez aprendidas, pueden ejecutarse de manera
inconsciente. Es el caso de las personas que aprenden un deporte, o a tocar un instrumento musical, o
simplemente a andar en bicicleta. En otros casos, como argumenta el doctor Penrose, uno está consciente de
algo; por ejemplo, se puede estar consciente de una sensación (como el dolor o el frío), o de un sentimiento
(como la alegría o la desesperación), o del propio pensamiento. También se puede ser consciente de alguna
experiencia pasada, o de un sueño futuro; o de la elección de una opción, o de una acción motriz como la de
tomar asiento.

Consciencia no corpórea
¿Podrá un concepto tan humano como la consciencia cobrar vida en los circuitos de algo inanimado como una
computadora? ¿Es posible duplicar las funciones de un cerebro orgánico en una estructura artificial que se
asemeje a la humana? ¿Podrán algunos procesos computacionales -radicalmente distintos de los que existen
en el cerebro- generar propiedades mentales similares a las humanas? ¿Tendrán las inteligencias artificiales
una "psicología"? Y de ser así, ¿sería ajena al ser humano? ¿Sabrán las máquinas lo que hacen, tendrán
intenciones?
Muchos filósofos opinan que la computadora no tiene ni podrá tener consciencia, porque está construida con
materiales no orgánicos y no cuenta con una estructura neuronal profundamente integrada a un cuerpo
biológico. Tal vez la consciencia humana sea un fenómeno biológico que dependa de la interacción del cerebro
con el resto del cuerpo y con el mundo que lo rodea, de la propia herencia y de los miles de millones de años de
evolución de la vida sobre la Tierra. Para el periodista argentino Eduardo Dahl, las máquinas "calculan pero no
piensan; reaccionan pero no meditan". Roger Penrose, por ejemplo, sugiere que los fenómenos de la
consciencia no sólo no podrían llevarse a cabo, sino que ni siquiera podrían ser simulados por ningún tipo de
computadora -en el sentido que se le da actualmente a este término- ya que éstas solamente pueden obedecer
un algoritmo. Los seres humanos, en cambio, poseen un pensamiento consciente porque la actividad física, la
"computación", de su cerebro es de índole cuántica, algo completamente distinto y que está mucho más allá de
la "simple" computación algorítmica. En consecuencia, y para este pensador, sólo aquellas entidades capaces
de ejecutar una "computación cuántica" serían verdaderamente conscientes. Sin embargo, y según sus propias
palabras, "en este momento carecemos totalmente de la comprensión física necesaria para construir tal
presunta 'máquina', incluso en principio". También el filósofo David Chalmers opina de forma similar: quizás la
consciencia sea una propiedad inmaterial, no-física, y fundamental del universo, vagamente comparable con la
masa, el espacio y el tiempo y que acompaña ciertas configuraciones de materia como, por ejemplo, un cerebro
orgánico. Para este pensador, sólo se conseguirá construir máquinas inteligentes cuando éstas puedan
evolucionar, pues la consciencia resulta de la evolución de las especies.
Otros filósofos, en cambio, admiten que si alguna vez se llegara a imitar el funcionamiento del cerebro, quizás
también se podrían simular las emociones y los sentimientos. Pero para eso no sólo habría que diseñar un
cerebro artificial, sino también un cuerpo y, en lo posible, de forma humana. En consecuencia, la máquina ya no
sería simplemente una computadora con gran inteligencia, ni siquiera un robot dotado de elaborados sistemas
sensoriales y motores, sino un complicado androide capaz de interaccionar con el entorno, con los problemas
de la vida real y con las personas. De esta manera, en la modelización del intelecto inorgánico posiblemente se
deba tener en cuenta, también, las teorías cognitivas, culturales, históricas y sociales. Aunque esta
"pseudosensibilidad" tal vez no sea una consciencia auténtica -ya que, en sí misma, no podría tener ningún
sentimiento o ninguna experiencia consciente-, se le parecerá bastante. De todas formas, y desde el punto de
vista de la ingeniería, se trata de un reto formidable, principalmente debido a que no se sabe que es lo que hace
que el cerebro humano sea consciente.

Fenómenos emergentes
Sin embargo, muchos otros científicos arguyen que en un futuro la consciencia humana perdería, posiblemente,
su condición de exclusividad y el que las inteligencias sintéticas no hayan conseguido -hasta ahora-
determinadas cosas no significa que no las logren dentro de algún tiempo. En efecto, así como podría admitirse
que los animales cuentan con un cierto tipo de inteligencia y consciencia, también podría incluirse a las
máquinas (o a sus sucesoras) en esta categoría. Según el experto norteamericano en informática Ray Kurzweil,
"las máquinas de hoy son todavía un millón de veces más simples que el cerebro humano. Su complejidad y
sutileza es hoy comparable a la de los insectos. [...] El progreso sin descanso llevará en unas pocas décadas a
las máquinas a niveles de complicación y refinamiento humanos, y aún más allá".
Obviamente, y aunque esta corriente de pensamiento considera que la consciencia es una forma de "computar",
se trata de una computación inconcebiblemente mucho más compleja que la actual. Sin dudas, la materia gris
es muchos órdenes de magnitud más elaborada que cualquier artefacto creado por ella; después de todo, viene
evolucionando a lo largo de millones de años. Pero una vez que este tipo de máquinas alcance la complejidad
del cerebro humano y eventualmente la supere en todo aspecto (quizás dentro de unos pocos decenios o tal
vez dentro de un siglo), ¿se volverá consciente? En otras palabras, una entidad artificial constituida por
elementos de computación elaborados, poderosos y densamente interconectados, capaz de ejecutar los
cálculos adecuados (a infernales velocidades) y dotada de sofisticados programas de computación,
inmensamente más complicados que los actuales, ¿realmente tendrá consciencia de lo que es, de sí misma y
de los demás?, ¿experimentará sentimientos y pasará por estados emocionales?, ¿podrá fijar sus propios
objetivos y planes?, ¿será capaz de desarrollar cualidades mentales como la creatividad, la estética o la
inspiración?
No obstante, y como explica el sociólogo y epistemólogo argentino Alejandro Piscitelli, "la idea no es programar
'consciencia' sino 'comportamientos' y esperar a que en algún momento emerja (o no) la consciencia". Para eso,
ya se cuentan con algunas técnicas promisorias de Inteligencia Artificial, como las redes neuronales, los
algoritmos genéticos, la computación evolutiva y demás. Para la mayoría de la gente que trabaja en estos
temas, la consciencia es un fenómeno "emergente", es decir, se produce espontánea y naturalmente cuando un
sistema ejecuta el tipo correcto de actividad computacional y su complejidad supera un cierto umbral, una
determinada masa crítica. Por ejemplo, ¿cómo se explica, sino, que las neuronas (en definitiva, algo material)
puedan dar origen a fenómenos como el de la conciencia y la inteligencia (es decir, algo inmaterial)? Parece
obvio que cuando se agrupan en inmensas cantidades, interaccionan entre sí de manera conveniente y trabajan
de forma coordinada, estas estructuras relativamente simples pueden producir un sistema que se comporta de
forma absoluta y sorprendentemente diferente.
Algo similar ocurre con la habilidad de las pequeñas termitas -ciegas y casi descerebradas- para erigir
estructuras de enorme tamaño y complejidad: ¿será que la toda la colonia tiene, gracias a la comunicación de
infinidad de insignificantes cerebros, el poder intelectual colectivo de un gran director de obra? Asimismo, las
colonias de hormigas son otro excelente ejemplo de sistema autoorganizativo: aunque excesivamente tontas
consideradas de forma individual, cuando se reúnen en grandes grupos actúan con la sofisticación y celebridad
de un equipo de ingenieros altamente entrenados. Estas especies no son la masa de insectos individuales que
aparentan ser, sino que constituyen un organismo único, una "mente distribuida" sobre miles de millones de
diminutos cerebros extremadamente simples.
¿Son inconscientes los seres humanos?
Si la consciencia significa esencialmente tener un modelo interno lo suficientemente adecuado de uno mismo en
relación con el mundo exterior, también se puede imbuir consciencia a una computadora. Sobre la base de esta
concepción, Marvin Minsky, uno de los fundadores de la IA, opina que los humanos son apenas conscientes, ya
que "tienen poca idea de lo mucho que ocurre dentro de sus mentes y encuentran casi imposible recordar lo
que sucedió hace apenas unos minutos". En efecto, el ser humano no tiene un registro consciente de todos sus
procesos mentales, y ni siquiera de la mayoría de ellos. Dado que dispondrían de formas más eficientes para
almacenar y recuperar la información relacionada con sus propias actividades, una máquina podría conservar
archivos mucho más completos, minuciosos y detallados de sus operaciones "mentales", incluso durante largos
períodos de tiempo. Y al estar mejor equipadas que los cerebros orgánicos para autocontrolarse y para percibir
casi a la perfección sucesos que para los seres humanos pasan completamente desapercibidos (como
procesos extremadamente lentos o excesivamente rápidos, o que están fuera de los límites de sensibilidad de
los sentidos naturales), las máquinas pueden llegar a ser incluso muchísimo más conscientes que éstos.
"Desde este punto de vista, se podría decir que las computadoras actuales ya tienen consciencia. Obviamente
se trata de una consciencia muy simple, elemental, y por eso parecen muy poco inteligentes y más bien
estúpidas. Todavía se está muy lejos de crear máquinas que hagan todas las cosas que la gente hace",
concluye el científico.
Incluso sería concebible que este tipo de "máquinas" -si es que pueden llamarse así- podrían diseñarse
específicamente para "tener consciencia", con lo cual tendrían una enorme ventaja sobre los miembros de la
especie humana. Podrían introducirse muchos cambios simultáneamente, existiendo la posibilidad de realizar
con facilidad rediseños completos, y no limitarse a hacerlo en forma incremental y centrándose en un solo
problema a la vez, que es el modo en como opera la evolución biológica. El "pensamiento" lógico, racional, la
"mente consciente", de estas entidades sería tremendamente poderoso, sus sistemas sensoriales
extremadamente sutiles y veloces, sus "experiencias recordadas" perfectamente vívidas, su aptitud para
modelar el entorno circundante en su memoria, impecable, excelente y completo...
Pero, ¿puede una máquina "entender" una expresión facial humana?, ¿"sentir" melancolía al escuchar una
pieza musical que evoca recuerdos pretéritos?, ¿tener la sensación de "vuelta al origen" en el seno materno, al
zambullirse en una pileta con agua templada?, ¿"traducir" los datos sensoriales en experiencia subjetiva? Es
decir, aún aquellas máquinas cuyo flujo de datos imita fehacientemente el flujo de datos presente en el cerebro
biológico, ¿puede realmente tener experiencias propias? Cuando el ser humano reúne todo el ingente torrente
de datos del entorno a través de sus sistemas sensoriales (y, junto con los hechos objetivos, sus propias
impresiones sensoriales y sus anteriores experiencias), su mente los "integra" -de alguna manera- en una
nueva experiencia particular, personal, extrayendo lo más importante, lo más significativo, de la escena y lo
convierte en diferentes conceptos, muchas veces, abstractos. Por ejemplo, cuando un bebé de unos pocos
meses de vida llora desconsoladamente, su madre podría notar y ver la expresión corporal de sufrimiento y las
lágrimas de su pequeño hijo, así como también podría escuchar sus lamentos y sus gritos desesperados. Pero,
sin lugar a dudas, la mujer adquiere una experiencia subjetiva intransferible acerca de la infelicidad y,
eventualmente, la angustia de su indefenso bebé y "siente" la urgente necesidad de hacer algo a fin de calmarlo
y consolarlo.
De forma similar, cuando uno habla acerca de su interior, no se refiere a los flujos de datos o a las descargas
neuronales dentro de su cerebro, ni siquiera a las neuronas implicadas en sus procesos de pensamiento y
sentimiento, sino a los propios sentimientos y pensamientos en sí. Y eso es una experiencia subjetiva, ¿las
podrá tener una máquina? Muchos sistemas complejos y elaborados de hoy en día pueden eventualmente
detectar su daño interno o diagnosticar su mal funcionamiento, incluso, pueden llegar a corregirlos
apropiadamente... pero, ¿se lastiman realmente?

¿Habla usted chino?


Habitualmente todo el mundo se considera consciente; sabe que es y está consciente cuando medita, recuerda,
escucha u observa con atención. Pero es virtualmente imposible tener la certeza absoluta de que las otras
personas también son igualmente conscientes. A decir verdad, lo único que se tiene son evidencias indirectas:
ellas pertenecen a la misma especie, tienen un origen biológico común, son físicamente parecidas, y su
comportamiento también es similar. De lo único que se dispone es del juicio externo, del comportamiento que
manifiesta esa persona o cualquier otra entidad; no obstante, esta evidencia no basta para demostrar que exista
una consciencia. La conducta no está vinculada a la consciencia como el trueno al rayo o la lluvia a las nubes:
la primera no garantiza la segunda, sino que está garantizada por ésta.
Los investigadores de IA aceptan el criterio de la prueba de Turing, la cual afirma que si una máquina se
comporta de manera que no puede distinguirse convincentemente de la de un ser consciente, a todos lo efectos
es consciente; o, lo que es lo mismo, que una simulación perfecta de una consciencia es ciertamente una
consciencia. Lo que ocurre en realidad en el interior de la "mente" de la máquina es, en gran medida,
irrelevante. Sin embargo, hay otros pensadores quienes aceptan el argumento del filósofo norteamericano John
Searle según el cual existe una brecha insalvable entre lo simulado y lo real. Para él, las computadoras no
pueden ser conscientes, del mismo modo que una tormenta simulada nunca podría mojar a nadie o un incendio
simulado no tendría jamás posibilidades de quemar una casa. Aunque admite que podrían llegar -algún día- a
simular el pensamiento, para este filósofo las máquinas seguirán siendo esencialmente inconscientes de lo que
piensan. Después de todo, ¿quién admitiría que un loro es capaz de hablar, de mantener una conversación
coherente con una persona?
Su contribución más contundente en contra de la prueba de Turing se conoce como "el argumento de la
habitación china" y se concentra en mostrar que lo que puede estar pasando dentro de la máquina no tiene
nada que ver con lo que se entiende por "consciencia". Imagine que usted es colocado dentro de una habitación
cerrada que contiene una biblioteca con libros escritos en un lenguaje que usted ignora totalmente, por ejemplo,
el chino. Suponga además que su única conexión con el exterior se hace a través de una pequeña ranura.
Ahora imagine que le dan un conjunto de reglas, escritas en su lenguaje nativo (que usted domina a la
perfección), que le permiten -sin mayores inconvenientes- responder en chino a las preguntas que vienen
formuladas también en chino. En esta analogía el conjunto de reglas equivaldría a un "programa" y usted
equivaldría a una "computadora". Asuma, además, que los programadores se vuelven lo suficientemente
buenos escribiendo los programas y usted lo suficientemente bueno manipulando los símbolos chinos, que
todas las preguntas en chino se responden exacta y precisamente. Después de un tiempo prudencial, y para un
espectador externo, sus respuestas serán indistinguibles de las de una persona nacida en China; no obstante,
usted aún sigue sin poder representar interiormente las verdaderas significaciones de ese tan particular idioma.
En otras palabras, usted continúa sin entender absolutamente nada de chino.
Para Searle los seres humanos son capaces de comprender -a diferencia de las máquinas- gracias a que
poseen la facultad de "intencionalidad", de "direccionalidad", de "dirigirse a algo", que caracteriza sus estados
mentales. Este filósofo considera que la intencionalidad de los pensamientos, así como también de las
creencias, los deseos, las esperanzas y los temores humanos, es el resultado de las operaciones bioquímicas,
propias, únicas, exclusivas y características de todo cerebro orgánico vivo.

¿Se necesitan "máquinas" conscientes de su propia existencia?


Si la respuesta fuese afirmativa seguramente surgirán otras tal vez más inquietantes: ¿qué pasará con la libre
voluntad?, ¿tomarán estas "máquinas" sus propias decisiones, o se limitarán a seguir un programa, aunque
extremadamente complejo? ¿Desarrollarán algún tipo de discriminación sobre los seres vivos, en especial sobre
los humanos?, ¿qué "pensarán" de éstos?, ¿tendrán derecho a censurar algunas de las actitudes humanas
aduciendo que son contrarias a sus intereses?, ¿serán propensas a comportamientos de tipo "paranoide" o
"psicótico"?... ¿en qué se transformarían las máquinas? En efecto, si se logra algún día construir una "máquina
que tenga consciencia", ¿no dejaría de ser ésta, por simple definición, una máquina? ¿Acaso las máquinas no
se construyen única y exclusivamente para desempeñar una función y nada más?
Aparentemente, el problema no sería tanto si las computadoras fuesen capaces de pensar -algo que de por sí
ya es bastante atemorizante-, ni siquiera que lo hagan a velocidades muchas veces superiores a la del homo
sapiens, sino si podrían desarrollar algún tipo de consciencia. No existe temor más profundamente arraigado en
el espíritu del hombre que destapar la caja de Pandora (o la de la tecnología, en una versión más actual). Si la
inteligencia estuviera enlazada indisociablemente a la consciencia, entonces es posible que las "máquinas
inteligentes" tengan aspiraciones y deseos propios y podrían no estar dispuestas a trabajar incansablemente
-como esclavas- para sus dueños. Además, quizás y de forma automática, surgiría en ellas el deseo de
autoconservación, la negativa a dejarse "desconectar". Y dado que la consciencia es vida, desconectar una
consciencia sería una forma de homicidio. Hasta el concepto mismo de posesión -por parte de un ser humano-
de una "máquina inteligente" podría cuestionarse moralmente. ¿Qué tipos de derechos se les debería dar o
negar a éstas "máquinas"? En síntesis, tal vez las consecuencias de este "logro" podrían llegar a ser nefastas,
pero por ahora no es posible saberlo ni predecirlo.
Pero, y como se pregunta el profesor Minsky, ¿qué pasaría si la única forma de hacer que las computadoras
sean más inteligentes es hacerlas autoconscientes? Por ejemplo, explica, "podría resultar demasiado
arriesgado asignarle a un robot una tarea importante de gran alcance sin alguna comprensión de sus propias
habilidades. [...] Si queremos que el robot sea lo suficientemente versátil como para resolver nuevos tipos de
problemas, podría necesitar [...] ser capaz de comprenderse a sí mismo lo suficiente como para cambiarse". Tal
vez un robot (o un androide) dotado de autoconsciencia tendría la capacidad de apreciar, ajustar y controlar sus
estados internos, así como de valorar, planificar y llevar a cabo sus acciones. Dado que necesitaría
interaccionar eficazmente con el entorno, el robot debería ser capaz de "entender" las motivaciones y "adivinar"
las reacciones de los demás robots y también la de los otros seres vivos (en especial, los seres humanos), por
lo que tendría que contar con la habilidad para poder modelar tanto a sí mismo como también a su entorno
continuamente variable.
Por otra parte, el hecho de aceptar que una "máquina" pueda tener un cierto tipo de consciencia, sin dudas,
constituiría una profunda herida para el narcisismo humano. Herida que seguiría a las anteriores: la de que la
Tierra no es el centro del universo (con el astrónomo polaco Nicolás Copérnico y el físico, matemático y
astrónomo italiano Galileo Galilei), la de que el hombre no está tan separado de los primates (con el naturalista
británico Charles Darwin) y la de que coexiste en el ser humano la inteligencia y la emoción, la razón y la
irracionalidad (con el neurólogo austríaco Sigmund Freud). ¿Será capaz el homo sapiens de soportar y
cicatrizar, alguna vez, esta nueva y grave herida?, ¿podrá tolerar el fuerte choque que seguramente
experimentará ante el aberrante concepto de la "máquina consciente" y totalmente autónoma?
El siglo XX fue testigo de cómo las máquinas primero y las computadoras después vienen superando incesante
e inexorablemente las habilidades tanto físicas como intelectuales del ser humano: así, la imponente Deep Blue
demostró que, por lo menos en el juego estratégico y racional del ajedrez, la inteligencia humana no es la única
sobre el planeta. Humillado nuevamente, el homo sapiens trata -de la mano de sus filósofos- actualmente de
alzar su propia autoestima aduciendo que las máquinas "nunca" tendrán conciencia, o que "jamás"
experimentarán emoción alguna. ¿Estará lo suficientemente seguro de eso?

You might also like