You are on page 1of 5
24 Febrero, 2020 Unknown author La capacidad clave que la IA aun no tiene En menos de una década, los ordenadores han desarrollado una capacidad increfble para diagnosticar enfermedades, traducir idiomas y transcribir el habla. También han aprendido a derrotar a los humanos en algunos complicados juegos de estrategia, crear imagenes fotorrealistas y sugerir respuestas titiles a nuestros correos electrénicos. Pero, a pesar de estos impresionantes logros, la inteligencia artificial (1A) atin tiene algunas limitaciones importantes. Los sistemas de aprendizaje automatico pueden ser engafiados y confundirse ante situaciones desconocidas. Un coche auténomo puede desconcertarse ante un simple imprevisto que un conductor humano resolveria facilmente. Un sistema de inteligencia artificial entrenado con mucho cuidado para llevar a cabo una tarea (identificar gatos, por ejemplo) debe volver a ser entrenado para aprender a realizar otra distinta (como identificar perros). En ese proceso, suelen perder algo de lo aprendido en latarea original. Los informaticos denominan este problema como “olvido catastréfico" Estas deficiencias tienen algo en comin: todas ellas son el resultado de Ia ineapacidad de la inteligencia artificial para entender la causalidad. Pueden identificar que algunas actividades se asocian con otras, pero no suelen ser capaces de averiguar qué es lo que provoca que algo ocurra directamente. Es como si supiéramos que la presencia de nubes aumenta la probabilidad de que Iueva, pero no tuviéramos ni idea de que las nubes causan la Huvia. Foto: Elias Bareinboim: Los sistemas de inteligencia artificial no tienen ni idea de la causalidad. Comprender el principio de causa y efecto resulta fundamental para lo que conocemos como sentido comiin. Pero los actuales sistemas de inteligencia artificial "no tienen ni idea" de eso, asegura el director del nuevo Laboratorio de Inteligencia Artificial Causal de la Universidad de Columbia (EE. UU.), Elias Bareinboim, que lidera los esfuerzos para solucionar este problema. Su idea consiste en completar la investigacién de inteligencia artificial con los conocimientos de la relativamente nueva ciencia de la causalidad, un campo creado en gran medida por el catedratico ganador del Premio Turing y mentor de Bareinboim, Judea Pearl, Segiin Bareinboim y Pearl, aunque la capacidad de IA para detectar correlaciones como la de las nubes y la probabilidad de lluvia solo representa el nivel mds simple del razonamiento causal, fue suficientemente importante como para impulsar el auge del aprendizaje profundo en la diltima década. Gracias a la gran cantidad de datos sobre situaciones similares, esta técnica es capaz de generar muy buenas predicciones. Un ordenador puede calcular la probabilidad de que un paciente con ciertos sintomas tenga una determinada enfermedad, porque ha aprendido con qué frecuencia otras miles 0 incluso millones de personas con los mismos sintomas tenian esa enfermedad. Pero existe un creciente consenso en torno alla idea de que el progreso de la IA se detendré silos ordenadores no mejoran su comprensién de la causalidad. Si las maquinas pudieran entender que ciertas cosas conducen a otras, no tendrian se verian obligadas a aprenderlo todo de nuevo cada vvez: podrian apravechar lo aprendido en un campo y aplicarlo a otra. Y si las maquinas pudieran usar el sentido comin, les darfamos mas libertad para trabajar por su cuenta, pues sabiamos que tendrian pocas probabilidades de cometer errores tontos. La IA actual tiene una capacidad limitada para deducir el resultado de una accién determinada, En el aprendizaje reforzado (la técnica que ha permitido que las maquinas dominen juegos como el ajedrez y el Go), el sistema utiliza repetidas pruebas y errores para descubrir con qué movimientos tiene mas probabilidades de ganar la partida. Pero este enfoque no funciona en los complicados entomos del mundo real. Una maquina ni siquiera es capaz de adquirir una comprensién general de cémo podria jugar a otros juegos. Un nivel atin mayor de pensamiento causal seria la capacidad de razonar sobre por qué ocurte algo yhacer preguntas del tipo " {qué pasaria si...?". Un paciente se muere durante un ensayo nico; {la culpa fue de la medicina experimental o de otra cosa? La puntuacién de las pruebas li escolares esta disminuyendo; {qué cambios podrian mejorarla? Este tipo de razonamientos van mucho més all de la capacidad actual de la inteligencia artificial. Hacer milagros El suefio de dotar a los ordenadores de un razonamiento causal llevé en 2008 a Bareinboim de Brasil a Estados Unidos. Cuando terminé su master en ciencias de la computaci6n en la Universidad Federal de Rio de Janeiro (Brasil) aproveché la oportunidad de estudiar con el cientifico informitico y estadistico de la Universidad de California en Los Angeles (UCLA) Judea Pearl. Este investigador de 83 afios es eJexperto por excelencia en inferencia causal, y su trabajo muestra por qué resulta dificil crear la IA que entiende la causalidad. Indluso las mejores cientificos tienden a malinterpretar las correlaciones como sefiales de causalidad o hacer justo lo contrario y dudar ala hora de aceptar una causalidad que esta justificada, En la década de 1950, por ejemplo, algunos prominentes estadisticos enturbiaron las aguas en torno a si el tabaco causaba cancer. Argumentaron que sin un experimento que asignara aleatoriamente a las personas a ser fumadores o no fumadores, nadie podria descartar la posibilidad de que algo desconocido, tal vez estrés o algin gen, causara que las personas fumaran y tuvieran cancer de pulmén. Al final, el hecho de que fumar provoca cdncer se comprobé definitivamente, pero hubiera sido preferible que no se hubiera tardado tanto en lograrlo. Desde entonces, Pearl y otros estadisticos han ideado un enfoque matematico para identificar qué hechos serian necesarios para respaldar una afirmacién causal. El método de Pearl muestra que, dada la prevalencia del tabaquismo y del cancer de pulmén, un factor independiente que cause ambos seria extremadamente improbable. Las formulas de Pearl también ayudan a identificar cuando las correlaciones no permiten determinar la causalidad. El director de Sistemas Inteligentes del Instituto Max Planck (Alemania), Bernhard Schélkopf, est especializado en técnicas de 1A causal. El experto sefiala que es capaz de predecir Ia tasa de natalidad de un pais si conoce su poblacién de cigiiefias. Esto no se debe a que las cigiiefias entreguen a los bebés ni a que los bebés atraigan a las cigiiefias, sino probablemente porque el desarrollo econémico provoca més bebés y més cigiiefias, Pearl ha ayudado a los estadisticos y cientificos informaticos a resolver estos problemas, segiin Schélkopf. Foto: Judea Pearl: Su teoria del razonamiento causal ha transformado la ciencia. El trabajo de Pearl también ha conducido al desarrollo de las redes bayesianas causales, el software que analiza grandes cantidades de datos para detectar qué variables parecen tener una mayor influencia en atras. Por ejemplo, la compafiia GNS Healthcare utiliza esta técnica para asesorar a los investigadores sobre los experimentos que parecen més prometedores. En un proyecto, GNS trabajé con los investigadores que estudian el mieloma miltiple, un tipo de cancer de la sangre. Los investigadores querian saber por qué después de recibir un trasplante de células madre (un tratamiento comtin), algunos pacientes vivian con la enfermedad més que otros. El software revolvié los datos con 30.000 variables y sefialé algunas que parecian ser especialmente causales. Los bioestadisticos y los expertos en la enfermedad se centraron en una en particular: el nivel de una determinada proteina en los cuerpos de los pacientes. Luego, los investigadores realizaron un ensayo clinico dirigido para ver si los pacientes con esta proteina realmente se beneficiaron mas del tratamiento, "Es mucho mas rapido que buscar por aqui y por alld en el laboratorio", afirma la cofundadora de GNS lya Khalil. No obstante, las mejoras que Pearl y otros académicos han logrado en la teoria causal atin no han tenido mucho impacto en el aprendizaje profundo, que identifica las correlaciones sin prestar mucha atencién a la causalidad. Asi que Bareinboim trabaja para dar el siguiente paso: que los. ordenadores se conviertan en herramientas més ttiles para las exploraciones causales humanas. Pearl cree que Ja IA nunca tendrd una inteligencia real sino adquiere una profinda comprensién de Ja relacién causa y efecto. ‘Sila tuviera, podria ejercer Ia introspeccién, que es la base de Ia cognicién Uno de sus sistemas, todavia en fase beta, puede ayudar a los cientificos a determinar si tienen suficientes datos para responder a una pregunta causal. El antropélogo de Antropologia Evolutiva del Instituto Max Planck Richard McElreath utiliza el software para investigar por qué los. humanos pasan por la menopausia (somos los tinicos simios que la tienen) La hipétesis consiste en que la disminucién de la fertilidad en las mujeres mayores beneficié a las primeras sociedades humanas porque las mujeres que se esforzaron més por cuidar a sus nietos finalmente tuvieron més descendientes. Pero, {qué evidencia podria existir hoy en dia para respaldar la afirmacién de que a los nifios les va mejor con los abuelos? Los antropélogos no pueden simplemente comparar los resultados educativos o médicos de los nifios que han vivido con sus abuelos y los que no. Existe lo que los estadisticos Haman factores de confusién: las abuelas suelen vivir mas si tienen nietos que necesitan mas ayuda. El software de Bareinboim puede ayudar a McElreath a descubrir qué estudios sobre nifios que crecieron con sus abuelos tienen menos factores de confusi6n y podrian resultar valiosos para responder a su pregunta causal. "Es un gran paso adelante", asegura McElreath. Latiltima milla Bareinboim habla rapido y suele gesticular mucho. A mediados del semestre, en octubre, lo visité en Columbia (EE. UU.) pero parecia que se acababa de instalar, no habia casi nada en las paredes ni libros en las estanterias, solo un ordenador una pizarra blanca con tantas ecuaciones y diagramas que parecia un detalle de un dibujo animado sobre un profesor loco. No dio mucha importancia al estado provisional del despacho, pues habia estado muy ocupado dando charlas sobre la revolucién causal. Bareinboim cree que un trabajo como este ofrece la oportunidad no solo de incorporar el pensamiento causal en las maquinas, sino también de mejorar el de los seres humanos. Hacer que la gente preste mas atencién a la causalidad no es necesariamente mucho mas facil que ensefiarla a las maquinas, subraya. Los investigadores en una amplia gama de disciplinas, desde la biologia molecular hasta las politicas piblicas, a veces se dan por satisfechos al descubrir las correlaciones que en realidad no estén enraizadas en las relaciones causales. Por ejemplo, algunos estudios sugieren que beber alcohol acorta la vida, mientras que otros indican que el consumo moderado resulta bueno e incluso beneficioso, y hasta hay otras investigaciones que han encontrado que los que beben mucho alcohol viven mas que quienes no lo hacen. Este fenémeno, conocido como "crisis de la reproducibilidad", surge no solo en medicina yen nutricién sino también en psicologia y economia, Bareinboim explica: "Se puede ver la fragilidad de todas estas inferencias. Los resultados cambian cada dos afios”. Argumenta que cualquiera que se pregunte "qué pasaria si", como los investigadores médicos que realizan ensayos clinicos, los sociélogos que desarrollan programas piloto, incluso los editores web que preparan pruebas A/B, deberia empezar no solo reuniendo datos, sino también utilizando la légica causal de Pearl y un software como el de Bareinboim para determinar si los datos, disponibles podrian responder a una hipétesis causal. Cree que con el tiempo esto conduciré a un software de "cientifico automatizado"': quisiera perseguir, y el software combinaria la teoria de la inferencia causal con las técnicas de aprendizaje automatico para descartar los experimentos que no responderfan a esa pregunta. Eso podria salvar a los cientificos de una gran cantidad de costosos callejones sin salida. mna persona podria imaginar una pregunta causal que Bareinboim describié esta visin mientras estabamos sentados en el vestibulo de la Sloan School of Management del MIT ( dijo: ""fenemos un edificio aqui en el MIT con, no sé, 200 personas". {Cémo deciden esos cientificos sociales, o cualquier otro cientifico en cualquier lugar, qué experimentos realizar y qué puntos de datos recopilar? Siguiendo su intuicién: "Intentan ver a dénde conduciran las cosas, en funcién de sucomprensién actual", afiadié. :. UU.), después de una charla que dio el otofio pasado. El cientifico me Se trata de un enfoque inherentemente limitado, asegura, porque los cientificos que disefian un experimento solo pueden considerar un pufiado de variables a la vez. Pero un ordenador es capaz de ver la interaccién de cientos o miles de variables. Codificado con "los principios basicos" del clculo causal de Pearl y capaz de calcular lo que podria suceder con nuevos conjuntos de variables, un cientifico automatizado podria sugerir a qué experimentos deberian dedicar su tiempo los investigadores humanos. Quizas alguna politica piiblica que se ha demostrado que funciona solo en Texas (EE. UU.) podria funcionar en California (EE. UU.) si se apreciaran mejor algunos factores causalmente relevantes. Los cientificos ya no "harian experimentos en la oscuridad", explicé Bareinboim. Tampoco cree que eso esté muy lejos de cumplirse: "Estamos en la filtima milla antes de lograr la victoria" éQué pasaria si...? Esa Ultima milla probablemente requerird técnicas que no han hecho mds que empezar a desarrollarse. Por ejemplo, el informatico de la Universidad de Montreal (Canada) que compart: el Premio Turing 2018 por su trabajo en el aprendizaje profundo, Yoshua Bengio, intenta que las redes neuronales, el software en el corazén del aprendizaje profundo, hagan "meta-aprendizaje" para descubrir las causas de las cosas Actualmente, si quisiéramos que una red neuronal detectara cuando la gente baila, le mostrariamos muchas imagenes de bailarines. Si quisiéramos que identificara cuando las personas corren, le mostrariamos muchas imagenes de corredores. El sistema aprenderia a distinguir a los corredores de los bailarines mediante la identificacién de las caracteristicas diferentes en las imagenes, como las posiciones de las manos y de los brazos. Pero Bengio sefiala que el conocimiento fundamental sobre el mundo se puede obtener analizando las cosas que son similares 0 "invariables" en los conjuntos de datos. ‘Tal vez una red neuronal podria aprender que los movimientos fisicos de las piernas permiten tanto correr como bailar. Quiza después de ver estos ejemplos y muchos otros que muestran a las personas saltando un poco, una maquina finalmente entenderia algo sobre la gravedad y cémo condiciona el movimiento humano. Con el tiempo y con suficiente meta-aprendizaje sobre variables consistentes en los conjuntos de datos, un ordenador podria obtener un conocimiento causal que podria reutilizar en muchos dmbitos. Por su parte, Pearl cree que la IA nunca tendré una inteligencia real sino adquiere una profunda comprensién de causa y efecto. Aunque el razonamiento causal no seria suficiente para una inteligencia artificial general, s{ que resulta necesario, segin él, porque permitiria la introspeccién, que es la base de la cognicién. Las preguntas del tipo " {qué pasaria si...? son los componentes basicas de la ciencia, de las actitudes morales, del libre albedrio y de la conciencia", asegura Pearl Pearl no quiso predecir cuanto tiempo tardaran los ordenadores en obtener las poderosas habilidades del razonamiento causal. ¥ subrayé: "'No soy un futurista". En cualquier caso, cree que el primer paso deberia consistir en desarrollar herramientas de aprendizaje automatico que combinen los datos con el conocimiento cientifico disponible. El cientifico concluyé: "Tenemos mucho conocimiento en el craneohumano que no se utiliza" ‘Basan Bergstein tieeditor de MIT Techrclogy Review’, es ectcr adjuntode op niénen "the Basten Gioke! Viewed using Just Read

You might also like