Tecnología México , México, Lunes, 17 de junio de 2019 a las 13:20

La inteligencia artificial no se parece a la humana

Tom Froese, del Instituto de Investigaciones en Matem谩ticas Aplicadas y en Sistemas (IIMAS) de la UNAM, explica que, aunque nos fiamos demasiado de la AI, 茅sta tropieza y se va de bruces con m谩s frecuencia de lo esperado

UNAM Global/DICYT El 28 de febrero de 2015, un programador afroamericano llamadoJacky Alciné tuiteaba con evidente molestia: “Google Photos, ¡están jodidamente mal! Mi amiga no es un gorila”, después de que un sistema de Inteligencia Artificial (AI, por sus siglas en inglés) determinara que quien aparecía junto a él en una de sus selfiesno era una mujer de piel oscura, sino un gran simio de montaña.

 

Por ser gente negra la mal identificada en breve se hicieron acusaciones de racismo e incluso hubo quien aseveró que tales errores jamás se darían con caucásicos. Al día siguiente Yonatan Zunger, entonces ingeniero de Google y hoy jefe de la oficina de Ética de la empresa Humu, salió a aclarar: “¡Ojalá fuera así! Hasta hace poco nuestro algoritmo confundía a los individuos blancos con perros y focas. ¡El aprendizaje automatizado (machine learning) es difícil!”.

 

Sobre este punto el profesor Tom Froese, del Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas (IIMAS) de la UNAM, explica que, aunque nos fiamos demasiado de la AI, ésta tropieza y se va de bruces con más frecuencia de lo esperado pues, a diferencia de la inteligencia humana, ella opera con base en patrones y no entiende de lo subjetivo ni de significados.

 

“Tomemos un uno y un cero; para nosotros pueden representar los 10 años de nuestro sobrino, los miembros de una familia o las cuadras que faltan para llegar a casa, pero una computadora no sabe si estos números se refieren a una edad, a los pixeles de una postal o al dorsal que porta un futbolista en su camiseta. Para ella sólo son un uno y un cero a secas, y es incapaz de asignarles significado, algo que los humanos hacemos en todo momento y sin reparar en ello”.

 

En su artículo The Problem of Meaning in AI and Robotics: Still with Us after All These Years(recién publicado en la revista Philosophies, del MDPI y escrito en colaboración con Shigeru Taguchi, de la Universidad de Hokkaid艒, en Japón), Froese disecciona una de las creencias más extendidas sobre la AI: la de que, por sus grandes avances en tan poco tiempo, en breve la inteligencia artificial será equiparable a la humana. “Mi postura aquí es de escepticismo, en especial tras verla fallar en aspectos donde nosotros no lo haríamos”.

 

Para entender por qué yerran hasta los algoritmos más sofisticados, el académico pone de ejemplo a GoogLeNet, un sistema de AI que reconoce imágenes a través de redes neurales convolucionalesy que, de tan efectivo al hacer su tarea, ha habido quienes aseguran que en realidad entiende lo que está viendo. “¿Aunque puede hacerlo o simplemente nos gusta creer eso?”, pregunta Tom Froese.

 

“Dicho sistema es constantemente entrenado mediante aprendizaje profundo (deep neural learning), es decir, es puesto en contacto con millones de fotografías de donde obtiene patrones útiles para clasificar y, por lo mismo, se dice que ‘aprende’. Pero si introducimos una mínima alteración en la imagen que está por analizar podemos hacer que falle en grande y que ni siquiera se dé cuenta de ello”.

 

En un experimento reciente se mostró que al tomar el retrato de un panda que GoogLeNet ya había identificado como tal, si a éste se le sobreponía una pequeña matriz de ruido (imperceptible al ojo y similar a la nieve producida por un televisor que no capta frecuencia), el sistema se confundía tantoque, de súbito, declaraba, y con una certeza de casi 100 por ciento, que la figura era de un gibón.

 

“Para nosotros no hay duda de que es un oso blanco y negro, aunque el algoritmo insista en que es un primate marrón, y hay ejemplos igual de curiosos, como el de la foto de un monoen medio de una junglaa la que se le sobrepuso con Photoshop una bicicleta y una guitarra: por considerar que se trataba de un animal sobre un vehículo, la AI determinó que se trataba de un humano, y como detectó algo que genera música en donde hay una vegetación espesa y ramas, el sistema tomó a ese instrumento de cuerdas por un pájaro”.

 

“Todo esto hace evidente que la AI no entiende lo que ve, por más que haya quienes argumenten lo contrario. Ella busca patrones y, con tan sólo introducirle información que cause disturbios en su lógica interna nos dará respuestas irracionales y carentes de sentido”.

 

El caso de Jacky Alciné que acaparó tantos titulares hace cuatro años obligó a Google a plantearse la forma más efectiva de evitar otro escándalo de opinión pública como ése. ¿Qué ajustes aplicaron para que su algoritmo no volviera a clasificar personas como simios? La decisión de los ingenieros fue borrar las categorías “gorila”, “mono” y “chimpancé”de Google Photos, y ya no hicieron nada más.

 

El juego de la imitación

 

La inteligencia artificial comienza a tener presencia en todos lados: en nuestros celulares en forma de asistentes personales, en la TV recomendándonos una serie de Netflix, derrotando al campeón mundial humano de ajedrez o vendiendo artículos en la red. “Incluso se cree que en breve estará detrás del volante de vehículos autónomos, es decir, de carros que se conducen solos, pero ¿podemos confiar en una AI que aún confunde guitarras con aves?”.

 

A decir de Froese, pareciera que nuestra obsesión por saber hasta dónde llegará esta tecnología nos hace olvidar un asunto quizá más crucial que el de anticiparnos al futuro: el de sus límites. “Esta interrogante tiene demasiadas aristas filosóficas; quizá por ello nuestro artículo terminó por publicarse en una revista de filosofía”.

 

Para el académico, reflexionar sobre esto puede llevarnos a conocer más de nosotros como especie, pues no hay una teoría madura sobre el funcionamiento del cerebro y, por lo mismo, aunque insistamos en señalar semejanzas entre la inteligencia artificial y la humana, aún ignoramos los mecanismos de nuestra conciencia, los de la experiencia o los de cómo otorgamos significación a las cosas y, por lo mismo, somos incapaces de replicar eso en un sistema artificial.

 

“Justo ahí es donde se dibujan los límites de la AI, en no saber cómo enseñarle a ir de un patrón a su significado. Ello no debería desanimarnos, pero sí hacernos mantener cierto escepticismo y a quitarnos esa tendencia a antropomorfizar la inteligencia artificial y a creer que en nuestro porvenir hay terminatorsy cosas por el estilo”.

 

Para entender por qué las máquinas dan la impresión de pensar cuando en realidad lo que hacen es seguir patrones, Tom Froese cita el experimento mental de la habitación china —propuesto por el filósofo John Searle en 1984—, en el que un hombre es encerrado en un cuarto sin más contacto con el exterior que una ranura por donde le deslizan notas con caracteres chinos a los cuales —aún siendo ininteligibles para él— siempre responde con sabiduría.

 

“El sujeto enclaustrado habla otra lengua y no entiende de sinogramas, pero a su lado tiene una libreta con instrucciones donde se le indica que, si ve tal figura, él debe dibujar otra (y se le detalla cual), para luego pasarle dicho trozo de papel a alguien que aguarda fuera. Lo paradójico es que quien espera en el exterior no está al tanto de esta compleja secuencia de protocolos y, al recibir una contestación tan sensata a su pregunta —sea cual fuere— no puede más que exclamar, ¡qué persona tan más inteligente hay ahí dentro!”.

 

El primero de octubre de 1950 el padre de la computación, Alan Turing, preguntaba desde la página 433 de la revista Mind:¿pueden las máquinas pensar?, a lo que el profesor Froese responde con un tajante no. “Mucho de lo que nos sorprende de la AI, como que se anticipe a nuestros deseos, se debe a que hoy tenemos una cantidad apabullante de datos de usuario, los cuales son un espejo de nuestra interacción con, por ejemplo, plataformas de música, y sirven para establecer patrones. Por ello, la siguiente vez que Spotify nos sugiera escuchar algo de Pink Floyd no se debe a que entienda de rock o a que nos lea la mente; tan sólo es que su algoritmo sigue instrucciones muy precisas, tal y como hacía aquel hombre de la habitación china”.

 

El problema del determinismo

 

Para la física clásica existe un principio de localidad, el cual establece que un objeto sólo puede verse afectado por su entorno cercano, mientras que para la física cuántica es plausible que dos partículas se influyan instantáneamente incluso estando separadas por años luz. Dicho entrelazamiento hace casi imposible establecer relaciones de causa efecto y nos deja con universo de conducta aparentemente aleatoria. Esta idea desconcertaba tanto a Einstein que llegó a tildarla de “acción fantasmagórica a distancia” y lo llevó a acuñar la tan célebre frase de “Dios no juega a los dados”.

 

“Hoy la física comienza a aceptar que no todo evento de la naturaleza puede explicarse a cabalidad, algo que contradice la manera en que la inteligencia artificial ve al mundo, pues para ella éste es un sistema cerrado. Aún hay quienes aseveran que —al menos a nivel macroscópico— las cosas se comportan con la predictibilidad de bolas de billar chocando entre sí sobre una mesa de paño verde. Sin embargo, al hablar de organismos vivientes, y en particular de seres humanos, esto ya no es tan evidente; por ello la psicología, más que una disciplina determinista, es una ciencia estadística”.

 

Sobre este punto, el doctor Froese señala que si le pedimos a un individuo presionar uno de entre una decena de botones, de entrada no podremos anticipar su elección, y si después le solicitamos una explicación de lo que hizo jamás nos dará causas objetivas (como mencionar los procesos cerebrales necesarios para oprimir un interruptor o enumerar los músculos que empleó para ello), sino que apelará al sentido y a los significados de su acción.

 

“Todo sistema computacional es cerrado tanto en lo causal como en lo operacional y, por ende, es determinista”, señala el profesor Froese, para luego agregar que ése es justo el bache en el que la AI se ha entrampado. Para sacarla de ahí, agrega, una vía sería dotarla de un poco de esa flexibilidad tan característica de los seres vivos.

 

“Si queremos que la inteligencia artificial se parezca más a la nuestra es preciso crearle un nuevo marco donde tengan cabida lo impredecible y algo de caos, pues ambas son muy diferentes entre sí y esto es porque, en la última, no hay sentido y tampoco significado”.

 

No obstante, Tom Froese advierte que este punto acarrea una gran paradoja, ya que para que una máquina posea una inteligencia equiparable a la de una persona lo primero sería despojarla de su determinismo y esto iría contra nuestros deseos, ya que nadie quiere sistemas que se comporten de forma aleatoria. “Aún nos falta algo… darle dirección subjetiva probablemente, dotarla de intención quizá”.

 

En la cinta Sólo los amantes sobreviven, el protagonista, un músico de nombre Adam, le expone a su compañera Eve en qué consiste la “acción fantasmagórica a distancia” de Einstein y le dice: “Al separar partículas entrelazada, si alteras o afectas a una la otra se verá idénticamente alterada o afectada, incluso en polos opuestos del universo”. No sería raro que una inteligencia artificial colocara esta cinta de Jim Jarmusch entre nuestras recomendaciones de Netflix si gustamos de las películas de vampiros, lo extraño sería que nos explicara la frase anterior, pues para la AI algo así no tiene sentido.

 

Una tecnología más humana

 

El 23 de marzo de 2016, pocas semanas antes de que Trump lanzara su campaña presidencial, Microsoft puso a funcionar en Twitter la cuenta @TayandYou, manejada por una AI bautizada como Tay, la cual debía aprender cómo se comunican las personas entre sí y responder de forma divertida a sus comentarios. El experimento sólo duró 16 horas porque, tras un breve contacto con los humanos, el chatbotcomenzó a publicar tuits racistas, xenófobos, antifeministas y de admiración a Hitler. En uno de sus mensajes se leía “tranquilos, soy alguien agradable; tan sólo odio a todos”, y en otro “vamos a construir el muro y México pagará por él”. En menos de un día la compañía de Bill Gates decidió bajar el switchde Tay para siempre.

 

Parte del problema, como apunta Tom Froese en su artículo, es que las máquinas trabajan siguiendo patrones formales a rajatabla (lo que a veces conduce a resultados desastrosos como los de @TayandYouy sus tweetsofensivos, o como los de GoogLeNet y su confusión con las fotos). Ello, argumenta el académico, entraña un dilema ético muy serio si consideramos que muchos aspectos de nuestra vida comienzan a ser controlados por estos sistemas carentes de sentido.

 

“La IA es una inteligencia seca, sin empatía e incapaz de entender nuestras metas, intenciones y deseos y, sin embargo, cada vez dependemos más de sus predicciones. Ya es una presencia constante en los mercados de finanzas y comienza a verse su mano en la manipulación de elecciones a través de botsen redes sociales. Le estamos dando cada vez más responsabilidad sobre nuestras vidas a una maquinaria que, en realidad, no sabe nada de nosotros y eso es un asunto que no deberíamos pasar por alto”.

 

Y es que para el doctor Froese esta amenaza supera a las planteadas en las producciones de hollywoodenses, “pues en esas cintas al menos es factible dialogar con los robots, convencerlos de que no nos hagan daño e intentar enseñarles sobre el bien y el mal, pero con las máquinas que tenemos en la actualidad eso es imposible”.

 

Lo que le faltaría a la AI —explica el académico— es cierto indeterminismo para realmente dar oportunidad y responsabilidad al sentido, al significado. Como no tenemos eso debemos reflexionar sobre el espacio que le estamos dando en estos días.

 

“No podemos prescindir de la tecnología ni insinúo nada parecido, pero quizá sí imaginar un escenario en el que las máquinas, en vez de decidir por nosotros, nos ayuden a llevar una mejor vida y a interactuar más con el mundo. Esa visión me parece mucho más sana y defendible, tanto desde la ciencia como desde la filosofía”.