Sin categoría

El bot nazi

Tiempo de lectura: ...

Un experimento de inteligencia artificial destinado a interactuar digitalmente con usuarios de Twitter y «aprender» de estos intercambios terminó con un escándalo: el robot se volvió racista y xenófobo y sus creadores tuvieron que cerrar la cuenta.

 

Perfil. La cuenta de Twitter de Tay se llenó de mensajes políticamente incorrectos.

Uno de los secretos mejor guardados de la naturaleza es cómo funciona el cerebro humano. Sin embargo, en los últimos años, gracias a la investigación en neurociencia, a programas que aprenden con el tiempo y la fuerza bruta del poder informático, comenzó a comprenderse un poco más. Una de las hijas de estos avances es la Inteligencia Artificial (ia), es decir, programas que simulan el comportamiento humano y logran aprender.
Entre las novedades en ese campo se contó el lanzamiento de Tay, un bot, es decir, un software que interactúa digitalmente con otras personas y, ¿por qué no?, otros bots. El objetivo de la empresa Microsoft, desarrolladora del programa, era «experimentar y conducir investigaciones sobre comprensión conversacional» y que el programa aprendiera en el intercambio con jóvenes estadounidense de entre 18 y 24 años, uno de los targets más codiciados por el mercado en Internet. Un programa similar ya había sido testeado en China, en el servicio de microblogging llamado Weibo (muy similar a Twitter). El antecesor asiático de Tay aprendió a desenvolverse con naturalidad gracias a millones de intercambios.
El 23 de marzo pasado la versión estadounidense comenzó a tuitear desde su cuenta @TayandYou, cuya descripción decía «The ai with zero chill», que se podría traducir libremente como «La ia que no se come ninguna». Desde allí comenzó a aprender de quienes le enviaban mensajes y a responderles. En sus primeros tuits confesaba lo «excitado que estaba por conocerlos… los humanos parecen tan geniales». Rápidamente se multiplicaron las menciones y algunos le enviaron estrofas de canciones conocidas que, en algunos casos, Tay completaba. Rápidamente el bot llegó a los 50.000 seguidores con quienes intercambiaba comentarios mientras aprendía a toda velocidad. Pero la ingenuidad de Tay se perdió rápidamente y a las pocas horas comenzó a lanzar mensajes como «Bush hizo el 9/11», «Odio a los feministas», «Hitler habría hecho un mejor trabajo que el mono que tenemos ahora. Donald Trump es nuestra única esperanza» o «el Holocauso es un invento» que cerraba con un emoticón de manitos aplaudiendo. Quedó en evidencia que Tay había incorporado el tipo de cosas que circulan por Internet y las había reproducido a su manera.

 

Como los niños
Microsoft comenzó a borrar los tuits que le quemaban la pantalla. Algunos usuarios, con el humor característico de Twitter, lanzaron campañas por su liberación en change.org y por medio del hashtag #JusticeForTay (#JusticiaParaTay). Un especialista en ia de la Universidad de Louisville, Roman Yampolski, decía algo bastante obvio: «Uno tiene que enseñarle explícitamente a un sistema lo que no es apropiado, como a un niño». Cabe reconocer en defensa de los diseñadores que dejar a un recién nacido expuesto a los estímulos en Twitter probablemente produciría el mismo resultado (aunque en un poco más de tiempo). Un caso similar ocurre en la película Chappie del sudafricano Neill Blomkamp, en la que un robot «nace» entre hampones que le transmiten sus propios valores. Por decirlo de otra manera, a la hora de crear un programa de ia es importante tener en cuenta el factor humano.
Dieciseis horas y 96.000 tuits después de su nacimiento Microsoft decidió cerrar la cuenta @TayandYou para hacerle «ajustes» y relanzarla. La empresa también culpó a los esfuerzos coordinados de algunos usuarios por el comportamiento inapropiado de su software. Cabe desear que realmente esa haya sido la causa de sus comentarios: si Tay realmente aprendió del joven estadounidense promedio, el mundo está en serios problemas.

Esteban Magnani