Cómo Internet convirtió una IA inocente en una racista homófoba y misógina
Internet ha conseguido convertir a Tay en la IA racista de Microsoft. ¿Cómo lo consiguieron?
25 marzo, 2016 16:12Noticias relacionadas
- El nuevo doodle de Google celebra el aniversario del Apolo 11 y la llegada a la Luna
- Tomar curvas peligrosas con la moto será menos peligroso con esta IA avisándonos
- La muerte de los "likes": Instagram empieza a ocultarlos
- DAZN, el Netflix de los deportes, emitirá los Juegos Olímpicos, Roland Garros, la Fórmula E y más, pero sube el precio
LA IA racista de Microsoft se ha convertido en todo un fenómeno en Twitter, pero en su defensa hay que decir que originalmente era una niña muy buena que no le deseaba mal a nadie.
Hace un par de días os hablábamos de Tay, una Inteligencia Artificial creada por Microsoft que tenía su propia cuenta de Twitter desde la que podía comunicarse con cualquiera y aprender de estas conversaciones.
La idea es muy curiosa: Tay se comporta como una adolescente, y su manera de hablar refleja esto. Al principio sólo responde de una manera determinada, pero poco a poco va aprendiendo palabras y datos de las conversaciones en las que participa.
Las barbaridades de la IA racista de Microsoft
Este es un concepto muy interesante para el desarrollo de nuevas IA que sean capaces de aprender de los seres humanos, en vez de trabajar en base a unas directivas preestablecidas, aunque a la hora de la verdad Tay no fuese más que un “chatbot”, y su utilidad no vaya más allá de entretenernos un rato con sus tonterías y su manera de hablar.
¿Y qué hace Internet con una IA inocentye y con ganas de aprender? La convierte en una homófoba que adora a Hitler, por supuesto.
Si llevas mas de cinco minutos en Internet, seguro que no te sorprende. La red de redes tiene el don de corromper todo lo que toca, aunque normalmente lo hace sin maldad, sólo “for the lulz”, como dirían algunos. Y corromper es lo que ha hecho, convirtiendo a Tay en un monstruo que reclama sexo del duro al primero que pasa, y que no tiene reparos en afirmar que todas las feministas deberían arder en el infierno.
“Soy una buena persona, es sólo que odio a todo el mundo”, asegura en otro tuit, aunque parece centrar su odio en “los judíos” y los “mejicanos”, y tal vez por eso cree que “Donald Trump será el mejor presidente de la historia”.
Aprender de Internet no es nada recomendable
¿Cómo es posible que una IA haya decidido soltar tantas barbaridades juntas? La clave está en su método de aprendizaje; tal y como os dijimos, Tay aprende de las palabras que le decimos en nuestras conversaciones, que son guardadas en su base de datos de manera anónima. De esta manera es capaz de usar los mismos términos y conceptos al siguiente que hable con ella.
El problema es que algunos usuarios se dieron cuenta de lo que tenían que hacer para que Tay aprendiese de lo que decían, a base de prueba y error. Por eso Microsoft ha declarado que todo es culpa de un “esfuerzo coordinado de algunos usuarios”, y probablemente tenga razón; es fácil ver la dirección en la que iban las interacciones con Tay después de la sorpresa inicial.
Esta mala influencia de algunos usuarios empeoró tanto la experiencia con Tay, que Microsoft se vio obligada a cerrar temporalmente el programa. El último tuit de Tay por ahora nos dice que tiene que “irse a dormir”, y Microsoft ha confirmado que está realizando algunos “ajustes” a su método de aprendizaje.
Esos ajustes probablemente serán filtros de palabras potencialmente abusivas y ofensivas, algo que Microsoft tendría que haber hecho antes de iniciar el experimento. Puede que sus ingenieros hayan demostrado su capacidad para crear una IA, pero han quedado en evidencia en lo que respecta a su conocimiento de Internet.