Google explica cómo creó una IA 'racista' por error y pide perdón: "no es lo que pretendíamos"
Google ha respondido a la polémica generada por su nuevo modelo de IA, Gemini, que creó imágenes “vergonzosas y equivocadas”.
26 febrero, 2024 08:44La IA generativa es una tecnología relativamente nueva aún y, por lo tanto, es comprensible que tenga su ración de fallos y problemas; es sólo que esos problemas son más públicos y llamativos de lo habitual. Es algo que Google ha descubierto por las malas, cuando Gemini decidió ignorar la existencia de hombres blancos a la hora de crear sus imágenes. Ahora, se ha confirmado el motivo por el que la IA se ‘rebeló’ contra sus creadores.
La polémica estaba servida, en cuanto Gemini se negaba en redondo a crear imágenes con personas que no fuesen de etnias negras o asiáticas; en cuanto las primeras cuentas en X (Twitter) se hicieron eco de este fallo, fue usado de manera política para acusar a Google de ser demasiado ‘woke’, fomentando el racismo contra las personas blancas.
La reacción de Google no se hizo esperar, poniendo en pausa la generación de imágenes de personas en general para iniciar una investigación de lo ocurrido y solucionar el problema. Y ahora, Prabhakar Raghavan, vicepresidente senior en Google, ha publicado una explicación de los hechos, dejando en evidencia lo fácil que es cometer un error como este en el desarrollo de IA.
Cómo Google creó una IA ‘racista’
Raghavan ha aclarado que Google “no pretendía” crear una IA que ignorase ciertos tipos de personas y favoreciese a otros. También afirma que Google no quería que Gemini se negase a crear imágenes de ningún grupo de personas en particular, ni que crease imágenes históricas inexactas. El ejecutivo ha pedido perdón y ha explicado cómo se llegó a esa situación, una explicación que coincide con la teoría que EL ESPAÑOL – El Androide Libre ya elucubró en su día.
Para crear imágenes, Gemini usa un modelo de IA llamado Imagen 2, presentado el año pasado como un gran avance en el sector. Al integrarlo en Gemini, los desarrolladores quisieron asegurarse de que no cayese en las ‘trampas’ más comunes en este tipo de modelos; como la creación de imágenes explícitamente sexuales o violentas, o la creación de imágenes de personas reales.
El racismo (aunque Raghavan evita esa palabra en la explicación) también tuvo peso, y Google ha confirmado que ‘tuneó’ el algoritmo para que Gemini siempre mostrase un ‘rango de personas’; en otras palabras, para asegurarse de que la IA no crease sólo personas blancas y mezclase imágenes de otras etnias para obtener resultados variados. El problema es que Google no tuvo en cuenta los casos en los que no se debería mostrar un rango de personas variado, como, por ejemplo, en imágenes históricas.
El segundo problema fue consecuencia del primero: con el paso del tiempo, la IA se volvió cada vez más ‘cauta’ con la creación de ciertos tipos de personas, hasta el punto de que se negó a responder a ciertas peticiones. De ahí que llegase un punto en el que no creó ninguna persona blanca, porque pensaba que la presencia de ese aspecto era ‘sensible’.
Google ha prometido que continuará trabajando y mejorando la IA cuando identifiquen un problema; pero al mismo tiempo, ha recordado que esta herramienta no siempre será fiable, y que siempre cometerá errores. Por eso, ha recomendado usar la búsqueda de Google en vez de depender de Gemini para que de respuestas fiables.
Te puede interesar
- Gemini para Android ya funciona en España: cómo conseguir el nuevo asistente con IA de Google
- Qué es Google Gemini: las 8 claves que debes conocer sobre la inteligencia artificial que tendrás en tu móvil
- He probado Gemini, la nueva IA de Google que va jubilar al asistente de voz que ya usas en tu teléfono móvil