La semana pasada se celebró el Google I/O 2024 con la inteligencia artificial como el eje principal de cada una de las novedades presentadas por el gigante tecnológico. Una de ellas fue la activación de AI Overviews en la búsqueda de Google, y en cuestión de días ha comenzado a ser una pequeña pesadilla para los intereses del gigante de las búsquedas online.
Se debe principalmente a uno de los problemas vinculados a los chatbots de inteligencia artificial generativa: la alucinación. Es justo cuando el modelo genera información falsa, incorrecta o inventada que no está respaldada por sus datos de entrenamiento o conocimiento; ya sea proporcionar hechos numéricos o estadísticas incorrectas, afirmaciones sobre eventos o personas que no existen o contradecir su propio conocimiento previo.
Google ha desplegado la inteligencia artificial generativa en la búsqueda en Estados Unidos con AI Overviews y es un lanzamiento colosal a todos los niveles, ya que es simplemente el buscador por excelencia con una cuota de mercado casi como un monopolio frente a Bing, el único que ha sido capaz en el último año y medio de arañar unas décimas.
Estos días atrás han aparecido algunas cuentas en X (antes Twitter) pasando la captura de algunas de las búsquedas hechas y los resultados son de los más variopintos al igual que disparatados. Hay que andar con cuidado, ya que algunos usuarios están aprovechando el momento de la 'alucinación' de los chatbots con IA para inventarse respuestas falsas (con la intención de recibir muchos me gustas y reproducciones de sus tuits), pero hay algunas que sí que son ciertas.
Una de las más llamativas fue la recomendación de Google de añadir pegamento 'no tóxico' a la pizza para responder a la consulta de que el queso no se queda lo suficientemente firme. La respuesta la extrae de un comentario de un usuario de Reddit de hace 11 años.
Pero hay más, otra respuesta dada es a la consulta de por qué los gatos lamen manos y entre uno de los puntos dados indica que lo pueden hacer para saber si la persona puede ser 'consumida'. Otra respuesta extraída de la red social Reddit y que fue usada en tono de humor en la misma.
AI Overviews es la función de la búsqueda con IA de Google que se encarga de dar estos resúmenes y no ha andado para nada acertado en otra: a la consulta de cuál es al mamífero con el mayor número de huesos, responde con la serpiente pitón que puede llegar a tener 600 vértebras o 1.800 huesos.
Publicado por @miasato.2Ver en Threads
Respuestas incorrectas en el buscador que usan millones de personas diariamente a todas horas y que, hay que decir, tiene una gran responsabilidad al formar parte de la vida diaria. Aunque Google ponga la etiqueta "la IA generativa es experimental" en cada respuesta, cualquier persona que lea esa recomendación se la puede llegar a creer; si los bulos son uno de los mayores problemas de hoy en día, que Google responda así, es el acabose.
Google responde
Un portavoz de Google respondió a una publicación de The Verge para aclarar algunas cosas: "algunos de esos errores provienen de consultas que no suelen ser muy comunes y que no representan la mayoría de las experiencias de las personas. La compañía está tomando medidas contra las violaciones de sus políticas y está usando estos "ejemplos aislados" para seguir optimizando el producto".
Y no es solo Google, compañías como OpenAI, Meta y Perplexity sufren de las alucinaciones de la IA y de sus errores. Lo que pasa, según The Verge, es que Google es la primera en desplegar esta tecnología a una escala mayor y es más fácil que aparezcan más errores.