Google ya detecta imágenes falsas hechas con inteligencia artificial
La compañía de Mountain View ha introducido nuevas mejoras a su sistema de búsqueda de imágenes para añadir contexto y detectar posibles engaños.
15 mayo, 2023 13:18Uno de los servicios más usados por los internautas en España y en el resto del mundo es la función de búsqueda de imágenes de Google. Prácticamente cualquier cosa que el usuario quiera encontrar se encontrará ahí, por lo que bastan unos pocos segundos para descubrir cientos de miles de imágenes disponibles. No obstante, con el auge de la desinformación y la inteligencia artificial, Google se ha visto obligada a modificar dicho servicio.
Según recogen en Bloomberg, Google ha añadido hasta dos novedades a su sistema de búsqueda de imágenes para evitar, sobre todo, la difusión de información inexacta, algo tremendamente común en nuestros días. Además, las imágenes generadas por IA quedarán marcadas por sus herramientas generativas, lo que hará que no sea tan fácil colar imágenes generadas como reales.
Esta es una muestra del poder de la inteligencia artificial, que ha sido motivo de discusión de expertos de todo el mundo. Casi el total de los profesionales que han advertido sobre la problemática de la IA coinciden en los peligros de la desinformación generada por inteligencia artificial, lo que efectivamente tendrá que forzar a compañías como Google a imponer medidas de seguridad.
Nuevas funciones de seguridad
La primera novedad se llama 'Acerca de esta imagen' y como bien detalla su nombre, sirve para agregar un valioso contexto a las imágenes. En dicho contexto se incluirán detalles como imágenes similares indexadas en el buscador de Google o la fecha en la que esta fue subida. También se agregará información sobre en qué otras páginas han aparecido, facilitando enormemente dar con la fuente original de la imagen.
Un punto adicional sobre este contexto es que no solo servirá para conseguir mucha más información, sino que además permitirá a los usuarios ver pruebas sobre la sospechosa procedencia de dichas imágenes. Y es que si por ejemplo la imagen en cuestión ha sido completamente desmentida, esto se añadirá en el contexto para informar al usuario.
Por otro lado está el marcado de imágenes de IA. La popularización de los modelos generativos de inteligencia artificial ha provocado que los internautas lo tengan mucho más fácil para generar imágenes potencialmente dañinas o peligrosas. Google marcará las imágenes generadas por estos sistemas incluyendo el nombre de las herramientas usadas.
Es decir, que si por ejemplo un usuario genera una imagen con Midjourney, esta tendrá el nombre del sistema marcado en la imagen. Además, la firma de Mountain View está trabajando con otros servicios y plataformas para que se aseguren de agregar este mismo sistema de marcado para los archivos que se publican. Algo a lo que ya se han sumado compañías como Shutterstock o la propia Midjourney. Ambas mejoras se implementarán a lo largo de este mismo año.
[Así ha sido el Google I/O: de su primer Pixel plegable a una alternativa contra ChatGPT]
Son mejoras menores, desde luego, pero que pueden tener un impacto muy positivo ante la oleada de inteligencia artificial que estamos sufriendo. Google no está sola; OpenAI ya lanzó un sistema de verificación de textos generados por IA y Microsoft está apoyando a compañías como Truepic, que ofrece aplicaciones para comprobar si una imagen está manipulada.