Aunque la inteligencia artificial haya sido la gran revolución de 2023 en España y en el resto del mundo, no son pocos los que advierten de los problemas que presenta esta tecnología. Sobre todo, a la hora de promulgar información o proteger la privacidad. Según recoge la CNBC, grandes empresas estadounidenses y europeas se están valiendo de la IA para espiar mensajes de sus trabajadores.
Concretamente, estarían usando inteligencia artificial para analizar mensajes en diversas aplicaciones de teletrabajo bastante populares, tales como Slack, Microsoft Teams o Zoom, entre otras. Algunas de las empresas involucradas incluirían a Walmart, Delta Air Lines, T-Mobile o Starbucks. En el lado europeo, algunas de estas firmas serían Nesté o AstraZeneca.
Para ello se habrían valido de una pequeña empresa llamada Aware, con tan solo 7 años de antigüedad. Usando la IA de Aware, estas firmas habrían monitoreado las conversaciones de sus empleados en esta clase de aplicaciones, permitiendo controlar su comportamiento y su rendimiento ante cambios empresariales.
Usando IA para revisar mensajes
Todo comienza con Jeff Schumann, cofundador y CEO de Aware, que ha dado a conocer cómo funcionan sus productos. Schumann define a las IAs que usa con sus clientes como herramientas para "comprender el riesgo dentro de sus comunicaciones", evitando el uso de los informes anuales para entender el sentimiento general de sus empleados.
En concreto y en palabras de Schumann, se habría usado una herramienta de análisis potenciado por un modelo de IA capaz de monitorear tanto el "sentimiento" como la toxicidad de los empleados. Esta herramienta, llamada eDiscovery, se conjunta con otros modelos de IA capaces de leer texto, procesar imágenes e identificar situaciones como intimidación, acoso, incumplimiento laboral, pornografía, etcétera.
El uso que las empresas dan al software de Aware varía dependiendo de la propia compañía. Por ejemplo, Walmart, T-Mobile, Starbucks o Chevron usan estas tecnologías para gestionar cumplimientos laborales y riesgos. Otros usos incluyen la evaluación de las reacciones de los usuarios ante cambios empresariales como campañas de marketing o nuevas políticas corporativas.
Schumann se esfuerza en decir que estas herramientas no poseen la capacidad de marcar nombres individuales de empleados, por lo que al menos en la teoría, no podrían monitorear o reconocer a trabajadores únicos. Algunas empresas como AstraZneca o Delta han justificado el uso de eDiscovery para rastrear tendencias y el sentir general de sus empleados "como una forma de recopilar comentarios de los empleados".
Y esta estaría siendo una estrategia tremendamente rentable para Aware. Los ingresos de la startup habrían aumentado hasta un 150% anualmente, llegando a sumar una plantilla de 30.000 empleados. Informes de Aware hablan de cómo su compañía agrega información sobre miles de millones de mensajes enviados entre grandes empresas, "tabulando los factores de riesgo percibidos y las puntuaciones de seguimiento en el lugar del trabajo".
Un informe, de hecho, hace la cuenta: 6.500 millones de mensajes en 2023. Schumann define estos mensajes como "el conjunto de datos no estructurados de más rápido crecimiento del mundo". Añadiendo otros tipos de contenido como imágenes y vídeos, los modelos de IA de Aware son capaces de analizar más de 100 millones de contenidos al día.
[Los 'padrinos' de la IA exigen controles de seguridad urgentes para evitar una "catástrofe"]
Una vez hecho todo esto, las herramientas de Aware crean gráficos sociales de la empresa, calificando los grupos de trabajadores de la empresa. En ellos se determinan aspectos como qué equipos han hablado más entre sí o los niveles de toxicidad que hay en ellos. Schumann explica que esta herramienta "siempre rastrea el sentimiento de los empleados en tiempo real, y siempre rastrea la toxicidad en tiempo real".
Las cifras son mareantes. En los repositorios de datos de Aware, además de los 6.500 millones de mensajes, se incluyen 20.000 millones de interacciones individuales entre más de 3 millones de empleados únicos. Además, los modelos de IA que gestiona Aware tardan dos semanas en entrenarse con los mensajes de los trabajadores desde el mismo momento en el que el cliente se registra en la herramienta.
Tras esto, las IAs de Aware pueden conocer patrones de emoción y sentimiento dentro de la empresa para poder distinguir qué es lo normal y qué no lo es. Avisa que no habrá nombres "para proteger la privacidad", sino que los clientes verán "que tal vez la fuerza laboral de mayor de 40 años en Estados Unidos esté viendo los cambios a [una] póliza de manera muy negativa debido al costo, pero todos los demás fuera de ese grupo de edad y ubicación lo ven positivo porque les impacta de una manera distinta".
Una excepción a la privacidad ocurre con la aplicación de ciertos roles. Una empresa cliente de Aware puede configurar el acceso basado en roles a los nombres de los empleados, dependiendo de la categoría englobada dentro de "riesgo extremo". En estos casos, la tecnología de la startup podría extraer el nombre de un usuario único siempre y cuando este esté situado dentro de esta categoría.
Schumann habla de que los casos más comunes incluyen "violencia extrema, intimidación extrema y acoso, pero varían según la industria". Así, si el cliente lo especifica en una categoría de por ejemplo "amenazas violentas", se podría hacer que los modelos revisen esta clase de infracciones en Slack, Microsoft Teams o Workplace de Meta. Incluso es posible combinar esta política con ciertos indicadores para buscar frases, declaraciones, etcétera.
Por último, Schumann advierte que tanto Aware como sus modelos de IA no toman decisiones finales sobre sus clientes. "Nuestra IA simplemente hace que sea más fácil analizar este nuevo conjunto de datos para identificar riesgos potenciales o violaciones de políticas". Defiende el uso de eDiscovery para entornos donde investigadores de seguridad o recursos humanos necesiten realizar búsquedas en cantidades masivas de datos.
También te puede interesar...
- El futuro del espionaje de EEUU: así será la guerra electrónica cognitiva
- Estas son las posibilidades de que la inteligencia artificial provoque la extinción del ser humano
- El momento más surrealista de Putin: habla con un clon suyo hecho con inteligencia artificial
- Grave agujero de seguridad en los iPhone: así pueden espiarte con anuncios y notificaciones