![Imagen de archivo de un ordenador](https://s1.elespanol.com/2024/11/30/invertia/empresas/905169547_251325624_1024x576.png)
Imagen de archivo de un ordenador Efe
El 48% de los responsables de seguridad prohíbe el uso de herramientas basadas en IA por temor a las ciberamenazas
Un estudio de Microsoft revela que el 77% de los empleados usan en alguna forma la IA generativa sin supervisión del área de tecnología.
Más información: Un "ciberescudo europeo" para proteger la región frente a los ciberataques: la ley de cibersolidaridad toma forma
La ciberseguridad reina como una de las principales preocupaciones para empresas, usuarios e instituciones. No es para menos, ya que el cibercrimen se ha disparado en los últimos años y, actualmente, ya equivale a la tercera economía más grande del mundo, solo por detrás de Estados Unidos y China, alcanzado una valoración de 8.000 millones de dólares. Además, es la que más rápido crece, un 15%.
Así, las ciberamenazas no dejan de aumentar y la identidad se posiciona como una de las áreas claves para los ataques, según ha explicado Belén García, responsable de Go-to-Market de Seguridad en Microsoft durante una rueda de prensa. De hecho, en 2023 las infracciones por segundo se establecían en 4.000, mientras que en 2024 alcanzaron las 7.000. También, hace dos años Microsoft rastreó 300 actores de amenazas y el ejercicio anterior estos fueron más de 1.500.
La responsable de Go-to-Market de Seguridad en Microsoft ha contado que desde 2022 las estafas digitales se han incrementado en un 400% y, actualmente, el tiempo medio que tarda un atacante en acceder a los datos sensibles después de un phishing es de apenas una hora y 12 minutos.
Todo ello se enmarca en un contexto al que afecta a una complejidad sin precedentes debido a los conflictos geopolíticos que están ocurriendo. En él, España se posiciona como el sexto país más ciberatacado del mundo.
En este ecosistema convergen otros retos como las vacantes en ciberseguridad que existen a nivel global, donde se calcula que faltan cuatro millones de profesionales, o la regulación, en función de las nuevas directivas que se han ido desarrollando en los últimos años. Sobre esto último, García ha señalado que en Microsoft hacen seguimiento de 250 actualizaciones regulatorias nuevas cada día.
Preocupación por la IA
A la legislación y la falta de talento, se une la inteligencia artificial. Según apuntan desde la tecnológica, se calcula que 1.000 millones de personas han utilizado LLM (Large Language Model) en los últimos 18 meses. Este dato revela la proliferación de esta herramienta, lo que ha derivado el incremento de ataques que la usan en su base; de hecho, se han incrementado un 47% los ataques de phishing basados en IA.
Y es que, tal y como ha precisado Elena García, Chief Security Advisor de Microsoft, la inteligencia artificial no solo es un elemento de apoyo al sector de la ciberseguridad, sino también para los cibercriminales, que la aprovechan para aspectos como la generación de malware, la personalización de exploits, la generación de deepfakes, el descifrado de contraseñas o la detección automatizada de vulnerabilidades.
En este sentido, el 82% de los líderes consultados por Microsoft en un estudio señalan que la fuga de datos confidenciales es su principal preocupación a la hora de aplicar esta tecnología, mientras que el 73% están preocupados por la entrada de datos inexactos y alucinaciones y el 57% por la aparición de resultados perjudiciales o sesgados. Además, un 55% destaca la regulación de la IA como una de sus inquietudes.
Así, el 48% de los líderes empresariales (CISO y responsables de seguridad) afirma que seguirá prohibiendo todo uso de herramientas relacionadas con la inteligencia artificial en el lugar de trabajo para evitar sus efectos dañinos.
Aún así, Raquel Hernández, directora de Soluciones de Seguridad en Microsoft, ha apuntado que, de acuerdo con los datos que manejan, el 77% de los empleados están usando de alguna forma la IA generativa sin supervisión del área de tecnología, lo que incrementa los riesgos de seguridad y cumplimiento normativo. Hernández ha señalado que no sirve de nada prohibir su utilización para evitar filtraciones, sino proveer directrices o herramientas que permitan su uso de forma segura y, así, poder beneficiarse de la eficiencia y productividad que proveen estas aplicaciones.
Relacionado con este ecosistema, Microsoft lanzó en noviembre de 2023 la iniciativa Futuro Seguro, diseñada para asegurar que se cumplan los estándares de seguridad y maximizar la protección de los activos, que se basa en tres principios: seguridad desde el diseño de cualquier producto o servicio, seguridad activada de forma predeterminada y operaciones seguras, es decir, controles y supervisión mejoradas continuamente.