Publicada
Actualizada

La inteligencia artificial (IA) copa las conversaciones en los mentideros tecnológicos, pero no únicamente. Todos los sectores económicos llevan meses con el foco puesto en ella arrastrados por la popularidad que le ha otorgado una de sus modalidades: la inteligencia artificial generativa. Sin embargo, su uso no es nuevo. La IA lleva décadas entre nosotros, pero es el aumento de la capacidad de cómputo y, sobre todo, el big data, lo que ha propiciado su explosión. De hecho, sin datos, y su correcta gestión, no habría lugar a una IA confiable. 

En 2024, se estima que se han generado 2,5 quintillones de bytes al día, lo que supone que este año el volumen total de datos alcanzará 147 zettabytes, según Statista. Un crecimiento que arroja un valor proyectado de 348,21 billones de dólares en 2024 (unos 316.871 millones de euros) de acuerdo con Fortune Business Insights. El mismo documento señala que este mercado alcance los 924,39 billones en 2032 (unos 841.195 millones de euros)

Todo parece indicar que los vientos soplan a favor del big data, pero no todo son buenas noticias. El 90% de los datos globales no están estructurados, creciendo tres veces más rápido que los estructurados, según Statista.

Estos datos provienen de cualquier interacción que personas y máquinas realizan a través de canales y dispositivos digitales, lo que representa un desafío para las empresas, que deben invertir en herramientas de análisis más avanzadas para sacar provecho de ellos, operativa y económicamente. 

No hay visos de que el big data frene su crecimiento. Al revés. Para 2025, se prevé un aumento del 23,13% respecto a 2024 impulsado por la expansión del IoT y las arquitecturas multicloud, consolidando el dato como un actor clave en la economía digital. Los retos: la interoperabilidad en entornos híbridos y la gestión de silos de información, así como problemas éticos relacionados con la privacidad y la gobernanza de dato, y la falta de talento para su tratamiento y gestión. 

José de Ramón, director de Tecnologías Exponenciales de Babel

2025 se presenta como un año crucial para el big data, lleno de retos y oportunidades. Entre los principales desafíos, la privacidad y el cumplimiento regulatorio seguirán siendo esenciales, con normativas como el GDPR que requerirán adaptaciones continuas. Además, la interoperabilidad en entornos híbridos y multicloud plantea complejidades técnicas y de seguridad que demandarán soluciones innovadoras para una integración de datos eficiente. 

José de Ramón, director de Tecnologías Exponenciales de Babel.

La falta de talento especializado es otro obstáculo persistente, con una demanda de científicos de datos, ingenieros de datos y expertos en inteligencia artificial (IA) que supera la oferta actual, lo que nos lleva a desarrollar programas de formación y colaboración con instituciones académicas para cerrar esta brecha. Asimismo, las empresas, sobre todo las pequeñas y medianas, deben encontrar maneras de gestionar los costes de almacenamiento y procesamiento ante el volumen creciente de datos. Por otro lado, la complejidad de la gobernanza de datos y la necesidad de establecer políticas coherentes en entornos descentralizados requieren un enfoque estratégico.

La seguridad frente a ciberataques sofisticados y la rápida evolución tecnológica exigen que las organizaciones se mantengan actualizadas para no perder competitividad. Tampoco hay que perder de vista la importancia de abordar los retos éticos en el uso de datos y promover prácticas responsables que aseguren un uso justo y equitativo de la información. Finalmente, la escalabilidad de infraestructuras y la adopción de nuevas metodologías, como DataOps y Data Mesh, son áreas clave donde las empresas deben centrar sus esfuerzos para manejar de manera efectiva y eficiente sus datos. 

Alicia Asín, CEO de Libelium

En Europa estamos ante una oportunidad histórica en la gestión de datos, impulsada por una regulación proactiva que está marcando el camino hacia una sociedad más consciente y responsable en este ámbito. Una vez más, la Unión Europea lidera el avance para sentar las bases que definen los derechos y deberes digitales de empresas y ciudadanos en la comercialización de datos. La clave está en la creación de espacios de datos colaborativos, que permitirán a organizaciones de todos los tamaños y sectores intercambiar información de forma segura. Este intercambio no solo fortalecerá la competitividad, sino que también impulsará la sostenibilidad, la innovación y la eficiencia en todo el ecosistema empresarial europeo.

Alicia Asín, CEO de Libelium.

Uno de los mayores desafíos es garantizar la seguridad y protección de la información, especialmente en un contexto donde los datos se han convertido en un activo estratégico para las empresas y la sociedad. Un aspecto crítico es el avance de la inteligencia artificial (IA). A lo largo del año, hemos presenciado un gran interés en el potencial de esta tecnología, pero es esencial recordar que los modelos de lenguaje y los algoritmos avanzados que alimentan la IA dependen de los datos con los que se entrenan.

Otro reto significativo es la concienciación individual sobre la privacidad. Como usuarios, tenemos la responsabilidad de proteger nuestra información personal y comprender el valor que tiene en el ecosistema digital y fomentar una cultura de protección de datos, tanto en empresas como entre los ciudadanos.

Juan Carlos Sánchez de la Fuente, vicepresidente regional de Cloudera para España y Portugal

Este año los datos se han consolidado como un activo imprescindible para garantizar el buen funcionamiento de la inteligencia artificial y hemos visto cómo las arquitecturas modernas, como el data lakehouse, han ganado protagonismo. De hecho, un 31% de las empresas españolas ya están alojando sus datos en este tipo de infraestructura, que optimiza la gestión del dato en las compañías que disponen de múltiples entornos cloud y on premise.

Juan Carlos Sánchez de la Fuente, vicepresidente regional de Cloudera para España y Portugal.

Uno de los mayores retos a los que se enfrentan las compañías es el de gestionar y alinear su información cuando está alojada en diferentes entornos. Además, en la mayoría el gran problema son los silos de datos. Por ello, algo en lo que siempre pongo énfasis es en que el reto no está en almacenar los datos, sino en gestionarlos y poder obtener todo su valor.

Este aspecto continuará ganando importancia hasta consolidarse como un activo fundamental, para lo que el multicloud será la clave. Otra de las tendencias será 'la repatriación de la nube', porque será más prioritario para las empresas proteger su información y su propiedad intelectual. Y, por último, coincido con analistas del sector en que no nos debemos olvidar de la computación cuántica, que supondrá grandes transformaciones en el análisis de los datos y en el aprendizaje automático.

Alberto Anaya, director general y Business Unit Leader de CGI para España

En 2024, la convergencia entre el big data y la inteligencia artificial (IA) generativa ha impulsado una profunda transformación en diversas industrias, aunque muchas iniciativas aún se encuentran en etapas iniciales de exploración. Entre las aplicaciones más relevantes destacan su contribución para optimizar la eficiencia de los procesos, el desarrollo de asistentes virtuales o la mejora de la experiencia del usuario. Sin embargo, también ha facilitado la aparición de usos indebidos, como la suplantación de identidad.

Alberto Anaya, CEO de CGI

De forma paralela, numerosas empresas han emprendido transformaciones significativas en sus sistemas, especialmente mediante la migración al cloud. Esta transición, combinada con los avances en IA y big data, está revolucionando la interacción con los asistentes virtuales y dispositivos del internet de las cosas (IoT), permitiendo que las respuestas generadas en interacciones por voz o texto sean cada vez más humanas.

No obstante, esta evolución trae consigo importantes desafíos. Uno de ellos es el elevado consumo energético de los centros de datos, lo que refuerza la necesidad de adoptar fuentes de energía renovable para minimizar el impacto ambiental. Otro reto clave es la privacidad de los datos y su regulación. Si bien las restricciones normativas son esenciales, podrían ralentizar los avances previstos para 2025. Además, la falta de transparencia sobre los datos utilizados para entrenar estos sistemas plantea preocupaciones éticas y técnicas. En este contexto, se prevé el desarrollo de sistemas avanzados de seguridad que ayuden a mitigar las vulnerabilidades y garanticen la protección de la información, contribuyendo así a consolidar un entorno más seguro y confiable para el despliegue de estas tecnologías.

Jose A. Lorenzo, responsable de Datos de Lantek

2024 ya se perfila como el año en el que el ‘efecto wow’ de la inteligencia artificial (IA) generativa ha quedado atrás, dando paso a un contacto más real y práctico con la tecnología. Este proceso ha servido para volver a centrarse en los fundamentos, colocando al dato como la auténtica materia prima y, una vez más, el big data resurge con fuerza en las estrategias de las empresas tecnológicas.

Jose A. Lorenzo, Data Area Manager de Lantek

Un big data ahora mucho más conectado con la realidad. Ya no se limita a captar y clasificar de manera intuitiva, sino que se orienta con un propósito definido: entrenar motores de machine learning para objetivos específicos. Los pilotos de IA han experimentado un crecimiento exponencial, multiplicándose en numerosos sectores.

En 2025 se van a hacer públicos cientos de iniciativas y proyectos que se han estado desarrollando en los dos últimos años. Será interesante ver las iniciativas más valientes, que sean capaces de ir más allá de lo obvio y propongan verdaderos saltos de valor. También es importante estar atentos a los escenarios regulatorios dentro del marco de la Unión Europea, así como las respuestas de la nueva administración en Estados Unidos y sus consecuencias en China. Además, la rápida evolución de la computación cuántica podría acelerar la competitividad, ofreciendo mayor capacidad a los motores de IA. El acceso y la efectiva implementación de esta tecnología serán cruciales para determinar el éxito de unas empresas tecnológicas sobre otras.

Daniel López Paíno, director de la unidad de negocio HCM en Iberia y Mid Market en España de Cegid

En el ámbito de la contratación, el big data y la inteligencia artificial (IA) han mejorado la eficiencia y la precisión del proceso de selección. A través de algoritmos y análisis de estos datos, las herramientas pueden filtrar y analizar grandes volúmenes de solicitudes de empleo, identificando a los candidatos más adecuados. Esto, además de ahorrar tiempo a los reclutadores, reduce sesgos inconscientes. Una vez que los empleados forman parte de la organización, la gestión de los datos continúa desempeñando un papel relevante en su desarrollo y gestión del talento. Por ejemplo, para predecir comportamientos futuros, como la probabilidad de rotación de empleados, la identificación de potenciales o evitar fugas de talento.

Daniel López Paíno. director de la Unidad de Negocio HCM en Iberia y Mid Market en España de Cegid

En el futuro el reclutamiento estará completamente impulsado por el big data para anticipar el éxito de los posibles candidatos o el matching algorítmico avanzado que conectará perfiles con las ofertas laborales que mejor se ajusten a ellos. Incluso generando predicciones de trayectoria, estrategias basadas en análisis de rendimiento y dinámicas optimizadas para equipos.

A la que tendremos que adaptarnos todas las empresas en 2025 es a la reducción de la jornada laboral. Gracias al big data y la IA, ya existen multitud de formas de medir y gestionar el impacto de un cambio como este y su relación con el crecimiento del negocio. Aunque el principal reto será la privacidad y la seguridad de los datos personales. El miedo a compartir información personal, combinado con la falta de confianza en cómo se utilizará, afecta la calidad y la cantidad de los datos recogidos que alimentan los sistemas de IA. La solución está en una comunicación clara y proactiva con los empleados.

Gonzalo Hernando, responsable de soluciones Smart Factory de Aggity

El panorama del big data en 2024 ha generado una gran cantidad de avances tecnológicos que están transformando la manera en que las empresas manejan y explotan la información. Los dispositivos IoT, junto con imágenes y videos, han subrayado la necesidad de adoptar soluciones de almacenamiento más flexibles, como data lakes y plataformas en la nube, en lugar de los modelos tradicionales. Además, durante 2024, las herramientas basadas en inteligencia artificial (IA) han ganado popularidad, permitiendo agilizar procesos y facilitar el acceso a los datos para personas menos técnicas. Sin embargo, este cambio ha venido acompañado de una creciente preocupación por la privacidad y el gobierno del dato, lo que ha aumentado la presión por garantizar la seguridad de la información en un entorno cada vez más digitalizado.

Gonzalo Hernando, responsable de soluciones Smart Factory de Aggity.

Mirando hacia el futuro, el potencial del big data sigue evolucionando gracias a nuevas tecnologías emergentes que prometen transformar aún más el panorama. De cara a 2025, la combinación de IA, aprendizaje automático y procesamiento en tiempo real promete revolucionar los procesos de big data al permitir la toma de decisiones prácticamente al instante. Esta capacidad será esencial en un mundo donde la velocidad de respuesta es clave para mantener la competitividad. Aunque la computación cuántica aún está en desarrollo, su capacidad para resolver problemas complejos, como la optimización de grandes volúmenes de datos y algoritmos de aprendizaje profundo, abre nuevas oportunidades.

Para el despliegue de estas tecnologías, el diseño de arquitecturas avanzadas que integren datos estructurados, semiestructurados y no estructurados será esencial. Sin embargo, esta evolución no está exenta de retos y obstáculos. El rápido avance de las tecnologías de big data exige a los profesionales una constante actualización de conocimientos y habilidades. Al mismo tiempo, la escalabilidad sigue siendo una preocupación central. A pesar de todo ello, el big data sigue consolidándose como una herramienta indispensable para la estrategia empresarial moderna.

Sergio Rodríguez de Guzmán, CTO de PUE Data

En 2024, se produjeron avances significativos en inteligencia artificial y especialmente en los Modelos de Lenguaje Grande (LLM), pero la aparición de los primeros Modelos de Lenguaje Pequeño (SLM) es muy significativa, más eficientes en términos de recursos, pero igualmente potentes. Los modelos multimodales, capaces de procesar texto, imágenes y otros tipos de datos, también ganaron protagonismo. La regulación de la inteligencia artificlal también dio un paso importante con la implementación de la AI Act de la Unión Europea, estableciendo nuevos estándares para su gestión. En el ámbito de los datos, se consolida el concepto de Data Products, clave en las arquitecturas de datos modernas, y la computación sostenible está tomando fuerza, a pesar del impacto de la IA Generativa en la eficiencia energética.

Sergio Rodríguez de Guzmán, CTO de PUE Data

Uno de los retos críticos a los que se enfrentan las compañías es la calidad y fiabilidad de los datos. A esto se suma que estas innovaciones van creciendo en complejidad técnica y las compañías tienen una falta de talento especializado, particularmente en perfiles híbridos, lo que dificulta la adopción de dichas tecnologías.  Además, la seguridad y privacidad en entornos distribuidos es cada vez más difícil de manejar, lo que, junto al aumento de ciberataques, pone en riesgo la protección de los datos. Finalmente, el "time-to-value", o la presión por obtener resultados rápidamente, a menudo entra en conflicto con la necesidad de establecer bases sólidas que aseguren la sostenibilidad y calidad a largo plazo.

En 2025, la IA especializada va a ganar impulso, pasando de conocimientos genéricos a especialización en sectores o industrias y casos de uso. Sin duda crecerá la adopción y aplicación de IA Generativa en entornos regulados, pero será necesario establecer especial énfasis en la eficiencia y optimización de recursos en los modelos de IA. Además, los Modelos de Lenguaje Pequeño (SLMs) reemplazarán a los Modelos de Lenguaje Grande (LLMs) en muchos casos, ya que los primeros son más eficientes y requieren menos recursos, lo que los hace más sostenibles. También esperamos un crecimiento constante en los espacios de datos, fomentando la federación y compartición de información entre entidades públicas y privadas. 

Diez entregas, cientos de voces

La serie de análisis 'A FONDO: PRESENTE Y FUTURO DE LA INNOVACIÓN' cuenta con diez entregas en las que distintas voces del sector tecnológico y de la innovación pondrán los puntos sobre las íes en lo que se refiere a las grandes tendencias de 2024 y las perspectivas de cara a 2025.

Grandes directivos internacionales, CIO, emprendedores, inversores, analistas independientes, representantes públicos, tecnólogos o profesores universitarios se dan cita en la recolección más ambiciosa realizada hasta la fecha, ordenada en estas temáticas:

Inteligencia artificial 16 de diciembre
Ciberseguridad 17 de diciembre
Big data 18 de diciembre
Cloud computing 19 de diciembre
Emprendimiento 20 de diciembre
Regulación 23 de diciembre
Tecnologías exponenciales 24 de diciembre
Talento y empleo 25 de diciembre
Innovación sostenible 26 de diciembre
Futuro del trabajo 27 de diciembre

Así pues, cientos de profesionales de renombre comparten en este especial sus impresiones sobre el presente y el futuro de la tecnología con la audiencia de DISRUPTORES - EL ESPAÑOL.