Cuando se trata de IA, más no es sinónimo de mejor
La inteligencia artificial (IA) parece estar en todas partes y de una manera cada vez más generalizada. No empezó con ChatGPT, pero su irrupción en escena, en noviembre del año pasado, ha subido la apuesta.
En el mundo de la tecnología, no habíamos visto nada parecido a este tipo de revuelo o velocidad de adopción desde el blockchain. Un informe de IDC publicado a principios de este año estima que el gasto mundial en IA alcanzará los 301.000 millones de dólares en 2026, el doble que en la actualidad.
La IA beneficiará todo, desde la productividad de los empleados hasta la satisfacción de los clientes y la mitigación de riesgos. Incapaces de ignorar el revuelo que está causando, parece que muchos empleados se están lanzando de cabeza en el mundo IA, buscando ser pioneros y así construir una ventaja competitiva diferente. Pero, al hacerlo, podrían estar exponiendo a su organización a diferentes riesgos, sin siquiera saberlo.
La narrativa de los datos dice que, como son valiosos, cuantos más se tengan, más valiosos serán. Pero esto no siempre es cierto. Cuantos más conjuntos de datos se introducen, más difícil resulta supervisar la procedencia y exactitud de los mismos, por no hablar de las posibles infracciones de los derechos de autor que una IA podría cometer involuntariamente.
Tomemos como ejemplo la IA del momento, ChatGPT. La advertencia que figura en el sitio web de OpenAI es que "puede producir información inexacta" y hay muchas pruebas que lo demuestran. No es un gran problema si se quiere saber cómo se hace un bizcocho, pero puede ser algo grave si se utiliza para investigar jurisprudencia.
Ahora, ¿qué puede suceder si este riesgo se traslada a un entorno empresarial? Una herramienta de IA que gestiona automáticamente los niveles de existencias, configura los salarios en función del rendimiento, prevé el flujo de caja trimestral u optimiza las operaciones de divisas está tomando decisiones muy importantes que tienen un verdadero impacto en la rentabilidad de la empresa.
Esto se puede controlar fácilmente con una estrategia sólida de gobernanza de datos y de IA, pero todo este esfuerzo puede quedar en nada si el personal empieza a utilizar sus propias herramientas de IA "en la sombra". Las organizaciones no pueden controlar aquello que no saben que existe.
Así que la dificultad es doble: ¿cómo garantizar la integridad de las herramientas de IA que se conocen y cómo impedir que el personal utilice herramientas de IA no autorizadas y no verificadas para tener ayuda en su trabajo?
La respuesta es más conceptual que concreta. El futuro de la IA no estará en los grandes modelos lingüísticos (LLM) que acaparan los titulares de hoy en día, ni en otras soluciones genéricas que pretenden servir a una multitud de usuarios. Más bien, las empresas querrán capacidades que les den un valor diferencial para su sector, sus clientes y sus tareas.
La nueva era de la "IA de dominio específico" se definirá por la capacidad de crear servicios únicos y diferenciados. Para ello se necesitan modelos fundacionales que se entrenen con datos privados y se adapten a las normas y prácticas de un negocio o sector específico. Alimentada con datos bien organizados, enfocados y verificados, la IA fundacional ofrece capacidades que dan la sensación de estar trabajando con un experto en la materia, uno en el que se puede confiar porque se sabe que no se ha construido con conjuntos de datos aleatorios recopilados de fuentes dispares. Las decisiones que genere serán más pertinentes y, por tanto, más eficaces.
En consecuencia, los empleados no sentirán la necesidad de buscar sus propias soluciones a escondidas. Mejor aún si se les hace partícipes del proyecto y sienten que les pertenece y son leales a él.
Los que están realmente "al tanto" entienden que es aquí donde se están produciendo las innovaciones realmente interesantes en IA. En estos momentos se están desarrollando conjuntos de herramientas para esta tecnología de dominios específicos que ya superan el poder innovador de los grandes actores. Como dice el refrán: el buen perfume se vende en frasco pequeño.
Pero solo si se hace con transparencia e integridad. Esto sitúa firmemente el desarrollo de la IA en el ámbito de competencias de los equipos jurídicos y de compliance. Su colaboración con los científicos de datos y los colegas de DevOps se convertirá en una característica clave de una estrategia eficaz de IA.
Tendrán que crear y hacer cumplir las directrices sobre cómo y cuándo utilizar la IA. Tendrán que hacer las mismas preguntas sobre la procedencia de los datos que las que probablemente se hacen los reguladores.
En todo el mundo, se está trabajando en el marco legal, como lo demuestran la Ley de Inteligencia Artificial de la UE, la Declaración de Derechos de la Inteligencia Artificial de EEUU, el Documento Político sobre Regulación de la Inteligencia Artificial del Reino Unido y la aplicación de las Disposiciones sobre Gestión de Recomendaciones Algorítmicas de China. La ignorancia era una defensa débil incluso cuando se podía echar la culpa a un proveedor. No será una defensa cuando la IA se haya construido con los propios datos de la organización.
Cuidado con los avances de la IA. Al pasar de la IA de propósito general a la IA de dominio específico, las empresas se dotan de una capacidad mucho más eficaz y (si se hace bien) de empleados más formados y comprometidos. Tomar esa decisión requerirá un liderazgo fuerte.
El revuelo mediático en torno a la IA ha creado una urgencia de adopción. Lo más sensato es hacer una pausa, evaluar y asegurarse de que las inversiones en IA, en sistemas, personal y cultura, tienen en cuenta tanto las oportunidades como los riesgos.
***Jan Wildeboer es evangelista de Open Source para la región de EMEA de Red Hat.