La inteligencia artificial (IA) es la última moda en el sector tecnológico. Una herramienta muy utilizada en España y todo el mundo que ha pasado de ser una anécdota a un elemento cada vez más útil y omnipresente. Sin embargo, desde hace tiempo son muchos los que advierten del peligro que tiene esta tecnología, como la posibilidad de que provoque la extinción del ser humano. Algo de lo que Sam Altman, padre de ChatGPT, ya alertó en su momento, y de lo que ahora avisan actuales y antiguos empleados de OpenAI y Google DeepMind.
Un grupo de trabajadores, formado tanto por empleados actuales como antiguos, de empresas de inteligencia artificial (IA) han expresado recientemente su preocupación por los riesgos que plantea esta tecnología emergente, como señalan desde Reuters. Entre ellos se encuentran personas de OpenAI, compañía respaldada por Microsoft y creadora de ChatGPT, y Google DeepMind, de Alphabet.
Este grupo, compuesto por un total de 13 personas, ha escrito una carta abierta en la que afirman que los motivos financieros de las empresas de inteligencia artificial dificultan una supervisión eficaz. "No creemos que las estructuras a medida de gobierno corporativo sean suficientes para cambiar esta situación", se puede leer en el escrito. No solo eso, sino que también advierten de los riesgos de tener una IA no regulada.
Entre estos riesgos, los empleados señalan que van desde "un mayor afianzamiento de las desigualdades existentes, pasando por la manipulación y la desinformación, hasta la pérdida de control de los sistemas autónomos de inteligencia artificial, lo que podría provocar la extinción humana". Aunque en la carta también dejan claro que creen "en el potencial de la tecnología de IA para brindar beneficios sin precedentes a la humanidad".
Los investigadores también señalan que han encontrado una variedad de ejemplos de generadores de imágenes de empresas como OpenAI y Microsoft que producen fotos con desinformación relacionada con las votaciones, a pesar de las políticas contra ese tipo de contenido. Incluso indican que las empresas de IA "poseen información no pública sustancial sobre las capacidades y limitaciones de sus sistemas, la idoneidad de sus medidas de protección y los niveles de riesgo de diferentes tipos de daños".
Sin embargo, aseguran que actualmente estas empresas "sólo tienen obligaciones débiles de compartir parte de esta información con los gobiernos, y ninguna con la sociedad civil. No creemos que se pueda confiar en que todos lo compartirán voluntariamente". En la carta los trabajadores también señalan que tienen "la esperanza de que estos riesgos puedan mitigarse adecuadamente con la orientación suficiente de la comunidad científica, los formuladores de políticas y el público".
El grupo de trabajadores que firma la carta también ha instado a las empresas de inteligencia artificial a facilitar un proceso para que tanto sus empleados actuales como los antiguos puedan plantear sus preocupaciones relacionadas con los riegos de la IA y a no aplicar acuerdos de confidencialidad que prohíban a los empleados a realizar críticas.