Apenas un día después de lanzarse la aplicación de ChatGPT para iOS, se conoce que Apple ha restringido el uso de este chatbot y otras herramientas de inteligencia artificial para algunos de sus empleados. La compañía tecnológica ha tomado esta medida motivada por la misma preocupación que ha provocado que países como Italia, Alemania y España inicien investigaciones sobre el uso de los datos privados a los que tienen acceso estas herramientas como la creada por OpenAI.
Según un documento revisado por The Wall Street Journal, Apple está desarrollando su propia tecnología similar a la que nutre a ChatGPT, un trabajo de investigación y desarrollo que potenciaría sus servicios como Siri, pero que por ahora es confidencial y debe protegerse de la competencia. Este sería el principal motivo por el que el chatbot de OpenAI ha sido restringido en las oficinas de Apple, así como Copilot de GitHub, propiedad de Microsoft.
Mientras que Copilot se ha entrenado para generar código informático a partir de texto, ChatGPT puede realizar esta tarea, además de escribir como si fuera un humano en múltiples estilos y sobre diversos temas. Incluso, su última versión multimodal reconoce imágenes y crea contenido partiendo de ellas.
[Así usa Google su inteligencia artificial para desarrollar medicamentos más rápido]
Sin embargo, esta revolución tecnológica que se está viviendo en todo el mundo con el rápido crecimiento de la llamada inteligencia artificial generativa, ha generado una importante carrera comercial. Todas las grandes compañías quieren participar en este mercado al alza, hasta quienes alertan de su potencial riesgo como Elon Musk. Y, por consiguiente, surgen dudas sobre las posibles consecuencias negativas de la misma.
Uso de los datos
Entre los riesgos que se atribuyen a esta tecnología, la falta de protección de los datos es uno de ellos. Italia fue el primer país en tomar una decisión contundente, prohibiendo el uso de ChatGPT tras una filtración de los datos de los usuarios. La plataforma de Open AI está siendo investigada por posible violación de la ley europea de protección de datos, GDPR.
Cuando las personas entran en estos chatbots para conversar o solicitar ayuda con algún ensayo o trabajo, algunos hasta escriben sus correos con estos modelos de IA, los datos de la conversación se reutilizan para seguir entrenando al modelo de lenguaje natural en el que se basan. La filtración antes mencionada dejó a la vista los títulos del historial de chat de algunos usuarios.
Como respuesta a esta creciente preocupación, OpenAI ha creado recientemente un modo incógnito similar al del buscador de Google. Esta función permite al usuario desconectar su historial de chat. De esta manera, lo que se hable con el chatbot no se usará para entrenarlo y mejorar su rendimiento.
No obstante, esta medida no sería suficiente para gobiernos o grandes corporaciones como Apple con estrictas medidas de seguridad para blindar el acceso a sus proyectos de innovación más secretos. No es la única empresa que ha instado a su personal a evitar el uso de estas herramientas de la competencia, como Amazon, la cual también cuenta con sus propios servicios de IA similares.
Carrera comercial
Aunque ChatGPT se ha convertido en el chatbot más reconocido en el mundo, no está solo en este mercado en crecimiento. Microsoft cuenta con Bing en su buscador de internet, el cual se nutre también de la tecnología de OpenAI, el modelo GPT-4. En concreto Microsoft ha protagonizado la batalla comercial del año junto a Google y su chatbot Bard, fruto de la amplia experiencia del gigante de internet en el desarrollo de inteligencia artificial, pero que hasta ahora no se había atrevido a lanzar al gran público.
Tras este estallido, a la carrera se han ido sumando otras marcas, como Apple. El fabricante de iPhones contrató en 2018 a John Giannandrea, exempleado de Google, para dirigir sus esfuerzos en esta materia. La destreza con el lenguaje que presentan estos modelos de IA impulsaría el uso de asistentes virtuales como Siri que ya está probando la tecnología en la versión beta de tvOS 16.4.
Tim Cook, CEO de Apple, se ha mostrado interesado en el potencial de esta tecnología sin descartar una postura cautelosa ante los posibles riesgos que presenta, como la creación de fake news. "Hay una serie de problemas que deben resolverse, pero el potencial es ciertamente muy interesante".
Apple ha llegado a bloquear aplicaciones que se anunciaban en su App Store por incluir ChatGPT, en concreto la app de correo electrónico BlueMail, alegando que esa nueva función podría mostrar contenido inapropiado a los niños. La compañía de Cook solicitó al creador de la aplicación que aumentara la edad de uso recomendada a los 17 años.