ChatGPT, que finalmente no abandonará Europa, se ha convertido en la última gran revolución de Internet. La inteligencia artificial de OpenAI posee una gran variedad de usos. Por ejemplo, se puede utilizar para superar con éxito cualquier entrevista de trabajo fácilmente o para obtener recomendaciones, como conocer cuál es la playa más bonita de España. En Estados Unidos, un abogado ha ido un paso más allá y ha recurrido a esta tecnología para preparar un juicio, pero la jugada no le ha salido del todo bien.
La inteligencia artificial está presente en todos los ámbitos profesionales y bien utilizada se convierte en una herramienta realmente útil que permite ahorrar tiempo. Sin embargo, esta tecnología ha metido en un aprieto a Steven Schwartz, un abogado estadounidense que se enfrenta a posibles sanciones tras utilizar ChatGPT para redactar un escrito que posteriormente se descubrió que contenía citas a casos inventados.
En concreto, el letrado de la firma Levidow & Oberman, con más de 30 años de experiencia, habría utilizado la inteligencia artificial de OpenAI para preparar su defensa en un proceso judicial contra la aerolínea Avianca, que fue demandada por un pasajero que asegura haber sufrido una lesión al ser golpeado por uno de los carritos de servicio para avión. Lo que no esperaba era que la IA basara sus argumentos en varios precedentes judiciales inexistentes, como indica The New York Times.
Casos inventados
El abogado utilizó ChatGPT para elaborar un escrito que se oponía a una solicitud de la defensa por parte de la aerolínea para que el caso fuese desestimado. Lo llamativo del asunto es que en el documento presentado por Steven Schwartz a la corte se citaba a diferentes decisiones judiciales para defender a su cliente.
Unos casos que la propia inteligencia artificial se había inventado. "La Corte se encuentra ante una situación inédita. Una presentación remitida por el abogado del demandante en oposición a una moción para desestimar (el caso) está repleta de citas de casos inexistentes", destacó el juez Kevin Castel, como recoge el mismo medio.
Ante esta situación surrealista, el juez emitió una orden convocando a audiencia al abogado Steven Schwartz para que diera una explicación de por qué utilizó ChatGPT para preparar el caso y para que presente alegaciones para evitar ser sancionado.
El propio Schwartz presentó una declaración jurada en la que admitía que había utilizado la inteligencia artificial para elaborar el documento y que su intención no era la de engañar al juez, sino que simplemente había verificado los datos preguntando a la propia IA.
[Primer detenido por usar ChatGPT: usó la inteligencia artificial para crear noticias falsas]
El letrado indicó que le había consultado a ChatGPT si los casos eran reales y la IA le aseguró que sí y que podían localizarse en bases de datos legales. También aseguró que había sido la primera vez que utilizaba esta tecnología y que desconocía que la información que le pudiera dar podía ser falsa. Aun así, el juez ha citado el 8 de junio de nuevo a las partes para conocer si esta acción podría implicar sanciones.
También te puede interesar...
- ChatGPT lo tiene clarísimo: este es el monumento más bonito de toda España
- Así son los españoles: esto revela un polémico análisis realizado por ChatGPT en 'modo Diablo'
- ChatGPT lo tiene clarísimo: este es el mejor equipo de fútbol de España
- ChatGPT lo tiene clarísimo: este es el castillo más bonito de toda España