Logo Computerhoy.com

Un abogado usa ChatGPT para un caso y la IA se inventa todos los precedentes legales

Juez robot

Un abogado se enfrenta a posibles sanciones por haber usado el chatbot ChatGPT para “inventarse” una serie de precedentes legales sobre uno de sus clientes.

La inteligencia artificial ya está presente en todos los ámbitos profesionales, y ahora también en la abogacía, y un abogado no ha dudado en usar la inteligencia artificial para un caso.

En concreto, es un abogado estadounidense quien se enfrenta a posibles sanciones, después de haber utilizado ChatGPT para redactar un escrito y descubrirse posteriormente que la IA se había inventado todos los supuestos precedentes legales.

En concreto hablamos del abogado Steven Schwartz, que actualmente está inmerso en un caso que se dirime en un tribunal de Nueva York, una demanda contra la aerolínea Avianca y que fue presentada por un pasajero que asegura que sufrió una lesión al ser golpeado con uno de los carritos de servicio.

Esta circunstancia recogida por el The New York Times afirma que el abogado utilizó ChatGPT para elaborar un escrito que se oponía una solicitud de la defensa para que el caso fuese desestimado.

En el documento presentado a la corte, el abogado citaba distintas decisiones judiciales para defender a su cliente, pero se descubrió que ChatGPT se había inventado todo.

La Corte se encuentra ante una situación inédita. Una presentación remitida por el abogado del demandante en oposición a una moción para desestimar (el caso) está repleta de citas de casos inexistentes", escribió el juez Kevin Castel.

Podría ser inhabilitado

No obstante, Castel ha emitido una orden convocando a audiencia a Schwartz para que explique por qué uso la IA para el caso, y a que presente alegaciones para explicar por qué no debería ser sancionado.

El propio Schwartz presentó una declaración jurada en la que admitió haber usado ChatGPT para el caso y reconociendo que solo había verificado los datos preguntando a la propia aplicación.

Schwartz se justifica aclarando que jamás había usado esta tecnología antes y que no era consciente de que lo que pudiera decir la IA acabara siendo falso. 

Además sostiene que no tuvo ninguna intención de engañar al tribunal, que ahora tendrá que decir si le sanciona o le inhabilita.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.