Publicidad

Abogado usó ChatGPT para ganar demanda contra Avianca, así le fue

En el documento generado por el chatbot se incluyeron antecedentes legales inexistentes. El letrado dijo luego que no estaba al tanto de que el programa también emplea información falsa.

29 de mayo de 2023 - 04:22 p. m.
El abogado Steven Schwartz apeló al bot de OpenAI para complementar su investigación.
El abogado Steven Schwartz apeló al bot de OpenAI para complementar su investigación.
Foto: Shutterstock - Ascannio
Resume e infórmame rápido

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

Un abogado estadounidense se enfrenta a posibles sanciones después de haber usado el popular ChatGPT para redactar un escrito y descubrirse que la aplicación de inteligencia artificial (IA) se había inventado toda una serie de supuestos precedentes legales.

Le recomendamos: La seguridad digital, vista desde la esquina de Telefónica

Según publicó el sábado 27 de mayo el diario The New York Times, el sujeto en problemas es Steven Schwartz, abogado de un caso que se decide en un tribunal de Nueva York, una demanda contra la aerolínea Avianca presentada por un pasajero que asegura que sufrió una lesión al ser golpeado con un carrito de servicio durante un vuelo.

Demanda contra Avianca con ChatGPT

Schwartz representa al demandante y utilizó ChatGPT para elaborar un escrito en el que se oponía a una solicitud de la defensa para que el caso fuese desestimado. En el documento de diez páginas el abogado citaba varias decisiones judiciales para apoyar sus tesis, pero no tardó en descubrirse que el conocido chatbot de la compañía OpenAI se las había inventado.

“La Corte se encuentra ante una situación inédita. Una presentación remitida por el abogado del demandante en oposición a una moción para desestimar [el caso] está repleta de citas de casos inexistentes”, escribió el juez Kevin Castel.

Le puede interesar: La IA amenazaría más los puestos de trabajo ocupados por mujeres que por hombres

Castel emitió una orden convocando a una audiencia el próximo 8 de junio en la que Schwartz deberá tratar de explicar por qué no debería ser sancionado después de haber tratado de usar supuestos precedentes totalmente falsos.

Lo hizo un día después de que el propio abogado presentase una declaración jurada en la que admitió haber utilizado ChatGPT para preparar el escrito y reconoció que la única verificación que había llevado a cabo era preguntar a la aplicación si los casos que citaba eran reales.

Schwartz se justificó asegurando que nunca había empleado una herramienta de este tipo y que, por tanto, “no era consciente de la posibilidad de que su contenido pudiese ser falso”.

Más sobre tecnología

El deepfake, según registros, se ha implementado desde 1865 como forma de desinformación, técnica cinematográfica y para suplantar identidades.
Así es como usan la inteligencia artificial para robar por medio de videollamada
Cada vez es más frecuente la publicación de imágenes hiperrealistas que recrean situaciones inexistentes que confunden a las personas. Conozca la forma para identificar qué imágenes son reales y cuáles son creadas por IA.
¿Cómo saber si una foto es creada con Inteligencia Artificial?

El abogado subrayó que no tenía ninguna intención de engañar al tribunal y exculpó totalmente a otro abogado del bufete que se expone también a posibles sanciones.

El documento se cierra con una disculpa en la que Schwartz lamenta profundamente haber empleado inteligencia artificial para apoyar su investigación y promete no hacerlo nunca más sin verificar totalmente su autenticidad.

👀🌎📄 ¿Ya se enteró de las últimas noticias en el mundo? Invitamos a verlas en El Espectador.

Temas recomendados:

 

JOSEPATRO(ci8fp)31 de mayo de 2023 - 01:31 a. m.
Cuántos argumentos se habrán utilizado en de esta manera en Colombia, donde abundan los aboganters.
Eduardo(26198)29 de mayo de 2023 - 05:25 p. m.
Los abogados son como los plátanos, todos son torcidos.
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.
Aceptar