Internacional

El uso irresponsable de ChatGPT: Un abogado se enfrenta a las consecuencias legales de su informe defectuoso

La asombrosa capacidad de ChatGPT para superar exámenes y mejorar la productividad ha sido ampliamente reconocida. Sin embargo, también es importante destacar que esta herramienta no está exenta de fallos.

Recientemente, Steven A. Schwartz, un abogado con sede en Nueva York, ha experimentado las consecuencias de confiar demasiado en esta herramienta de inteligencia artificial. Un error profesional lo ha dejado en evidencia ante el juez de un caso en el que estaba trabajando, y ahora se enfrenta a una posible sanción, según informes de The New York Times.

Todo comenzó el 27 de agosto de 2019, en un avión de la aerolínea Avianca, cuando uno de los azafatos golpeó accidentalmente la rodilla de Roberto Mata con un carrito metálico. Molesto por el incidente, Mata decidió presentar una demanda contra Avianca.

El uso irresponsable de ChatGPT: Un abogado se enfrenta a las consecuencias legales de su informe defectuoso

La compañía solicitó al juez federal de Manhattan que desestimara el caso, pero los abogados de Mata se opusieron firmemente. Para respaldar su argumento, el abogado de Mata, Steven A. Schwartz, del despacho Levidow, Levidow & Oberman, elaboró un informe detallado de 10 páginas que citaba varios precedentes judiciales.

El problema surgió cuando los abogados de Avianca intentaron verificar las referencias citadas por Schwartz y descubrieron que no existían. Incluso el propio juez fue incapaz de encontrarlas. Resultó evidente que el contenido del informe era impreciso e incluso inventado.

Lo más sorprendente no fue la falta de veracidad del informe, sino quién fue el responsable de ello. No fue Schwartz directamente, sino la herramienta que utilizó para redactar el informe: ChatGPT de OpenAI. Schwartz admitió haber recurrido a esta herramienta para agilizar su investigación legal, pero ahora reconoce que no resultó tan fiable como esperaba.

Este incidente ha desviado la atención del caso original de Mata vs. Avianca y se ha centrado en el mal uso de la inteligencia artificial por parte de Schwartz y en sus desastrosas consecuencias.

El juez del caso, P. Kevin Castel, ha admitido que se enfrenta a una situación sin precedentes, con un informe legal plagado de referencias erróneas. Se ha programado una audiencia para el 8 de junio para discutir las posibles sanciones.

Schwartz, un abogado experimentado con tres décadas de experiencia en Nueva York, ha presentado una declaración jurada en la que asegura que no tenía la intención de engañar al tribunal ni a la aerolínea. Simplemente fue su primera vez utilizando ChatGPT y confió demasiado en él. Ahora ha prometido que nunca más confiará en la inteligencia artificial de OpenAI sin una verificación exhaustiva.

El caso en sí ya era rocambolesco, pero hay otro detalle llamativo. No solo ChatGPT proporcionó nombres y citas incorrectas, sino que, según Schwartz, incluso ofreció garantías de que la información era precisa.

El abogado le preguntó directamente al chatbot: «¿Son falsos los otros casos que proporcionaste?», a lo que la IA de OpenAI respondió: «No, los otros casos que proporcioné son reales y se pueden encontrar en bases de datos acreditadas».

Esta respuesta parecía respaldar los errores del informe y aumentar la confianza de Schwartz en la información proporcionada por la IA. Sin embargo, ahora es evidente que esa confianza fue mal colocada y ha llevado a consecuencias lamentables.

Este incidente plantea importantes cuestiones sobre el uso de la inteligencia artificial en el campo legal y destaca las limitaciones actuales de estas tecnologías. Si bien las herramientas como ChatGPT pueden ser útiles para agilizar la investigación y el trabajo en entornos legales, es crucial tener en cuenta que no son infalibles y que deben ser utilizadas con precaución.

La declaración jurada presentada por Schwartz refleja su falta de conocimiento sobre las posibles limitaciones de ChatGPT. Asegura que no estaba al tanto de la posibilidad de que el contenido generado por la IA pudiera ser falso. Este incidente destaca la necesidad de una mayor conciencia y comprensión de las capacidades y limitaciones de la inteligencia artificial, especialmente en profesiones donde la precisión y la veracidad son fundamentales.

A medida que la inteligencia artificial avanza y se integra en diversas áreas de nuestras vidas, es importante que los profesionales y usuarios comprendan sus limitaciones y estén preparados para verificar y validar la información generada por estas herramientas. La IA puede ser una herramienta poderosa, pero no reemplaza el juicio humano y la responsabilidad individual.

En el caso de Schwartz, su error ha tenido consecuencias significativas. Además de dañar su reputación profesional, ahora se enfrenta a posibles sanciones y tendrá que lidiar con las implicaciones legales de su error. Este incidente servirá como una lección para todos los profesionales que trabajan con inteligencia artificial, recordándonos que debemos ser cautelosos y diligentes al confiar en estas tecnologías.

Luna Izquierdo

Periodista. Jefa de redacción de Contrainformacion.es. Lunaizquierdo@contrainformacion.es

Entradas recientes

A las puertas del matadero de sueca

Si hay un lugar escalofriante y oculto, son los mataderos que cada día acaban con…

6 días hace

Libres y Combativas presenta querella contra Vito Quiles y Javier Negre por denigrar a una activista con diversidad funcional

Libres y Combativas hace un llamado a la sociedad para apoyar su lucha y demostrar…

1 semana hace

La historia nos juzgará a todos por lo que están soportando las niñas y niños en Palestina

La situación en el norte de la Franja sigue siendo desesperada y ya han muerto…

1 semana hace

El balbuceo final del fascismo judío

La operación israelí “Espada de Hierro” aparece ante todos como lo que realmente es, una pantalla que camufla…

1 semana hace

Racismo al límite: Texas gana a Biden la batalla por el control de su frontera con México

El Tribunal Supremo de EE.UU. emitió el 19 de marzo de 2024 un dictamen según el…

1 semana hace