Un abogado de Nueva York se enfrentará a una audiencia judicial por presentar información falsa en una defensa, tras utilizar ChatGPT para su investigación legal.
Steven A. Schwartz, un abogado de Nueva York, está metido en problemas legales luego de apoyarse en ChatGPT para realizar la investigación en torno a su caso. El jurista de la firma Levidow, Levidow & Oberman presentó ante el juez una defensa repleta de citas y jurisprudencias falsas, debido a las alucinaciones producidas por el chatbot de OpenAI.
La situación ocurrió en la disputa legal de Roberto Mata Vs. Avianca, en el cual el joven impuso una demanda en contra de la aerolínea colombiana, después de resultar herido de la rodilla debido a que un carrito de servicio de la aerolínea golpeó su rodilla durante un vuelo al Aeropuerto Internacional Kennedy en Nueva York, alegando negligencia de un empleado.
Hace algunos meses Avianca solicitó a un juez federal de Manhattan que desestimara el caso mediante una apelación. Fue entonces que los abogados de Mata se movilizaron y presentaron un escrito en el cual citaron más de media docena de decisiones judiciales anteriores relevantes a la disputa legal. Sin embargo, no se percataron de que el texto de 10 páginas contenía al menos seis casos que jamás sucedieron, con citas falsas inventadas por ChatGPT.
Posteriormente, los abogados de Avianca evidenciaron los casos inexistentes ante el juez federal de distrito Kevin Castel, quien a su vez confirmó los hechos: “Seis de los casos presentados parecen ser decisiones judiciales falsas conformadas por citas y citaciones internas que jamás se declararon”.
Además de lo anterior, el magistrado programó una audiencia con el grupo de abogados del demandante el 8 de junio de este mismo año, para determinar las potenciales sanciones que se aplicarán a Levidow, Levidow & Oberman por la presentación de información falsa ante la ley. Mientras tanto, Schwartz ha sido relegado del caso, Peter LoDuca, otro abogado de la misma firma, tomará el litigio.
Schwartz arrepentido de utilizar ChatGPT para su investigación legal
Por su parte, Steven se ha puesto a disposición de la corte federal y admitió mediante una declaración jurada que utilizó el chatbot de OpenAI para su investigación legal, añadiendo que no tenía intención de engañar al tribunal ni a la aerolínea, sin embargo “nunca antes había utilizado ChatGPT”, por lo que “no estaba al tanto de la posibilidad que pudiera crear contenido falso”.
En su declaración, Schwartz además le comentó al juez Castel que incluso le había pedido al modelo avanzado de lenguaje que verificara si los casos eran reales y ChatGPT confirmó que así era.
El chatbot de OpenAI incluso respondió que podía consultar la información en Westlaw y LexisNexis, dos bases de datos enfocadas en el sector legal, sin embargo, los abogados de Avianca pudieron demostrar que, si bien algunos de los hechos contenían información extraída de dicha fuente, estaba entremezclada con datos ficticios proporcionados por la inteligencia artificial.
Por ejemplo, en el escrito, el abogado de Nueva York citó una disputa legal inexistente bajo el nombre Varghese Vs. China Southern Airlines. Los defensores legales de Avianca encontraron que parecía hacer referencia a otro caso real llamado Zicherman Vs. Korean Air Lines., pero modificando detalles importantes como los involucrados y la fecha de resolución.
Finalmente, Schwartz señaló que lamenta mucho haber utilizado inteligencia artificial generativa para complementar la investigación legal realizada en torno al caso y agregó que nunca más lo hará en el futuro sin una verificación absoluta de su autenticidad.
El caso de Roberto Mata Vs. Avianca demuestra que, si bien la inteligencia artificial generativa posee un gran potencial, todavía está muy lejos de ser perfecta y aún existen muchos elementos tanto legales como funcionales que las firmas de IA deben abordar para que la sociedad pueda aprovecharla al máximo. Por otro lado, a medida que esto suceda será fundamental que las personas conozcan bien tanto la capacidad como las fallas de las herramientas impulsadas por IA y aprendan a utilizarlas de manera consciente.