El abogado de Cohen presentó una apelación para acortar su sentencia en libertad condicional sin percatarse de que la documentación contenía referencias de casos falsos que fueron inventados por el chatbot de IA de Google, Bard.
Michael Cohen, quien fuera la mano derecha del expresidente Donald Trump durante su gestión, reveló en un nuevo expediente judicial que sin saberlo uso citas de casos legales inexistentes que fueron creados por inteligencia artificial en una moción a través de la cual busca solicitar legalmente la finalización de su libertad condicional por evasión fiscal y cargos por violación de diversas leyes en torno a la financiación de campañas políticas.
¿Cómo fue que Cohen presentó casos creados por una IA ante un juez federal sin darse cuenta?
La semana pasada, Cohen admitió que utilizó Bard, el modelo de inteligencia artificial de Google, para encontrar casos que su abogado podría utilizar como referencia para respaldar su defensa con el fin de acortar su sanción, sin percatarse de que estos jamás sucedieron y en realidad fueron “alucinados” por el chatbot.
Cohen confesó que utilizó Bard para citar las referencias legales para su defensa la semana pasada, después de que el juez del Distrito Sur de Nueva York, Jesse Furman, emitió una orden judicial el 12 de diciembre en la cual señalaba que no pudo encontrar ninguno de los tres casos citados por su representante legal David M. Schwartz, por lo que solicitaba pruebas o una “explicación exhaustiva” de cómo llegaron a éstos.
En su declaración el exabogado y portavoz de Trump mencionó que entregó esas citas y referencias a uno de sus abogados, David M. Schwartz, quien las incluyó en la moción que había sido enviada al juez federal de los Estados Unidos en su representación.
Por otro lado, Cohen añadió que en ningún momento Schwartz o algún otro miembro de su equipo legal “plantearon ninguna preocupación u observación en torno a las citas” que les había sugerido.
“No se me ocurrió entonces, y me sigue sorprendiendo ahora, que el Sr. Schwartz dejara los casos en su moción sin siquiera corroborarlos o confirmar que habían sucedido”, declaró Cohen.
Adicionalmente, en su declaración ante el juez, el exabogado de Trump enfatizó en que en ningún momento intentó engañar o mentir, por el contrario, afirma que fue un “error genuino” que sucedió debido a que no se había mantenido al día con “las tendencias emergentes y los riesgos relacionados con esta tecnología en el ámbito legal”.
De hecho, Cohen reveló que ni siquiera sabía que Google Bard era un modelo de texto generativo como ChatGPT, que puede ofrecer respuestas que parecen reales, aunque en realidad no lo son. Según sus propias palabras, para él Bard parecía ser el mismo “motor de búsqueda de Google actualizado y optimizado”.
El error de Schwartz fue descubierto por Danya Perry, una exfiscal federal que ahora representa a Cohen en su intento por acortar su libertad condicional. Perry tomó las riendas del caso el 8 de diciembre, después de leer la documentación presentada ante el juez y confirmar que no había forma de verificar ninguna de las tres jurisprudencias citadas.
Posteriormente, Perry declaró mediante un comunicado que Cohen “no incurrió en ninguna mala conducta” y añadió que honestamente él no sabía que los casos que identificó no eran reales y a diferencia de su abogado, él no tenía la obligación de confirmarlo.
“Confió en su abogado, como cualquier cliente hubiera hecho. Desafortunadamente, parece que el Sr. Schwartz cometió un error sincero al no verificar correctamente las citas en el escrito que redactó y presentó”, puntualizó la nueva representante legal de Cohen.
Además de lo anterior, la exfiscal federal compartió que Cohen dio su consentimiento para que se revelaran los documentos judiciales después de que el juez planteara la cuestión de si contenían información falsa y el hecho de que el exmediador de Trump aceptó que se abrieran los documentos demostraba que no tiene nada que ocultar.
¿Cómo puede afectar este error a Cohen?
La situación de Cohen podría tener implicaciones en el juicio penal de Donald Trump que está programado para el próximo 25 de marzo en la ciudad de Manhattan, ya que se espera que el exabogado suba al estrado y declare como testigo en contra del expresidente de los Estados Unidos.
Lo anterior se debe principalmente a que los abogados defensores de Trump han aprovechado la confesión de Cohen para desacreditarlo, argumentando que no es alguien digno de confianza, por lo que no debería ser un testigo válido.
“Es un perjuro admitido, además de que se ha declarado culpable de múltiples delitos graves y esto es sólo una muestra adicional de su falta de carácter y su continua criminalidad”, declaró Susan Necheles, miembro del equipo legal que representará a Trump en su próximo juicio.
Finalmente, cabe destacar que el caso de Cohen, es al menos el segundo en el que abogados se metieron en problemas por citar referencias falsas generadas por inteligencia artificial. A mediados del 2023, el juez Kevin Castel, impuso una multa de $5 mil dólares a dos abogados después de que admitieron que habían presentado un escrito legal lleno de casos y citas inexistentes, aunque en aquella ocasión fueron generadas por ChatGPT.