Durante la audiencia de sentencia del homicida de Christopher Pelkey, su hermana, Stacey Wales, presentó un video donde una versión generada por IA del difunto pronunció un discurso dirigido al juez, a su familia e incluso al hombre que le quitó la vida.
En un hecho sin precedentes en el sistema judicial estadounidense, la semana pasada en Arizona una mujer utilizó inteligencia artificial para darle voz a su difunto hermano, Christopher Pelkey, permitiendo que fuera una versión digital de él mismo quién presentara la “declaración de impacto de la víctima” durante la audiencia del juicio por su homicidio, tres años después de que perdió la vida.
Diversos expertos tanto del campo legal como de la tecnología, han asegurado que es la primera vez que esta tecnología se utiliza para crear una declaración de impacto leída por una representación de inteligencia artificial de la víctima fallecida, situación que ha encendido el debate en torno al uso de la inteligencia artificial en procedimientos legales y judiciales.
La creación del avatar de IA de Pelkey
En noviembre de 2021, a sus 37 años Pelkey fue abatido a balazos por Gabriel Horcasitas, luego de una acalorada discusión que sostuvieron en plena carretera, por lo que fue encontrado culpable de homicidio involuntario en marzo de ese año, sin embargo, apenas la semana pasada se llevó a cabo la audiencia para dictaminar su sentencia.
Stacey Wales, hermana de Pelkey, era la responsable de redactar y presentar la declaración de impacto de la víctima en la audiencia del caso de Horcasitas. Sin embargo, confesó que cuando ensayaba leyéndola, le era imposible terminar el discurso porque se bloqueaba o comenzaba a llorar.
Fue entonces cuando decidió recurrir a la tecnología para revivir, al menos simbólicamente, a su hermano para que fuera él mismo quien diera la declaración de impacto.
Con ayuda de su esposo Tim Wales, un emprendedor con experiencia en IA, utilizó herramientas de inteligencia artificial para animar una fotografía de Christopher y clonar su voz a partir de videos personales almacenados en su celular, logrando generar un avatar fotorrealista que pudiera hablar en su nombre, aunque el discurso fue completamente escrito por Stacey sin asistencia de IA, basándose en “los valores y creencias que su hermano sostuvo en vida”, según lo que mencionó la involucrada.
El avatar de IA de Pelkey se hace presente en la corte

Cuando llegó la fecha de la etapa de sentencia, Stacey compareció ante el tribunal y reprodujo el video del avatar fotorrealista de Pelkey, el cual antes de comenzar formalmente con la declaración de impacto dejó en claro que era una versión sintética de Chris recreada mediante IA.
Posteriormente, en un tono sereno, expresó agradecimiento al juez y a sus seres queridos por su esfuerzo a lo largo del proceso judicial. Sin embargo, lo más sorprendente fue que también se dirigió al hombre que lo asesinó con palabras de perdón: “Quién sabe, en otra vida, probablemente podríamos haber sido amigos”.
Aunque la imagen del avatar tenía movimientos faciales rígidos y una voz que se entrecortaba en momentos, la reacción de los presentes fue inmediata. Los familiares y amigos de Pelkey se mostraron conmovidos hasta las lágrimas, mientras que Todd Lang, el Juez del Tribunal Superior del Condado de Maricopa en Arizona se sitió gratamente sorprendido por la manera en la que se utilizó el avatar de la IA en la corte.
“Me encantó esa inteligencia artificial. Creo que podríamos aprovecharla más para este tipo de cuestiones judiciales”, afirmó en una entrevista después de concluir el juicio, en el cual se dictó una sentencia de 10 años y medio de prisión a Horcasitas, la pena máxima para un homicidio involuntario.
A pesar de lo anterior, Jason Lamm, el abogado defensor, expresó preocupaciones acerca del uso del video generado por inteligencia artificial, sugiriendo que podría ser motivo de una apelación del juicio debido a su “potencial influencia en la sentencia final”.
Opiniones divididas en torno al uso de IA en procesos judiciales
El uso del avatar de IA de Pelkey en la audiencia, ha desatado un intenso debate entre los profesionales, tanto del ámbito legal como de la tecnología. Mientras que algunos expertos aplauden la innovación como una poderosa herramienta para humanizar los procesos judiciales, algunos otros consideran que esta clase de representaciones sintéticas se prestan para la manipulación emocional del jurado y pueden llegar a nublar su objetividad a la hora de dictar un veredicto.
Finalmente, Diana Bowman, quien forma parte del Tribunal Supremo de Arizona, señaló que aunque en esta ocasión el uso de la tecnología fue conmovedor y simbólico, es crucial establecer regulaciones claras antes de que este tipo de prácticas se conviertan en una norma.