Noticias

La IA “revive” a una víctima de homicidio durante un juicio en Arizona y reabre el debate sobre su uso ético

Published

on

El uso de inteligencia artificial para recrear digitalmente a víctimas de violencia está abriendo un nuevo capítulo en los sistemas judiciales. En un caso pionero en Arizona, Christopher Pelkey, un veterano militar asesinado en 2021, «testimonié» en su propio juicio a través de un avatar generado por IA que recreó su voz, apariencia y personalidad. El video, creado por su familia, incluyó mensajes de perdón hacia su asesino y reflexiones sobre la vida que perdió, logrando conmover al juez y al público. Este innovador recurso contribuyó a la condena de 10.5 años del homicida, aunque su defensa ya apeló argumentando indebida influencia emocional.

Más allá de los tribunales, la IA también se ha convertido en herramienta de activismo. En México, la campaña «Seguimos Hablando» recreó digitalmente al periodista Javier Valdez —asesinado en 2017— para denunciar la violencia contra la prensa. El avatar del premiado reportero interpeló directamente al presidente López Obrador, exigiendo justicia: «No pueden matarme dos veces», declaró la versión digital. Proyectos como este evidencian el potencial de la tecnología para visibilizar crímenes impunes, aunque también plantean dilemas sobre la manipulación de la memoria de las víctimas.

Las cortes estadounidenses comienzan a regular estos usos. Arizona —donde ocurrió el caso Pelkey— permite declaraciones de impacto en formatos digitales, pero la Corte Suprema estatal ya advirtió riesgos. «La IA puede distorsionar el curso de la justicia si se usa inadecuadamente», señaló la ministra Ann Timmer, quien creó un comité para establecer guías éticas. El principal desafío: equilibrar el derecho a la reparación simbólica de las familias con la necesidad de evitar manipulaciones emocionales que afecten la imparcialidad judicial.

Expertos legales dividen aguas. Mientras algunos ven en estos avatares una forma de humanizar procesos judiciales técnicos, otros alertan sobre «el efecto CSI»: la posibilidad de que recreaciones hiperrealistas —pero parciales— inclinen indebidamente a jueces y jurados. «No es lo mismo mostrar fotos de la víctima que un simulacro que hable y gesticule», advierte el profesor de derecho Ethan Katsh. El riesgo aumenta cuando las familias, con legítimo dolor, controlan el mensaje del avatar.

A medida que esta práctica se expande, crece el llamado a regulaciones específicas. Organizaciones como el Instituto AI Now proponen tres salvaguardas, verificación independiente del contenido generado, consentimiento explícito de los familiares y advertencias claras sobre la naturaleza simulada del testimonio. Mientras tanto, casos como el de Pelkey y Valdez siguen demostrando el poder de la IA para devolver voz a quienes se la arrebataron; pero también su capacidad para reabrir heridas y cuestionar los límites entre justicia, tecnología y duelo.

Con información de: Wired en Español.com

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Salir de la versión móvil