Las falsificaciones profundas pueden ayudar a las personas si requieren protección de identidad. Por lo tanto, ¿cuál sería una solución para evitar aquellas que perjudican a la sociedad?
De acuerdo con la investigación “Deepfakes and Cheap Fakes, The Manipulation of Audio and Visual Evidence”, la inteligencia artificial sólo empeora la situación respecto a la alteración audiovisual, lo cual no garantiza seguridad contra deepfakes.
A mediados del siglo XIX, la evidencia fotográfica en los juicios no era vista con buenos ojos y las personas preferían testimonios y registros escritos. En la década de 1990 los medios de comunicación eran selectivos con las imágenes y videos que mostraban. A pesar de ser reales, la manipulación se daba fuera de contexto e interpretaba de forma tendenciosa.
Te puede interesar: Facebook, en alianza con Microsoft y siete universidades, creará tecnología que detecte deepfake.
En la actualidad, los deepfakes han llevado la manipulación a nuevos niveles gracias al uso del machine learning. Como consecuencia, las fotos y videos falsos son más difíciles de identificar a simple vista.
El peligro aumenta debido a que cualquiera que cuente con un perfil en redes sociales puede ser víctima o cómplice al difundir contenidos apócrifos. Basta con un archivo de audio o imagen falso que se viralice para generar caos.
Por el hecho de que cualquier individuo puede ser sujeto de un ataque, ya sea por parte de un experto o un amateur, las redes sociales cobran relevancia. A pesar del modelo de seguridad encriptada de WhatsApp, si un deepfake es enviado por un conocido, el receptor siente la necesidad política, emocional o deber social de compartirlo.
En mayo de 2019, se difundió un video de Nancy Pelosi, presidenta de la Cámara de Representantes de Estados Unidos, donde supuestamente aparecía ebria hablando mal de Donald Trump. Posteriormente se descubrió que se disminuyó en un 75% la velocidad de la cinta para aparentar que Pelosi se encontraba en estado inconveniente.
“El pánico alrededor de las falsificaciones profundas justifica medidas técnicas rápidas que no resuelven la desigualdad estructural”, comentó Britt Paris, coautor del estudio. “Es un proyecto masivo, pero necesitamos encontrar soluciones sociales y políticas para que la gente sin poder no quede fuera de la ecuación”.
Lee también: Fue exitosa la primera estafa financiera a través de deepfake.
De igual manera, se necesitan leyes que contribuyan a combatir los deepfakes, pero sólo aquellos enfocados a realizar actividades ilegales. Porque también pueden ser útiles para, por ejemplo, mantener bajo anonimato a personas que requieran protección de identidad. Por ello, ¿la inteligencia artificial garantiza seguridad contra deepfakes?
Britt Paris y Bobby Chesney, coautor de otro estudio relacionado a las falsificaciones profundas, están de acuerdo con que se requieren soluciones técnicas junto con el sistema legal para detener a quienes divulgan videos falsos.
“Necesitamos hablar de mitigación y limitar el daño, no resolver el problema”, agregó Chesney, detalló a The Verge. “Los deepfakes no van a desaparecer”.