Científicos implementan un sistema de algoritmos capaces de alterar información y generar contenidos falsos sin que sean detectados por inteligencia artificial.
En medio de la polémica elección presidencial de Estados Unidos circulan noticias falsas y encima, el presidente le añade leña al fuego. Bajo este contexto, los algoritmos se encargan de identificar fake news con base en el análisis de titulares, fuentes y comentarios de la gente. Sin embargo, ¿existe la posibilidad de que pueda engañar a la inteligencia artificial (IA) y hacerle creer que una publicación es verdadera?
Un equipo de investigadores de la Universidad Estatal de Pensilvania usó una red neural generativa antagónica (GAN, por sus siglas en inglés) con la intención de generar comentarios en contenidos para engañar a los sistemas automatizados más avanzados en identificación de noticias falsas.
Te puede interesar: Facebook lanza servicio gratuito de videojuegos vía streaming
“En este caso, usamos una GAN para generar comentarios maliciosos que aparentemente son escritos por humanos, no por máquinas”, comentó a Defense One Dongwon Lee, líder de la investigación. Explicó que internamente tenían un módulo que intentaba producir comentarios realistas, mientras otro detectar aquellos hechos por sistemas computarizados.
Lee agregó que estos dos módulos competían tener sí y el resultado fue que los algoritmos produjeron comentarios maliciosos difíciles de distinguir de aquellos hechos por personas.
‘Malcom’, como se le conoce al sistema de IA que logró lo anterior, venció a cinco de las redes neurales que ayudan a detectar contenidos falsos en un 93.5% de las veces que se puso a prueba.
“Este es el primer trabajo que propone un modelo de ataque contra detectores de fake news, en donde los adversarios pueden publicar comentarios maliciosos en artículos con el fin engañar a detectores de noticias falsas de vanguardia”, escriben los autores de la investigación.
Inclusive ‘Malcom’ logró mejores resultados que otros métodos de machine learning para generar comentarios falsos. Superó a sus competidores en la capacidad para copiar palabras o frases de publicaciones reales o sustituir palabras positivas por otras negativas con la finalidad de engañar a los sistemas de moderación.
Por otro lado, esta red neural antagónica no solo engaña a los moderadores de contenido. También puede usarse para restarles credibilidad a las noticias reales que aparecen en los muros de los usuarios en las redes sociales.
Lo anterior resulta riesgoso porque, de acuerdo con Lee, por ahora no existe un
mecanismo efectivo contra el uso de GAN. Si bien se pueden emplear a moderadores humanos u otros métodos de aprendizaje automático para identificarlos, la tasa de éxito es muy baja por el momento.
Lee también: Deep learning podrá hacer todo lo que desee
Así por ahora resulta fácil engañar a la inteligencia artificial para que no pueda detectar contenidos falsos. Sin duda esta resultará una gran batalla tanto para el sector público como privado.