Computadoras que se hacen pasar por tus amigos, creación de audio y video falsos, así como potenciales ataques terroristas, son varias de las problemáticas que se visualizan en el futuro cercano.
21/02/18 | Por Noticias TNE
Cuando se piensa en los peligros de la inteligencia artificial (IA) normalmente sólo se ven las consecuencias no intencionadas, como el hecho de crear una máquina súper inteligente vacía de conciencia. Sin embargo, de acuerdo al estudio The Malicious Use of Artificial Intelligence: Forecasting, Prevention and Mitigation propone otro escenario: personas activamente deseosas de usar la tecnología con fines inmorales o criminales.
El estudio, que reúne las opiniones de 26 investigadores de las universidades de Cambridge, Oxford y Yale, junto con expertos militares y en privacidad de la información, sonó la alarma por el posible uso indebido de la IA por parte de delincuentes y Estados con fines maliciosos. Lo anterior representa una amenaza inminente para la seguridad digital, física y política al permitir ataques a gran escala, específicamente dirigidos y altamente eficientes dentro de los próximos cinco años.
Uno de los puntos más importantes que toca el reporte es que la IA reducirá drásticamente el costo de ciertos ataques al permitir que hackers automaticen tareas que antes requerían trabajo humano. Por ejemplo, podría automatizar gran parte del spear phishing, que es cuando a individuos se les envían mensajes especialmente diseñados para engañarlos a entregar sus credenciales de acceso a cuentas personales. La máquina podría escanear la red social y profesional de una, y luego generar un mensaje personalizado haciéndose pasar por un amigo suyo.
La segunda gran problemática planteada es que la IA agregaría nuevas dimensiones a las amenazas existentes. Utilizando el mismo ejemplo, la tecnología podría utilizarse no sólo para generar correos electrónicos y mensajes de texto, sino también audio y video falsos.
Entre los ejemplos más peligrosos que enumera el estudio, se encuentra la posibilidad de convertir cámaras de seguridad en espías capaces de categorizar el comportamiento humano automáticamente para futuras referencias. Incluso, se menciona el escenario donde un grupo terrorista implante una bomba en un robot de limpieza, lo introduzca en un ministerio del gobierno y cuando éste detecte que cierto oficial se encuentra cerca, el explosivo sea detonado.
“El punto aquí no es pintar una imagen de pesimismo, hay muchas defensas que se pueden desarrollar y hay mucho que aprender. No creo que sea inútil, sí veo este estudio como un llamado a la acción”, comentó Miles Brundage, investigador del Future of Humanity Institute y uno de los autores del reporte.
¿Qué hacer para evitarlo?
Entre las recomendaciones que se brindan con el fin de evitar estas situaciones a futuro, se encuentra el que tanto académicos como desarrolladores de inteligencia artificial generen conciencia de que si bien tiene muchas aplicaciones positivas, es una tecnología de doble filo. Además, ellos mismos deberían de abstenerse a publicar sobre nuevos desarrollos hasta que otros expertos en el campo tengan la oportunidad de estudiar y reaccionar ante los posibles peligros que puedan suponer.
Finalmente, se hace un llamado a los responsables de las políticas de protección y a los investigadores técnicos para trabajar juntos con el fin de comprender y prepararse para usos maliciosos de la IA, así como mejorar las prácticas que deben aprenderse como el manejo de riesgos y la seguridad informática.
Te puede interesar también:
“La inteligencia artificial podría comenzar una guerra: Elon Musk”