Investigación revela los potenciales riesgops de la inteligencia artificial (IA), en donde destacan control de coches autónomos para colisionarlos contra objetivos o convertir micro drones en asesinos letales.
23/02/18 | Por Noticias TNE
Expertos de distintas instituciones, entre las que destacan el Future of Humanity Institute de la Universidad de Oxford, el Centre for the Study of Existential Risk de la Universidad de Cambridge, OpenAI y la Electronic Frontier Foundation, dieron a conocer a través del reporte “The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation” los usos malintencionados que podría tener la IA en tres rubros particulares: digital, físico y político.
“A medida que las capacidades de la IA se amplíen y vuelvan más poderosas, esperamos un creciente uso en sistemas basados en esta tecnología para expandir las amenazas existentes, la introducción de otras nuevas y un cambio en la particularidad de los ataques”, comentan los autores del reporte. “Serán más efectivos, específicos, difíciles de atribuir y probablemente exploten las vulnerabilidades de los sistemas actuales de IA”.
En el área digital, los incidentes escalarán en cuestiones del spear phishing e incluso explotarán vulnerabilidades humanes; por ejemplo, el uso de síntesis de voz para suplantación de identidad y data poisoning¸ la manipulación de datos con la intención de dañar la reputación de organizaciones o personas.
Sobre el tema físico, la IA podría utilizarse con la intención de controlar coches autónomos y estrellarlos contra objetivos particulares o coordinar ataques en sistemas físicos a través de enjambres de micro drones, capaces de reconocer rostros y convertirse en armas mortíferas.
Respecto a la arena política, la manipulación social estará a la orden del día con tareas automatizadas que conlleven vigilancia a través del análisis masivo de datos, creación de propaganda con fines específicos de persuasión y el engaño a través de videos editados. Mediante el procesamiento de información sobre el comportamiento humano, los estados de ánimo y las creencias, crece la preocupación en estados autoritarios sobre el control que pudieran ejercer en sus poblaciones o en las democracias, donde el debate público quedaría entredicho.
Las recomendaciones emitidas por los expertos para atender la problemática son:
· Colaboración entre legisladores e investigadores para investigar, prevenir y mitigar los potenciales usos maliciosos de la inteligencia artificial. Debe evitarse la implementación de medidas que limiten o impidan el avance en la investigación, a menos que realmente aporten beneficios concretos.
· Tanto investigadores e ingenieros de IA deben ser conscientes sobre la naturaleza dual de su trabajo, para que así puedan establecer prioridades y normas que les permitan, de forma proactiva, contactar a las autoridades indicadas cuando se vislumbren aplicaciones dañinas de la tecnología.
· Identificar las mejores prácticas en áreas de investigación con métodos más maduros a la hora de atender preocupaciones sobre el uso dual de la IA, caracterizadas por mejores sistemas de seguridad computacional.
· Expandir el alcance de los accionistas y especialistas involucrados en el debate y atención a los desafíos, así podrán consultar a otros miembros. Entre éstos se incluyen individuos destacados del sector civil, expertos en seguridad nacional, investigadores de ciberseguridad, empresas que incorporan la IA en sus productos y/o servicios, personas reconocidas en el campo de la ética y el público en general.
La humanidad se encuentra en un cruce de caminos donde está a tiempo de tomar decisiones que contribuyan a mejorar la seguridad respecto a la tecnología. De lo contrario, surge la duda de si ésta, al ser más autónoma, podría revelar escenarios distópicos al más puro estilo de la serie Black Mirror.
Te puede interesar también: