La inteligencia artificial requiere tener la capacidad de emular al cerebro humano para responder de forma efectiva a las amenazas.
Si se estima que la intensidad y frecuencia de los ataques cibernéticos irá en aumento, ¿cómo podrán protegerse las empresas? Es más, ¿las tecnologías exponenciales por sí solas son lo suficientemente fuerte como para garantizar la seguridad de las organizaciones? La clave está en la neurociencia, la cual esconde un secreto para proteger a la inteligencia artificial (IA) de los ciberataques.
A través de las llamadas redes neurales, tecnologías como la IA buscan emular al cerebro humano; sin embargo, aún queda camino por recorrer para lograr que estos sistemas logren resultados concretos y no cometan errores como lo podrían hacer las personas.
Te puede interesar: De la inteligencia a la intuición artificial
Los hackers tienen la capacidad para diseñar señuelos con los que pueden engañar a los sistemas inteligentes y conseguir que cometan errores, fallando de maneras impredecibles. En consecuencia, esto podría traer resultados desastrosos para las empresas.
¿Cómo puede proteger un sistema de deep learning a sí mismo?
Lograr que los sistemas basados en inteligencia artificial sean resilientes es fundamental en un mundo cada vez más interconectado. Esta carrera requiere acelerar el ritmo con el fin de lograr que las empresas, gobiernos y, ¿por qué no?, hasta las casas sean más seguras.
Conseguir lo anterior conlleva aplicar la neurociencia con la finalidad de cerrar la brecha entre las redes neurales y el sistema de visión humano. Investigadores del MIT y del MIT-IBM Watson AI Lab descubrieron una manera directa de mapear las características del córtex visual de los mamíferos en redes neurales que pueden crear sistemas de IA más predecibles en su comportamiento y más completos para evitar ser afectados por otras alteraciones.
Como parte de una prueba, los científicos crearon VOneNet, una arquitectura que combina técnicas profundas de deep learning con redes neurales inspiradas en la neurociencia.
Las redes neurales convolucionales (CNN, por sus siglas en inglés) es hoy en día el principal método que se usa en la visión computacional. Cada una de estas se encuentra conformada por capas que se encuentran unas encima de otras y es posible entrenar varias para aprender y obtener imágenes. De esta manera, el sistema identifica patrones en las fotos para reconocer objetos y personas.
En comparación con las redes neurales tradicionales, las CNN demostraron ser más robustas y eficientes a nivel computacional. Los investigadores realizaron pruebas con diversas arquitecturas y evaluaron los modelos bajo la métrica “BrainScore”, la cual evalúa las activaciones en las redes neurales profundas y las respuestas neurales del cerebro.
Lee también: 4 barreras que impiden adoptar la inteligencia artificial
Posteriormente se analizaba qué tan robusto el modelo probándolo contra ataques adversarios denominados white-box; es decir, aquellos donde el agresor conoce toda la estructura y los parámetros de las redes neurales objetivo. Los resultados señalaron que, a medida que el modelo se parecía más al cerebro humano, el sistema estaba mejor preparado contra los ataques adversariales.
Las pruebas realizadas con VOneNet demuestran que la inteligencia biológica presenta un potencial para resolver los problemas que enfrenta la IA. Los modelos requieren de menos entrenamiento para lograr un comportamiento más humano. De esta forma la neurociencia y la inteligencia artificial se refuerzan una a otra. Mientras tanto, los investigadores contarán con la posibilidad para desarrollar sistemas más efectivos capaces de ser más resilientes y por ende protegerse a sí mismos contra amenazas externas.
Todo indica que la neurociencia es pieza clave para lograr que la inteligencia artificial pueda protegerse de los ciberataques. Al parecer, solo emulando al cerebro humano es como esta tecnología podrá evoluciona para ser completamente autónoma.
Información a partir de la publicación de Ben Dickson Is neuroscience the key to protecting AI from adversarial attacks? en Tech Talks.