¿Malas noticias? Científicos sugieren que algoritmos no pueden retener a una inteligencia artificial capaz de provocar daño a las personas.
Si viste las películas de Terminator, Ex Machina o Yo, robot, entre otras, seguro te viene a la mente cómo las máquinas inteligentes se rebelan contra las personas y estas no son capaces de controlarlas. Al parecer este temor no está alejado y tiene sus bases, al menos así lo estiman investigadores que consideran que los seres humanos no podrán controlar a la inteligencia artificial (IA).
De acuerdo con un reporte publicado en el Journal of Artificial Intelligence Research, un grupo de científicos se apoyó en cálculos teóricos para explorar cómo la IA podría mantenerse vigilada. La conclusión fue contundente: no se puede tener a raya.
Te puede interesar: La inteligencia artificial podría comenzar una guerra
“Argumentamos que una contención total es, en principio, imposible, debido fundamentalmente a los límites inherentes de la misma computación”, escriben los autores del informe.
Los investigadores añaden que, si se suma que la súper inteligencia va a restringir a a un programa que incluye a todos los demás que pueden ser ejecutados por una máquina de Turing universal con información de input compleja como el estado actual del mundo, se requiere de simulaciones de contención estrictas de esta clase de programas, algo que en teoría y en la práctica es imposible.
“Una máquina en excesivamente inteligente que controla al mundo suena a ciencia ficción”, comentó Manuel Cebrian, coautor del estudio, al Max Planck Institute for Human Development.
El experimento para determinar si es posible controlar a la inteligencia artificial se hizo de dos maneras. La primera fue aislarla a la IA, limitando su contacto con el mundo exterior; no obstante, este enfoque redujo su habilidad para realizar las funciones para las que fue creada.
El segundo método fue diseñar un algoritmo teorético de contención con el fin de asegurar que la IA no pudiera dañar a las personas en ninguna circunstancia. Sin embargo, bajo el análisis actual del paradigma computacional, el mencionado algoritmo no puede ser creado.
“Si deconstruimos el problema en reglas básicas de computación teórica, resulta que un algoritmo que haya instruido a una IA para no destruir el mundo podría inadvertidamente detener sus propias operaciones”, explicó Iyad Rahwan, otro de los investigadores.
En caso de que sucediera lo anterior no podría saberse si el algoritmo de contención continuaría analizando la amenaza o si habría detenido para contener a la IA dañina, lo cual vuelve inservible al algoritmo. Así lo precisó Rahwan.
Lee también: ¿Confías en la IA? La película que Elon Musk quiere que veas
De acuerdo con los cálculos, el detalle es que ningún algoritmo puede determinar si una inteligencia artificial puede causar daño al mundo. Los investigadores también señalaron que tampoco es posible que la humanidad sepa si ya llegaron más máquinas súper inteligentes, porque decidir si un dispositivo posee una inteligencia superar a las personas está en el mismo ámbito que el problema de contención.
¿En algún punto podrán los humanos controlar la inteligencia artificial o esta será un agente libre y no sabremos cuál será su comportamiento?