13/02/17 | Por Noticias TNE
En la prueba realizada, dos “jugadores” aprendieron de su entorno y a medida que escaseaban los recursos, se atacaron mutuamente para garantizar el primer lugar.
Durante el año pasado la Inteligencia Artificial (IA) demostró su capacidad de aprendizaje autónomo al ganarles a los mejores jugadores de Go; ahora, investigadores han estudiado si la IA puede ser cooperativa con otros. Resultado: cuando DeepMind considera que está a punto de perder, decide llevar a cabo estrategias más agresivas para asegurar el primer lugar.
El equipo de Google realizó 40 millones de pruebas mediante un simple juego de computadora —sobre recolección de frutas—, seleccionando a dos “agentes” para competir entre sí y capturar la mayor cantidad posible de manzanas virtuales. Mientras hubiera suficientes cantidades la situación transcurrió de manera normal, pero a medida que comenzaban a escasear, los dos “participantes” usaron rayos láser para atacarse y robarse mutuamente las manzanas.
Cuando uno de los competidores atacaba al otro, no recibía una recompensa; simplemente lo “noqueaba” por tiempo limitado, permitiéndole recolectar más frutas.
Un dato interesante, si no usaban los rayos láser, teóricamente, podrían haber compartido la misma cantidad de frutos, decisión por la que no optó Deep Mind.
Sólo cuando el grupo de investigadores realizó pruebas más complejas fue cuando apareció el sabotaje, la codicia y la agresión. Además, sugieren que cuando el agente es más inteligente, tiene mayor capacidad para aprender de su entorno, facilitándole el uso de tácticas más agresivas para destacar.
Los humanos tienen una tendencia a desconfiar en la IA debido a las impresiones negativas que genera la ciencia ficción y la investigación de Google no parece a minorar las preocupaciones, pero sí es importante considerarlo como un llamado de atención para destacar las complicaciones que pueden surgir a medida que avanza el desarrollo de la tecnología.
La investigación sugiere la posibilidad de observar los riesgos que pueden aparecer entre los agentes de Inteligencia Artificial a medida que los sistemas de deep learning se vuelven más complejos. También permitirá que los programadores y desarrolladores condicionen a la IA a favorecer la cooperación en vez de sabotear para obtener mayores beneficios.
El desarrollo tecnológico enfrenta el desafío para prevenir que la ficción supere a la realidad, evitando que sistemas inteligentes (como en películas de Terminator, Eagle Eye o incluso Wall-E) tomen la delantera y decidan en “beneficio de la humanidad”.