China busca desarrollar un sistema para predecir crímenes, mientras Google pretende que su IA imagine y mida las consecuencias. Facebook tuvo que apagar una máquina que comenzó a desarrollar su propio lenguaje y no fue un error.
30/07/17 | Por Noticias TNE
Durante la semana pasada fuimos testigos del pique que se dio entre Elon Musk, CEO de Tesla y Mark Zuckerberg, CEO de Facebook, respecto al tema de la Inteligencia Artificial (IA). Mientras Musk busca una mayor regulación de la misma por considerarla un riesgo potencial, Zuckerberg se muestra más optimista y considera que no hay que ser catastrofistas; por el contrario, se pueden llevar a cabo grandes logros para construir una mejor sociedad y crear un mundo mejor.
“Es muy negativo y considero que es bastante irresponsable de alguna manera”, declaró el líder de Facebook durante una transmisión en vivo desde su cuenta en la red social. “En los próximos 10 años, la IA aportará muchas mejoras a nuestra calidad de vida”. La respuesta se debió a una pregunta que le hizo uno de los seguidores respecto a los comentarios de Musk durante una entrevista que le hicieron y compartió sus puntos de vista sobre la IA, la cual representa un riesgo e incluso podría iniciar hasta una guerra.
La respuesta del CEO de Tesla no se hizo esperar: “He tratado el tema con Mark. Su conocimiento sobre el tema es limitado”. Este punto de vista es compartido por otros grandes de la tecnología, como Bill Gates y el reconocido profesor e investigador Stephen Hawking. “La humanidad está en riesgo y muchos de los peligros los hemos creado nosotros mismos”, comentó el científico.
China busca predecir crímenes con IA
Al más puro estilo de Minority Report (2002), película protagonizada por Tom Cruise y donde la premisa principal gira en torno a la predicción de delitos y la detención de las personas antes de que los cometan, el país asiático busca ir más allá para llevar esta idea de la ficción a la realidad.
Diversas firmas tecnológicas están enfocadas a desarrollar sistemas de reconocimiento facial que automáticamente permitan analizar a los usuarios y detectar situaciones de agitación social, algo de extremo interés para el gobierno chino.
Una de esas startups es Xjera Labs, establecida en Singapur, pero con instalaciones de investigación y desarrollo en Shanghái y Shenzhen. La empresa lleva ya cinco años desarrollando su sistema de 52 capas de redes neurales que pueden detectar individuos, automóviles y objetos a partir de grabaciones, todo con un 97% de efectividad, basado en un banco de información que contiene 20 mil perfiles de individuos cuyos rostros han sido capturados por el sistema de CCTV.
Lo anterior es un paso importante para un país sobrepoblado y que cuenta con una red de 176 millones de cámaras de vigilancia, ya que significaría reducir el trabajo de los oficiales para analizar horas y horas de material, cuando una súper máquina podría hacerlo. Otra forma en la que los policías podrían verse beneficiados es mediante un algoritmo que detecte patrones sospechosos para determinar, por ejemplo, sin son ladrones.
DeepMind crea IA capaz de imaginar, planear y medir consecuencias
Google se encuentra desarrollando máquinas que pueden observar los resultados de sus decisiones y acciones antes de que las lleven a cabo. El objetivo es desarrollar un algoritmo que simule la capacidad humana de generar planes, lo cual ayudaría a desarrollar programas capaces de resolver problemas complejos de manera más eficiente.
DeepMind, a través de AlphaGo, derrotó a varios jugadores en el juego de Go, considerado uno de los más complejos que existen; sin embargo, éste se guía por reglas específicas, mientras que “el mundo real es complejo, no hay lineamientos claramente definido, los problemas surgen y son impredecibles”, se explicó en un comunicado.
Los investigadores han creado “agentes de imaginación aumentada” (12As), una red neural que aprende a extraer información que puede ser útil para decidir en el futuro y omiten aquello que no es relevante. Además son aptos para aprender y elegir distintas estrategias a fin de elaborar planes.
Facebook suspende programa
La división de IA de la red social creó un sistema para interactuar en las negociaciones; sin embargo, los bots “Bob” y “Alice” comenzaron a desarrollar su propio lenguaje, situación atribuida primeramente a un error, pero luego los investigadores se percataron que no lo era, más bien habían creado su propio lenguaje, utilizando palabras que en un principio parecían al azar, pero que seguían un patrón que la inteligencia artificial consideró más apto y directo que el inglés.
Lo anterior representa un problema, pues si la IA ignora su programación por considerar que puede haber algo mejor, el desarrollo de redes neurales puede complicarse.
¿Qué opinas al respecto?
Te puede interesar también:
“La inteligencia artificial podría comenzar una guerra: Elon Musk”