Brad Smith hace un llamado para lograr un mejor control de los sistemas inteligentes. Pero ¿será posible? ¿A caso no llegarán a ser completamente independientes? Ya pasó con un bot que no se dejó desactivar…
Si los súper robots evolucionan tanto, ¿habrá alguna manera de impedir que se descontrolen y evitar que supongan un riesgo para los humanos? Ante este posible escenario Brad Smith, presidente de Microsoft, sugiere crear un mecanismo para apagar a la inteligencia artificial (IA).
Durante su participación en la cumbre GeekWire 2019, el directivo señaló que al día de hoy ya se ha visto cómo es posible perder el control de las máquinas. Esto podría traer consecuencias devastadoras para la humanidad.
Te puede interesar: Inteligencia artificial no garantiza seguridad contra deepfakes.
Smith puso como ejemplo el caso de los dos Boeings 737 Max que se estrellaron debido a una falla en su software, en octubre de 2018 y marzo de 2019. El incidente provocó la muerte de 346 pasajeros y a esto se le suma los ocho mil millones de dólares de gastos, más el daño a la reputación de la compañía.
Imagínate, los robots o algoritmos que tengan demasiado poder y control sobre procesos, ¿cómo asumirán su responsabilidad en caso de presentarse una emergencia?
El accidente de los Boeings se debió a que el programa de software, derivado de datos incorrectos de vuelo, intentó repetidamente empujar la punta de los aviones hacia abajo. Por su parte, los pilotos tardaron en reaccionar para resolver la situación.
“Esto debería decirnos algo”, comentó Smith. “No es una cuestión que afecte a una sola compañía o industria. Es una advertencia para todos los creadores de tecnología y a quienes la usan”.
El presidente de Microsoft señaló que resulta imperativo crear “buena tecnología y debemos contar con la posibilidad de desactivarla”. Esto va de la mano con una genuina cooperación entre industria y gobierno para combatir las amenazas de la inteligencia artificial y el machine learning.
Lee también: Inteligencia artificial al borde del desastre.
Dados los avances en la IA y en el aprendizaje automático, es necesario que prevalezcan las decisiones humanas. Todavía queda camino por recorrer antes de que los sistemas inteligentes sean completamente confiables. ¿Te sentirías cómodo volando en un avión sin piloto?
“Somos la primera generación que resolverá cómo las máquinas tomarán sus decisiones y cuáles serán los principios éticos que las guiarán”, puntualizó el directivo. “No hay presión, pero más vale que lo hagamos bien”.
Si bien Smith elogia los avances tecnológicos, estos deben en todo momento mantenerse controlados. Por ello sugiere la creación de un botón que permita apagar a la inteligencia artificial.
¿Podrá la IA ser regulada o llegará un punto al que evolucione y encuentre los mecanismos para evitar ser detenida? Por lo menos algo así ya ocurrió con un bot que determinado a no perder en Tetris, puso en pausa el juego.