Las principales empresas de tecnología del mundo lideradas por Microsoft, Amazon y OpenAI se unieron el martes en un acuerdo internacional histórico a través del cual pretenden garantizar el desarrollo seguro de sus modelos de inteligencia artificial.
Dieciséis gigantes tecnológicos a la vanguardia del desarrollo de la inteligencia artificial firmaron un histórico acuerdo internacional en la Segunda Cumbre Mundial de Seguridad de la IA que se llevó a cabo el martes 21 de mayo en Seúl, a través del cual se comprometen a garantizar el desarrollo seguro de esta tecnología, así como a crear un interruptor que apague sus modelos de IA en caso de no poder controlar los riesgos más extremos.
¿Qué gigantes tecnológicos crearán un interruptor de apagado para la IA?
Las empresas participantes en la cumbre que se unieron a la causa son lideradas por Microsoft, Amazon y OpenAI e incluyen a otras grandes compañías del sector como lo son Samsung, IBM, xAI, Mistral AI, Zhipu.ai y G42, quienes se comprometieron a garantizar la seguridad de sus modelos de IA más avanzados mediante promesas de “gobernanza responsable y transparencia pública”.
Para dar mayor validez al acuerdo, los compromisos fueron respaldados por una declaración más amplia de las principales economías del Grupo G7, la Unión Europea, así como los gobiernos de Singapur, Australia y Corea del Sur, mediante una reunión virtual presidida por el primer ministro británico, Rishi Sunak y el presidente surcoreano, Yoon Suk Yeol.
El representante de Corea del Sur compartió que las naciones coincidieron en la necesidad de priorizar la seguridad de la IA para “proteger el bienestar y la democracia de nuestra sociedad”, haciendo alusión a las latentes preocupaciones en torno a la desinformación provocada por la IA de cara a las próximas elecciones a nivel global.
Por su parte, Sunak subrayó que es una primicia mundial que tantas empresas líderes en IA de distintas partes del mundo, incluyendo Estados Unidos, China, Canadá, el Reino Unido, Francia, Corea del Sur y los Emiratos Árabes hayan acordado cumplir los mismos compromisos en materia de seguridad de la IA.
“Estas acciones garantizan que las principales empresas de IA del mundo aborden con transparencia y responsabilidad sus planes para desarrollar una IA segura”, declaró respecto al nuevo acuerdo.
El impacto de los compromisos internacionales para desarrollar la IA de forma segura
Como parte de la iniciativa, los fabricantes de modelos de IA acordaron publicar marcos de seguridad estandarizados que establezcan cómo las empresas medirán los potenciales riesgos de sus modelos que pueden ir desde la proliferación de ataques cibernéticos automatizados, hasta la amenaza de creación de armas biológicas, entre otras preocupaciones.
En casos extremos en los que los riesgos asociados con los sistemas de inteligencia artificial sean considerados graves e “incontrolables”, en función a los marcos de seguridad, las empresas de IA tendrán que interrumpir para siempre el desarrollo de su sistema, o al menos hasta que sean capaces de garantizar que su modelo ya no representan una amenaza para la humanidad.
Cabe destacar que el nuevo acuerdo entre gobiernos y empresas líderes en IA amplía un conjunto anterior de compromisos que fueron asumidos por las principales compañías involucradas en el desarrollo de la IA generativa durante la Primera Cumbre Mundial de Seguridad de la IA, la cual se llevó a cabo en Reino Unido a principios de noviembre del 2023.
En aquel entonces, delegados de 28 países junto a directivos de 10 empresas tecnológicas accedieron a “someter a sus modelos a pruebas de seguridad exhaustivas” antes de lanzarlos al mercado con el fin de “contener los riesgos potencialmente catastróficos de la IA”. No obstante, el acuerdo de este martes va más allá estableciendo los lineamientos específicos de seguridad que deben seguir los desarrolladores de modelos de IA si no quieren que su tecnología sea deshabilitada.
Finalmente, Yoshua Bengio, conocido como el “padrino de la IA” destacó la actitud de las compañías al unirse para trabajar en pro del desarrollo de modelos seguros de IA, sin embargo, enfatizó en que los compromisos voluntarios deberían ir acompañados de regulaciones, incitando a los gobiernos a apresurarse en la creación de leyes que garanticen la seguridad de la inteligencia artificial.