Cuatro de los principales líderes en la industria de la inteligencia artificial se unieron para un nuevo organismo industrial enfocado en impulsar el desarrollo seguro y responsable de los modelos avanzados de IA.
Ante la falta de regulaciones de inteligencia artificial por parte de los legisladores de distintos gobiernos en el mundo, este miércoles por la mañana Anthropic, Google, Microsoft y OpenAI anunciaron que están aliándose para formar un nuevo organismo llamado Frontier Model Forum, con el objetivo de garantizar el desarrollo seguro y responsable de los modelos de IA de última generación.
El presidente de Microsoft, Brad Smith, señaló que uno de los motivos principales que impulsaron la creación del grupo es el hecho de que las empresas que crean tecnología de inteligencia artificial tienen la responsabilidad de asegurarse que sea segura y permanezca bajo el control de humanos.
“Esta iniciativa es un paso vital para unir al sector tecnológico con la sociedad civil y el gobierno con el fin de promover un desarrollo responsable de la IA de manera segura, para así abordar sus desafíos y permitir que beneficie a la humanidad”, declaró Smith.
Por otro lado, las cuatro compañías involucradas coinciden en que para aprovechar al máximo el potencial de la inteligencia artificial, aún hay mucho trabajo por hacer en torno a la creación de estándares de seguridad y evaluaciones que garanticen que esta tecnología se implemente de manera responsable.
¿Cómo hará el Frontier Model Forum para impulsar el desarrollo de IA segura y responsable?
El nuevo organismo institucional fundado por Google, Microsoft, OpenAI y Anthropic se basará en la experiencia técnica y operativa de dichas empresas, con el fin de beneficiar a todo el ecosistema de inteligencia artificial mediante el lanzamiento de una biblioteca pública de investigaciones y evaluaciones técnicas del tema, así como puntos de referencia, códigos y soluciones de IA que pueden utilizarse para desarrollar modelos inteligentes de última generación, apegados a las prácticas y estándares de seguridad de la industria.
En los próximos meses, el Frontier Model Forum establecerá una junta asesora conformada por representantes de distintos sectores e instituciones, tanto públicas como privadas, para ayudar a guiar sus estrategias y prioridades respaldados por una diversidad de antecedentes y perspectivas.
Mediante un comunicado conjunto, los lideres de la nueva iniciativa compartieron que los objetivos centrales del foro son:
- Avanzar en la investigación de seguridad de la IA para promover el desarrollo responsable de modelos avanzados, minimizando sus potenciales riesgos.
- Identificar las mejores prácticas para la creación e implementación de aplicaciones de inteligencia artificial, ayudando al público a comprender la naturaleza, la capacidad, el potencial, las limitaciones y el impacto de esta tecnología.
- Colaborar con legisladores, académicos, sociedad civil y empresas para compartir conocimientos sobre posibles riesgos de confianza y seguridad, así como conocer sus preocupaciones en torno a la inteligencia artificial para trabajar en conjunto e impulsar la creación de regulaciones legales.
- Apoyar los esfuerzos para desarrollar herramientas de IA de última generación que puedan ayudar a enfrentar importantes desafíos de la sociedad, como la mitigación del cambio climático, la detección y prevención tempranas de enfermedades y la lucha contra los ciberataques.
Anthropic, Google, Microsoft y OpenAI están invitando a las organizaciones que se dediquen al desarrollo e implementación de modelos avanzados, demuestren un fuerte compromiso con la seguridad mediante sus enfoques técnicos e institucionales y estén dispuestas a participar en iniciativas conjuntas con otras empresas para el beneficio de la IA a que se unan a la causa y formen parte del Frontier Model Forum.
Por otro lado, el nuevo organismo industrial señala que también buscará aprovechar los valiosos trabajos de investigación existentes en torno a la inteligencia artificial. Así mismo, explorarán formas para colaborar y apoyar a iniciativas como la Asociación Internacional de IA y MLCommons, las cuales siguen aportando importantes hallazgos y contribuciones al ecosistema de IA.
Cabe recalcar que, por su parte Elon Musk ha realizado esfuerzos independientes para impulsar inteligencia artificial segura y confiable. Hace algunos meses, el magnate sudafricano lideró un movimiento para pausar el desarrollo de nuevos modelos avanzados de IA, además recientemente lanzó su propia firma X.AI y se ha reunido con formuladores de regulaciones en Europa, Asia y Estados Unidos para discutir la necesidad de leyes que garanticen un buen uso de esta tecnología, por lo que se espera que más adelante pueda sumarse a la nueva iniciativa de Frontier Model Forum.
La creación del Frontier Model Forum refleja los esfuerzos que están haciendo las grandes corporaciones en la industria de la inteligencia artificial por impulsar a los legisladores a regular esta tecnología, conscientes de los grandes riesgos que implica si esto no sucede pronto. Apenas la semana pasada, las organizaciones fundadoras se reunieron en la Casa Blanca con la administración de Biden y acordaron un compromiso voluntario para desarrollar IA de forma segura.