El gobierno de los Estados Unidos y las principales compañías de inteligencia artificial del país norteamericano convocan a hackers a la DEF CON 2023 para ayudarlos a encontrar y resolver vulnerabilidades en sus modelos avanzados impulsados por IA.
En busca de mejorar los protocolos de seguridad de las nuevas herramientas impulsadas por los avances en la creciente industria de la inteligencia artificial, la administración del presidente Joe Biden, en coordinación con OpenAI, Google, Microsoft y otras importantes empresas en el sector de IA, están convocando a los hackers de todo el mundo a la DEF CON 2023, en donde se llevará a cabo un hackaton masivo con el objetivo de poner a prueba los límites y la seguridad de su última generación de tecnología de IA.
Hackers pondrán a prueba la IA en DEF CON 2023
Desde que ChatGPT salió a la luz en noviembre del año pasado, los modelos avanzados de lenguaje han impulsado continuamente el desarrollo de innovadoras herramientas y aplicaciones de IA en el corto tiempo que lleva su práctica. Sin embargo, no todo ha sido color de rosa, en los últimos meses los hackers se han esforzado por encontrar nuevos métodos para burlar las medidas de seguridad de estos modelos con el fin de obtener respuestas maliciosas, ofensivas e inapropiadas.
Motivados por esta problemática, el gobierno de los Estados Unidos se reunió con las compañías de inteligencia artificial más influyentes de Norteamérica para trabajar en conjunto con el fin de realizar iniciativas que les ayuden a encontrar fallas de seguridad en sus recientes modelos de inteligencia artificial para posteriormente solucionarlas antes de que éstas puedan afectar a más usuarios y degradar su utilización. Fue así como surgió la idea de realizar el evento masivo de ciberseguridad durante la celebración de la DEF CON 2023, próxima a realizarse este verano en Las Vegas.
Algunos de los detalles del evento aún se están negociando, pero las empresas que acordaron proporcionar sus modelos para la prueba además de OpenAI y Google incluyen, al fabricante de chips Nvidia, así como las empresas ascendentes como Anthropic, Hugging Face y Stability AI. Mientras que la construcción de la plataforma para el hackaton correrá a cargo de Scale AI, una startup reconocida por ayudar a entrenar modelos de IA mediante el proceso de etiquetado de datos.
Misma preocupación, desde distintos enfoques
Rumman Chowdhury, coordinadora principal del hackaton y cofundadora de Humane Intelligence, una organización sin fines de lucro con un enfoque en el desarrollo de inteligencia artificial responsable, señala que la iniciativa no solo se trata de encontrar fallas, sino de descubrir las formas de solucionarlas, haciendo énfasis en la necesidad de contar con participantes de experiencia que tengan antecedentes en materia de ciberataques.
“Este evento servirá como un medio directo para dar retroalimentación a las empresas”, declaró la científica estadounidense, a lo que agregó. “No es que solo estemos haciendo este hackathon y que al terminar todos se vayan a casa. Pasaremos meses después del ejercicio investigando y generando informes que expliquen las vulnerabilidades comunes, las fallas que se encontraron y las medidas realizadas para solucionar cada una de estas problemáticas”, puntualizó.
Por otro lado, Heather Frase, investigadora principal del Centro de Seguridad y Tecnología emergente de la Universidad de Georgetown considera que poner los sistemas de inteligencia artificial para inspección pública en la conferencia de hackers DEF CON será sin duda una estrategia novedosa para probar las vulnerabilidades de estos modelos, aunque según ella, probablemente no sea tan exhaustiva como la realización de auditorías prolongadas.
Por su parte, el gobierno de Estados Unidos ha comenzado a realizar diversas acciones para impulsar nuevas leyes que garanticen la seguridad de las personas al utilizar modelos de IA. La vicepresidenta Kamala Harris se reunió el jueves con el CEO de Google Sundar Pichai, Satya Nadella de Microsoft y los líderes de otras dos empresas que desarrollan inteligencia artificial.
La reunión sirvió para que los funcionarios de la administración actual discutieran con los líderes de la industria los riesgos y amenazas latentes debido al desarrollo de la IA. Harris reveló en un comunicado después de la reunión a puerta cerrada que les dejó en claro a los ejecutivos que “el sector privado tiene la responsabilidad ética, moral y legal de garantizar la seguridad de sus productos”.
Mientras tanto, el presidente Joe Biden pasó brevemente por la reunión en la Casa Blanca y señaló que los avances de la IA “tienen un enorme potencial, pero también un gran peligro”. Por lo que el mandatario afirmó que el gobierno trabaja en iniciativas destinadas a garantizar que la tecnología en rápida evolución mejore la vida de las personas sin poner en riesgo sus derechos y seguridad.