Mediante su nueva organización, Google DeepMind busca prevenir la distribución de información falsa generada por IA y crear salvaguardas para asegurar el uso responsable de los modelos avanzados de lenguaje.
A medida que la preocupación en torno a los riesgos de la inteligencia artificial aumenta, Google DeepMind, la división de investigación y desarrollo detrás de los modelos de IA del gigante de la tecnología, anunció esta mañana la formación de una nueva organización llamada AI Safety and Alignment, mediante la cual busca abordar los principales desafíos de seguridad de esta tecnología.
La nueva subdivisión de DeepMind se centrará en garantizar la seguridad en torno a la inteligencia artificial general, la cual según Google se refiere a los sistemas que hipotéticamente son capaces de ejecutar cualquier tarea que un humano pueda realizar. Además, trabajará en la creación de salvaguardas reforzados para los modelos avanzados de lenguaje de la familia Gemini, el nuevo Gemma y el resto de los sistemas de IA que están en desarrollo.
Mediante un comunicado, Google DeepMind señaló que aunque la seguridad de la inteligencia artificial es un término bastante amplio y hay muchas áreas que atacar, los objetivos de la organización en el corto plazo son: prevenir la distribución de información médica falsa generada por IA, garantizar la seguridad infantil, crear medidas que reduzcan las alucinaciones de los modelos avanzados de lenguaje y erradicar los deepfakes de IA maliciosos, ofensivos y pornográficos.
El departamento de AI Safety and Alignment estará conformado por los equipos de DeepMind que actualmente trabajan en la seguridad de la IA, así como por nuevos investigadores e ingenieros expertos en inteligencia artificial generativa que se integrarán a la iniciativa.
De hecho, Google ha comenzado con el reclutamiento de especialistas en IA para la nueva organización. Paralelo al anuncio de la creación de AI Safety and Alignment, la compañía lanzó una convocatoria con nuevas ofertas de trabajo, sin embargo, Google no mencionó la cantidad de contrataciones que planea realizar para el nuevo equipo de seguridad, ni proporcionó detalles acerca de los nuevos roles que están buscando cubrir.
Por otro lado, el gigante de la tecnología propiedad de Alphabet, reveló que Anca Dragan, una reconocida ex científica investigadora de Waymo y actual profesora de informática de UC Berkeley, liderará el nuevo equipo de investigación especializado en la seguridad de la inteligencia artificial.
Google busca acabar con las inquietudes en torno a la seguridad de la inteligencia artificial
Con su más reciente iniciativa, Google DeepMind pretende mitigar las preocupaciones latentes que se han generado en la sociedad a partir del auge de los modelos de IA generativa. Una encuesta realizada por YouGov, reveló que el 85% de los estadounidenses se sienten preocupados por la difusión de imágenes, videos y audios engañosos generados con inteligencia artificial.
Además de lo anterior, esta semana más de 500 profesionales dedicados al sector de la IA en el momento de su publicación firmaron una carta abierta solicitando una regulación estricta para la creación y distribución de deepfakes. En el documento declaran que “los deepfakes son una amenaza creciente para la sociedad, por lo que los gobiernos están obligados a imponer regulaciones para detener la proliferación de éstos”.
Mientras tanto, para tratar de disminuir la inquietud de las personas el pasado fin de semana 20 empresas de tecnología lideradas por Microsoft, OpenAI, Meta, Amazon, Adobe, IBM y el propio Google, se comprometieron a trabajar en equipo para combatir los deepfakes generados por inteligencia artificial y la desinformación en torno a los procesos electorales que se llevarán a cabo en el 2024 en todo el mundo.
Por otro lado, cabe recalcar que apenas un día después del anuncio de la nueva organización de seguridad de DeepMind, Google suspendió temporalmente la capacidad de Gemini para generar imágenes que incluyan humanos, mientras se enfocan en perfeccionarla. Esto después de verse envueltos en una polémica debido a que en redes sociales se viralizaron una serie de imágenes inapropiadas de algunos personajes históricos generados con el modelo.
Es probable que el acto de suspender temporalmente la capacidad de generar imágenes con personas de Gemini no responde a la creación de AI Safety and Alignment, sin embargo, refleja el compromiso de Google DeepMind con el desarrollo seguro y el uso responsable de la IA generativa, sentando un buen precedente para su nueva organización.