A la hora de realizar experimentos con esta tecnología, las compañías no comparten el código para que otros puedan replicarlos y comprobar su efectividad.
Cuando a principios de año Google Health anunció avances con su inteligencia artificial (IA) en la detección de cáncer de mama mediante el análisis de imágenes, la comunidad científica respondió con un marcado rechazo en una carta, pero ¿puede generar confianza? El argumento era que no había suficientes pruebas y era más una promoción de la tecnología que una revelación a favor de la salud.
De acuerdo con una publicación del MIT Technology Review, Benjamin Haibe-Kains, líder y autor del mencionado comunicado, el estudio de Google nada tenía que ver con la ciencia. Este campo requiere de detalles de cómo se lleva a cabo una investigación y cómo otros científicos pueden replicarla ya sea para mejorarla o encontrar sesgos que pueden incidir en los resultados, pero no sucede del todo así en la realidad.
Te puede interesar: Mejorarán seguridad en computación confidencial avanzada
En el caso de la IA la situación es confusa porque esta tecnología se ha convertido en una ciencia experimental con tan solo una década en su desarrollo. “Solía ser teórico, pero cada vez más hacemos experimentos”, comentó Joelle Pineay, científica computacional en Facebook AI Research y en la Universidad de McGill. “Nuestra dedicación a metodologías sólidas se está quedando atrás por la ambición de los experimentos”.
A esto se suma que hace falta mayor transparencia a fin de prevenir que los modelos de inteligencia artificial no presenten sesgos, sean seguros y robustos.
En la actualidad, los modelos basados en esta tecnología pasan con suma rapidez del laboratorio al mundo real e impactan en la de millones de personas. Y lo que funciona en un recinto controlado puede no hacerlo en el exterior.
Hoy en día es complicado determinar cómo o por qué el machine learning produce los resultados que genera. Además, los modelos basados en esta tecnología requieren que más personas los prueben para confirmar su efectividad. Sin embargo, solo el 15% de los estudios de IA comparten su código1 al cual debiera tenerse acceso junto con los datos y el hardware.
Por otro lado, el acceso a la información y al hardware está limitado a solo las grandes compañías tecnológicas, las cuales son las únicas que realmente pueden invertir en costos experimentos para desarrollar sistemas de inteligencia artificial. Por ejemplo, el entrenamiento del generador de lenguaje GPT-3 de OpenAI se estima en un costo de entre 10 y 12 millones de dólares. ¿Cuántas empresas pueden darse esta oportunidad?
Lee también: Hyperloop de Virgin completa primera prueba con pasajeros
A pesar de que hay miles de investigaciones que se publican cada año respecto a los avances en inteligencia artificial, es complicado para los científicos saber cuáles son confiables. Esta situación limita los avances en este campo y al no poderse replicar es complicado verificar los resultados y comprobar que los modelos de IA funcionan cómo supuestamente se describen.
¿Será posible que para generar confianza con el desarrollo de la inteligencia artificial las compañías tecnológicas compartan el código para que otros puedan replicar los experimentos?
Referencias: 12020 State of AI report