El 80 % de los directivos no priorizan un uso responsable de la inteligencia artificial. Sin embargo, esta tecnología tiene la capacidad para tomar decisiones que impactan considerablemente en la vida de los clientes.
A pesar de los riesgos que ha presentado la inteligencia artificial (IA) en áreas como el reconocimiento facial, mostrando sesgos que perjudican a la comunidad afroamericana, pareciera que está claro que a los empresas no les urge usar la IA de forma ética, segura y responsable.
Lo anterior de acuerdo con el informe ‘State of Responsible AI’, elaborado por FICO y Corinium. Para el estudio se entrevistaron a 100 directivos del C-Suite expertos en analítica y datos con la finalidad de entender cómo las organizaciones están implementando la inteligencia artificial y si se aseguran de que se use de forma ética, transparente y segura en beneficio de los consumidores.
Te puede interesar: Cuando la inteligencia artificial se convierta en hacker
Sin embargo, los hallazgos resultan un poco inquietantes. El 65 % de los encuestados no pueden explicar cómo los modelos de IA toman las decisiones o realizan predicciones.
Por otro lado, resulta preocupante la falta de conciencia sobre el uso responsable de la inteligencia artificial. El 39 % de los miembros de la junta directiva y el 33 % de los equipos ejecutiva cuentan con una compresión limitada acerca de la ética de la IA.
“Durante los últimos 15 meses, más y más empresas han invertido en herramientas de IA”, comentó Scott Zoldi, Chief Analytics Officer en FICO. “Pero no han elevado la importancia sobre la gobernanza y responsabilidad de la inteligencia artificial al nivel de la junta directiva”.
Además, Zoldi agregó que las organizaciones cada vez más se apoyan en la IA para automatizar procesos clave que, en algunos casos, toma decisiones que impactan en la vida de los consumidores y los accionistas.
Por ello, es necesario que los líderes comprendan y promuevan la gobernanza en los modelos de inteligencia artificial para asegurar que las decisiones en justas y transparentes. Esto considerando que solo el 35 % de los entrevistados dijeron que sus empresas hicieron un esfuerzo para usar la IA de ética y responsable.
Aunado a lo anterior, únicamente el 22 % de los encuestados precisó que sus empresas cuentan con junta sobre ética en la inteligencia artificial. Por su parte, el 78 % fueron claros al decir que sus organizaciones “no estaban adecuadamente equipadas para asegurar las implicaciones éticas de usar nuevos sistemas basados en IA”.
Un dato relevante es que el 80 % de los líderes fueron tajantes al declarar que han tenido dificultades para lograr que otros ejecutivos séniores siquiera consideraran o priorizaran prácticas éticas con la inteligencia artificial.
Lee también: Usa la inteligencia artificial para invertir en startups
Las empresas cada vez presionan más a los empleados para desplegar sistemas de IA sin importar la ética entorno a su uso. De hecho, el 78 % de los entrevistados aseguraron tener problemas en obtener apoyo de los directivos para priorizar las buenas prácticas con esta tecnología.
“La mayoría no entiende que tu modelo no es ético a menos que demuestra que lo sea en la producción”, concluyó Zoldi. “No es suficiente decir que has creado un modelo ético y luego lavarte las manos. Lo que falta hoy en día es una plática directa y honesta sobre qué algoritmos son más responsables y seguros”.
Todavía queda camino por recorrer para que la idea de usar la inteligencia artificial de forma ética y responsable permee en la alta dirección de las organizaciones. No hay tiempo que perder a medida que los avances tecnológicos se dan de manera vertiginosa.