¿El algoritmo autorizó un gasto que provocó un desajuste en el presupuesto? Habrá que tener una respuesta oportuna o asumir las consecuencias.
Las organizaciones cada vez más integran sistemas de inteligencia artificial con la intención de informar decisiones. Ante esta situación, la Oficina del Comisionado de Información en Reino Unido (ICO, por sus siglas en inglés) dio a conocer nuevas directrices que incluyen infracciones millonarias si las compañías no pueden explicar por qué la IA decidió actuar de cierta manera.
Imagina que el sistema que analiza currículums en la compañía discrimina a potenciales candidatos, bajo ciertas premisas. ¿Cómo se justificaría este proceder y quién rendiría cuentas?
De acuerdo con el estudio ‘Machine learning in UK financial services 2019’, elaborado por el Banco de Inglaterra y la Autoridad de Conducta Financiera (FCA, por sus siglas en inglés), el machine learning (ML) cada vez penetra más en las empresas.
Te puede interesar: Piden botón para apagar inteligencia artificial.
La encuesta revela que el ML se usa más en las instituciones de servicios financieros, donde dos tercios de los entrevistados usan el ML de alguna manera.
Así mismo, esta tecnología ya pasó de una fase de prueba a otra de implementación más madura, donde se aplica en distintas actividades en áreas específicas del negocio.
Por otro lado, a los ingleses les preocupa que los algoritmos tomen decisiones que de forma usual podrían explicar los seres humanos. Ante este panorma, los investigadores en inteligencia artificial tienen la tarea de explicar con más claridad cómo el machine learning llega a ciertas conclusiones.
“Se trata de que sea explicable […], sobre cuáles son los derechos que tienen las personas para recibir una explicación”, comentó al New Scientist, Simon McDougall, director ejecutivo de Tecnología e Innovación en ICO. “¿Cómo haces que la explicación sobre la decisión de la IA sea transparente, justa, comprensible y rinda cuentas a los individuos?”.
En relación con lo anterior, en Reino Unido se llevará a cabo una consulta que concluye el 24 de enero de 2020. Esta servirá para decirle a las empresas cómo exponerle a la gente las decisiones que toma la IA de manera que se entienda con facilidad.
Dicha iniciativa se enfoca en tres aspectos: definir los conceptos clave la inteligencia artificial y detallar diferentes formas de explicarla; establecer prácticas para comunicar de forma clara a las personas su forma de operar; por último, las políticas, procedimientos y documentos que las organizaciones integrarán con el fin de ser transparentes con los usuarios afectados.
Lee también: Inteligencia artificial transforma el poder de las decisiones financieras.
En caso de fallar, en situaciones extremas, las consecuencias pueden derivar en multas de hasta un 4% de los ingresos anuales de la compañía. Esto de acuerdo con el Reglamento General de Protección de Datos de la Unión Europea (GDPR, por sus siglas en inglés).
Bajo esta premisa, no tener dinero o tiempo para explicar la forma de proceder de la inteligencia artificial, no será una excusa valida.
“[Las compañías] tienen que ser responsables de sus acciones”, señaló McDougall. “Si no cuentan con los recursos adecuados para pensar cómo usarán la IA en la toma decisiones, entonces deberían reflexionar si deberían usarla del todo”.