Científicos crean “Principio de Optimización no Ética” para identificar escenarios donde los algoritmos puedan implementar estrategias engañosas tanto a los consumidores como en las empresas.
¿Cuántas veces has escuchado o leído sobre errores cometidos por sistemas al cometer equivocaciones de índole racial? También pueden fallar y generar costos a las empresas. Ante esta situación, investigadores de la Universidad de Warwick, de la Escuela Imperial de Londres, crearon una fórmula para matemática para lograr que la inteligencia artificial (IA) tome decisiones más éticas y menos sesgadas.
Te puede interesar: Estudio revela que el racismo se extiende a los robots
Imagina que la IA quiera convencerte de comprar un producto o servicio que quizá necesitas, pero no es el adecuado para ti. En el peor de los casos caerás y abrirás tu cartera para darte cuenta de que no era lo que buscabas. El algoritmo sólo actuó con base a la información recibida, así que únicamente hizo su trabajo. Pero ¿estuvo bien?
Entre la cantidad de estrategias que puede desarrollar un sistema inteligente, algunas pueden ser las menos adecuadas. Incluso corren el riesgo de generar tanto costos morales como económicos a quienes implementen algoritmos que engañen a los consumidores o a las empresas.
Dado que las decisiones por parte de la IA son tomadas sin la supervisión humana, es importante saber bajo qué circunstancias se hacen. De esta manera se reducirá el riesgo o eliminará por completo el sesgo.
Ante dicho contexto, los investigadores han desarrollado un nuevo “Principio de Optimización no Ética”, que se traduce en una fórmula matemática para que la inteligencia artificial tome mejores decisiones y se pueda estimar su impacto.
“Este puede ser usado para ayudar a los reguladores, staff de cumplimiento y a otras personas a encontrar estrategias problemáticas que pueden estar ocultas”, comentó Robert MacKay, profesor del Instituto de Matemáticas en la Universidad de Warwick.
MacKay agregó que es de esperarse que la optimización pueda seleccionar de forma desproporcionada diversas estrategias inmorales. No obstante, este análisis debe mostrar dónde pueden surgir los problemas con mayor regularidad y proponer cómo modificar el algoritmo de búsqueda para evitar fallas en el futuro.
“El Principio de Optimización no Ética también sugiere que quizá debe repensarse la manera en que la IA opera en los espacios estratégicos”, señaló MacKay. Así se podrán rechazar los resultados inmorales de manera explícita en el proceso de optimización/aprendizaje.
Lee también: Crean IA para que escribas con tu mente
A medida que la inteligencia artificial se integre a los procesos comerciales y de negocio, será fundamental asegurarse de que las máquinas y los algoritmos actúen tomen decisiones más éticas. De lo contrario, la reputación de las empresas y quienes los implementen estará en juego.