Investigaciones demuestran que estos algoritmos tienen un alto grado de ineficacia si son utilizados para identificar a personas con un color de piel oscuro.
12/02/18 | Por Noticias TNE
Un estudio realizado por el MIT Media Lab reveló que la inteligencia artificial dentro de la tecnología para reconocer rostros es capaz de mostrar una gran cantidad de sesgo, justo como en la sociedad actual, al momento de identificar personas dependiendo de su color de piel y género.
La investigación, liderada por Joy Boulamwini, conjuntó una base de datos de mil 270 personas en el ámbito político de distintos países, seleccionados en función de tener un número equitativo de hombres y mujeres. Después, se probó la precisión de tres sistemas de reconocimiento facial: uno fabricado por Microsoft, otro por IBM y finalmente uno elaborado por la firma china Megvii.
Cuando la persona en la fotografía resultaba ser un hombre blanco, los diferentes softwares acertaron el 99% del tiempo, mientras que con las mujeres de ese mismo color de piel solamente se equivocaron el 7% de las veces.
Sin embargo, cuanto más oscura se volvía la piel en las personas, más errores surgieron, desde un 12% de evaluaciones incorrectas para hombres hasta un 21% en el programa de Microsoft y un 35% en los de IBM y Megvii para las mujeres.
“En general, los sujetos masculinos se clasificaron con mayor precisión que las mujeres y los de tez más clara se identificaron con mayor precisión que los más oscuros”, escribió Buolamwini en su reporte. “Todos los clasificadores obtuvieron peores resultados en las mujeres (con piel) más oscura”.
Esta no es la primera ocasión en que esta clase de tecnología se ve envuelta en polémica por el mismo tema. En 2015, Google tuvo que pedir disculpas públicas después de que su app de reconocimiento facial detectara a personas afroamericanas como gorilas.
Lo anterior no significa que los algoritmos utilizados estén siendo parciales a propósito, pero sí que estas aplicaciones necesitan mayor atención para incrementar su efectividad al momento en que su uso se vuelve más frecuente con el fin de evitar futuros errores. “Dado que la tecnología se está utilizando en sectores de alto riesgo como la atención de la salud y la aplicación de la ley, se necesita trabajar más en la evaluación comparativa de diversos grupos demográficos y fenotípicos”, concluyó Boulamwini.
Te puede interesar también: