La implementación de esta tecnología en el mundo se basa en ideas occidentales y no toma en cuenta las perspectivas políticas, económicas y sociales de cada región.
Empresas y organismos en general buscan crean los principios que guíen a la inteligencia artificial (IA) para que sea más ética. Esta tecnología, bien aplicada, tiene el potencial de transformar a la sociedad, pero también supone riesgos que deben tomarse en cuenta sino no es implementada de acuerdo con el contexto donde opera.
De acuerdo con Abhishek Gupta y Victoria Heath, miembros del Montreal AI Ethics Institute, los sistemas actuales basados en IA causan problemas que tienden a afectar más a los grupos marginales. Mientras tanto, benefician a unos cuantos privilegiados.
Hoy en día, las instituciones que impulsan la ética en el uso de la inteligencia artificial buscan lograr que todos se beneficien de esta tecnología a través de directrices para desarrolladores, inversionistas y reguladores. Sin embargo, se están dejando de lado factores importantes.
Te puede interesar: Crean fórmula matemática para que inteligencia artificial tome decisiones más éticas
“Creemos que estos grupos tienen buenas intenciones y están haciendo un trabajo valioso”, escriben Gupta y Heath en el MIT Technology Review. “La comunidad de IA debería, en efecto, acordar un conjunto de definiciones y conceptos para una inteligencia artificial ética”.
Junto con lo anterior, los investigadores sugieren tomar en cuenta otros factores como la representación geográfica. De lo contrario, la visión global de la ética en la IA solo reflejará la perspectiva de ciertos grupos alrededor del mundo, especialmente de América del Norte y Europa occidental.
Conceptos como la “justicia”, “privacidad” y “sesgo”, entre otros, poseen significados distintos según la región. Las personas pueden tener una opinión diferente sobre estos de acuerdo con su realidad política, social y económica. De igual manera, la inteligencia artificial presenta riesgos particulares para cada localidad.
No considerar los elementos mencionados puede, en el mejor escenario, crear estándares éticos inefectivos alrededor del mundo. En el peor de los casos, perpetuarán el sesgo y continuarán siendo insensibles a las realidades particulares de cada país o ubicación particular.
Las empresas y organizaciones deben contar con políticas y lineamientos capaces de adaptarse a las realidades políticas y sociales. Uno de los casos más notorios fue la lentitud con la que Facebook respondió a la divulgación de información que llevó a un abuso de los derechos humanos en Myanmar en 2018.
Para evitar situaciones similares, “las compañías que trabajan en principios éticos para herramientas basadas en IA deben hacer partícipes a los usuarios alrededor del mundo para crear los estándares apropiados que gobiernen estos sistemas”, explican Gupta y Heath.
Lee también: Conceptos clave para entender la inteligencia artificial de manera sencilla
Es fundamental que los grupos que desarrollen los principios éticos se conformen por representantes de diferentes regiones. Esto es necesario para evitar lo que sucede actualmente con el proyecto AI for Children de la Unicef, el cual no integra a personas de Medio Oriente, África y Asia, donde están los mayores beneficiarios de la iniciativa.
A pesar de lo anterior, existen organismos como el Montreal AI Ethics Institute y Partnership on AI que reconocen los desafíos para crear una inteligencia artificial más ética. Por tal motivo, promueven mayor participación de personas alrededor del mundo para generar perspectivas más incluyentes respecto a la IA.