Investigadores crean juego en línea para demostrar que la IA no es buena en identificar sentimientos. Después de todo, cualquiera puede fingir una sonrisa y no estar feliz.
El interés de las empresas tecnológicas por desarrollar inteligencia artificial (IA) para el reconocimiento facial es latente, pero también lo es el de las emociones. Esta última, se supone que es una tecnología mucho más avanzada que no solo analiza rostros, sino expresiones para determinar el estado mental de las personas. Sin embargo, el riesgo queda manifiesto.
Un grupo de investigadores sociales, así como científicos ciudadanos y diseñadores, crearon un juego con la intención de alzar la voz en el debate sobre el tema de la IA para detectar emociones, buscando que cada individuo lo experimentara de primera mano.
Te puede interesar: ¿Todos los sistemas de inteligencia artificial están equivocados?
La iniciativa, llamada emojify.info, es una plataforma donde las personas pueden probar la tecnología para el reconocimiento de emociones a través de dos juegos. Uno donde se demuestra cómo estos sistemas fracasan en comprender el contexto detrás de cada sentimiento y otro en el cual se usa una cámara de computadora para intentar engañar al ordenador mediante gestos faciales.
Por ejemplo, la lectura del software no es certera porque, si bien puede detectar cuando sonríes, asumiendo que estás feliz, la realidad es que es posible que estés fingiendo. ¿Cómo podría saberlo el sistema? Inclusive, algunas expresiones las identifica como sobre exageradas.
“La premisa de estas tecnologías es que nuestros rostros y sentimientos internos están correlacionados de una forma muy predecible”, comentó a The Verge Alexa Hagerty, investigadora en el Centro para el Futuro de la Inteligencia en la Universidad de Cambridge.
Hagerty agregó que la Asociación Americana de Psicología (APA, por sus siglas en inglés) en 2019 encontró evidencia de que el espectro emocional de las personas no puede ser inferido solo a partir de movimientos faciales.
En el juego “tienes la oportunidad de mover tu rostro rápidamente para asumir seis emociones diferentes, pero el punto es que no sentiste seis sensaciones distintas, una tras otra”, explicó la investigadora.
Si bien esta clase de tecnologías ganan más tracción entre las empresas, donde algunas sugieren que puede usarse para realizar mejores contrataciones u optimizar campañas publicitarias, por ejemplo, no hay duda de que también presentan desventajas.
Entre los riesgos se encuentran que las máquinas pueden realizar vigilancia masiva, además de presentar sesgos raciales, que regularmente impactan más a la comunidad afroamericana.
Lee también: ‘Zoombis’, la nueva pandemia que se propaga por el mundo
“Los peligros son múltiples”, concluye Hagerty. “Con las fallas en la comunicación entre humanos, tenemos muchas opciones para corregirla. Pero una vez que automatizas algo o el análisis se hacen sin tu conocimiento o consentimiento, ya no hay opciones”.
Todavía queda camino por recorrer para desarrollar una inteligencia artificial enfocada en el reconocimiento de emociones. Quizá por ahora lo mejor es dejarlo a pruebas, antes de desplegar esta tecnología de forma masiva. ¿Qué opinas?