Investigadores del MIT descubrieron que robots separados en grupos se distancian de otras IAs que no pertenezcan a su círculo conocido.
08/09/18 | Por Noticias TNE
Por mucho tiempo se ha creído que la interacción con el ser humano es lo que causa que una inteligencia artificial se vuelva parcial hacia cierto tema o genere sesgos, como cuando la IA de Microsoft Tay se volvió racista tras interactuar una tarde completa con Twitter. Sin embargo, el Instituto de Tecnología de Massachusetts y la Universidad de Cardiff han descubierto que los robots son capaces de desarrollar prejuicios aprendiendo entre ellos mismos.
La determinación final del estudio fue que “grupos de máquinas autónomas pueden demostrar prejuicios simplemente identificando, copiando y aprendiendo este comportamiento el uno del otro”.
Los investigadores crearon un juego simulado donde separaron a robots en grupos y cada uno debía elegir donar algo a otro dentro de su propio equipo o a uno externo a ellos. Mientras avanzaba el experimento, se descubrió que los autómatas copiaron estrategias que les dieron una mejor recompensa en el corto plazo; como tal, los resultados finales encontraron que las máquinas se volvían cada vez más prejuiciosas contra las de otros grupos de los cuales no habían aprendido.
“Nuestras simulaciones muestran que el prejuicio es una fuerza poderosa de la naturaleza y, mediante la evolución, puede incentivarse fácilmente en poblaciones virtuales, en detrimento de una conectividad más amplia con otros”, escribió el profesor Roger Whitaker de la Universidad de Cardiff, uno de los coautores del estudio. “El intentar protegerse de ‘grupos perjudiciales’ puede llevar inadvertidamente a las personas a formar sus propios grupos perjudiciales, lo que resulta en una población fracturada. Es difícil revertir ese prejuicio generalizado”.
Sin embargo, aún hay cierta esperanza, debido a que bajo algunas condiciones, hubo mayores niveles de cooperación. “Con un mayor número de subpoblaciones, las alianzas de grupos no perjudiciales pueden cooperar sin ser explotadas. Esto disminuye su condición de minoría, lo que reduce la susceptibilidad al prejuicio. Sin embargo, esto requiere circunstancias en las que los agentes tengan una mayor disposición de interactuar fuera de su grupo”, comentó Whitaker.
El sesgo y los problemas raciales son algo que los desarrolladores deben tener bien en mente en el futuro inmediato para evitar que las máquinas tomen posturas negativas. “Es casi definitivo que el aprendizaje automático vaya a aumentar y quizás amplificar los prejuicios humanos existentes, es ineludible”, comentó Arvin Narayanan, profesor de ciencias computacionales en Princeton.
Te puede interesar también:
“Reconocimiento facial es efectivo…sólo si eres hombre blanco”
“¿Confías en la IA? La película que Elon Musk quiere que veas”