Investigadores crean algoritmo que identifica patrones que señalan cuando un usuarios compartirá publicaciones provenientes de fuentes poco o nada confiables.
Con el título seguro recordaste la película Minority Report protagonizada por Tom Cruise. El tema planteado en el filme ya se volvió realidad, dicho de alguna manera. Resulta que investigadores crearon una inteligencia artificial capaz de predecir qué cuentas de Twitter difundirán noticias falsas antes de que lo hagan.
Investigadores de la Universidad de Sheffield, en Inglaterra, desarrollaron un método para identificar si un usuario de redes sociales es propenso a compartir contenido de fuentes de información poco o nada confiables.
Te puede interesar: Cómo enseñar a tus hijos a identificar fake news
Los científicos analizaron alrededor de un millón de tuits compartidos (visibles para el público) por aproximadamente 6,200 usuarios mediante técnicas de procesamiento natural de lenguaje. Las personas fueron categorizadas en dos grupos: los que compartían noticias de cuentas confiables y los que no.
Con esta información, los investigadores entrenaron a un algoritmo de machine learning que puede predecir con un 79.7 % de precisión si un individuo publicará en el futuro algún contenido de una fuente no confiable.
“Las redes sociales se han convertido en la principal plataforma para difundir publicaciones falsas, las cuales tienen un gran impacto en la sociedad y pueden influenciar en el criterio de las personas respecto a lo que ocurre a su alrededor”, comentó Nikos Aletras, profesor de Procesamiento Natural de Lenguaje en la Universidad de Sheffield.
¿Cuáles crees que fueron los resultados de este estudio? Resulta que los usuarios de Twitter que comparten contenidos de fuentes que no son de fiar, son más propensos a tuitear sobre temas políticos o religiosos y usan un lenguaje descortés.
Con regularidad, los tuits compartidos incluían palabras como ‘liberal’, ‘gobierno’, ‘medios’, entre otras. Por lo general, las publicaciones estaban relacionadas con políticas en Medio Oriente y el Islam, donde con frecuencia se mencionaban términos como ‘Islam’ o ‘Israel’.
“La correlación entre el lenguaje descortés y la divulgación de contenido apócrifo puede ser atribuido a una alta hostilidad política en línea”, explicó Aletras.
En cambio, las personas que compartían contenidos de fuentes confiables tienden a publicar más sobre su vida personal, así como sus emociones e interacciones con amigos. Las palabras más usadas incluían ‘ánimo’, ‘quiero’, ‘voy’, ‘emocionado’ y ‘cumpleaños’.

Lee también: ¿Adiós a la idea de viralizar los contenidos en redes sociales?
Los hallazgos de esta inteligencia artificial que puede predecir que usuarios compartirán noticias falsas, ayudarán a empresas como Twitter y Facebook a desarrollar mecanismos para resolver el problema de desinformación en línea.
Por otro lado, también podría ser de gran apoyo para científicos y psicólogos al mejorar su comprensión a gran escala sobre el comportamiento de los usuarios.
Sin embargo, queda una duda por aclarar: ¿el estudio contempló la posibilidad de que las cuentas analizadas fueran bots?