Si las compañías no quieren una mayor intervención gubernamental y ser multadas, están obligadas a tomar medidas más certeras en el combate a las noticias falsas y contenidos extremistas en redes sociales.
30/10/17 | Por Noticias TNE
Las empresas tecnológicas deben ser más precavidas e incrementar su vigilancia a la hora de lidiar con la desinformación o los contenidos extremistas distribuidos a través de sus plataformas. Así lo sugiere un reporte emitido por el Foro Económico Mundial (WEF, por sus siglas en inglés).
El informe, presentado por el consejo de derechos humanos de la organización internacional, advierte que las compañías tecnológicas ponen en riesgo las regulaciones gubernamentales, motivo por el cual además de poder ser multadas, el derecho a la libertad de expresión podría restringirse a menos de que éstas adopten un rol más activo a fin de prevenir sucesos lamentables.
Entre las recomendaciones del WEF hacia las empresas, se encuentran una revisión más intensiva de sus servicios y un mayor conocimiento sobre cómo estos podrían usarse indebidamente; además sugiere una práctica de supervisión y revisión más humana del material que se comparte en la web.
Los hallazgos generan el cuestionamiento sobre qué es la protección de la libertad de expresión y qué no; esto es un tema serio y un llamado a los líderes de social media o de cualquier página de Internet que contenga una sección de comentarios para dar una respuesta a dicha pregunta.
El impacto del reporte podría ir más allá de las compañías de redes sociales al pedirle a cada empresa o perfil, sin importar cuál sea su giro, autoregularse en el tema y eliminar publicaciones que atenten contra la sana convivencia a través de estos medios.
Algunos países ya tomaron cartas en el asunto y otros líderes apoyan el estudio del WEF. En Alemania, por ejemplo, se aprobó una ley para multar a redes sociales hasta con 50 millones de euros si no retiran de manera oportuna publicaciones que inciten a la violencia. Por su parte, líderes tecnológicos de Silicon Valley implementan medidas con la intención de prevenir la difusión de mensajes terroristas y de noticias falsas a través de las plataformas.
Twitter anunció el pasado 24 de octubre nuevas etiquetas para la publicidad política e incrementó la transparencia tras la intervención de Rusia y su influencia en las elecciones presidenciales de 2016. Una semana antes se comprometió a eliminar mensajes racistas y de acoso sexual, así como símbolos de odio.
Si bien el estudio del WEF sugiere un mayor involucramiento humano al momento de revisar contenidos, Facebook comenzó a usar en junio pasado una inteligencia artificial (IA) que identifica y suprime publicaciones de terroristas en vez de esperar a que un miembro del equipo lo señale para su eliminación. Google también se comprometió a desarrollar un software basado en IA capaz de reconocer contenido extremista.
Durante el martes y miércoles de esta semana, Facebook, Twitter y Google, comparecerán ante legisladores de Estados Unidos y sus respectivos consejos testificarán ante un comité del congreso respecto a la interferencia rusa en el proceso electoral que llevó a Donald Trump a la presidencia.
Te puede interesar también: