La inteligencia artificial tuvo un gran impacto en la reciente contienda presidencial entre Trump y Harris, pero ¿cómo es que esta tecnología pudo llegar a influir en las decisiones de los votantes?
La inteligencia artificial ha demostrado que tiene el potencial para transformar el mundo tal como lo conocemos a través de aplicaciones en los sectores industrial, empresarial, educativo y de salud, entre muchas otras cuestiones clave para mejorar la calidad de vida de los humanos, sin embargo su aplicación en el ámbito político hasta ahora ha sido controversial, debido a que muchos expertos en la materia señalan que esta tecnología puede llegar a plantear serias amenazas para la democracia si no es utilizada responsablemente.
Aunque la inteligencia artificial y la IA generativa facilitan la eficiencia en campañas, la personalización de mensajes y la detección de problemas, los modelos avanzados de lenguaje pueden utilizarse para manipular la información y reforzar la polarización, lo que pudo haber afectado los pilares de los sistemas democráticos.
Los recientes avances en IA y las nuevas herramientas impulsadas por esta tecnología que surgen prácticamente todos los días, no solo están cambiando la manera en que los ciudadanos interactúan con la información, sino que también están siendo utilizados por los políticos y algunos de sus más fieles seguidores para moldear la forma en que estos son percibidos, influir en el voto e incluso en algunos casos desalentar la participación ciudadana.
Durante la contienda por la silla presidencial entre Kamala Harris y Donald Trump, en la cual recientemente se impuso el candidato republicano, el uso de herramientas de IA para crear desinformación y manipular a la opinión pública fue muy claro en algunos casos, exponiendo peligros evidentes por aprovechar esta tecnología para cuestiones políticas. Por lo que vale la pena analizar los riesgos más críticos que la IA representa para la democracia con base en esta contienda, así como otros eventos recientes.
1. Desinformación potenciada por IA
Uno de los mayores riesgos que presenta la IA es su capacidad para generar y difundir desinformación masivamente. Hoy en día, las herramientas de IA permiten crear imágenes, audios y videos falsos con una veracidad casi indetectable. Esto es preocupante, sobre todo en la era en la que vivimos, donde las redes sociales juegan un papel crucial en la difusión de información.
De hecho, según un estudio de la Universidad de Oxford, casi el 70% de los usuarios de redes sociales se informan de la actualidad y consumen noticias directamente a través de estas plataformas, lo que facilita la propagación de desinformación.
En la carrera presidencial entre Harris y Trump, las herramientas de inteligencia artificial así como modelos de lenguaje avanzado y los deepfakes fueron utilizados en más de una ocasión para manipular la percepción pública, creando contenido falso difícil de distinguir de la realidad.
El más sonado ejemplo es el video alterado que mostraba a Kamala Harris haciendo comentarios polémicos que nunca dijo, el cual fue compartido por Elon Musk en su cuenta de X, lo que generó una ola de indignación en redes sociales y medios de comunicación. Este deepfake logró captar la atención de millones de usuarios antes de que fuera desmentido, afectando hasta cierto punto la imagen de la candidata demócrata.
-
Polarización y cámaras de eco
Estudios demuestran que los algoritmos de IA en redes sociales generan polarización debido a que están diseñados para identificar los gustos e intereses de los usuarios con el objetivo de mostrarles constantemente en sus páginas de inicio contenido alineado con sus creencias y preferencias.
Esto hace que se generen “cámaras de eco”, también conocidas como “burbujas de filtros”, donde los usuarios reciben continuamente mensajes y opiniones que confirman sus puntos de vista, mientras bloquean o ignoran otras perspectivas.
En la reciente contienda electoral de Estados Unidos, los algoritmos de IA de plataformas como Facebook y X fueron acusados de contribuir a la polarización, favoreciendo la exposición a cierto contenido, en el caso de la empresa de Meta eran cuestiones mayormente demócratas, mientras que X estaba cargado hacia el lado republicano, debido al apoyo de Musk a Trump.
Esto puede provocar que muchos votantes estadounidenses se sientan aislados en sus propias realidades políticas, sin respetar la opinión y el punto de vista de aquellos ciudadanos con visiones diferentes.
Un ejemplo claro de esto fue el uso de algoritmos para promocionar teorías de conspiración sobre la seguridad electoral y los posibles fraudes. Estos mensajes, impulsados por IA, lograron polarizar aún más a la población, generando dudas sobre la transparencia del proceso y fomentando una atmósfera de desconfianza en el sistema democrático, lo que en última instancia desmotivó a muchas personas a participar en las votaciones.
3. Vigilancia y manipulación de la privacidad
El uso de IA para la vigilancia masiva de los votantes es otro problema que amenaza la democracia. La recopilación de datos personales permite a gobiernos y empresas acceder a una gran cantidad de información sobre las actividades, preferencias y patrones de comportamiento de los ciudadanos. Aunque estos datos podrían ser utilizados para ofrecer mejores servicios, también pueden ser empleados para manipular y controlar a la población.
En el contexto político, la vigilancia impulsada por IA se utiliza para identificar patrones de comportamiento en los votantes y personalizar mensajes políticos altamente dirigidos. Esta cuestión fue evidenciada en el 2018, en el caso de Cambridge Analytica, cuando los datos de Facebook de millones de usuarios fueron utilizados para influir en el voto mediante anuncios personalizados.
Increíblemente, seis años después, ahora en la contienda entre Harris y Trump, las estrategias de microsegmentación volvieron a ser una herramienta poderosa, aprovechando la IA para dirigirse a votantes con anuncios diseñados específicamente para influir en sus opiniones.
Esta técnica de segmentación conocida como microtargeting, pone en riesgo el principio democrático de la libertad de elección, ya que los votantes a menudo recibían mensajes diseñados para apelar a sus emociones, temores, preferencias o prejuicios, con la intención de moldear sus opiniones de manera sutil.
4. Sesgo en la toma de decisiones
Desafortunadamente, los sistemas de inteligencia artificial han demostrado que pueden cometer alucinaciones o lanzar respuestas sesgadas con base en sus datos de entrenamiento. Esto se debe a que los algoritmos que impulsan estos modelos son programados con datos históricos que pueden contener prejuicios. Esto genera un trato desigual, con consecuencias desproporcionadas para minorías y grupos vulnerables.
En el ámbito político, el sesgo algorítmico también afecta la publicidad política, ya que los mensajes se personalizan en función de los perfiles de los usuarios, lo que en muchos casos puede perpetuar estereotipos y reforzar prejuicios.
5. El poder de las grandes empresas
La falta de regulaciones específicas para el uso de IA en campañas políticas es otro factor que impactó en la opinión y percepción de los votantes durante la carrera por la presidencia entre Trump y Harris.
Las grandes empresas tecnológicas, como Meta, Google y X, controlan una gran cantidad de datos, lo que les da el poder de moldear la percepción pública. Estas plataformas frecuentemente actúan como intermediarios de información y sin supervisión adecuada, por lo tanto, pueden influir en los resultados electorales al decidir qué contenido se muestra o se restringe.
Previo a las más recientes elecciones en Estados Unidos, X tomó la iniciativa de limitar la visibilidad de ciertos hashtags políticos relacionados con la contienda entre Harris y Trump, supuestamente para evitar la propagación de contenido polarizante. Sin embargo, esta iniciativa fue duramente criticada debido a que los expertos consideran que al hacer esto la plataforma estaba interfiriendo en el derecho de los ciudadanos a recibir información imparcial.
Este tipo de intervenciones por parte de las redes sociales dejan ver el gran impacto que pueden llegar a tener las plataformas digitales en el proceso democrático, subrayando al mismo tiempo la necesidad urgente de formular leyes y regulaciones que limiten el poder que estas empresas tienen sobre el flujo de información.
Todas estas situaciones reflejan porque la inteligencia artificial puede llegar a representar una amenaza para la democracia. Sin embargo, con medidas adecuadas, es posible mitigar sus efectos negativos y proteger los valores democráticos. Al igual que cualquier otra tecnología no es inherentemente buena ni mala, su impacto depende de cómo se utilice, así mismo de las políticas y leyes que se establezcan para prevenir su uso indebido.