ChatGPT ha demostrado que tiene el potencial para transformar industrias completas y simplificar la vida de miles de personas, pero ¿a qué costo?
Desde su lanzamiento en noviembre del año pasado, ChatGPT no ha parado de dar de que hablar, demostrando su potencial para impactar en diversas industrias a través de múltiples aplicaciones. Sin embargo, detrás del ruido que ha generado esta innovación y el avance que significa para la humanidad, se esconde otra polémica que es mucho menos conocida: el alto costo humano de esta tecnología y las pobres condiciones de trabajo de miles de personas sin las que ChatGPT no sería posible.
¿Qué hay detrás del funcionamiento de ChatGPT?
Para conocer la verdad detrás del chatbot de OpenAI, es fundamental entender su funcionamiento. ChatGPT es un modelo avanzado de lenguaje inteligente, lo que significa que ha sido entrenado con una gran cantidad de datos etiquetados para poder predecir la siguiente palabra que debe escribir de forma natural.
El programa ha sido alimentado con unos 175,000 millones de “parámetros” o variables, para decidir qué responder. Estos datos son textos ya existentes en internet o cargados por ellos mismos, entre los que se encuentran: libros, artículos, noticias, conversaciones y canciones, entre muchos otros textos, que se utilizan para enseñarle al modelo tanto a comprender como generar textos de manera lógica y coloquial.
Además de lo anterior, el modelo también se programa con otras fuentes de información como imágenes o vídeos para mejorar su capacidad de comprensión con el fin de ofrecer respuestas más precisas y coherentes. Este entrenamiento les permite reaccionar a las indicaciones de los usuarios para generar lo que se les pide. Pero, ¿cómo hacen las compañías para programar estos modelos inteligentes?
Etiquetadores de datos: la fuerza laboral oculta
Para entrenar adecuadamente a estos sistemas, las empresas necesitan datos que estén correctamente etiquetados, para hacer esto contratan a data labelers, personas que se dedican a identificar información, como textos, imágenes y videos, y le indican al programa de qué temática trata, para que la IA pueda comprender el significado de cada cosa y aprender en qué contexto usarla.
Estos etiquetadores de datos también tienen la labor de filtrar la información de toda clase de temas no aptos para enseñar al programa a identificar la clase de contenido que debe evitar.
Algunas empresas tecnológicas como Meta, Google y OpenAI, entre otras compañías que están desarrollando sus propios modelos avanzados de lenguaje para hacer inteligencia artificial generativa, recurren al outsourcing para subcontratar a personas en países en desarrollo que etiqueten millones de datos y entrenen a los sistemas con esa información para su correcto funcionamiento, pagándoles mucho menos de lo que les corresponde.
Irónicamente, a pesar de que se trata de un trabajo esencial para el desarrollo de la IA generativa, ya que prácticamente estos programas dependen de los datos etiquetados para generar contenido, los etiquetadores de datos se encuentran en el último escalón de la cadena de producción de las grandes empresas tecnológicas.De hecho, diversas investigaciones señalan que muchas de estas personas trabajan en condiciones laborales precarias y con sueldos que apenas superan el salario mínimo.
En los últimos meses se ha revelado que estos trabajadores sufren de un trato inhumano, ya que a menudo tienen jornadas laborales de más de doce horas por una paga muy baja y algunos incluso sufren de problemas de salud tanto físicos como mentales, ocasionados por estar tanto tiempo frente a una computadora haciendo este tedioso trabajo. Lo que despierta la inquietud de qué tan ético es realmente lo que están haciendo OpenAI y el resto de las compañías para el desarrollo de su IA generativa.
La verdad detrás del outsourcing para entrenar a ChatGPT
A través de una publicación la revista TIME sacó a la luz el hecho de que OpenAI contrató a una empresa de outsourcing llamada Sama, con sede en San Francisco, que a su vez contrató a trabajadores en Kenia para realizar el trabajo de enriquecimiento de datos.
Sama, que también contrata a etiquetadores de datos en otros países de bajos ingresos como Uganda e India para clientes como Google, Meta y Amazon, se promociona a sí misma como una “organización de IA ética” y asegura haber sacado a más de 50 mil personas de la pobreza al darles empleo. Sin embargo, la investigación además reveló que a los etiquetadores de datos que fueron subcontratados en África para entrenar a su ChatGPT recibieron sueldos de entre $1.3 y $2 dólares la hora.
Por si fuera poco, los trabajadores no solo trabajan en condiciones precarias, sino que además están expuestos a material traumático de violaciones a los derechos humanos, abuso sexual, violencia, asesinatos y todo tipo de brutalidades, ya que deben adentrarse en los rincones más obscuros del internet para filtrar toda esta información y enseñar a la máquina a no generar este tipo de contenido.
A mediados del 2022, un exempleado de Sama que trabajó como moderador de Facebook en Kenia demandó tanto a Sama como a Meta, por el daño psicológico de estrés postraumático y otros problemas de salud mental que sufrió a causa de su trabajo como etiquetador de datos para la red social. El caso aún no tiene un veredicto y aún se sigue juzgando en la corte de Nairobi, sin embargo es una muestra clara de los riesgos a los que están diaria y constantemente expuestos los etiquetadores.
Por otro lado, posiblemente las empresas de etiquetado de datos también sean parte del problema. A través de un comunicado, un vocero de OpenAI señaló que Sama era la responsable de los sueldos y las condiciones laborales de los etiquetadores. A pesar de que la compañía con sede en San Francisco generó aproximadamente $19 millones de dólares en 2022, les paga como máximo $2 dólares la hora a sus colaboradores en distintos países.
¿Por qué las compañías recurren al outsourcing?
Por un lado, OpenAI podría estar subcontratando a miles de trabajadores para dar la imagen y fomentar la creencia de que su herramienta de inteligencia artificial generativa o modelos avanzados de lenguaje funcionan de manera automatizada y son autosuficientes, como muchos piensan, cuando en realidad todavía dependen de una gran cantidad de actividad humana para un funcionamiento adecuado.
Por otra parte, la subcontratación de trabajadores les permite ahorrar dinero al utilizar mano de obra barata, así como evitar jurisdicciones estrictas sobre las condiciones laborales. Lo que pone en tela de juicio la ética de las grandes compañías tecnológicas, que a pesar de contar con millones de dólares en su presupuesto, optan por el outsourcing para ahorrarse una buena cantidad de dinero, sin importar la calidad de vida de las personas que realizan el trabajo sucio.
No cabe duda que ChatGPT tiene una capacidad increíble y un potencial impresionante en diversas industrias. Sin embargo, el hecho de que miles de personas deban de trabajar por cientos de horas en condiciones inhumanasdeja mucho que pensar acerca de si, realmente ¿vale la pena el costo humano de esta tecnología?