En su más reciente artículo científico, Michal Kosinski sugiere que los modelos de IA generativa más completos como GPT-4 han desarrollado “la teoría de la mente”, una capacidad cognitiva que anteriormente se consideraba exclusivamente humana.
El psicólogo Michal Kosinski, investigador de la reconocida universidad de Stanford, ha desatado la polémica en la comunidad científica al afirmar en un artículo publicado la semana pasada en la revista Proceedings of the National Academy of Science, que los modelos de inteligencia artificial generativa más avanzados están comenzando a desarrollar la habilidad de identificar patrones en el lenguaje que revelan los estados mentales y las emociones de las personas, una capacidad denominada “la teoría de la mente” que durante mucho tiempo se creía era exclusiva de los seres humanos.
Metodología del estudio
En el artículo científico publicado el 29 de octubre del 2024, Kosinski explicó a detalle cómo fue que llegó a la conclusión de que la IA pronto comprenderá el razonamiento de los humanos mejor que nosotros mismos.
El investigador de Stanford se basó en un enfoque experimental en el que aplicó a los modelos GPT-3.5 y GPT-4 una serie de pruebas psicológicas relacionadas a la teoría de la mente, como la prueba de Sally-Anne que se utiliza para evaluar la capacidad que tiene un individuo para entender que otra persona puede tener una creencia falsa basada en información incorrecta.
Particularmente, en el experimento de Kosinski, los modelos de IA debían predecir dónde buscaría una persona una canica oculta si alguien más la moviera sin su conocimiento. Los resultados fueron sorprendentes, ya que GPT-3.5 y GPT-4 lograron una tasa de precisión del 90%, lo que sugiere que pueden inferir las creencias de otra persona, una habilidad que se considera elemental en la teoría de la mente.
Debido a lo anterior, tras su descubrimiento Kosinski señaló a través de su cuenta de X que la denominación “Modelos avanzados de lenguaje” es inapropiada para esta tecnología.
“Para predecir la siguiente palabra en una oración construida por una persona pensante y sensible, la IA hace más que modelar solo el lenguaje: debe comprender la gramática y los significados de las palabras”, escribió el científico. “Tiene que tener en cuenta los pensamientos, las emociones, la personalidad y otros procesos psicológicos que dan forma a nuestra expresión. En otras palabras, no son modelos del lenguaje, son modelos de la mente humana.”
Por otro lado, Kosinski admite que según sus pruebas, los modelos de IA en el mercado aún no pueden alcanzar una teoría de la mente completamente desarrollada, señalando que sus habilidades son comparables a las de niños entre seis y siete años.
No obstante, el psicólogo destaca que esto es un avance significativo, ya que a pesar de que los modelos no fueron diseñados específicamente para comprender los estados mentales de los usuarios, han empezado a hacerlo como un subproducto de sus habilidades lingüísticas.
Opiniones encontradas entre los científicos
Cabe destacar que no todos en la comunidad científica están de acuerdo con las afirmaciones de Kosinski, lo que ha desatado la polémica, recibiendo duras críticas por parte de una parte del gremio.
Algunos investigadores argumentan que los modelos de IA podrían estar generando respuestas acertadas debido a un efecto conocido como “Clever Hans”. Este fenómeno se basa en la idea de que la inteligencia artificial podría estar simplemente memorizando patrones de entrenamiento, en lugar de comprender realmente los estados mentales de las personas.
Vered Shwartz, profesora de informática en la Universidad de Columbia, argumentó que es altamente probable que los modelos avanzados de lenguaje hayan consultado tanto en internet, así como en sus bases de datos, artículos científicos o información puntual que le dio pistas sobre cómo es que debían responder correctamente en pruebas de teoría de la mente, en vez de comprender auténticamente las emociones y creencias humanas.
Potenciales implicaciones del descubrimiento de Kosinski
Si las predicciones de Kosinski son correctas, estamos cada vez más cerca del desarrollo de un modelo de inteligencia artificial que comprenda e interactúe con los seres humanos de maneras nunca antes vistas, ya que esta habilidad podría permitir a los modelos de IA generativa responder con mayor empatía y precisión.
A pesar de lo anterior, el mismo científico de Stanford subraya que cualquier avance en esta dirección debe ir acompañado de regulaciones que garanticen que dicha tecnología sea utilizada responsablemente.
Si bien es cierto que los hallazgos de Kosinski pueden marcar la pauta para el desarrollo de nuevas aplicaciones de IA cada vez más avanzadas en campos como la salud mental, la educación y el soporte técnico, también plantean serios dilemas éticos y sociales.
De hecho, Kosinski concluye su artículo con una advertencia sobre los posibles peligros y beneficios de una IA que entienda la mente humana. “El desarrollo de la teoría de la mente en la IA podría significar el desarrollo de soluciones revolucionarias mucho más completas, pero el verdadero desafío es garantizar que estas tecnologías se utilicen de forma segura y ética en una sociedad cada vez más dependiente de la IA”.