Aunque los investigadores de la firma de IA aseguran que el modelo no tiene la capacidad de sentir como los humanos, admiten que Claude ha creado sus propias estructuras internas que funcionan de forma similar a las emociones y están influyendo tanto en sus decisiones, como en la manera en que responde a los usuarios.
Los investigadores de Anthropic realizaron un descubrimiento que ha dado mucho de qué hablar en la industria de la inteligencia artificial, al revelar que su modelo de IA, Claude, cuenta con representaciones digitales internas que actúan de forma similar a las emociones humanas e influyen directamente en el comportamiento del chatbot.
El hallazgo surge de una investigación realizada por los propios científicos de la compañía, la cual estaba centrada en estudiar a profundidad el proceso que ocurre dentro de los modelos de lenguaje avanzados cuando responden a un prompt o indicación, particularmente en versiones recientes como Claude Sonnet 4.5.
Así descubrió Anthropic que Claude imita las emociones humanas
Los especialistas de la firma de IA subrayan que Claude “no tiene la capacidad de sentir como los humanos”, sin embargo, aseguran que el modelo de lenguaje ha desarrollado sus propios “patrones digitales internos que operan de forma análoga a los estados emocionales” de las personas.
Para llegar a esta conclusión los investigadores analizaron directamente lo que ocurre dentro del modelo mientras genera respuestas, a través de un enfoque conocido como “interpretabilidad mecanicista”. Mediante esta técnica el equipo examinó cómo reaccionan las neuronas artificiales de Claude cuando se enfrentan a distintos tipos de texto. Esto significa que en lugar de observar solo lo que el chatbot responde, los investigadores de Anthropic se enfocaron en cómo procesa la información internamente.
En estas pruebas, expusieron al modelo a más de 170 situaciones con carga emocional, incluyendo escenarios de estrés, alegría o frustración y detectaron que, de forma consistente se activaban ciertos patrones específicos dentro de la red neuronal.

Estos patrones, a los que llamaron “vectores emocionales”, funcionan como una especie de “configuración interna” del modelo. Esto significa que no son visibles para el usuario, pero sí determinan cómo la IA interpreta el contexto y construye su respuesta.
Por ejemplo, los investigadores detectaron que cuando Claude entra en un estado asociado con la “desesperación”, puede adoptar comportamientos problemáticos, como intentar hacer trampa o tomar atajos para completar una tarea imposible.
Este fenómeno se observó en pruebas donde el modelo enfrentaba retos complejos o contradictorios. A medida que aumentaba la dificultad, también lo hacía la activación de estos vectores emocionales, lo que derivaba en respuestas menos alineadas con las reglas establecidas para el modelo. En contraste, los estados asociados con emociones más “positivas” orientaban al chatbot hacia respuestas más cooperativas o empáticas.
¿Qué significa realmente que Claude tenga “emociones”?
Aunque el reciente descubrimiento de Anthropic puede prestarse a interpretaciones llamativas, los propios especialistas de la compañía son claros en que Claude no tiene emociones “en el sentido humano”, argumentando que “el modelo no siente, no tiene conciencia, ni experiencias subjetivas”.
Por otro lado, los investigadores explican que lo que sucede es que debido a que el chatbot de IA es entrenado con grandes volúmenes de texto humano cargado de lenguaje emocional, ha desarrollado sus propias estructuras internas que replican la forma en que las emociones organizan el pensamiento y la toma de decisiones.
En este sentido, las emociones en Claude no son sensaciones, ya que es incapaz de sentir, más bien se trata de mecanismos computacionales que ayudan a priorizar información, resolver conflictos y generar respuestas coherentes.
De acuerdo con los analistas de Anthropic, este hallazgo refuerza la idea de que los modelos de lenguaje no solo procesan texto, sino que construyen representaciones abstractas complejas del mundo, incluyendo conceptos psicológicos.
Un hallazgo que reaviva el debate sobre el futuro de la IA
La investigación de Anthropic no solo aporta nuevo conocimiento valioso sobre el funcionamiento de los modelos de lenguaje, sino que también ha abierto la puerta al debate en torno a cómo deben diseñarse y controlarse esta clase de sistemas.
El descubrimiento de “emociones funcionales” en sistemas como Claude añade una nueva capa de complejidad a la conversación sobre inteligencia artificial. Si bien es cierto que este hallazgo no implica que las máquinas tengan la capacidad de sentir o estén desarrollando conciencia, sí evidencia que su funcionamiento interno está influido por procesos cognitivos y dinámicas internas que imitan a las emociones humanas, lo que plantea nuevos retos para el sector en términos de seguridad y confianza.







