Los investigadores del laboratorio de inteligencia artificial de Meta lograron importantes avances en la interpretación de los pensamientos mediante la creación de un modelo de IA que puede reconstruir frases a partir de la actividad cerebral de las personas.
El Centro de Investigación Fundamental de Inteligencia Artificial de Meta, mejor conocido como FAIR por sus siglas en inglés, en colaboración con el Centro Vasco de Cognición, Cerebro y Lenguaje (BCBL), lograron un hito en el campo de la neurociencia, al desarrollar Brain2Qwerty, un innovador sistema de IA con la capacidad de decodificar señales cerebrales para convertirlas en palabras escritas en una computadora.
Según los investigadores, este avance tiene gran potencial para revolucionar la comunicación humana, especialmente para las personas que han perdido la capacidad de hablar.
¿Cómo hicieron los investigadores de Meta para crear Brain2Qwerty?
Mediante un comunicado oficial de Meta, los investigadores de FAIR explicaron que el desarrollo de Brain2Qwerty fue posible gracias a la aplicación de tecnologías de magnetoencefalografía (MEG) y electroencefalografía (EEG), dos técnicas de escaneo cerebral no invasivas frecuentemente empleadas en la radiología, las cuales en este caso se utilizaron para monitorear la actividad neuronal de las personas mediante el seguimiento de los campos magnéticos y eléctricos de su cerebro.
Para entrenar al sistema, 35 voluntarios del BCBL se colocaron debajo de un escáner electromagnético y teclearon cientos de frases. Mientras lo hacían, sus señales cerebrales eran registradas y analizadas por el modelo Brain2Qwerty. De acuerdo con el informe, cada uno de los participantes del estudio pasó un total de 20 horas debajo del escáner mientras tecleaba frases para entrenar al sistema de IA a lo largo de 10 sesiones.
Logran convertir los pensamientos en palabras
Luego de analizar hasta 1,000 imágenes por segundo del cerebro de cada voluntario, el modelo logró identificar el proceso que los pensamientos siguen antes de transformarse en palabras, sílabas e incluso letras individuales. El estudio además reveló que el cerebro genera secuencias de representaciones al momento de pasar del significado abstracto de una frase a la acción motora de teclearla.
De acuerdo con Meta, tras someter a Brain2Qwerty a distintas pruebas, la inteligencia artificial fue capaz de decodificar los pensamientos de los participantes y traducir al menos el 80% de los caracteres correctamente con MEG. Los científicos de FAIR se jactan de que el nivel de exactitud alcanzado duplica el de los modelos tradicionales basados en EEG, permitiendo reconstruir oraciones completas.

Los investigadores del laboratorio de Meta subrayan que la clave del éxito de su sistema de IA radica en el uso de un modelo de redes neuronales que identifica patrones en las señales cerebrales y las traduce a texto digitalmente.
“Este descubrimiento ofrece nuevas perspectivas sobre cómo el cerebro organiza y ejecuta el lenguaje, acercando a la neurociencia a una comprensión más profunda del procesamiento cognitivo humano”, señalan respecto a Brain2Qwerty en la publicación de blog del gigante de la tecnología y las redes sociales.
Limitaciones de Brain2Qwerty
Según los científicos de FAIR, el impacto de Brain2Qwerty podría sentar las bases para nuevas alternativas de interfaces cerebro-computadora que permitan una comunicación fluida sin la necesidad de dispositivos físicos invasivos. No obstante, admiten que a pesar de su potencial, aún enfrenta desafíos importantes para su implementación, principalmente porque la tecnología requiere que los usuarios permanezcan inmóviles en una sala protegida magnéticamente para evitar interferencias externas.
Además de lo anterior, hasta ahora las pruebas se han realizado únicamente con voluntarios sanos, por lo que aún les falta investigar cómo esta tecnología podría beneficiar a quienes han perdido la capacidad de hablar debido a lesiones cerebrales o enfermedades neurodegenerativas.
¿Qué más sigue para Meta?
En otras noticias, además de los avances logrados en el campo de la neurociencia a través del desarrollo de Brain2Qwerty, un memorando que se filtró a la prensa enviado a los empleados por Andrew Bosworth, director de tecnología de Meta, reveló que la compañía también planea adentrarse en el sector de los robots humanoides.
En el comunicado interno, Bosworth señaló que Meta está formando un nuevo equipo dentro de su división Reality Labs que se centrará en la investigación y el desarrollo de “robots humanoides de consumo con el objetivo de maximizar las capacidades de la plataforma de Llama”.
El grupo será liderado por el exdirector de Cruise, Marc Whitten, y su propósito principal según el memorándum, será posicionar a Meta en el competitivo sector de la automatización, mediante la exploración de alianzas estratégicas con otras startups de robótica como Figure AI y Unitree Robotics.
Aunque Meta aún no ha comentado nada al respecto, esta semana la compañía anunció que el próximo 29 de abril del 2025 se llevará a cabo LlamaCon, la primera conferencia para desarrolladores del gigante de la tecnología enfocada exclusivamente en temas de inteligencia artificial. Algunos expertos creen que puede ser el escenario perfecto para que la empresa liderada por Mark Zuckerberg revele sus planes en robótica.
Según un comunicado de prensa, en LlamaCon presentarán sus últimos avances en el desarrollo de IA de código abierto para ayudar a los desarrolladores a crear sus propias aplicaciones y productos con las herramientas de IA de Meta.