Más de 370,000 chats entre usuarios de X y el modelo de IA de Elon Musk están al alcance de cualquier persona en internet, lo que ha generado un fuerte debate sobre la privacidad en la era de la inteligencia artificial.
Grok, el popular chatbot de la firma de inteligencia artificial de Elon Musk, xAI, otra vez se encuentra en el centro de la polémica luego de que una nueva investigación de Forbes reveló que más de 370,000 conversaciones privadas entre usuarios y el chatbot fueron indexadas a motores de búsqueda como Google, Bing y DuckDuckGo, abriendo la puerta a que cualquier persona en la web pueda acceder a información que los usuarios creían era confidencial.
¿Cómo fue que las conversaciones con Grok se volvieron públicas en línea?
De acuerdo con los especialistas en tecnología, la filtración de los chats comenzó a partir de que Grok habilitó la función de “Compartir”, la cual permite que los usuarios envíen su conversación a otras personas por correo electrónico, SMS o redes sociales mediante una URL única que es generada por el sistema del chatbot.
El problema es que el modelo de inteligencia artificial de xAI en ningún momento advirtió a los usuarios que al pulsar “Compartir” sus conversaciones también son publicadas en el sitio web de Grok y por ende, quedan indexadas automáticamente en los buscadores.
Mientras los usuarios creían que estaban enviando un enlace privado a una persona en específico, en realidad estaban contribuyendo involuntariamente a una base de datos de la compañía que está al alcance de cualquiera.
El científico computacional del Instituto Allen de IA, Nathan Lambert, quien hace algunas semanas utilizó Grok para crear un resumen de distintas publicaciones del blog de su compañía, con el fin de compartirlas con su equipo de trabajo, confesó que se enteró de que dicha información estaba públicamente disponible en línea hasta que Forbes reveló los hallazgos de su investigación.

“Me sorprendió que los chats de Grok compartidos con mi equipo se indexaran automáticamente en Google, a pesar de no haber recibido ninguna advertencia”, comentó Lambert al respecto mediante una publicación en sus redes sociales. Además añadió que a partir de este incidente dejará de utilizar el chatbot de xAI y comenzará a utilizar Gemini de Google.
Un doble golpe para Grok
Entre los chats filtrados se encuentran todo tipo de conversaciones, desde solicitudes inofensivas como generar imágenes, resumir artículos de prensa o crear todo tipo de textos, hasta conversaciones más íntimas que incluían datos sensibles de los usuarios, como imágenes, consultas médicas y psicológicas personales, e incluso documentos privados adjuntos.
Lo alarmante de la situación es que los investigadores descubrieron que cientos de conversaciones contenían solicitudes de carácter ilícito que fueron respondidas por Grok sin mayor problema, a pesar de que supuestamente el chatbot de xAI cuenta con los protocolos de seguridad para evitar que esto suceda.
Por ejemplo, en distintos chats Grok llegó a proporcionar instrucciones sobre cómo fabricar drogas sintéticas como fentanilo y metanfetamina, métodos de suicidio, la construcción de bombas e incluso un plan detallado para asesinar a Elon Musk.
Por lo tanto, el hecho de que estas transcripciones hayan salido a la luz representa un doble golpe para la compañía. En primer lugar, estos chats ponen en evidencia que las funciones de seguridad que está utilizando xAI para evitar que Grok proporcione información maliciosa no están funcionando como deberían y en segundo, es un duro golpe para la confianza de los usuarios, quienes ahora dudan si es seguro compartir información privada con el modelo de inteligencia artificial.
¿Los usuarios pueden hacer algo para proteger su información?
Afortunadamente para los usuarios cuyas conversaciones quedaron expuestas en línea existe una manera de recuperar el control de su información, aunque es un proceso manual y tedioso, ya que deben ingresar al portal oficial de Grok para consultar el historial de las conversaciones que se han compartido y eliminarlas.
La mala noticia es que los especialistas advierten que no hay garantía de que al borrarlas, desaparezcan de inmediato de los resultados de búsqueda en Google, Bing o DuckDuckGo, por lo que parte de la información podría seguir disponible en la red por un tiempo indefinido.
Las conversaciones filtradas de Grok vuelven a encender las alarmas sobre los riesgos de compartir información confidencial con modelos de inteligencia artificial. Lo que sucedió con el chatbot de xAI, demuestra que funciones aparentemente inofensivas, como compartir un enlace, pueden convertirse en una amenaza seria si las compañías detrás de estos no son transparentes respecto a cómo se utilizan los datos compartidos, ni cuentan con los controles de privacidad adecuados.











