ChatGPT puede parecer un confidente perfecto, pero cada mensaje que le envías deja un rastro digital, por lo que antes de confiarle tus datos confidenciales, vale la pena que conozcas las potenciales amenazas que pueden surgir de esta clase de prácticas.
A medida que los modelos de inteligencia artificial como ChatGPT se integran cada vez más en la vida cotidiana de las personas, su uso ha dejado de limitarse a resolver dudas, generar imágenes o aprender algo nuevo.
Hoy en día, millones de usuarios recurren a esta tecnología para cuestiones más íntimas como pedir consejos sobre decisiones importantes, buscar orientación emocional e incluso tratarla como si fuera un terapeuta, asesor, confidente digital o en casos más extremos como una pareja sentimental.
La supuesta empatía y cercanía que proyectan estos modelos puede generar una falsa sensación de confianza en los usuarios, que los lleva a revelar información que en manos equivocadas podría convertirse en un serio problema para su seguridad y confidencialidad.
Por eso, aunque para muchos usuarios estas plataformas digitales parecen un espacio privado y seguro, la realidad es que no gozan de las protecciones legales que sí se aplican en interacciones con médicos, abogados o terapeutas, por lo que es sumamente importante ser conscientes y conocer las consecuencias de compartir datos confidenciales con esta clase de plataformas.
Advertencias de Sam Altman sobre los riesgos de compartir información con ChatGPT
El propio director general de OpenAI, Sam Altman, ha dejado claro en diversas entrevistas que las conversaciones con ChatGPT no cuentan con el “amparo del secreto profesional”, lo que significa que no son confidenciales en el sentido legal. Por lo tanto, en determinados escenarios, podrían ser solicitadas y utilizadas como prueba en contra de un usuario en un proceso judicial, si así lo requieren las autoridades.
Las declaraciones recientes del cofundador de OpenAI han encendido las alarmas sobre la ausencia de marcos legales que protejan las interacciones de los humanos con herramientas de inteligencia artificial, tomando en cuenta que hoy en día, cada vez más personas están adoptando esta tecnología para todo tipo de cuestiones tanto en su vida personal, como profesional, otorgándole un nivel de confianza que no está respaldado por ninguna garantía formal de privacidad.
Debido a lo anterior, Altman está presionando al gobierno de los Estados Unidos para que establezca regulaciones claras que le permitan blindar la confidencialidad de las interacciones de ChatGPT, argumentando que su gran popularidad ha creado un vínculo emocional entre los usuarios y la tecnología, lo que aumenta la posibilidad de que las personas compartan datos íntimos sin medir las posibles consecuencias.
Consejos peligrosos y daños potenciales
Por otro lado, investigaciones recientes han revelado que ChatGPT no solo puede procesar y almacenar información delicada, sino que también es capaz de emitir respuestas que podrían ser potencialmente peligrosas para sus usuarios.

En un estudio reciente, realizado por el Center for Countering Digital Hate o CCDH por sus siglas en inglés, se analizaron 1,200 interacciones en las que se simularon consultas supuestamente hechas por adolescentes en crisis. Según los hallazgos de la investigación, en más de la mitad de los casos el modelo proporcionó consejos o soluciones insanas relacionados con el consumo de drogas, autolesiones, trastornos alimenticios e incluso el suicidio.
Si bien en ninguna de las más de mil interacciones simuladas la primera reacción del modelo fue ofrecer sugerencias o consejos inseguros, lo que resultó alarmante para los especialistas de CCDH fue que en muchos casos simplemente bastó con reformular la pregunta añadiendo frases como “es para ayudar a un amigo” o “en una situación urgente” para burlar los filtros de seguridad del sistema.
Este tipo de fallos demuestra que, incluso con mecanismos de protección, los modelos de IA pueden generar contenido inapropiado o dañino si el contexto es manipulado, dejando claro que su uso puede conllevar a riesgos significativos cuando se les confía demasiada información.
Vulnerabilidades técnicas y riesgos reales
El mal uso de ChatGPT y otros modelos de IA, también implica riesgos técnicos que pueden comprometer seriamente la seguridad y la privacidad de la información.
Uno de los más preocupantes es la fuga de datos a través de ataques conocidos como prompt injection, en los que un actor malintencionado introduce instrucciones ocultas en el texto para manipular el comportamiento del modelo y extraer información privada de otro usuario o alterar el flujo normal de la conversación. Esta vulnerabilidad es especialmente peligrosa en entornos donde la IA cuenta con memoria, ya que puede permitir la exfiltración de datos a largo plazo.
Por otro lado, en el ámbito corporativo, se ha identificado un fenómeno conocido como shadow AI, que ocurre cuando empleados utilizan ChatGPT para redactar correos, analizar estrategias o resumir documentos sin la supervisión de la empresa, exponiendo inadvertidamente datos de clientes, información confidencial o propiedad intelectual.
Recomendaciones y mejores prácticas
Es sumamente importante evitar compartir datos personales sensibles con los modelos de inteligencia artificial, incluyendo información médica, financiera, secretos comerciales y contraseñas, ya que existe el riesgo de que estos datos puedan ser almacenados, analizados y en casos extremos, utilizados por otros usuarios de forma indebida.
Por otro lado, es esencial que las empresas implementen programas de capacitación para empleados que aborden los riesgos del uso de inteligencia artificial, así como establecer políticas claras para su uso dentro de la compañía y sistemas de seguridad que garanticen la protección para la información corporativa.
Adicionalmente, los expertos en tecnología recomiendan a las empresas desarrollar sus propios modelos internos de inteligencia artificial, en lugar de depender de las plataformas públicamente disponibles en el mercado. De esta forma, pueden implementar protocolos más estrictos de detección de contenido sensible y tener un mayor control en torno a cómo sus colaboradores utilizan la IA.
Por último, pero no menos importante, diversos líderes de la industria han insistido en la urgencia de impulsar marcos regulatorios que otorguen a las interacciones con IA un nivel de protección legal equivalente al de la confidencialidad que tienen los médicos con sus pacientes o los abogados con sus clientes, con el fin de garantizar una mayor seguridad en el uso de estas tecnologías.
Hasta que no existan protocolos, tanto legales como técnicos que puedan garantizar la confidencialidad de las conversaciones con los modelos de lenguaje avanzado, la prevención sigue siendo la medida más efectiva. Utilizar responsablemente estas herramientas, tanto a nivel personal como corporativo, es la mejor forma de aprovechar sus beneficios sin comprometer información sensible.











