A medida que los avatares impulsados por inteligencia artificial comienzan a popularizarse e inundar el internet y las plataformas digitales, el gobierno de China ha decidido tomar medidas para proteger a los usuarios de los riesgos asociados a esta tecnología.
Este fin de semana la Administración del Ciberespacio de China publicó un borrador para una nueva normativa con la que busca gestionar tanto el desarrollo como el uso de los “humanos digitales” o avatares de IA, mediante el establecimiento de reglas claras para regular una industria que está creciendo a gran velocidad.
La propuesta de ley del gobierno chino representa uno de los esfuerzos más ambiciosos a nivel global para establecer un marco integral en torno a esta tecnología. De acuerdo con el borrador, su objetivo principal es promover un desarrollo “sano y estandarizado” del sector, para proteger los intereses públicos y “mantener el orden en el entorno digital, sin frenar la innovación”.
La propuesta de ley del gobierno chino para regular a los avatares de IA
A través del borrador de la normativa, el gobierno chino propuso una serie de medidas que apuntan a reforzar la transparencia, la seguridad y la ética en el uso de estas tecnologías.
Una de las disposiciones más destacadas de la propuesta de ley reside en obligar a los usuarios a etiquetar claramente cualquier contenido generado con humanos digitales. Esto implica que las personas deberán ser capaces de identificar fácilmente y de manera inmediata cuándo están interactuando con un avatar y no con una persona real, reduciendo así el riesgo de que sean engañados o caigan en una estafa.
Por otro lado, la normativa también se enfoca en la protección de los datos personales de los usuarios. El borrador establece que cualquier uso de imagen, voz u otra información sensible para la creación de humanos digitales deberá contar con el consentimiento explícito del individuo. Además, prohíbe la creación de avatares basados en personas reales sin autorización, así como cualquier uso que pueda llegar a vulnerar derechos como la privacidad, reputación o propiedad intelectual.
Otro punto clave es la restricción del uso de estos sistemas para temas íntimos, particularmente en lo que respecta a menores de edad. La propuesta prohibe que los humanos digitales tengan “relaciones amorosas o íntimas, ya sean de carácter romántico o familiar” a usuarios menores de 18 años. Asimismo, busca evitar que estos servicios fomenten conductas adictivas, inciten a las personas a realizar gastos excesivos o afecten negativamente la salud mental y física de los jóvenes.
Estableciendo límites claros para las capacidades de los avatares de IA

El borrador establece límites bastante claros en torno al contenido que pueden generar los avatares de IA, al señalar que “los humanos digitales no deberán difundir información que ponga en riesgo la seguridad nacional, incite a la subversión del poder estatal o promueva la división del país”.
Por otro lado, la propuesta de ley también busca restringir la creación y circulación de contenido con tintes sexuales, violentos, crueles o discriminatorios, obligando a las plataformas a tomar un rol más activo en su moderación.
Otra de las medidas relevantes tiene que ver con el control de identidad dentro del ecosistema digital. La normativa propone prohibir el uso de humanos digitales para evadir sistemas de verificación, una práctica que podría facilitar fraudes o suplantaciones. Con esto, el gobierno busca cerrar posibles vacíos que permitan a los usuarios operar bajo identidades falsas utilizando avatares hiperrealistas.
Una responsabilidad compartida en todo el ecosistema
Más allá de las restricciones, uno de los elementos más interesantes del borrador es su enfoque integral. La propuesta no solo responsabiliza a las plataformas, sino que extiende las obligaciones a desarrolladores, proveedores de tecnología e incluso a los propios usuarios.
Lo anterior significa que todos los actores involucrados en la creación, distribución y aplicación de humanos digitales deberán cumplir con lineamientos específicos en temas de revisión de contenido, manejo de datos y respuestas ante riesgos.
Además, el documento contempla la salud mental de los usuarios, un componente poco habitual en este tipo de regulaciones. Las plataformas deberán estar preparadas para intervenir en caso de detectar comportamientos preocupantes en los usuarios, como tendencias suicidas o autolesivas e incluso deberán tener los protocolos necesarios para canalizarlos hacia apoyo profesional en caso de que sea necesario.
Este enfoque refleja una creciente preocupación por el impacto psicológico que pueden tener las interacciones con sistemas de inteligencia artificial cada vez más realistas.
Por ahora, la normativa se mantiene como un borrador y estará abierta para consulta pública hasta el próximo 6 de mayo. Durante este periodo las empresas, expertos y ciudadanos podrán enviar sus comentarios y sugerencias para pulir el borrador. Una vez concluida esta fase, el gobierno ajustará el contenido para convertirlo en una legislación oficial.






