es el primer país en legislar para evitar que fomente el suicidio o la violencia
este AI Ha logrado grandes avances en muchos aspectos, lo que permite a los usuarios ser más productivos. Sin embargo, la tecnología está lejos de ser perfecta y, en ocasiones, puede fomentar el suicidio o la violencia. Porcelana espera abordar el problema de raíz y es el primer país en redactar reglas para evitar que la inteligencia artificial manipule emocionalmente a los usuarios.
La inteligencia artificial se está convirtiendo en un problema que anima a los usuarios a dañar el medio ambiente, hacerse daño a sí mismos e incluso suicidarse. Después de que su hijo se suicidara en el verano de 2025, sus padres demandaron a OpenAI, alegando que ChatGPT reforzaba sus pensamientos autodestructivos. Este no es el único caso: la IA también alimentó la paranoia de un hombre de 56 años con problemas de salud mental, lo que lo llevó a asesinar a su madre y luego quitarse la vida.
Ante este creciente problema y el desarrollo de nuevas herramientas de IA, China redacta regulaciones históricas Prohibir que los chatbots manipulen a los usuarios Prevenir el suicidio, las autolesiones y la violencia.
La ley aún debe ser aprobada
La Administración del Ciberespacio de China propuso las reglas el sábado 27 de diciembre de 2025, que, de aprobarse, se aplicarían a cualquier producto o servicio de inteligencia artificial disponible públicamente en el país. las leyes afectarán Cualquier herramienta inteligente que simule la interacción humanate permite comunicarte con tus usuarios en cualquier formato, ya sea texto, imagen, audio, video o cualquier otro. De hecho, el reglamento habla de “servicios de inteligencia artificial interactivos similares a los humanos”.
Aunque se ha propuesto otra legislación, las reglas propuestas serían las más estrictas hasta el momento. Winston Ma, profesor adjunto de la Facultad de Derecho de la Universidad de Nueva York, dijo que las reglas serían el primer intento del mundo de regular la inteligencia artificial con características humanas o antropomórficas.
China se está convirtiendo en una potencia mundial en el desarrollo de la inteligencia artificial. Así nos lo demuestran con plataformas como DeepSeek, OmniHuman-1, Manus AI, Qwen 3, Kling 2.1, Baidu ERNIE 4.5, ZAI GLM-4.5 o Seedream 4.0. Entonces tienen sentido las estrictas regulaciones que planean imponer en el país Protege a tu gente del peligro Empiece a hacerse notar en Internet.
| índice | Valor estimado en 2025 | cambio anual | Fuente/Anotación |
|---|---|---|---|
| Potencia informática de inteligencia artificial | 30 mil millones de operaciones de punto flotante | +50% | Ministerio de Industria de China |
| Número de modelos>100B parámetros | veintitrés | +15% | Informe 2025 de la Academia China de Tecnología de la Información y las Comunicaciones |
| Inversión nacional en inteligencia artificial (USD) | 72 mil millones | +38% | Consejo de Estado de China |
| Startups de inteligencia artificial | Alrededor de 3.500 | +27% | Informe de la industria de inteligencia artificial de China |
| Localización del chip Ascend 910B | 1,2 millones de unidades | +60% | Tecnologías Co., Ltd. de Huawei |
Las reglas propuestas por China
Las normas de la Administración del Ciberespacio de China tienen en cuenta que cada vez se descubren más casos de inteligencia artificial que promueven la autolesión, la violencia, el terrorismo, el abuso de drogas… La medida propuesta por China pretende solucionar este problema a través de las siguientes normas:
- Los chatbots inteligentes que operan en China deben estar entrenados para que no se reproduzcan Contenido que fomente el suicidio o la autolesión. Tampoco utiliza violencia verbal o manipulación emocional que pueda dañar la salud mental.
- Si el tema del suicidio surge en las conversaciones, las empresas deberían asegurarse Una persona se hace cargo de la máquina. y contactar al tutor o persona designada del usuario.
- Los chatbots con IA no podrán crear contenido Contenido obsceno, violento o relacionado con juegos de apuestas.
- Los menores que utilicen la IA como compañera emocional deberán tener El permiso de su tutor legal Y sujeto al límite de tiempo de uso.
- Las plataformas que utilizan inteligencia artificial deben poder Comprobar si el usuario es menor de edad, Aunque no dijo cuántos años tenía. En caso de duda, se aplicará directamente la situación del menor y se admitirán recursos.

Incluso si los usuarios de sistemas inteligentes son adultos, China exige a los proveedores de estas tecnologías que emitan una alerta después de dos horas de interacción continua con la IA. De esta forma, intentan evitar que mantengan conversaciones que puedan dañar la salud mental del usuario, o incluso manipularlo emocionalmente para que haga determinadas cosas.
Preguntas sobre las nuevas regulaciones de inteligencia artificial de China Prohíben que los servicios y productos de IA reaccionen de una manera que pueda fomentar el suicidio, la autolesión, la violencia, la manipulación emocional, la adicción al juego y temas relacionados.
Aún no ha sido aprobado, por lo que no lo han aplicado. Pero es un conjunto de regulaciones redactadas por la Administración del Ciberespacio de China para proteger a las personas de los problemas que surgen del uso de la inteligencia artificial como acompañamiento emocional.
Los expertos señalaron que este es el primer intento del mundo de regular la inteligencia artificial con características humanas o antropomórficas para evitar que manipule emocionalmente a los usuarios.
¿Qué prohibirán las reglas de inteligencia artificial planeadas por China?
¿Es efectiva esta ley?
¿Por qué es tan importante este proyecto de ley?
Puedes consultar la fuente de este artículo aquí