China: desfacendo o mito de ausencia de regulación
Se ben a posición inicial da República Popular de China foi promover a innovación en intelixencia artificial a través dunha estratexia de non regulación, o país acabou por desenvolver un dos marcos legais máis estritos nesta materia. Fíxoo, ademais, cun enfoque peculiar pero coherente coas súas tendencias políticas: un modelo de gobernanza da IA de carácter tecnocrático e fortemente centrado na seguridade nacional. Neste sentido, o obxectivo económico convive cunha preocupación central: garantir que a evolución tecnolóxica da IA non supoña unha ameaza para o Estado. Neste contexto, en decembro de 2025 China presentou unha iniciativa especialmente innovadora e disruptiva respecto do status quo global da IA: a intención de regular o antropomorfismo nos sistemas de intelixencia artificial.
Da autorregulamentación á xestión do risco: a evolución da regulación da IA en China
Como explican Zhang et al. (2025), entre os anos 2013 e 2017 a prioridade de China foi impulsar unha industria de IA competitiva, enmarcando a tecnoloxía como cuestión estratéxica e económica e evitando normas duras: a gobernanza descansaba na autorregulación e no enfoque de “wait and see” [agardar e ver]. O seu obxectivo era evitar o caos da ausencia total de regulación asemade de incentivar a innovación.
Nunha segunda etapa (2017-2020), adoptou unha o posición de “responsive governance” [gobernanza sensible ás necesidades da cidadanía], mediante a creación de institucións (como a Oficina de Planificación e Promoción da IA) e instrumentos legais de carácter flexíbel (directrices, estándares, etc).
Xa en 2020 prodúcese o cambio de paradigma cara a xestión de riscos, centrándose especialmente en materia de seguridade de datos e información persoal. Trátase do punto de inflexión onde China decide que é momento de supervisar a utilización de IA. Se ben promúlganse leis vinculantes (como a Lei de Ciberseguridade de 2016 e a Lei de Protección de Información persoal de 2021), non foron máis que un paso adiante na estandarización centrado na ética. O instrumento máis relevante foron as “Normas éticas para a nova xeración de Intelixencia Artificial” de 2018, actualizadas en 2021.
O xigante asiático evolucionou dende un sistema normativo centrado en principios, logo transformados en estándares, que agora se erixen coma regulacións especializadas en cada sector elaboradas en colaboración dos tres actores estatais principais: o Ministerio de Ciencia e Tecnoloxía (MOST), a Comisión Nacional de Desenvolvemento e Reforma (NDRC) e a Administración do Ciberespazo (CAC).
Neste encaixe destacan tres normas: o Regulamento sobre Algoritmos de Recomendación (en vigor desde marzo de 2022), o Regulamento sobre Deep Synthesis (xaneiro de 2023) e o Regulamento Provisional sobre Servizos de IA Xerativa (agosto de 2023). Estes textos definen amplamente “tecnoloxía de recomendación”,“deep synthesis” [síntese en profundidade] e “IA xerativa” e impoñen obrigas fortes a provedores e soportes técnicos: rexistro de algoritmos ante a CAC, avaliacións de seguridade cando existen “atributos de opinión pública” ou capacidade de mobilización social, revisión previa en plataformas de apps, moderación de contidos xerados, etiquetado de contido sintético, verificación de identidade real e sistemas de xestión de datos e incidentes de seguridade.
O resultado é un modelo propio, materializado nun modelo de regulación híbrido que combina un forte control estatal cunha aposta decidida polo desenvolvemento tecnolóxico. A xestión do risco en materia de IA defínese de maneira sectorial, mentres que a supervisión permanece claramente centralizada en órganos como a CAC e o MIIT (Ministerio de Industria e Tecnoloxía da Información chinés). O trazo máis distintivo deste sistema é o seu marcado énfase na seguridade nacional e no control da información, aínda que cunha evolución recente cara a unha aproximación máis humanista, visible de forma especialmente clara no proxecto de regulación do antropomorfismo da IA.
Antropomorfismo regulado vs control algorítmico: as dúas caras da IA chinesa
O proxecto chinés de regulación da IA antropomórfica introduce unha tensión particularmente reveladora. Por unha banda, China recoñece explicitamente os riscos que presentan os sistemas de IA con características humanas para os dereitos e as vulnerabilidades das persoas, especialmente no que respecta á saúde mental, á manipulación emocional e á dependencia psicolóxica. A proposta normativa incorpora, neste sentido, garantías que poden asociarse á protección da dignidade persoal, da integridade psicolóxica e da autonomía individual, con especial atención a colectivos vulnerables como menores e persoas maiores. Así, é máis completo e preciso que o Regulamento de IA da Unión Europea, xa que neste aspecto unicamente establece unha obriga de transparencia no artigo 50.
Por outra banda, este enfoque contrasta co uso amplamente documentado da IA no contexto chinés como ferramenta de control social, especialmente a través de sistemas de recoñecemento facial e análise de datos a gran escala. En concreto, Beraja et al., (2023) amosan como a IA pode reforzar dinámicas autoritarias: a adquisición de tecnoloxías de vixilancia increméntase en resposta ao malestar social, ao tempo que a súa aplicación contribúe a suprimilo, xerando un círculo de reforzo mutuo entre innovación tecnolóxica e control político.
Trátanse de distintas caras da mesma moeda do modelo de gobernanza chinés. Este distingue entre usos da IA que poden ameazar a estabilidade psicolóxica e social dos individuos —como os sistemas antropomórficos interactivos— e aqueles orientados á seguridade, á orde pública e ao control da información. Mentres os primeiros son sometidos a un marco regulador detallado e preventivo, os segundos son integrados activamente como instrumentos lexítimos de gobernanza.
Así, China puxo en marcha a súa propia estratexia para dominar o panorama global da intelixencia artificial baixo unha lóxica clara: “Move fast, but obey the rules” [actuar con rapidez, pero sen saír do marco normativo], como sinalou The New York Times. Como se dunha nova carreira espacial se tratase, o país avanzou a un ritmo vertixinoso, aliñando regulación, investimento e innovación coa súa planificación estatal, ademais de exportar sistemas de IA rápidos e baratos. Este impulso inscríbese plenamente no seu 15º Plan Quinquenal, que define as grandes traxectorias industriais, os fluxos de investimento e as redes de innovación para os próximos anos, cun obxectivo explícito: contar en 2030 cun sistema xurídico da IA máis completo e consolidado.
Conclusión
Así as cousas, China consolidou un modelo de regulamentación híbrido e tecnocrático que subordina a rápida innovación da IA á seguridade nacional e ao férreo control estatal. Aínda que é pioneira en regular riscos como o antropomorfismo, a tecnoloxía segue a ser unha ferramenta fundamental de vixilancia sociopolítica. Así, o xigante asiático avanza na carreira global asegurando que todo desenvolvemento obedeza sempre as estritas regras do goberno.

