Serie de Análise
North America satellite orthographic

Efecto Bruxelas? A encrucillada da normativa da IA no mundo: 4. América (I): A IA como arma xeopolítica: Estados Unidos e Canadá fronte ao dilema de regulamentación

Tras analizar os modelos asiáticos, caracterizados por unha forte planificación estatal ou por estratexias graduais de gobernanza, o continente americano ofrece un contraste significativo. En particular, América do Norte amosa os límites do efecto Bruxelas cando entra en conflito con dinámicas federais complexas, prioridades xeopolíticas e unha concepción da IA como activo estratéxico de competencia global. Os casos de Estados Unidos (EE.UU) e Canadá resultan especialmente ilustrativos desta tensión entre liderado tecnolóxico e dificultade para consolidar marcos de regulamentación integrais.
Liñas de investigación Relacións Internacionais
Apartados xeográficos Estados Unidos

EE.UU : o cambio de rumbo de Trump

A diferenza do enfoque centralizado de China ou da lexislación integral da Unión Europea, os Estados Unidos caracterizáronse ata o momento por un modelo de regulamentación claramente fragmentado e orientado ao mercado. Ante a ausencia dunha “lei ómnibus” federal, xerouse un mosaico normativo onde cada estado aprobaba as súas propias regras para encher o baleiro legal. Exemplos notables inclúen a Lei de IA de Colorado, pioneira na esixencia de xestión de riscos para evitar a discriminación algorítmica, ou a agresiva lexislación de California, centrada na transparencia mediante marcas de auga e na protección contra deepfakes [ultrafalsificacións]. A pesares de ser o primeiro estado en lexislar na materia aprobando a lei en 2024, a súa entrada en vigor atópase posposta ata xuño do 2026. Pola súa banda, o Congreso mantivo un papel activo pero sectorial, impulsando leis federais como a NO FAKES Act (actualmente en fase de tramitación parlamentaria) deseñada para protexer a voz e imaxe das persoas fronte a réplicas dixitais non autorizadas, e a xa aplicable TAKE IT DOWN Act, que obriga á eliminación rápida de contido íntimo non consensual xerado por IA, ademais da AI Training Act para a capacitación federal.

Con todo, este escenario de iniciativas específicas de regulación estatal enfróntase a un desmantelamento radical baixo a nova administración. Afastándose dos principios de seguridade e dereitos civís establecidos previamente pola administración Biden, o goberno de Trump deu un xiro drástico cara a unha política de supremacía da IA e desregulación competitiva para gañar a carreira tecnolóxica global fronte a adversarios como China. O punto de inflexión definitivo materializouse coa Orde Executiva do 11 de decembro de 2025, titulada “Ensuring a National Policy Framework for Artificial Intelligence” [Asegurando un marco nacional de políticas para a intelixencia artificial]. Con esta orde, a Casa Branca declarou a guerra aberta á fragmentación de regulamentación, cualificando as diversas leis estatais como un patchwork [marco normativo fragmentado] de 50 réximes discordantes que paralizan a innovación e prexudican ás empresas emerxentes. O obxectivo central do mandato é instaurar un estándar nacional “minimamente oneroso” que preveña explicitamente aos estados lexislar sobre o nesgo ideolóxico ou a discriminación algorítmica se isto está en conflito coa política federal de dominio tecnolóxico. Para facer efectiva esta doutrina de prevención, a orde instrúe ao Fiscal Xeral a crear o AI Litigation Task Force [Grupo de Traballo de Litixios sobre IA ] coa misión específica de demandar e desafiar constitucionalmente as leis estatais consideradas unha carga excesiva. Ademais, a administración utiliza o poder financeiro como medida de presión, ameazando con reter fondos federais cruciais para a banda ancha (programa BEAD) a aqueles estados que se neguen a aliñarse con este novo marco non regulamentario nacional.

En definitiva, EEUU cumpre coa súa fama de desregulación ao rexeitar unha lei federal ómnibus en favor do “libre mercado”, aínda que o seu goberno si defende unha regulación sectorial específica para industrias concretas no canto dunha norma común. De feito, a nova doutrina federal mantén os estándares xa aprobados polos estados en materia de protección de menores e mantén estándares estritos e guías de confianza para a adquisición e o uso da IA dentro da propia administración pública. Un punto especialmente sensible á luz das críticas pola contratación de Grok, a IA de Elon Musk, como ferramenta habitual en axencias federais, tras a recente polémica pola xeración de contido sexual sen o consentimento das persoas afectadas (incluíndo menores). Isto, sumado á tendencia de Grok a producir contido falso, racista, antisemita e conspirativo, suscita dúbidas sobre cal é a verdadeira visión dunha IA “orientada á busca da verdade, precisa e ideoloxicamente neutra” para a Administración Trump.

Canadá: a idea pioneira frustrada

Aínda que a miúdo queda nun segundo plano mediático, Canadá ostenta unha importancia capital no panorama global da intelixencia artificial. Non só é o fogar intelectual dalgúns dos “padriños” da disciplina, como Yoshua Bengio e o recente Premio Nobel de Física 2024, Geoffrey Hinton, senón que tamén demostrou unha visión política innovadora ao converterse no primeiro país do mundo en lanzar unha Estratexia Nacional de IA en 2017. Este liderado inicial materializouse rapidamente no ámbito administrativo coa Directive on Automated Decision-Making (DADM) [Directiva sobre toma de decisións automatizadas] de 2019, unha norma pioneira que obrigou ao sector público a realizar avaliacións de impacto algorítmico moito antes de que outros gobernos sequera o considerasen.

A traslación deste capital de regulamentación ao sector privado cristalizou na Lei de Intelixencia Artificial e Datos (AIDA) —integrada no proxecto de lei C-27—, a cal propuña un enfoque baseado no risco para regular os sistemas de alto impacto sen prohibir categorías tecnolóxicas completas. A arquitectura de supervisión deseñada pola norma establecía un réxime dual: mentres que a Oficina do Comisionado de Privacidade mantería a súa competencia sobre a protección de datos persoais no contexto dixital, a gobernanza específica da IA recaería baixo a órbita do Ministerio de Innovación, Ciencia e Desenvolvemento Económico (ISED), o cal designaría un Comisionado de IA e Datos para facer cumprir a lei. O texto lexislativo buscaba poñer unha énfase explícita nos dereitos humanos cun enfoque social, intentando mitigar os riscos de discriminación e sesgo algorítmico para protexer a dignidade individual fronte ao avance tecnolóxico

Así a todo, esta estrutura enfrontouse a un obstáculo insuperable que converteu a proposta nun caso de estudo sobre colisión retórica entre o desenvolvemento económico e as garantías sociais. O feito de que o órgano supervisor (ISED) fose o mesmo encargado de fomentar a industria da IA xerou críticas sobre un conflito de intereses estrutural e a falta de independencia real do proposto Comisionado. Sumado á insuficiencia na consulta pública e á exclusión de dereitos laborais explícitos, o proxecto de lei AIDA perdeu a confianza pública e non logrou completar o seu trámite parlamentario e extinguiuse formalmente o 6 de xaneiro de 2025 coa prorroga do Parlamento.

A falta de aprobación da norma deixou ao país nunha fase de transición normativa caracterizada pola fragmentación xurisdicional, onde o baleiro federal cóbrese mediante lexislación provincial —como a Lei 25 de Quebec— e códigos de conduta voluntarios. Coa entrada da nova administración e o nomeamento en maio de 2025 de Evan Solomon como primeiro Ministro responsable de IA e Innovación Dixital, obsérvase un desprazamento do foco político desde a regulación preventiva cara ao fomento da adaptación tecnolóxica e a comercialización. Este cambio de enfoque quedou patente durante a presidencia canadense do G7 en 2025, onde o país promoveu a declaración de IA para a Prosperidade, priorizando o investimento en infraestrutura e a integración da IA nas PEMes sobre a creación inmediata de novas barreiras regulatorias, situando ao Canadá nunha encrucillada entre retomar unha lei federal integral ou consolidar un modelo híbrido baseado en estándares técnicos e supervisión sectorial.

Conclusión

Os modelos estadounidense e canadense evidencian que a capacidade de influencia normativa da Unión Europea non opera de maneira automática nos países tecnoloxicamente hexemónicos. Nos Estados Unidos, a opción pola desregulación competitiva e pola preeminencia federal tradúcese nunha resistencia explícita á harmonización baseada en dereitos. En Canadá, o fracaso dunha proposta pioneira revela as dificultades institucionais para conciliar promoción industrial e supervisión independente. En ambos os casos, a gobernanza da IA queda fragmentada, abrindo un escenario de incerteza xurídica que contrasta coas ambicións de regulamentación observadas noutras rexións.

Accede ao conxunto da serie desde a ficha da autora