Brasil: á vangarda dos dereitos dixitais
No contexto da gobernanza global, o Brasil consolídase como un exemplo paradigmático do chamado “Efecto Bruxelas“, aínda que xa fora sinalado con anterioridade como un modelo a seguir. Esta influencia materializouse inicialmente na Lei Xeral de Protección de Dados (LGPD) e agora proxéctase sobre o debate regulatorio da intelixencia artificial, liderado polo Projeto de Lei nº 2338/2023, que busca equilibrar a protección de dereitos fundamentais co fomento da innovación tecnolóxica.
O marco proposto polo PL 2338/2023 adoita unha modelaxe baseada no risco inspirada na UE, clasificando os sistemas entre risco excesivo (prohibidos) e alto risco, aínda que adapta este esquema á realidade local con esixencias procedementais propias. Unha diferenza fundamental respecto ao modelo europeo reside na obriga dunha avaliación preliminar realizada polo propio fornecedor para clasificar o grao de risco antes da entrada no mercado; mentres que o RIA europeo dispensa esta fase preliminar en favor de avaliacións de conformidade máis complexas realizadas por terceiros, o texto brasileiro aposta por esta análise inicial como filtro de gobernanza.
A pedra angular da conformidade para sistemas de alto risco no Brasil é a Avaliación de Impacto Algorítmico, concibida como un proceso iterativo e continuo que debe acompañar todo o ciclo de vida do sistema. A literatura xurídica salienta a necesaria coexistencia e complementariedade deste novo instrumento co xa vixente Relatorio de Impacto á Protección de Datos (RIPD) da LGPD; mentres o RIPD se centra na privacidade e nos datos persoais, a nova avaliación algorítmica abrangue un espectro máis amplo de riscos, incluíndo a discriminación e os dereitos difusos, creando un ecosistema de dobre garantía.
A singularidade máis contundente da proposta brasileira, que a distingue doutros marcos globais, reside no seu rigoroso réxime de responsabilidade civil e na énfase dogmática na non discriminación. O texto propón un sistema dual de reparación: responsabilidade obxectiva (sen necesidade de probar culpa) para danos causados por sistemas de alto risco ou risco excesivo, e culpa presumida con inversión da carga da proba a favor da vítima para os demais casos. Para a supervisión deste réxime, o proxecto prevé que o Poder Executivo designe unha autoridade competente encargada de fiscalizar o cumprimento das normas e actualizar as listas de risco, consolidando unha estratexia que non só replica estándares internacionais, senón que os reforza para blindar os dereitos civís fronte á opacidade tecnolóxica.
En definitiva, aínda que a miúdo pasa máis desapercibido no escenario global eclipsado polos grandes bloques hexemónicos, o Brasil eríxese como un modelo de vangarda no garantismo dixital, demostrando capacidade para adaptar os estándares internacionais mediante unha arquitectura normativa propia que non teme impor barreiras de entrada preventivas nin réximes de responsabilidade severos para asegurar que a innovación económica non se constrúa sobre a erosión das garantías constitucionais
Arxentina: a teoría do risco creado
A diferenza do Brasil, a Arxentina carece actualmente dunha lei específica dedicada á IA, operando en cumprimento da Lei 25.326 de Protección de Datos Persoais do ano 2000, a cal se atopa en proceso de actualización para afrontar os retos do procesamento masivo de datos e a súa eventual aliñación co RGPD europeo. Emporiso, esta lagoa normativa non implica un baleiro legal absoluto; o país vive unha efervescencia parlamentaria con máis de trinta proxectos lexislativos en debate que buscan definir un modelo propio de gobernanza, aínda que a maioría non esboza un réxime de responsabilidade civil substancialmente distinto ao vixente.
A pedra angular do sistema arxentino actual ante danos causados por IA reside na aplicación doutrinal e xurisprudencial da teoría do risco creado, recollida no artigo 1757 (e seguintes) do Código Civil e Comercial da Nación. Este precepto establece un réxime de responsabilidade obxectiva, onde o dono ou gardián do sistema responde polo dano causado polo “risco ou vicio das cousas” ou por actividades perigosas pola súa natureza, sen que sexa necesario probar a culpa. A doutrina xurídica é taxativa: a responsabilidade recae sobre quen se serve da tecnoloxía ou obtén proveito dela (garda proveito) ou quen ten o poder de dirección (garda intelectual), e as únicas eximentes admitidas son a “causa allea” (como o feito da vítima ou o caso fortuito externo), non bastando a mera autorización administrativa ou o cumprimento de estándares técnicos para eludir o deber de reparación. Así, as propostas lexislativas máis avanzadas buscan institucionalizar este enfoque mediante a creación de organismos de supervisión, un rexistro público de modelos de IA de alto risco e procedementos transparentes para os usuarios afectados e impugnables.
México: o clásico dilema das cargas normativas
A situación en México preséntase como un escenario de fragmentación regulatoria e incerteza institucional. Malia a proposta de 2020 para crear un Instituto Nacional de Intelixencia Artificial (INIA) co fin de supervisar o desenvolvemento ético da tecnoloxía, esta iniciativa non foi ratificada como lei, deixando ao país sen un marco xurídico consolidado que defina niveis de risco ou mecanismos de rendición de conta. Esta ausencia lexislativa xera baleiros críticos en materia de transparencia e protección contra a discriminación algorítmica, delegando a protección en normativas de datos persoais que a miúdo non abordan especificamente os riscos da IA.
O debate xurídico mexicano céntrase actualmente na tensión entre as cargas normativas e o fomento da innovación. A literatura especializada alerta sobre o risco de impor regulacións desequilibradas que, ao non consideraren o tamaño das empresas nin os riscos específicos de cada sector, poidan converterse en barreiras de entrada que favorezan a concentración do mercado en poucas mans tecnolóxicas (os grandes desenvolvedores de infraestrutura), en detrimento da competencia xusta. Obsérvase unha elevada utilización da IA nas empresas mexicanas, malia que só o 56% respectan as regulacións de utilización de datos. Este dinamismo empresarial que contrasta coa falta de mecanismos de fiabilidade; estudos recentes indican que unha gran parte das empresas globais (incluíndo representación de México e latinoamérica) non toman medidas efectivas para reducir nesgos ou garantir a transparencia dos seus modelos, operando nunha contorna onde a innovación avanza a un ritmo moi superior á capacidade de resposta do Estado para garantir a seguridade xurídica e os dereitos fundamentais.
Conclusión
Os casos latinoamericanos amosan que o efecto Bruxelas pode operar como catalizador de innovación xurídica, máis que como simple mecanismo de transplante normativo. Brasil destaca pola construción dun modelo preventivo e garantista reforzado; Arxentina demostra a funcionalidade do dereito común para responder aos riscos da IA; mentres que México exemplifica os desafíos dunha regulación aínda incipiente nun contexto de adopción tecnolóxica acelerada. En conxunto, a rexión sitúase nun punto intermedio entre ambición normativa e limitacións institucionais, pero cunha clara orientación cara á protección dos dereitos civís fronte aos riscos da IA.

