De olho na privacidade! US State AI Legislation: Virginia Vetoes, Colorado (Re)Considers, and Texas Transforms

Posted by:

|

On:

|

Avanços e impasses na regulação da inteligência artificial: o desafio dos estados norte-americanos

Enquanto os algoritmos assumem um protagonismo obscuro em decisões que afetam diretamente vidas humanas, o esforço para regulá-los permanece hesitante, fragmentado e, por vezes, superficial. Nos Estados Unidos, a tentativa de domesticar os riscos dos chamados “sistemas de IA de alto risco” encontrou, recentemente, caminhos opostos em diferentes estados. A tensão é sintomática: o embate entre inovação tecnológica e direitos fundamentais está longe de encontrar síntese.

Na Virgínia, a proposta de lei HB 2094 – que visava submeter sistemas de IA com impactos substanciais sobre decisões em áreas como emprego, crédito e saúde a obrigações específicas – foi vetada pelo governador Glenn Youngkin. O projeto previa mecanismos de avaliação de impacto, documentação técnica rigorosa, governança de riscos e a possibilidade de revisão de decisões automatizadas desfavoráveis. Nada além do mínimo ético para sistemas que, na prática, exercem poder sobre a autodeterminação de pessoas. Ainda assim, o veto foi justificado com base no receio de prejudicar o crescimento econômico do Estado e na suposição de que já existem leis suficientes para mitigar abusos algorítmicos – uma visão tão otimista quanto débil diante da velocidade das transformações tecnológicas.

Por sua vez, o Colorado caminha em direção oposta, embora de forma cautelosa. Aprovada em 2023, sua Lei de Governança de IA tem sua vigência prevista apenas para 2026 e já enfrenta questionamentos técnicos. Um relatório recente de seu Grupo de Trabalho mapeia impasses conceituais cruciais, como a definição precisa de “decisões consequenciais” e de “discriminação algorítmica”. A dificuldade em consolidar consensos revela a complexidade jurídica e filosófica de lidar com agentes não-humanos que operam discriminações sem intenções, mas com efeitos concretos.

No Texas, um projeto de lei originalmente ambicioso foi diluído. Retirou-se a menção à discriminação algorítmica, substituindo-a por uma vedação à “intenção de discriminar” – um retorno à lógica obsoleta da culpa individual. O projeto também estipula que o “impacto desigual” de um sistema não serve, por si só, como prova de discriminação, ignorando décadas de jurisprudência sobre discriminação estrutural e indireta.

A fragmentação dos modelos estaduais e sua hesitação normativa refletem não apenas disputas políticas, mas um dilema mais profundo: como garantir justiça, transparência e não-discriminação em sistemas criados precisamente para otimizar decisões a partir de padrões opacos. A inteligência artificial não apenas desafia categorias clássicas do direito – como dolo, culpa ou responsabilidade – como põe em jogo a própria noção de imputabilidade. Regular a IA, afinal, não é apenas controlar uma tecnologia, mas interrogar a arquitetura do poder que ela instaura e legitima. O difícil é perceber que talvez seja esta própria arquitetura que os vetos pretendem preservar.

Posted by

in