14 de dezembro, de 2025 | 06:00

Rodrigo Pacheco e Trump: dois caminhos para a regulação da IA

Régis de Oliveira Júnior *


O debate sobre a regulação da inteligência artificial (IA) no Brasil não se limita a uma disputa técnica: expressa uma decisão política sobre como lidar com tecnologias que já influenciam escolhas individuais, relações de consumo e políticas públicas. A comparação entre a proposta brasileira, liderada pelo senador Rodrigo Pacheco (PSD-MG), e a abordagem adotada nos Estados Unidos durante o governo Donald Trump ajuda a iluminar essa escolha, desde que se reconheça a complexidade dos modelos em jogo.

Nos Estados Unidos, a opção predominante tem sido por uma regulação mais flexível, com forte confiança na autorregulação das grandes empresas de tecnologia. Em dezembro de 2025, o governo dos EUA reforçou essa diretriz por meio de medidas executivas que reduziram exigências regulatórias, com o argumento de preservar inovação e competitividade. Esse modelo não significa ausência total de regras, mas privilegia a agilidade econômica, mesmo diante de riscos sociais ainda pouco controlados.

A experiência recente sugere que essa flexibilidade cobra um preço. Sistemas de IA orientados apenas por engajamento e lucro tendem a explorar vulnerabilidades humanas. No Brasil, isso se manifesta em plataformas digitais de apostas que usam algoritmos para prolongar o uso, aumentar o consumo e agravar endividamento e problemas de saúde mental. Embora não seja o único setor afetado, esse exemplo evidencia como a falta de limites claros pode gerar externalidades sociais relevantes.

O PL nº 2338/2023 parte de outra premissa ao afirmar a centralidade da pessoa humana e a necessidade de sistemas seguros e confiáveis. Essa diretriz aproxima o Brasil de modelos internacionais baseados em risco, como o AI Act da União Europeia, que classifica aplicações de IA conforme seu potencial de dano e impõe obrigações proporcionais. A abordagem evita tanto a proibição indiscriminada quanto a permissividade absoluta.
"Sistemas de IA orientados apenas por engajamento e lucro tendem a explorar vulnerabilidades humanas"


Permitir que o mercado defina, sozinho, os limites da IA significa aceitar que decisões automatizadas passem a substituir políticas públicas sem debate democrático.

Falhas algorítmicas já impactam o acesso à saúde, ao crédito e ao mercado de trabalho. Sistemas de diagnóstico apresentam menor precisão para pessoas negras, enquanto modelos de concessão de crédito e recrutamento reproduzem desigualdades por meio de variáveis aparentemente neutras. Esse fenômeno, conhecido como racismo programado (viés algorítmico), replica padrões históricos de exclusão sob a aparência de neutralidade técnica.

Reconhecer esses riscos não implica ignorar desafios econômicos. Exigências excessivamente burocráticas podem inviabilizar startups e centros de pesquisa com menos recursos. Por isso, mecanismos como sandboxes regulatórios são fundamentais. Sandboxes permitem testes controlados, supervisionados e temporários; por exemplo, podem usar dados sintéticos para avaliar modelos antes da implantação em larga escala. Essas ferramentas conciliam inovação com proteção ao cidadão.

A eficácia de qualquer marco legal depende da capacidade do Estado de fiscalizar sistemas complexos. Auditar algoritmos, enfrentar a caixa‑preta e acompanhar a velocidade da inovação exigem órgãos reguladores com autonomia, recursos e expertise técnica. Sem isso, a regulação corre o risco de ser simbólica ou rapidamente obsoleta.

Vincular o licenciamento de sistemas de alto risco a políticas de conectividade, com uso de recursos do Fundo de Universalização dos Serviços de Telecomunicações, é uma proposta relevante, mas precisa de detalhamento: inclusão digital envolve capacitação, infraestrutura e fiscalização efetiva, como previsto na Estratégia Brasileira de Inteligência Artificial.
"Permitir que o mercado defina os limites da IA significa aceitar que decisões automatizadas sem debate democrático"


O Brasil não precisa escolher entre inovação e proteção. Precisa construir um modelo que reconheça riscos, estimule a criatividade tecnológica e preserve direitos fundamentais. Entre a flexibilidade irrestrita e a centralidade do cidadão, o desafio é transformar princípios em governança real, capaz de orientar o futuro digital do país sem ingenuidade nem paralisia.

A visão associada a Donald Trump privilegia a autorregulação e a agilidade econômica, confiando que o mercado e as grandes empresas de tecnologia conduzam à inovação com regras mínimas, enquanto a proposta ligada a Rodrigo Pacheco (PSD-MG), por meio do PL 2338, coloca a proteção do cidadão e a gestão de riscos no centro, exigindo licenciamento, avaliações de impacto e auditorias, e para o Brasil, marcado por profundas desigualdades e fragilidades institucionais.

A opção permissiva tende a ampliar exclusões e vieses já existentes, ao passo que um marco regulatório robusto só será eficaz se vier acompanhado de capacidade estatal, fiscalização, recursos técnicos e políticas de inclusão digital, de modo que o desafio prático é combinar regras proporcionais com mecanismos de suporte como sandboxes, financiamento e capacitação para permitir inovação sem transferir o custo social aos mais vulneráveis.

* Jornalista formado pela Unisc, especialista em Inteligência Artificial pela ESPM Tech São Paulo.

Obs: Artigos assinados não reproduzem, necessariamente, a opinião do jornal Diário do Aço
Encontrou um erro, ou quer sugerir uma notícia? Fale com o editor: [email protected]

Comentários

Aviso - Os comentários não representam a opinião do Portal Diário do Aço e são de responsabilidade de seus autores. Não serão aprovados comentários que violem a lei, a moral e os bons costumes. O Diário do Aço modera todas as mensagens e resguarda o direito de reprovar textos ofensivos que não respeitem os critérios estabelecidos.

Envie seu Comentário