Governos aceleram iniciativas para regular a inteligência artificial

Brasília, 9 de junho de 2025 – Em meio a crescentes preocupações sobre a expansão exponencial da inteligência artificial (IA), governos ao redor do mundo — especialmente no Brasil, nos Estados Unidos e na União Europeia — avançam em projetos de lei e estruturas regulatórias com o objetivo de equilibrar inovação, ética e segurança.

POLÍTICA

Gustavo Moreira Pinto

6/9/20253 min read

1. Brasil: Projeto de lei em tramitação no Congresso

No Brasil, tramita o PL 2330/2024, conhecido como “Marco Legal da Inteligência Artificial”, que estabelece requisitos obrigatórios para empresas que desenvolvem sistemas de IA. Entre as principais propostas:

  • Transparência: as organizações devem explicar processos decisórios automatizados a usuários e ao Poder Público.

  • Responsabilidade civil: criam-se marcos para atribuir culpa em casos de danos, especialmente quando sistemas autônomos causam prejuízos.

  • Proteção de dados: garante-se o alinhamento com a Lei Geral de Proteção de Dados (LGPD), assegurando que dados sensíveis sejam tratados com rigidez.

  • Agência reguladora: propõe-se a criação de um órgão federal responsável por fiscalizar, auditar algoritmos e impor sanções.

Atualmente em discussão conjunta nas comissões de Ciência e Tecnologia, Justiça e Direitos Humanos, o texto já recebeu colaborações de entidades como a Ordem dos Advogados do Brasil (OAB) e o Fórum Nacional da Internet, que reforçam a urgência de atenção às possíveis consequências sociais da adoção da IA.

2. União Europeia: o AI Act entra em vigor em breve

A União Europeia caminha para a implementação imediata do AI Act, já aprovado pelo Parlamento Europeu no final de 2024 e com aplicação escalonada prevista a partir de julho de 2025. Os aspectos mais relevantes:

  • Classificação de risco: modelos de IA são categorizados em níveis de risco — de mínimo a inaceitável. Exemplos de alto risco incluem sistemas de reconhecimento facial, diagnóstico médico e recrutamento.

  • Requisitos rígidos: para sistemas de alto risco, exigem-se avaliações robustas de impacto, auditorias, certificações e documentação técnica.

  • Sanções severas: penalidades podem chegar a 6% do faturamento global ou €30 milhões, por infrações graves.

  • Registro de sistemas: desenvolvedores e provedores devem manter registros acessíveis para autoridades, permitindo rastreamento e controle.

Com o AI Act, a UE pretende se tornar referência global em regulamentação de IA, oferecendo proteção ao cidadão e previsibilidade para o mercado.

3. Estados Unidos: regulação por setor e diretrizes executivas

Diferentemente da UE, os Estados Unidos optam por uma abordagem mais setorial e voluntária, combinada com diretrizes federais:

  • Executive Order (EO) 14110, de abril de 2025, rubricada pela Casa Branca, estabelece diretrizes para “IA confiável”, com foco em:

    • Validação e testes de robustez técnica

    • Monitoramento contínuo e transparente

    • Parcerias público‑privadas para fiscalizações

  • Órgãos reguladores setoriais, como a FDA (comunicando-se com empresas de IA na saúde) e a SEC (para IA usada em decisões financeiras), recebem orientação para formular políticas específicas do setor.

  • Lei bipartidária em negociação no Congresso (tentativamente chamada de "AI Transparency and Accountability Act") visa impor requisitos mínimos para algoritmos que decidam sobre benefícios sociais ou seguros, mas seu texto permanece em debate.

Essa abordagem reflete a tradição americana de não engessar setores considerados estratégicos, sem abrir mão de padrões éticos e de segurança.

4. Desafios e impactos

  • Equilíbrio entre inovação e segurança: delimitar com clareza quais setores exigem controles mais rígidos sem frear a competitividade nacional.

  • Adaptação de empresas: startups e grandes corporações precisarão adequar seus processos de desenvolvimento, adotando auditorias internas e melhor governança.

  • Alinhamento global: há pressão para harmonizar padrões — ou ao menos compatibilizar requisitos — entre diferentes jurisdições.

5. Próximas etapas

  • Brasil: o PL 2330/2024 segue para debate em plenário no Senado, com previsão de aprovação até o 2º semestre de 2025.

  • União Europeia: a aplicação escalonada do AI Act começa em julho de 2025 para sistemas de alto risco; outras categorias terão início até 2027.

  • EUA: aguarda-se a votação do projeto bipartidário no Congresso ainda em 2025; agências federais devem publicar normas setoriais até o final do ano.

Conclusão

O ritmo atual revela que estamos entrando em uma nova fase: a da IA não só poderosa, mas também regulada. Embora as estratégias variem — centralizadas no caso da UE, no processo legislativo no Brasil e setoriais nos EUA —, o denominador comum é claro: a consciência crescente de que a inteligência artificial, apesar de suas possibilidades revolucionárias, precisa ser governada para proteger cidadãos, garantir transparência e legitimar a inovação.