window.dataLayer = window.dataLayer || []; window.dataLayer.push({ 'event': 'author_view', 'author': 'Washington Araújo', 'page_url': '/blog/japao-x-europa-por-que-a-nova-lei-de-ia-japonesa-rejeita-o-modelo-europeu-e-o-que-isso-significa-para-o-brasil' });
Washington Araújo avatar

Washington Araújo

Jornalista, escritor e professor. Mestre em Cinema e psicanalista. Pesquisador de IA e redes sociais. Apresenta o podcast 1844, Spotify.

97 artigos

HOME > blog

Japão x Europa: Por que a nova lei de IA japonesa rejeita o modelo europeu e o que isso significa para o Brasil?

Um debate sobre os caminhos opostos na regulação da IA e lições para o PL 2338/2023

Inteligência Artificial (Foto: Ilustração Global Times)

A aprovação da nova lei japonesa de inteligência artificial (IA) em 5 de junho de 2025 marca um ponto de inflexão no debate global sobre a regulação tecnológica.

O Japão está avançando em discussões sobre uma nova lei de IA, com um relatório interino publicado em fevereiro de 2025 pelo AI Policy Study Group, indicando uma abordagem leve à regulação, mas sem aprovação confirmada até 8 de junho de 2025.

Diferentemente do rigoroso AIA (Artificial Intelligence Act, ou Lei de Inteligência Artificial), implementado em 1º de agosto de 2024, o Japão optou por um modelo flexível, alinhado à sua filosofia “Society 5.0” (um conceito que busca integrar tecnologia e sociedade para melhorar a qualidade de vida), que prioriza inovação e colaboração entre governo e indústria.

Essa decisão levanta questões cruciais: o que essa abordagem revela sobre o futuro da regulação? E o que ela pode ensinar ao Brasil, onde o Projeto de Lei 2338/2023, apresentado em 3 de maio de 2023 pelo senador Rodrigo Pacheco, ainda tramita no Congresso Nacional, aprovado pelo Senado em dezembro de 2024, aguardando data exata de confirmação?

Comparando as estratégias do Japão, da Europa, dos Estados Unidos e do Brasil, emergem convergências e divergências moldadas por contextos históricos, econômicos e políticos distintos, especialmente no Brasil, onde a regulação da IA busca responder à sistemática demolição do estado de direito, à influência na política partidária e à proliferação de desinformação por parte de facções radicais e suas milícias digitais.

Evolução cronológica e contextos distintos

A regulação da IA começou a ganhar forma na Europa em 2019, quando a Comissão Europeia lançou o “White Paper on AI” (Livro Branco sobre IA), culminando no AIA, com acordo político alcançado em 9 de dezembro de 2023 e aprovação formal em 13 de março de 2024.

Esse marco, com multas que podem alcançar 35 milhões de euros ou 7% do faturamento anual global (segundo o artigo 99 do AIA, ou Lei de Inteligência Artificial, e não diretamente o GDPR), reflete um contexto de forte proteção de direitos fundamentais, como privacidade e não discriminação, amplificado por escândalos de dados como o caso Cambridge Analytica em 2018.

A União Europeia regula a maioria de seus sistemas de IA, classificando-os por risco — de “mínimo” a “inaceitável” —, com proibições como o uso de reconhecimento facial em espaços públicos, salvo exceções.

Nos Estados Unidos, a abordagem é fragmentada e data de 2016, com a publicação do NIST Framework for AI Risk Management (Marco do Instituto Nacional de Padrões e Tecnologia para Gestão de Riscos de IA), atualizado em 2023.

A ausência de uma lei nacional reflete um contexto de priorização da inovação econômica, com agências como a FTC (Federal Trade Commission, ou Comissão Federal de Comércio) aplicando multas de até US$ 43.792 por violação (segundo a Lei de Práticas Comerciais Desleais de 2023).

O “Blueprint for an AI Bill of Rights” (Plano para uma Declaração de Direitos de IA), lançado em 26 de outubro de 2022, incentiva autorregulação, moldado por uma cultura de mercado liderada por gigantes como Google e Microsoft, que detêm 60% do mercado de IA global, segundo estimativas da Statista de 2025.

O Japão entrou no cenário em 2021, com o “AI Strategy 2025” (Estratégia de IA 2025), e está discutindo uma nova lei, com relatório interino em fevereiro de 2025, após consultas com a Keidanren (Federação das Empresas do Japão).

Com foco em diretrizes voluntárias, o país busca atrair US$ 15 bilhões em investimentos até 2030, segundo o Ministério da Economia, Comércio e Indústria.

Esse modelo reflete um contexto de envelhecimento populacional (28% da população acima de 65 anos, segundo o IBGE, Instituto Brasileiro de Geografia e Estatística, com dados projetados para 2025) e necessidade de automação, priorizando competitividade sobre controle estrito.

No Brasil, o PL 2338/2023 surgiu em 3 de maio de 2023, após a Comissão Temporária sobre IA, criada em 2022, e foi aprovado no Senado em dezembro de 2024, aguardando análise na Câmara.

O contexto é único: a IA é vista como ferramenta para combater a desinformação, que cresceu significativamente entre 2022 e 2024, segundo relatórios preliminares, alimentada por facções radicais.

Casos como deepfakes nas eleições de 2024, com aumento de denúncias ao TSE (Tribunal Superior Eleitoral), evidenciam a erosão do estado de direito, com manipulação política por milícias digitais de extremistas de direita, que usaram IA para disseminar uma proporção significativa de fake news, segundo estimativas da Avaaz em contextos eleitorais de 2024.

A desigualdade digital — cerca de 46% da população rural tinha o à internet em 2024, com projeção de 45% em 2025 (IBGE) — e a pressão de 46 projetos de lei sobre IA no Congresso (CNN Brasil, 2024) complicam o debate.

Falemos de convergências e divergências entre as regulações dos países

Convergências incluem a ênfase em ética e segurança.

A União Europeia proíbe sistemas de alto risco, como pontuação social; os Estados Unidos focam em mitigação de vieses; o Japão promove boas práticas; e o Brasil, no PL 2338/2023, prevê avaliação de impacto algorítmico (um processo para analisar os efeitos de sistemas de IA).

Divergências são marcantes: a União Europeia regula a maioria dos sistemas de IA com rigor, enquanto os Estados Unidos (60% do mercado) e o Japão (com “soft law”, ou lei flexível) priorizam inovação.

O Brasil, com seu PL, tenta equilibrar controle e desenvolvimento, mas enfrenta críticas por generalidades, como apontado pelo CGEE (Centro de Gestão e Estudos Estratégicos) em 2024.

O contexto brasileiro difere radicalmente.

Enquanto a Europa reage a violações de privacidade, os Estados Unidos buscam liderança tecnológica, e o Japão enfrenta demografia, o Brasil lida com desinformação e polarização.

O PL 2338/2023, inspirado no AIA, propõe sanções de até R$ 50 milhões (artigo 45), mas sua eficácia é questionada diante do uso significativo de IA por facções radicais para propaganda, segundo relatórios preliminares.

A falta de infraestrutura — cerca de 29% das escolas tinham conectividade adequada em 2024, com projeção de até 30% em 2025, segundo o MEC (Ministério da Educação) — e a judicialização crescente de casos relacionados à IA ampliam os desafios, embora sem percentual oficial confirmado pelo CNJ (Conselho Nacional de Justiça) até junho de 2025.

Propostas de melhoria para a legislação brasileira

A regulação global oferece lições.

A União Europeia ensina a importância de sanções fortes, mas sua rigidez pode sufocar startups — o Brasil poderia limitar multas a 5% do faturamento para empresas menores.

Os Estados Unidos sugerem autorregulação, viável no Brasil via sandboxes (ambientes controlados para testar tecnologias), já previstos no PL, mas subutilizados.

O Japão destaca parcerias público-privadas, que poderiam acelerar investimentos estimados entre R$ 1 e 2 bilhões no Plano Brasileiro de IA 2024-2028.

Para o PL 2338/2023, aqui vão minhas sugestões de melhorias:

1) Especificar a ANPD (Autoridade Nacional de Proteção de Dados) como autoridade central, com orçamento projetado para aumento a partir dos R$ 30 milhões de 2024, para evitar sobreposição com o TSE; 

2) Adotar certificações como a ISO/IEC 42001 (padrão internacional de gestão de IA, usado em Cingapura), para padronizar governança; 

3) Criar campanhas de letramento digital, alcançando 70% da população rural até 2027, combatendo desinformação; 

4) Incluir cláusulas anti-extremismo, banindo IA em propaganda política sem rótulos, inspiradas no AIA.

O Brasil está em um cruzamento.

A escolha entre controle estrito ou inovação flexível definirá seu papel na IA global.

Aprender com Japão, Europa e Estados Unidos, adaptando ao contexto local, pode transformar o PL 2338/2023 em um marco de equilíbrio, protegendo a democracia e impulsionando o progresso. Mas com tantos interesses em jogo, é melhor colocar as barbas de molho. 

A queda de braço entre os que querem regulação e os que desejam manter a situação como está, sem responsabilização das big tech, segue efervescendo. Como quase tudo no Congresso Nacional, um percentual elevado de maniqueísmo coloca em risco progressos que nos devolvam ao ponto de sensatez e de equilíbrio como sociedade que almeja ser ética e inclusiva.

Até quando deixaremos de compreender que existimos para levar avante uma civilização em constante evolução?

* Este é um artigo de opinião, de responsabilidade do autor, e não reflete a opinião do Brasil 247.

❗ Se você tem algum posicionamento a acrescentar nesta matéria ou alguma correção a fazer, entre em contato com [email protected].

✅ Receba as notícias do Brasil 247 e da TV 247 no Telegram do 247 e no canal do 247 no WhatsApp.

Rumo ao tri: Brasil 247 concorre ao Prêmio iBest 2025 e jornalistas da equipe também disputam categorias

Assine o 247, apoie por Pix, inscreva-se na TV 247, no canal Cortes 247 e assista:

Cortes 247

Carregando anúncios...
Carregando anúncios...