A China segue na vanguarda global da implementação de sistemas de reconhecimento facial e monitoramento digital, utilizando milhões de câmeras inteligentes nos espaços públicos para identificar e classificar comportamentos dos cidadãos. Em várias cidades chinesas, o uso combinado de reconhecimento facial, QR codes e gamificação já faz parte do cotidiano. Lixeiras inteligentes, por exemplo, identificam automaticamente quem está descartando resíduos e registram se o descarte foi feito de maneira correta. Em alguns locais, jogar lixo na rua pode resultar na perda de pontos no chamado sistema de crédito social, além de multas automáticas, tudo processado eletronicamente e sem necessidade de intervenção humana direta. A lógica é disciplinar a população, recompensando boas atitudes e punindo ações consideradas nocivas à ordem social.
O modelo chinês representa um caso extremo de controle social digital, em que dados biométricos e comportamentais são continuamente analisados para influenciar aspectos como acesso a crédito, oportunidades de emprego e até mesmo permissões de viagem. A justificativa oficial é a busca por ordem, segurança e sustentabilidade urbana. No entanto, especialistas alertam para os riscos à privacidade, à liberdade individual e para o potencial de abuso por parte do Estado, já que tais tecnologias permitem rastreamento em tempo real e a formação de dossiês comportamentais detalhados sobre toda a população.
Diante do avanço dessas práticas, o debate internacional sobre privacidade, ética e regulação da inteligência artificial se intensificou. A União Europeia, reconhecida por adotar uma postura mais rigorosa e ética no uso de tecnologias digitais, aprovou o chamado “AI Act” (Lei da Inteligência Artificial) e inicia, em 2025, a aplicação de novas regras para sistemas automatizados de alto risco, como o reconhecimento facial em ambientes públicos. O AI Act estabelece restrições e, para alguns fins, até a proibição da identificação biométrica remota em tempo real, principalmente devido ao risco de violação de direitos fundamentais. Empresas e governos que não se adaptarem podem enfrentar sanções severas, e a lei exige transparência, fundamentação ética e supervisão rigorosa sobre o uso dessas tecnologias.
Ainda existe insegurança sobre detalhes da implementação das normas, mas o consenso europeu é de que não se pode abrir mão dos direitos à privacidade e à liberdade em nome da eficiência ou segurança. O objetivo é garantir que o desenvolvimento e o uso da inteligência artificial respeitem limites éticos claros, dando aos cidadãos maior controle sobre seus dados pessoais e criando barreiras legais para abusos de poder por parte de empresas e instituições públicas.
O embate entre inovação tecnológica e proteção de direitos, que já marca a agenda global, entra em uma nova fase em 2025, com impacto direto no cotidiano de bilhões de pessoas e na definição de parâmetros internacionais para o futuro da sociedade digital.