O acirrado debate sobre como regular IA no Brasil
Publicado 8 de outubro de 2023Última atualização 18 de abril de 2024Assim como Austrália, Canadá, Inglaterra e outra dezena de países, o Brasil está em meio a uma discussão vital para o futuro próximo: como regular dispositivos de inteligência artificial (IA)? Em abril deste ano, o presidente Luiz Inácio Lula da Silva afirmou que quer lançar um plano nacional de uso da tecnologia. A política prevê regulamentar a IA no país e deve ser apresentada numa conferência nacional, em junho. Além disso, Lula quer mostrar o plano durante a abertura da Assembleia-Geral das Nações Unidas, em setembro.
Até dezembro de 2023, o debate em torno do tema ganhou dois lados claros.
No mundo político, grupos ligados a empresários querem convocar companhias que encabeçam esse avanço – as big techs – para escrever as regras junto com o governo. As próprias plataformas apoiam a ideia. Por outro lado, bancadas no Congresso e movimentos da sociedade civil argumentam que, se elas fizerem parte do processo, conseguirão influenciá-lo em favor próprio.
É no campo econômico, porém, que o conflito ficou aberto: entidades do ambiente de negócios temem que uma regulação mais detalhada, a exemplo da União Europeia (UE), trave as oportunidades da IA às empresas. Esse tipo de legislação é chamado hard law. Na contramão, ONGs, universidades e juristas se apegam justamente ao formato da norma europeia como padrão de regulação para a realidade brasileira.
Os caminhos da própria UE ditam o conflito: em dezembro de 2023, quando o Parlamento Europeu tornou público seu primeiro escopo de regulação, empresários correram para apontar que ele dificilmente se adaptaria à realidade da região – reagindo a especialistas que viam o documento como um modelo inequívoco. Em junho do ano passado, enfim, quando o projeto foi aprovado em Bruxelas com regras mais frouxas do que a versão inicial, houve maior aceitação, apesar das críticas permanecerem.
Para Murilo Duarte Corrêa, professor de Teoria Política da Universidade Estadual de Ponta Grossa (UEPG), no Paraná, a tendência é que tudo se resolva da mesma forma que em outros países: com uma legislação intermediária.
"O modelo regulatório global de hoje atua mais para modular campos de atuação do que para restringi-los ou liberá-los totalmente", explica. "Até porque pensar no Estado e no mercado como entidades opostas é um falso problema. Quando se trata de regular, o Estado tem sido mais parceiro do mercado do que inimigo dele", completa.
Propostas distintas
Atualmente, o único projeto de regulação da IA em tramitação no Congresso é, na verdade, uma coleção de propostas que brigam entre si. Elas foram reunidas no Projeto de Lei (PL) 2338/2023, já chamado de "Marco da Inteligência Artificial", sob a relatoria do senador Eduardo Gomes (PL-TO). Sua missão é entregar um projeto final contemplando tanto exigências prescritivas quanto demandas do empresariado.
Está dentro do PL a proposta do ministro do Superior Tribunal de Justiça (STJ) Ricardo Villas Bôas Cueva, que reúne diferentes sugestões prescritivas feitas no Senado desde 2019, quando nenhum país do mundo tinha uma regulação de IA definida.
O documento, parecido com o que a UE discute hoje, possui classificações dos riscos de violação a direitos considerados fundamentais, regras de governança e de tratamento de dados pessoais, além de estipular punições diversas.
"Quando um sistema passa a ser capaz de tomar decisões que afetam o coletivo, ele deve imediatamente ser limitado. Hoje, mesmo os criadores desses dispositivos não conhecem exatamente o funcionamento dos algoritmos", observa Rodolfo Avelino, uma das vozes mais firmes em torno da abordagem hard law.
Avelino, que leciona no curso de Engenharia do Insper e coordena um laboratório de estudos sobre tecnologias na Universidade Federal do ABC (UFABC), em Santo André, também teme que uma regulação mais frouxa reforce desigualdades cotidianas.
"No âmbito do Estado, quais dados serão utilizados para treinar modelos de IA no campo da segurança pública, por exemplo? Nós sabemos que alguns deles serão produzidos a partir de populações mais vulneráveis. Esse tipo de processo, feito em cima de um perfil social, torna o modelo tendencioso. É aí que a regulação precisa agir", aponta.
Regulação com princípios
Durante a tramitação no Congresso, uma sugestão mais alinhada às demandas do empresariado, de autoria do deputado Eduardo Bismarck (PDT-CE), foi adicionada ao mesmo projeto relatado pelo senador Eduardo Gomes. De escopo principiológico – ou soft law – ela estabelece apenas princípios de governança e responsabilização, aos moldes do Marco Civil da Internet, de 2014.
O documento de oito páginas aponta, por exemplo, direitos e deveres dos usuários, assim como garantias já previstas na Constituição, deixando as demais legislações já em vigor regularem, na prática, o funcionamento da IA no país.
Aprovado no plenário da Câmara em 2021, o projeto de Bismarck estimulou o primeiro debate público sobre o tema, já que, da noite para o dia, foi colocado para votação em regime de urgência. Juristas e especialistas reclamaram que não foram consultados e levaram o protesto ao Senado, onde o projeto está atualmente.
Nos últimos meses, empresários voltaram à carga – em campanhas publicitárias e em eventos privados, assim como em lobby no Congresso – para que o projeto de Bismarck seja o alicerce da regulação da IA no país.
Um desses empresários é Diogo Costa, CEO do Instituto Millenium, think tank fundado há duas décadas para debater a intervenção do Estado na economia. Para ele, se a proposta detalhista balizar o processo, significará insegurança jurídica e burocracia para os negócios.
"Como a IA muda toda hora, a lei também terá que se adaptar, deixando os negócios sempre à mercê das transformações. As startups vão ter que ter técnicos e advogados na mesma medida", diz, citando uma pesquisa do banco Goldman Sachs que, no começo deste ano, previu um crescimento de 1,5% da produtividade brasileira conforme a IA avançar no país.
Para Costa, o ideal é seguir com uma lei amparada em princípios, caminho seguido pelo Japão, por exemplo. Dessa forma, bastaria usar outras regras já vigentes na lei brasileira para controlar o funcionamento da IA. "Isso já está sendo feito, inclusive. As agências setoriais têm suas próprias portarias, que funcionam bem", analisa o empresário.
Interlocutores ouvidos pela DW em Brasília acreditam que, pelo conflito, mas também pelas inovações de ferramentas como o ChatGPT, uma regulação só será feita depois das eleições municipais do ano que vem.
Eles apontam que havia pressa em definir uma legislação até 2022, quando a demanda prescritiva era forte. Hoje, ao contrário, os parlamentares querem evitar que o debate tome o mesmo caminho da legislação sobre redes sociais que, insuflada por ataques a escolas do país em abril, foi adiada após pressões das big techs e de bancadas temáticas na Câmara. A discussão desgastou congressistas, governo e ministros do Supremo Tribunal Federal (STF), abertamente favoráveis ao projeto.
Mas, para Murilo Corrêa, da UEPG, a legislação da IA só será destravada, de fato, quando as big techs se sentarem à mesa. "Se a gente observar as regras ambientais brasileiras, elas são todas feitas com a presença do pessoal do agronegócio. Se isso não for feito agora, não sairá nada", finaliza.