Visão do Direito

Regulação da IA: o Brasil precisa evitar os erros do passado

"Um dos principais riscos nesse processo é a tentativa de fundir a regulação da IA com o controle das plataformas digitais, como ocorreu no PL 2630"

Daniel Becker é sócio das áreas de Resolução de Disputas e de Proteção de Dados e Regulatório de Novas Tecnologias no BBL - Becker Bruzzi Lameirão Advogados, diretor de Novas Tecnologias no Centro Brasileiro de Mediação e Arbitragem (CBMA) -  (crédito: Divulgação)
Daniel Becker é sócio das áreas de Resolução de Disputas e de Proteção de Dados e Regulatório de Novas Tecnologias no BBL - Becker Bruzzi Lameirão Advogados, diretor de Novas Tecnologias no Centro Brasileiro de Mediação e Arbitragem (CBMA) - (crédito: Divulgação)

Por Daniel Becker* — A recente instalação da comissão especial na Câmara dos Deputados para analisar o projeto de regulamentação da inteligência artificial (IA) no Brasil marca um momento crucial. O texto, aprovado pelo Senado em 2023, propõe a criação do Sistema Nacional de Regulação e Governança de IA (SIA), sob coordenação da ANPD, e abre caminho para um debate necessário. No entanto, é preciso aprender com os equívocos recentes — especialmente os do PL das Fake News — para não repetir erros que possam comprometer a eficácia da futura lei.

Um dos principais riscos nesse processo é a tentativa de fundir a regulação da IA com o controle das plataformas digitais, como ocorreu no PL 2630. Naquele caso, a legítima preocupação com a desinformação se perdeu em meio a um debate paralelo — e mal conduzido — sobre o poder econômico das big techs. São temas distintos, com fundamentos normativos diferentes, e misturá-los gera soluções frágeis, que não resolvem nenhum dos problemas e ainda criam insegurança jurídica.

<p><strong><a href="https://whatsapp.com/channel/0029VaB1U9a002T64ex1Sy2w">Siga o canal do Correio no WhatsApp e receba as principais not&iacute;cias do dia no seu celular</a></strong></p>

A IA não deve ser tratada como um problema a ser contido, mas como uma ferramenta cujos riscos dependem de seu uso. O perigo não está na tecnologia em si, mas em como ela é projetada e aplicada. Regular a IA com base em seus impactos concretos — e não em abstrações — é o caminho mais seguro para evitar excessos que possam sufocar a inovação.

Em vez de uma regulação engessada, precisamos de uma "autorregulação regulada", em que o setor privado proponha protocolos e medidas de mitigação, sob supervisão do Estado. Inovação responsável exige regulação inteligente, não rigidez. Essa abordagem já encontra eco até mesmo na União Europeia, que, após aprovar o AI Act, prepara-se para lançar um Código de Boas Práticas em parceria com o GPAI (Global Partnership on AI) — um reconhecimento tácito de que leis rígidas, sozinhas, não dão conta da velocidade da evolução tecnológica.

O Brasil tem a oportunidade de adotar um marco regulatório moderno, que proteja direitos fundamentais sem engessar o desenvolvimento tecnológico. Para isso, é essencial focar nos usos e impactos da IA, não na tecnologia em abstrato, além de evitar a tentação de regular plataformas e IA no mesmo pacote, sob o risco de repetir os erros do PL das Fake News. Ou seja, é preciso adotar modelos flexíveis de governança, combinando regulação estatal com diretrizes setoriais.

Enquanto o Congresso avança na discussão, é preciso lembrar que uma regulação mal desenhada pode ser pior do que nenhuma regulação. O Brasil não pode perder a chance de construir um marco jurídico que estimule a inovação, garanta segurança jurídica e proteja a sociedade — mas, para isso, deve evitar os atalhos que já se mostraram falhos no passado.

A inteligência artificial é uma revolução em curso. Cabe ao Brasil decidir se será um mero espectador ou um protagonista dessa transformação. A escolha começa agora.

Sócio das áreas de contencioso e arbitragem, proteção de dados e inteligência artificial do BBL Advogados, membro das Comissões de 5G e Assuntos Legislativos da OAB/RJ*

 

Tags

Por Opinião
postado em 29/05/2025 03:00
x