NULL
VISÃO DO CORREIO

Novos perigos da inteligência artificial

Mas essa força transformadora está mostrando, aos poucos, que também tem seu lado sombrio, levantando preocupações de todo tipo, inclusive éticas, pelo mundo

Ilustração trabalho inteligência artificial  03/09 -  (crédito: Caio Gomez)
Ilustração trabalho inteligência artificial 03/09 - (crédito: Caio Gomez)
postado em 13/11/2023 06:00

Após pouco mais de um ano de seu lançamento, não dá para negar que a inteligência artificial generativa — que tem como seu principal representante o ChatGPT — já revolucionou diversas áreas de trabalho. Mas essa força transformadora está mostrando, aos poucos, que também tem seu lado sombrio, levantando preocupações de todo tipo, inclusive éticas, pelo mundo.

A recém-encerrada greve dos roteiristas e atores de Hollywood já foi uma consequência do mundo pós-inteligência artificial. Entre outras reivindicações, os trabalhadores dos grandes estúdios cobravam regras mais claras para evitar que roteiros sejam totalmente escritos pela inteligência artificial, bem como restrições no uso indiscriminado da imagem dos atores coadjuvantes. Além de ter o poder de aniquilar o trabalho criativo, os sindicatos de Hollywood alertam que a automação desenfreada pode levar a uma produção de conteúdo carente da autenticidade que conecta histórias aos corações do público.

Outros casos recentes, desta vez no Brasil, mostraram o aprofundamento dos perigos da inteligência artificial, tanto para pessoas públicas quanto para anônimos, e tendo principalmente mulheres como alvo. Primeiro foi a atriz mineira Isis Valverde, que teve diversas fotos adulteradas para simular o vazamento de imagens conhecidas como “nudes”, como se ela estivesse sem roupa. As fotos falsas circularam pelas redes sociais como se fossem autênticas, o que levou a atriz a registrar um boletim de ocorrência na Delegacia de Crimes de Informática da Polícia Civil do Rio de Janeiro. A inteligência artificial também foi a ferramenta usada por alunos de escolas particulares de Belo Horizonte, Recife e Rio de Janeiro para criar versões falsas de imagens de colegas de sala nuas, em casos ainda mais preocupantes, já que envolvem adolescentes, ou seja, menores de idade.

A greve dos roteiristas e os sombrios casos de pornografia falsa gerada por IA revelam uma desconsideração alarmante pelo trabalho, pela privacidade e pela dignidade das pessoas. Por isso, é imperativo que a sociedade desenvolva estruturas robustas para prevenir esse tipo de abuso, e isso deve ser feito tanto pelos governos quanto pelas empresas.

Do lado das companhias que oferecem esse tipo de serviço, é fundamental que exista uma transparência maior nos algoritmos que regem a produção de textos e imagens pela inteligência artificial. Também é necessário que existam meios de identificação simultânea de conteúdos, como marcas d’água, de modo a comprovar que determinada foto ou sequência de palavras foi gerada por uma IA.

Falta ainda ao Brasil uma legislação clara para o uso da inteligência artificial, que leve em conta a atual mudança tecnológica. Apesar de a criação de montagens pornográficas — principalmente envolvendo menores de idade — ser crime, a autoria do produto final está em uma zona cinzenta das leis brasileiras. Para tentar coibir tais abusos, é preciso que existam regulamentações mais rigorosas e mecanismos claros de responsabilização pelo uso da IA para a produção de conteúdo criminoso.

A solução não reside em condenar a inteligência artificial — que é meramente uma ferramenta — e, sim, em estabelecer limites éticos e legais para sua aplicação. É preciso compreender que o perigo não está na IA em si, mas na ausência de diretrizes éticas. Como toda nova tecnologia, ela demanda técnicas, direitos e deveres totalmente novos, para que seja bem aplicada. Os alertas recentes já são mais do que suficientes para que esse debate se inicie, tanto nas empresas quanto no Congresso.

 

Gostou da matéria? Escolha como acompanhar as principais notícias do Correio:
Ícone do whatsapp
Ícone do telegram

Dê a sua opinião! O Correio tem um espaço na edição impressa para publicar a opinião dos leitores pelo e-mail sredat.df@dabr.com.br

Os comentários não representam a opinião do jornal e são de responsabilidade do autor. As mensagens estão sujeitas a moderação prévia antes da publicação
-->