ARTIGO

Grok: sexualização como modelo de negócio requer resposta global

O caso Grok reforça a necessidade de um debate público mais consistente e em nível mundial sobre responsabilidade, dever de cuidado e governança da inteligência artificial

Geração de imagens sexualizadas sem consentimento não expõe apenas os riscos associados à IA -  (crédito: REUTERS/Dado Ruvic/Imagem ilustrativa)
Geração de imagens sexualizadas sem consentimento não expõe apenas os riscos associados à IA - (crédito: REUTERS/Dado Ruvic/Imagem ilustrativa)

O pedido do Instituto Brasileiro de Defesa do Consumidor (Idec) para que o governo brasileiro suspenda o funcionamento do Grok, modelo de inteligência artificial generativa de Elon Musk, recoloca no centro do debate público uma questão que vai além do episódio específico. As denúncias de geração de imagens sexualizadas sem consentimento não expõem apenas os riscos associados à inteligência artificial generativa, os limites do atual modelo de autorregulação das plataformas digitais e a dificuldade dos países em responder a tecnologias operadas em escala global. Elas também nos permitem entender como decisões pessoais de poucos broligarcas — um pequeno grupo de bilionários da tecnologia, em sua maioria homens —  têm um impacto direto na vida das pessoas.

Fique por dentro das notícias que importam para você!

SIGA O CORREIO BRAZILIENSE NOGoogle Discover IconGoogle Discover SIGA O CB NOGoogle Discover IconGoogle Discover

Os últimos acontecimentos do Grok deixam claro que a adoção de parâmetros mais permissivos não é resultado de falhas técnicas pontuais ou de desvios em sistemas complexos de inteligência artificial. Ela é parte do próprio modelo de negócio dessa plataforma, que terceiriza os custos de sua política a quem tem sua imagem manipulada ou exposta, com potenciais prejuízos à dignidade, à saúde mental e à vida pública. 

Tal fenômeno não se restringe a um contexto regulatório específico. Trata-se de um problema global, no qual os impactos da tecnologia atravessam fronteiras enquanto as respostas institucionais permanecem fragmentadas. A inteligência artificial não é neutra. Junto com ela vêm os vieses e os interesses pessoais, econômicos, políticos e ideológicos de seus criadores. 

No Brasil, esse cenário evidencia os limites de nosso arcabouço jurídico. Não se pode negar que a Lei Geral de Proteção de Dados (LGPD) e o Marco Civil da Internet, entre outros instrumentos legais, são essenciais para a proteção dos usuários no ambiente digital. Porém, essas medidas foram concebidas em um contexto anterior à disseminação de sistemas capazes de gerar conteúdos sintéticos em escala massiva e com alto grau de realismo. A aplicação dessas normas a plataformas globais e multinacionais enfrenta entraves práticos, como a dificuldade de responsabilização e a assimetria de poder entre empresas de tecnologia, instituições públicas e usuários.

A regulação das plataformas depende de leis, políticas de autorregulação e acordos não vinculantes, que muitas vezes não são suficientes. Em muitos casos, a ausência de moderação interna faz parte do modelo de negócio das plataformas. No entanto, em momentos de crise, fatores como a pressão da opinião pública, o poder institucional dos Estados, a importância do mercado e a capacidade de adaptação das empresas podem influenciar mudanças no que é disponibilizado ao público. Ou seja, as respostas corporativas a crises envolvendo certas violações variam de acordo com múltiplos fatores. Mas, em todas elas, os objetivos estratégicos das próprias empresas terão um peso decisivo. Em alguns casos, plataformas como o Grok de Musk podem priorizar seus interesses específicos mesmo que isso implique em tensionar decisões judiciais, órgãos reguladores e o bem-estar da sociedade.

Certamente, o Estado é crucial para regular as big tech, e a sociedade exerce um papel importante ao pressionar por mudanças — tanto dentro das empresas como no que diz respeito à adoção de políticas de moderação de conteúdo. Além do mais, usuários, investidores, anunciantes e atores políticos também têm sua responsabilidade em manter ou questionar o status quo das operações das plataformas de broligarcas como Musk. Para combater problemas globais, é necessário um trabalho coletivo e coordenado entre diferentes nações nessa mesma escala.

O caso Grok funciona, portanto, como um alerta. Ele evidencia os riscos de tratar tecnologias com impacto estrutural como meros produtos de consumo e reforça a necessidade de um debate público mais consistente e em nível mundial sobre responsabilidade, dever de cuidado e governança da inteligência artificial. Mais do que reagir a episódios isolados, o desafio colocado ao Estado e à sociedade é o de construir mecanismos capazes de antecipar danos e impedir que a normalização do risco se torne parte permanente do cotidiano digital em escala global.

  • Google Discover Icon
Por Opinião
postado em 18/01/2026 06:00
x