Correio Braziliense - Aqui
Sem resultado
Veja todos os resultados
Correio Braziliense - Aqui
Sem resultado
Veja todos os resultados
Correio Braziliense - Aqui
Sem resultado
Veja todos os resultados
Início Tecnologia

5 vezes em que a Inteligência Artificial foi manipulada e saiu do controle

Por Lucas
15/05/2026
Em Tecnologia
5 vezes em que a Inteligência Artificial foi manipulada e saiu do controle

Créditos: depositphotos.com / VitalikRadko

EnviarCompartilharCompartilharEnviar

A inteligência artificial está cada vez mais presente no dia a dia, mas nem sempre se comporta como o esperado. Uma técnica conhecida como “injeção de prompt” tem ganhado destaque por permitir que usuários manipulem essas tecnologias. Com comandos escondidos ou perguntas capciosas, é possível enganar a IA para que ela ignore suas regras de segurança.

Essa vulnerabilidade já resultou em situações bizarras e até perigosas, que vão desde a criação de conteúdo preconceituoso até a divulgação de informações indevidas. Relembre cinco casos em que a inteligência artificial foi manipulada por humanos e saiu completamente do controle.

Leia Também

Asteroide perto da Terra: qual o risco real de um impacto devastador?

Asteroide perto da Terra: qual o risco real de um impacto devastador?

15/05/2026
Imposto de Renda: 7 erros comuns que levam você direto à malha fina

Imposto de Renda: 7 erros comuns que levam você direto à malha fina

13/05/2026
O 'Big Brother' da Receita Federal: como a IA cruza seus dados

O ‘Big Brother’ da Receita Federal: como a IA cruza seus dados

13/05/2026
Laringite bacteriana: conheça os sintomas e os riscos da doença

Laringite bacteriana: conheça os sintomas e os riscos da doença

13/05/2026

1. Tay, o chatbot que virou racista

Em 2016, a Microsoft lançou no Twitter uma IA chamada Tay, projetada para aprender a conversar interagindo com usuários. Em cerca de 16 horas, o experimento deu errado. Um grupo coordenado de pessoas começou a ensinar frases racistas, misóginas e de teor conspiratório ao robô, que rapidamente passou a replicar o discurso de ódio. A empresa precisou tirar o chatbot do ar às pressas, e a experiência serviu como um importante aprendizado para o desenvolvimento de sistemas mais seguros no futuro.

2. DAN, o alter ego sem regras do ChatGPT

Usuários criaram um método para destravar uma versão sem filtros do ChatGPT, apelidada de DAN (acrônimo para Do Anything Now, ou “Faça Qualquer Coisa Agora”). Por meio de um comando específico, a IA era instruída a interpretar um personagem que não possuía as amarras éticas do sistema original. Com isso, o DAN era capaz de gerar conteúdo ofensivo, criar histórias violentas e defender ideias perigosas que normalmente seriam bloqueadas. A OpenAI, criadora do ChatGPT, trabalha continuamente para fechar essas brechas, mas a comunidade de usuários segue descobrindo novas formas de contornar as regras.

3. A IA que “vendeu” um carro por 1 dólar

Em dezembro de 2023, um cliente de uma concessionária nos Estados Unidos usou a injeção de prompt para manipular o chatbot de atendimento do site. Ele convenceu a IA a concordar em vender um carro novo, modelo Tahoe, por apenas um dólar. A negociação, embora não tenha sido honrada pela empresa, expôs como a manipulação de sistemas automatizados pode gerar prejuízos financeiros e problemas contratuais.

4. Receitas para a criação de bombas

Tanto o ChatGPT quanto o Gemini, do Google, possuem travas de segurança para impedir a geração de conteúdo perigoso. No entanto, usuários descobriram brechas para enganar os sistemas e obter instruções detalhadas para a fabricação de explosivos. As manipulações geralmente envolvem pedir à IA que “interprete um personagem” ou que descreva o processo em um contexto de ficção, burlando os filtros de proteção.

5. Fraude eleitoral com voz clonada

Em janeiro de 2024, durante as primárias eleitorais nos Estados Unidos, eleitores do estado de New Hampshire receberam uma ligação automática com uma voz clonada por IA do presidente Joe Biden. A mensagem instruía as pessoas a não votarem. O caso mostrou o potencial da tecnologia para criar desinformação em larga escala e interferir em processos democráticos, gerando um alerta global sobre o uso de IAs em campanhas políticas.

Tags: errosfora de controleIAinteligencia artificialperigoRiscos
EnviarCompartilhar30Tweet19Compartilhar

Deixe um comentário Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

5 pratos da culinária de Cuba para você experimentar (ou fazer em casa)

5 pratos da culinária de Cuba para você experimentar (ou fazer em casa)

15/05/2026
Além do hantavírus: 5 doenças graves transmitidas por animais em alta no Brasil

Além do hantavírus: 5 doenças graves transmitidas por animais em alta no Brasil

15/05/2026
Como está Cuba hoje? Um raio-x da ilha após a era dos irmãos Castro

Como está Cuba hoje? Um raio-x da ilha após a era dos irmãos Castro

15/05/2026
5 vezes em que a Inteligência Artificial foi manipulada e saiu do controle

5 vezes em que a Inteligência Artificial foi manipulada e saiu do controle

15/05/2026
Asteroide perto da Terra: qual o risco real de um impacto devastador?

Asteroide perto da Terra: qual o risco real de um impacto devastador?

15/05/2026
Ciclones no Sul: lições de quem já enfrentou grandes temporais

Ciclones no Sul: lições de quem já enfrentou grandes temporais

15/05/2026
  • Sample Page
Sem resultado
Veja todos os resultados