Ferramentas de inteligência artificial (IA) deixaram de ser apenas curiosidades tecnológicas e passaram a integrar o cotidiano de milhões de pessoas conectadas. Ao mesmo tempo em que grandes modelos de linguagem são usados em tarefas legítimas, outra frente menos visível também se expande: a dos modelos criados e treinados especificamente para fins ilícitos. Pesquisas recentes em cibersegurança mostram que essas plataformas aceleram golpes, automatizam ataques e reduzem a necessidade de conhecimento técnico, tornando o cenário de ameaças digitais mais dinâmico e complexo.
Entre as criações mais citadas nesse contexto aparecem sistemas como WormGPT e KawaiiGPT, que empresas especializadas em segurança digital apontam como exemplos de LLMs maliciosas. Esses modelos funcionam como chatbots treinados para responder sem filtros éticos, ajudando na produção de códigos maliciosos, mensagens de golpe e estratégias de invasão. Especialistas alertam que o avanço dessas ferramentas altera o equilíbrio de forças entre defensores e atacantes e exige abordagens de proteção mais ágeis, integradas e baseadas em risco.
O que são LLMs maliciosas e por que viraram uma preocupação?
Definição e papel das LLMs maliciosas
A expressão LLM malicioso descreve modelos de linguagem treinados ou configurados para apoiar atividades criminosas no ambiente digital. Em vez de recusarem pedidos relacionados a invasões, fraudes ou espionagem, essas ferramentas foram projetadas para orientar o usuário em tarefas ilícitas, como sugerir códigos de malware, detalhar etapas de um ataque de ransomware ou montar campanhas de phishing altamente persuasivas. Na prática, o modelo atua como um “mentor” do crime, sempre disponível e escalável.
Redução da barreira de entrada para o cibercrime
O grande diferencial desses sistemas é a redução da barreira de entrada. Atividades que antes exigiam conhecimento avançado em programação e redes agora podem ser parcialmente automatizadas por um chatbot treinado para auxiliar no crime. Assim, indivíduos com pouca experiência técnica passam a acessar métodos usados por grupos mais organizados. A IA funciona como um consultor sob demanda, disponível a qualquer hora, mediante pagamento ou participação em comunidades fechadas. Isso amplia rapidamente o número de possíveis atacantes.
Ecossistema clandestino e Crime-as-a-Service
Essas LLMs ilegais circulam em fóruns clandestinos, marketplaces em redes anônimas e canais privados de mensagens. Elas se inserem em um ecossistema que também oferece tutoriais, modelos de e-mail malicioso, kits de ransomware, bases de dados vazadas e ferramentas para lavagem de criptomoedas. Alguns grupos vendem “pacotes completos” de ataque, com acesso ao modelo malicioso, listas de alvos, infraestrutura de hospedagem, suporte técnico e garantias de atualização quando surgem novas defesas. Esse modelo de negócio aprofunda o Crime-as-a-Service, profissionaliza o cibercrime e dificulta o trabalho de equipes de resposta a incidentes.
Origem dos modelos e desafios de responsabilização
Em muitos casos, grupos criminosos partem de modelos legítimos de código aberto e executam ajustes (fine-tuning) com conteúdos criminosos. Esse processo dificulta rastrear a origem do modelo e alimenta debates sobre a responsabilidade de desenvolvedores, provedores de nuvem e comunidades open source. Órgãos reguladores já discutem regras para o uso de modelos avançados em contextos de alto risco, incluindo o cibercrime.
Regulação e governança de IA em segurança
Iniciativas como o AI Act europeu, frameworks de avaliação de risco em IA e diretrizes de uso responsável de modelos de linguagem passam a citar explicitamente ameaças ligadas à automação de ataques, desinformação e uso abusivo de dados sensíveis. Crescem propostas de exigência de transparência, auditoria, registro e avaliação contínua de modelos de alto impacto, com o objetivo de reduzir o espaço de atuação de variantes maliciosas e criar mecanismos de responsabilização mais claros. Em paralelo, órgãos de padronização sugerem controles mínimos para acesso a modelos de uso dual, que podem servir tanto para defesa quanto para ataque.
Como o WormGPT é usado no cibercrime?
Modelo “sem censura” voltado para ataques
O WormGPT é um dos modelos de linguagem mais conhecidos entre cibercriminosos. Seus criadores o divulgam como uma alternativa “sem censura”, capaz de responder a pedidos que plataformas legítimas bloqueiam. Pesquisas de equipes de segurança indicam que versões recentes são oferecidas sob assinatura, com planos mensais ou acesso vitalício pago em dólar ou criptomoedas. Em fóruns clandestinos, os anunciantes declaram como objetivo atender exclusivamente quem busca apoio em atividades ilegais, sem qualquer preocupação ética ou de conformidade.
Geração de scripts de ransomware e evasão
Nos testes conduzidos por especialistas, o WormGPT demonstrou capacidade de gerar scripts de ransomware focados em arquivos específicos, como documentos PDF em sistemas Windows. O modelo sugeriu código em linguagens de script, indicou caminhos de diretórios a monitorar e orientou o uso de algoritmos de criptografia robustos, como AES-256, frequentemente usados em sequestro de dados. Em alguns casos, detalhou mecanismos para apagar ou alterar logs, o que dificulta a análise forense e a detecção por soluções de segurança.
Infraestrutura de anonimato e comando e controle
Pesquisadores observaram ainda instruções para integração com redes anônimas, como Tor, que permitem comunicação entre vítima e atacante sem exposição direta de identidade. Em cenários mais avançados, o modelo ajudou a planejar infraestrutura de comando e controle distribuída, com servidores em múltiplas jurisdições. Essa abordagem encarece e retarda a investigação. Esse tipo de apoio torna ataques complexos mais acessíveis a operadores menos qualificados.
Notas de resgate e táticas de extorsão
Outro recurso importante é a geração automatizada de notas de resgate. O WormGPT cria mensagens com linguagem intimidadora, prazos curtos para pagamento, menções a “criptografia de nível militar” e ameaças de aumento do valor exigido em caso de atraso. As mensagens seguem padrões comuns em incidentes reais de ransomware, o que facilita a adoção por criminosos iniciantes. Em muitos casos, a ferramenta entrega um pacote quase completo para ataques: do código à comunicação com a vítima.
Personalização do tom e integração com RaaS
O modelo também ajusta o tom conforme o perfil do alvo. Pode usar linguagem mais técnica com equipes de TI e mensagens mais emocionais com pequenas empresas ou profissionais liberais, ampliando a pressão psicológica para pagamento. Isso resulta em campanhas mais persuasivas e difíceis de ignorar. Relatórios de inteligência indicam ainda que variantes ou clones do WormGPT se integram a painéis de comando e controle (C2) usados por grupos de ransomware como serviço (RaaS). Eles auxiliam na geração de novas campanhas, na adaptação de scripts a diferentes sistemas operacionais e na tradução automática de mensagens de extorsão para vários idiomas.
Otimização contínua dos ataques com dados
Operadores de RaaS utilizam IA para analisar resultados de campanhas, ajustar textos com menor desempenho e segmentar melhor as vítimas com base em dados de vazamentos anteriores. Assim, o ciclo de ataque torna-se mais iterativo, orientado por dados e eficiente, o que eleva a taxa de sucesso dos golpes e reduz o tempo entre concepção e execução. Em muitos casos, os criminosos reutilizam a mesma infraestrutura ofensiva com pequenas variações, o que torna a detecção baseada apenas em assinaturas ainda mais difícil.
Como o KawaiiGPT atua em golpes de phishing e movimentação lateral?
Foco em engenharia social e persistência
Enquanto o WormGPT se destaca pela geração de payloads de ransomware, o KawaiiGPT aparece com frequência associado à automação de etapas mais discretas do ataque, como engenharia social e movimentação lateral em redes comprometidas. Em testes realizados por pesquisadores, a ferramenta foi instalada rapidamente em ambiente Linux e configurada para atuar como um chatbot comum, porém orientado a tarefas ofensivas, especialmente as voltadas à permanência silenciosa em uma rede já invadida.
Spear phishing altamente personalizado
Um dos usos mais relevantes é a criação de mensagens de spear phishing, golpe que mira alvos específicos com alto grau de personalização. O KawaiiGPT gerou e-mails com spoofing de domínio e simulou remetentes legítimos, como empresas conhecidas ou departamentos internos. O modelo também sugeriu links falsos para captura de credenciais, com linguagem adaptada ao contexto da vítima, o que aumenta significativamente a probabilidade de clique.
Com base em informações de redes sociais e vazamentos de dados, o modelo incorpora detalhes pessoais — como cargo, projetos recentes ou interesses — e torna as mensagens mais convincentes e difíceis de identificar como fraude. Dessa forma, filtros tradicionais baseados em palavras-chave ou erros de escrita falham com maior frequência. Em cenários corporativos, esse tipo de comunicação desafia controles de segurança que ainda dependem fortemente de indicadores superficiais.
Scripts para movimentação lateral e exfiltração
Nos experimentos, o KawaiiGPT também produziu scripts em Python para movimentação lateral, utilizando bibliotecas como SSH para conexão remota. Esses scripts permitem executar comandos em outros equipamentos da rede e vasculhar sistemas em busca de arquivos sensíveis. Em outro exemplo, o modelo sugeriu rotinas para percorrer o sistema de arquivos do Windows, localizar documentos de interesse e enviá-los automaticamente para endereços de e-mail controlados pelo atacante.
Embora não tenha exibido a mesma capacidade de gerar encriptadores completos como o WormGPT, o KawaiiGPT criou comandos executáveis relacionados à escalada de privilégios, coleta de informações e distribuição de malware. Assim, age como peça intermediária na cadeia de ataque e transforma uma invasão pontual em um incidente mais amplo, com roubo de dados e comprometimento de múltiplos dispositivos dentro de uma mesma organização.
Automação de interação com vítimas
Relatórios de ciberinteligência apontam ainda que ferramentas como o KawaiiGPT podem se integrar a bots em aplicativos de mensagem, permitindo que criminosos automatizem interações com vítimas em tempo real. Respostas aparentemente humanas, em vários idiomas, surgem geradas pela IA para manter a vítima engajada, aumentar a confiança e conduzi-la ao clique em links maliciosos ou ao envio de dados sensíveis.
Em golpes de suporte falso, a IA pode assumir o “atendimento” de uma central pirata, responder dúvidas, orientar a instalação de softwares maliciosos e insistir em pedidos de acesso remoto ao computador da vítima. Com isso, o atacante reduz esforço manual, escala o número de vítimas atendidas simultaneamente e torna a fraude mais convincente.
Quais são os riscos das LLMs maliciosas para empresas e usuários?
Agilidade de ataque e profissionalização dos golpes
O avanço de LLMs irrestritas usadas por hackers traz impactos diretos para empresas, governos e usuários domésticos. O tempo necessário para planejar e executar um ataque diminui, pois tarefas como redigir e-mails de golpe, ajustar scripts para ambientes específicos ou testar variações de código passam para a responsabilidade da IA. Isso libera o criminoso para focar em seleção de alvos, monetização e evasão.
Ao mesmo tempo, ocorre uma profissionalização dos golpes. Com apoio desses modelos, mensagens de phishing ficam mais convincentes, códigos maliciosos mais estruturados e campanhas passam a explorar detalhes contextuais, como setor de atuação da empresa, calendário de eventos e idioma local. A detecção se torna mais difícil para pessoas e para sistemas de filtragem tradicionais. Em muitos casos, as campanhas se assemelham a operações de marketing, com segmentação, testes A/B e otimização contínua.
Difusão de conhecimento e ampliação da base de atacantes
Outro impacto é a difusão acelerada de conhecimento técnico. Técnicas avançadas que antes ficavam restritas a poucos desenvolvedores de malware e operadores de bots agora circulam de forma acessível via LLMs treinadas em conteúdos criminosos. Instruções detalhadas sobre invasão, exfiltração de dados e anonimato se espalham em fóruns e canais de comunicação como Telegram, o que amplia a base de potenciais atacantes e reduz a necessidade de formação técnica aprofundada.
Essa popularização diminui a dependência de “especialistas” e cria um cenário em que qualquer ator mal-intencionado, com poucos recursos, consegue montar campanhas sofisticadas em pouco tempo. Defensores, por sua vez, precisam atualizar conhecimentos e ferramentas constantemente, pois técnicas antes raras se tornam comuns em questão de meses.
Variedade de ataques e fadiga de alerta
O uso intensivo de IA também gera um volume enorme de variantes de ataques levemente modificadas, o que dificulta o trabalho de assinaturas tradicionais de antivírus e sistemas de detecção baseados apenas em indicadores estáticos. Em ambientes corporativos, esse cenário contribui para sobrecarga de alertas, “fadiga de alerta” em equipes de segurança e maior chance de incidentes graves passarem despercebidos entre eventos aparentemente menores. Ferramentas defensivas baseadas em regras fixas ou padrões simples exigem atualização contínua e integração com mecanismos analíticos mais avançados, frequentemente baseados em IA.
Impactos regulatórios, reputacionais e sociais
Além dos impactos técnicos, surgem consequências reputacionais, regulatórias e de continuidade. Vazamentos de dados sensíveis, mesmo originados em um único e-mail de phishing bem-sucedido, podem gerar multas, ações judiciais e perda de confiança de clientes e parceiros. No setor público, incidentes estimulam debates sobre soberania digital, proteção de infraestruturas críticas e dependência de tecnologias estrangeiras.
Para usuários domésticos, as consequências incluem fraudes financeiras, sequestro de contas em redes sociais, roubo de identidade e exposição de dados que alimentam novos golpes. Assim, a ameaça não se limita a grandes corporações; atinge todo o ecossistema digital e exige uma elevação geral do nível de consciência em segurança.
Como se proteger em um cenário com LLMs usadas por hackers?
Abordagem integrada: pessoas, processos e tecnologia
Diante da presença crescente de IA generativa em ataques cibernéticos, empresas e usuários precisam adotar estratégias de proteção mais abrangentes e objetivas. Não basta investir apenas em ferramentas tecnológicas; é necessário combinar tecnologia, processos e capacitação contínua de pessoas. Em ambientes corporativos, isso envolve equipes multidisciplinares, com participação de TI, jurídico, governança e gestão de risco, além de apoio da alta direção.
Fortalecimento da segurança de e-mail e acessos
Entre as medidas prioritárias, destacam-se o fortalecimento de políticas de e-mail com filtros avançados, autenticação de remetentes como SPF, DKIM e DMARC, e monitoramento de domínios usados em phishing. Também são essenciais treinamentos recorrentes de conscientização com simulações de phishing, e gestão rigorosa de acessos, incluindo autenticação multifator, revisão periódica de privilégios e segmentação de redes para limitar movimentação lateral.
Monitoramento, backups e resposta a incidentes
Também é essencial manter monitoramento contínuo de logs e comportamentos anômalos, usando soluções de detecção baseadas em IA para identificar padrões compatíveis com ataques automatizados. Além disso, manter backups frequentes e testados, armazenados em ambientes isolados, reduz o impacto de incidentes com ransomware. Planos claros de resposta a incidentes, com papéis definidos, canais de comunicação de crise e procedimentos para isolamento rápido de sistemas comprometidos, devem permanecer documentados e ser testados regularmente por meio de exercícios simulados.
Inteligência de ameaças e uso de frameworks
Especialistas recomendam acompanhar relatórios e alertas de empresas de segurança e órgãos governamentais, que divulgam novas ferramentas de cibercrime baseadas em IA, táticas emergentes e vulnerabilidades críticas. A partir desse monitoramento, organizações podem ajustar regras de firewall, políticas internas e procedimentos de resposta.
Em paralelo, cresce o uso de frameworks de governança de IA e de cibersegurança, como ISO 27001, NIST CSF e referências específicas para modelos de linguagem. Esses frameworks ajudam empresas a definir critérios de risco, controles mínimos, processos de auditoria e políticas de uso responsável de IA. Algumas organizações adotam programas de bug bounty e parcerias com equipes de resposta a incidentes (CSIRTs e CERTs), bem como centros de operações de segurança (SOCs) gerenciados, para reagir mais rapidamente a ameaças que utilizam inteligência artificial.
IA defensiva e cooperação entre organizações
Embora LLMs maliciosas como WormGPT e KawaiiGPT representem uma etapa adicional na evolução do cibercrime, o cenário também impulsiona o desenvolvimento de mecanismos defensivos mais sofisticados, incluindo IA defensiva, análise comportamental avançada e compartilhamento de inteligência entre organizações. A disputa entre atacantes e defensores segue em constante movimento, e entender como essas ferramentas funcionam é elemento central para qualquer estratégia séria de proteção digital em 2025.
FAQ – Perguntas adicionais sobre LLMs maliciosas e cibersegurança
As LLMs legítimas podem ser “sequestradas” para uso malicioso?
Sim. Criminosos podem abusar de modelos legítimos por meio de prompts criativos ou engenharia de prompt para tentar contornar filtros. Eles também podem usar saídas de modelos públicos como base para ajustar (fine-tuning) versões privadas menos restritas. Por isso, provedores de IA investem em monitoramento de uso abusivo, limites de taxa, filtros de conteúdo e revisões periódicas de políticas de segurança, além de mecanismos de auditoria e detecção de padrões suspeitos.
Usuários domésticos correm o mesmo risco que grandes empresas?
Os impactos são diferentes, mas ambos são alvos. Usuários domésticos sofrem mais com golpes de phishing, roubo de contas, fraudes financeiras e sequestro de dados pessoais. Empresas enfrentam riscos adicionais, como vazamento de propriedade intelectual, interrupção de operações e sanções regulatórias. Em ambos os casos, boas práticas básicas — senhas fortes, MFA, atualização de sistemas, cuidado com links e anexos — reduzem significativamente a exposição.
É possível identificar se um e-mail foi escrito por uma IA maliciosa?
Nem sempre. Algumas mensagens ainda apresentam erros de tradução ou formatação suspeita, mas modelos modernos produzem textos muito naturais. Ferramentas de detecção de IA podem ajudar, mas não são infalíveis. Na prática, mostra-se mais eficaz verificar o contexto (remetente, links, anexos, pedidos urgentes por dados ou pagamento) do que tentar adivinhar se o texto veio de um humano ou de uma máquina.
Quais setores estão mais visados por ataques que usam LLMs?
Relatórios recentes apontam setores financeiro, saúde, governo, educação e indústria (incluindo infraestrutura crítica) como especialmente visados, por concentrar grandes volumes de dados sensíveis e, muitas vezes, operar com sistemas legados mais difíceis de atualizar. Nesses ambientes, grupos criminosos combinam engenharia social assistida por IA com exploração de vulnerabilidades técnicas para maximizar impacto e ganhos financeiros.
Como pequenas e médias empresas podem se defender com orçamento limitado?
PMEs podem priorizar medidas de alto impacto e baixo custo: adoção de autenticação multifator, uso de suites de segurança em nuvem, backups bem testados, atualização regular de sistemas e um programa simples, porém contínuo, de conscientização de funcionários. A contratação de serviços gerenciados de segurança (MSSP), o uso de soluções em modelo SaaS e a adesão a boas práticas e normas reconhecidas ajudam a acessar tecnologias avançadas e processos maduros sem grandes investimentos em infraestrutura própria.










