Tecnologia

Microsoft diz que rivais dos EUA estão usando IA generativa para montar ataques cibernéticos

As técnicas observadas pela Microsoft, em colaboração com a OpenAI, representam uma ameaça emergente e não eram "particularmente novas ou únicas", disse a empresa em seu blog

As empresas de segurança cibernética utilizam a aprendizagem automática na defesa, principalmente para detectar comportamentos anômalos nas redes -  (crédito: EVA HAMBACH)
As empresas de segurança cibernética utilizam a aprendizagem automática na defesa, principalmente para detectar comportamentos anômalos nas redes - (crédito: EVA HAMBACH)

A Microsoft disse nesta quarta-feira, 14, que detectou e interrompeu estruturas de adversários dos EUA - principalmente Irã e Coreia do Norte e, em menor grau, Rússia e China - usando ou tentando explorar inteligência artificial generativa desenvolvida pela empresa e seu parceiro de negócios para montar ou pesquisar operações cibernéticas ofensivas.

As técnicas observadas pela Microsoft, em colaboração com a OpenAI, representam uma ameaça emergente e não eram "particularmente novas ou únicas", disse a empresa em seu blog.

As empresas de segurança cibernética utilizam a aprendizagem automática na defesa, principalmente para detectar comportamentos anômalos nas redes. Mas criminosos e hackers ofensivos também o utilizam, e a introdução de modelos de linguagem grande liderados pelo ChatGPT da OpenAI intensificou esse jogo de gato e rato.

A Microsoft investiu bilhões de dólares na OpenAI, e o anúncio de quarta-feira coincidiu com o lançamento de um relatório observando que se espera que a IA generativa melhore a engenharia social maliciosa, levando a deepfakes e clonagem de voz mais sofisticados. Uma ameaça à democracia num ano em que mais de 50 países realizarão eleições, ampliando a desinformação.

Gostou da matéria? Escolha como acompanhar as principais notícias do Correio:
Ícone do whatsapp
Ícone do telegram

Dê a sua opinião! O Correio tem um espaço na edição impressa para publicar a opinião dos leitores pelo e-mail sredat.df@dabr.com.br

postado em 15/02/2024 01:15 / atualizado em 15/02/2024 01:15