Ciência e Saúde

Inteligência artificial pode cair em mãos erradas, dizem especialistas

Segundo eles, na próxima década, a eficácia crescente da inteligência (IA) poderia reforçar a cibercriminalidade e conduzir ao uso de drones ou robôs com fins terroristas

Agência France-Presse
postado em 20/02/2018 22:06
Segundo eles, na próxima década, a eficácia crescente da inteligência (IA) poderia reforçar a cibercriminalidade e conduzir ao uso de drones ou robôs com fins terroristas
Especialistas internacionais alertam em um relatório, que será publicado nesta quarta-feira (21/2), sobre os riscos do uso mal-intencionado da inteligência artificial por parte dos "Estados corruptos, de criminosos ou de terroristas" em um futuro próximo.

Segundo eles, na próxima década, a eficácia crescente da inteligência (IA) poderia reforçar a cibercriminalidade e conduzir ao uso de drones ou robôs com fins terroristas. Poderia também facilitar a manipulação de eleições através das redes sociais mediante contas automatizadas (bots).

Este extenso informe de 100 páginas foi redigido por 26 especialistas em IA, cibersegurança e robótica de prestigiosas universidades (Cambridge, Oxford, Yale e Stanford) e organismos não governamentais (OpenAI, Center for a New American Security, Electronic Frontier Foundation).

Estes especialistas pedem aos governos e aos diferentes atores deste campo que ponham de pé mecanismos para limitar as possíveis ameaças relacionadas com a inteligência artificial.

"Acreditamos que os ataques que seriam possíveis pelo uso crescente da IA serão particularmente efetivos, finamente dirigidos e difíceis de atribuir", advertem.

Para ilustrar seus temores, estes especialistas mencionam vários "cenários hipotéticos de usos mal-intencionado da IA".

Explicam por exemplo que terroristas poderiam alterar os sistemas de IA disponíveis nas lojas (drones ou veículos autônomos) para causar acidentes ou explosões.

Os autores imaginam também casos de robôs de limpeza traficados que se colariam a outros robôs, encarregados, por exemplo, da limpeza de um ministério. Um dia, o intruso poderia atacar após localizar visualmente o ministro. Se aproximaria dele e se explodiria, explicam.

Vídeos falsos

Por outro lado, Seán Ó hÉigeartaigh, um dos autores do estudo, explica, em entrevista à AFP, que "a cibercriminalidade, em forte alta, poderia se consolidar com ferramenta facilitadas pela IA".

Por exemplo, os ataques denominados de spear phishing (ataques dirigidos a uma organização ou empresa para roubar por exemplo informação confidencial) poderiam ser mais fáceis de realizar em uma escala maior.

Mas para ele, "o risco maior, embora seja menos provável, é o risco político". "Já vimos como algumas pessoas estão usando a tecnologia para tentar interferir nas eleições", afirma.

"Se a IA permite que estas ameaças se tornem mais fortes, mais difíceis de detectar e atribuir, isto poderia trazer problemas importantes de estabilidade política e talvez contribuir para desencadear guerras", avalia Seán Ó hÉigeartaigh.

Com a IA seria possível, por exemplo, fazer vídeos falsos, mas muito realistas que poderiam ser usados para desacreditar autoridades políticas, afirmam os especialistas.

Estados autoritários, acrescentou o relatório, poderiam também se apoiar em inteligência artificial para vigiar seus cidadãos.

Múltiplas advertências

Não é a primeira vez que especialistas lançam um sinal de alerta sobre a IA. Em 2014, o astrofísico Stephen Hawking advertiu sobre os riscos que a inteligência artificial poderia trazer para a humanidade se superasse a inteligência humana. O empresário Elon Musk e outros também multiplicaram as advertências.

Também foram publicados informes sobre o uso de drones assassinos ou sobre a forma como a IA poderia afetar a segurança de países como os Estados Unidos.

Este novo documento aporta "um panorama geral sobre a forma como a IA cria novas ameaças ou muda a natureza das ameaças existentes em campos como a segurança digital, física ou política", explica Seán Ó hÉigeartaigh.

A inteligência artificial, surgida nos anos 1950, se baseia em algoritmos sofisticados que permitem resolver problemas que os humanos resolvem usando suas capacidades cognitivas.

Nos últimos anos foram feitos progressos enormes nos campos relacionados com a percepção, o reconhecimento de voz e a análise de imagens.

"Por enquanto continua havendo uma brecha significativa entre os avanços da busca e da investigação e suas possíveis aplicações. É o momento de agir", disse à AFP Miles Brundage, encarregado de pesquisas do Future of Humanity Institute da Universidade de Oxford.

Tags

Os comentários não representam a opinião do jornal e são de responsabilidade do autor. As mensagens estão sujeitas a moderação prévia antes da publicação