Tecnologia

Google não usará inteligência artificial para desenvolver armas

Em uma postagem em um blog, o diretor (CEO) da gigante da internet disse que, embora a Google não vá usar AI para armas, "continuaremos o nosso trabalho com governos e militares em muitas outras áreas"

Agência France-Presse
postado em 07/06/2018 17:56
Em uma postagem em um blog, o diretor (CEO) da gigante da internet disse que, embora a Google não vá usar AI para armas, San Francisco, Estados Unidos -A Google anunciou nesta quinta-feira (7) que não usará inteligência artificial para desenvolver armas e "causar ou facilitar diretamente lesões nas pessoas", ao revelar um conjunto de princípios para essas tecnologias.

Em uma postagem em um blog, o diretor (CEO) da gigante da internet, Sundar Pichai, descreveu as políticas de inteligência artificial (AI) da empresa, observando que, embora a Google não vá usar AI para armas, "continuaremos o nosso trabalho com governos e militares em muitas outras áreas", incluindo segurança cibernética, treinamento, e busca e salvamento.

O anúncio ocorre em um momento em que a Google sofre pressão de funcionários e outros por conta de um contrato com as forças armadas americanas, o qual a gigante de tecnologia, sediada na Califórnia, informou na semana passada que não seria renovado.

Pichai definiu sete princípios para a aplicação da inteligência artificial pela Google, ou a computação avançada que pode simular um comportamento humano inteligente.

Ele disse que a Google está usando a AI "para ajudar as pessoas a lidar com problemas urgentes", como previsão de incêndios florestais, ajuda aos agricultores, diagnóstico de doenças, ou prevenção da cegueira.

"Reconhecemos que essa tecnologia poderosa levanta questões igualmente poderosas sobre seu uso", destacou Pichai no blog.

"Como a inteligência artificial é desenvolvida e usada terá um impacto significativo na sociedade por muitos anos. Como líderes em AI, sentimos uma profunda responsabilidade de fazer isso corretamente", acrescentou.

O CEO disse que os programas de inteligência artificial da Google seriam projetados para aplicativos que fossem "socialmente benéficos" e "evitassem criar ou reforçar tendências injustas".

Afirmou que os princípios também exigem que os aplicativos de inteligência artificial sejam "construídos e testados para segurança", que sejam "responsáveis %u200B%u200Bpara as pessoas" e "incorporem princípios de design de privacidade".

A Google evitará o uso de qualquer tecnologia "que cause, ou possa causar, danos gerais", escreveu Pichai.

Isso significa evitar "armas ou outras tecnologias cuja finalidade ou implementação principal seja causar ou facilitar diretamente danos às pessoas" e sistemas "que coletem ou usem informações para vigilância que violem normas internacionalmente aceitas".

A medida é adotada em meio a preocupações crescentes de que sistemas automatizados ou robóticos possam ser mal utilizados e ficar fora de controle, levando ao caos.

Várias empresas de tecnologia já concordaram com os princípios gerais de usar a inteligência artificial para o bem, mas a Google parece oferecer um conjunto mais preciso de padrões.

A empresa, que já é membro da Parceria em Inteligência Artificial, que inclui companhias de tecnologia comprometidas com os princípios da AI, enfrentou críticas pelo contrato com o Pentágono no Projeto Maven, que usa conhecimentos de máquina e engenharia para distinguir pessoas e objetos em vídeos feitos por drones.

Diante de uma petição assinada por milhares de funcionários e por conta de críticas de fora da empresa, a Google indicou que o contrato de 10 milhões de dólares não seria renovado, de acordo com relatos da imprensa.

Tags

Os comentários não representam a opinião do jornal e são de responsabilidade do autor. As mensagens estão sujeitas a moderação prévia antes da publicação