postado em 30/05/2016 09:48
Desde que o programa AlphaGo ganhou, em março passado, quatro de cinco partidas disputadas contra Lee Sedol, campeão mundial de go ; um milenar jogo de tabuleiro chinês ;, entusiastas da área de inteligência artificial aguardam ansiosamente o próximo desafio do supercomputador criado pela empresa DeepMind, hoje parte do conglomerado da Google. O oponente deverá ser outra máquina, desenvolvida por cientistas da China, que manifestaram o desejo de testar seu algoritmo contra o dos americanos ainda este ano.
[SAIBAMAIS]É justo se perguntar, no entanto, por que alguns dos especialistas em computação mais brilhantes do mundo dedicam tanto tempo a criar e aprimorar uma máquina mestre em um jogo de tabuleiro. A resposta é simples: o domínio dessa arte é apontado como um passo fundamental para o desenvolvimento de programas que mudem significativamente a forma como as pessoas vivem, tornando realidade equipamentos como smartphones realmente inteligentes, carros autônomos e robôs cuidadores de idosos.
Para entender como uma coisa leva a outra, é preciso saber o que significa, em termos de programação, um computador hábil em go. Esse jogo sempre foi tido como um desafio para sistemas de inteligência artificial por permitir uma infinidade de combinações, estimadas em 10171. Assim, é impossível inserir no programa todas as possibilidades de jogadas, como foi feito com o xadrez, por exemplo. A única saída era criar um sistema capaz de aprender a jogar com o tempo e que se tornasse cada vez melhor à medida que praticasse. Ao alcançar tal feito, os cientistas deram à máquina um importante ingrediente da inteligência humana: a intuição.
Treinamento
O AlphaGo combina duas ferramentas: redes neurais artificiais, que generalizam os exemplos (reconhecem padrões armazenados); e um algoritmo que toma decisões baseadas nos exemplos (como resolver um problema de otimização ou avaliar um movimento em um jogo). Desse modo, enquanto uma parte decide o próximo lance, a outra busca prever as ações do oponente.
O treinamento dessa sofisticada rede foi realizado em três fases. Na primeira, o programa recebeu dados de inúmeras partidas disputadas por seres humanos. Foram 30 milhões de posições, o que possibilitou ao sistema prever corretamente os próximos movimentos 57% das vezes. Uma segunda etapa serviu como reforço de aprendizagem, quando o AlphaGo enfrentou o programa Pachi, que consegue avaliar mais de 100 mil possibilidades de cada movimento. O programa da Google DeepMind ganhou 85% das vezes ; índice muito mais alto que os 12% alcançados por versões testadas anteriormente. Por fim, o computador enfrentou a si mesmo, aprimorando-se mais e mais.
A matéria completa está disponível aqui, para assinantes. Para assinar, clique aqui.