TECNOLOGIA E SOCIEDADE

Máquinas já 'pensam' como humanos? O que teste criado há 75 anos revela sobre era da inteligência artificial

Cada vez se torna mais difícil distinguir entre inteligência artificial e humanos. Mas isso realmente significa que a IA já consegue pensar como uma pessoa?

Alan Turing criou um teste que mede o quão indistinguíveis as máquinas são dos humanos -  (crédito: Getty Images)
Alan Turing criou um teste que mede o quão indistinguíveis as máquinas são dos humanos - (crédito: Getty Images)

Podemos distinguir se estamos conversando com outro ser humano ou com uma inteligência artificial (IA)?

Fique por dentro das notícias que importam para você!

SIGA O CORREIO BRAZILIENSE NOGoogle Discover IconGoogle Discover SIGA O CB NOGoogle Discover IconGoogle Discover

Durante muito tempo, esta tem sido uma das perguntas feitas pelas pessoas ao avaliarem o quão inteligentes os computadores realmente são.

Ela se origina do Teste de Turing, elaborado pelo matemático e cientista da computação inglês Alan Turing em 1950 — transformando, pela primeira vez, o pensamento filosófico sobre a inteligência das máquinas em um teste empírico.

De acordo com o teste, se o comportamento de um computador fosse indistinguível do de um humano, então ele seria considerado como alguém que exibe um comportamento "inteligente".

Uma fotografia em preto e branco de Alan Turing, um jovem com cabelo escuro penteado para um lado. Ele olha para algo ligeiramente fora do enquadramento com uma expressão neutra.
Getty Images
Alan Turing criou um teste que mede o quão indistinguíveis as máquinas são dos humanos

Mas quando um chatbot de IA supostamente passou no teste pela primeira vez em 2014, em vez de ser um momento decisivo, isso alimentou uma controvérsia.

Um jogo de imitação

O Teste de Turing é um jogo de imitação onde uma pessoa conversa, via texto, tanto com outro ser humano quanto com um computador.

Elas podem fazer as perguntas que desejarem antes de terem que decidir qual é o humano e qual é a máquina.

"Turing afirmou que, se as pessoas não conseguissem distinguir de forma confiável entre humanos e máquinas, então não teríamos base para dizer que o humano podia pensar, mas a máquina não", diz Cameron Jones, professor assistente de psicologia na Universidade Stony Brook, em Nova York (EUA).

Turing previu que, até o ano 2000, os computadores seriam capazes de se passar por humanos após cinco minutos de questionamento, em pelo menos 30% das vezes.

Uma pessoa segura um telefone com um chatbot de IA na tela dizendo, em inglês:
Getty Images
O Teste de Turing avalia se um ser humano consegue distinguir entre uma máquina e outro ser humano após fazer perguntas por mensagem de texto

'Sem jogar de forma justa'

Em 2014, um chatbot de IA chamado Eugene Goostman convenceu 33% dos juízes de que era humano no Teste de Turing — ultrapassando o limite estabelecido pelos organizadores da competição.

Comunicando-se em inglês, ele adotou a personalidade de um menino ucraniano de 13 anos.

Markus Pantsar, filósofo e palestrante convidado na Universidade RWTH Aachen, na Alemanha, diz que isso significava que ele não estava "jogando o jogo de forma justa".

"As deficiências do chatbot meio que se ajustavam às deficiências no domínio da língua inglesa de um adolescente ucraniano", argumenta ele.

Uma mão segurando um telefone com o logotipo do ChatGPT na tela. Ao fundo, vê-se uma tela verde com o logotipo da OpenAI.
Getty Images
O ChatGPT 4.5 passou no Teste de Turing em 2025, segundo pesquisa de Jones

Desde então, ferramentas mais avançadas teriam passado no Teste de Turing.

Em um artigo publicado no início de 2025, Jones descobriu que o ChatGPT 4.5 da OpenAI foi julgado como humano em 73% das vezes — com mais frequência do que o seu homólogo humano. O Llama 3.1 da Meta foi julgado como humano em 56% das vezes.

"Acho difícil argumentar que os modelos não passaram no teste, dado que são julgados como humanos significativamente mais vezes do que as pessoas", diz ele.

Mas alguns permanecem céticos sobre se isso prova que os computadores realmente podem pensar.

O argumento do quarto chinês

Em 1980, o filósofo John Searle propôs um experimento mental chamado "o argumento do quarto chinês".

Ele funciona assim: um homem inglês que não entende chinês é trancado em um quarto com alguns caracteres chineses e instruções em inglês sobre como usá-los.

Pessoas fora do quarto passam bilhetes para ele com perguntas escritas em chinês, e ele usa as instruções para formular respostas, também em chinês.

Para quem está de fora, pareceria que o homem sabe falar chinês, mas ele não entende verdadeiramente o que está dizendo.

Alguns argumentam que o mesmo poderia ser dito sobre os computadores, que são meramente programados para dar respostas apropriadas.

Ilustração mostrando um homem e um robô lado a lado, diante de duas telas. O homem está pintando quadrados coloridos em sua tela, e o robô o observa e faz o mesmo, como se estivesse copiando-o.
Getty Images
Alguns argumentam que as máquinas podem passar no Teste de Turing simplesmente imitando humanos, e não por meio de inteligência real

"Embora o Teste de Turing afirme identificar inteligência, ele tenta principalmente identificar se uma máquina consegue imitar humanos bem o suficiente", diz George Mappouras, um engenheiro de software baseado na Califórnia, que criou sua própria alternativa ao Teste de Turing.

Ele dá um exemplo para ilustrar isso.

"Você pode abrir qualquer bot de IA e pedir primeiro que ele explique como funciona um relógio analógico, e ele explicará com precisão", diz ele.

Mas se você pedir para ele gerar a imagem de um relógio marcando uma hora específica, os modelos de IA atuais provavelmente falharão.

"Ele não entende realmente a informação", afirma.

Outros, como Pantsar, pensam que o Teste de Turing coloca ênfase demais na capacidade do computador de enganar o juiz.

"O comportamento inteligente real pode incluir enganar, mas, fundamentalmente, essa não é a parte principal", argumenta ele.

Testes alternativos

Pantsar criou o Teste de Inteligência Baseado em Comunidade (CBIT) — uma das muitas alternativas propostas ao longo dos anos.

Ao contrário do Teste de Turing, realizado em laboratório, no cenário dele um sistema de IA é colocado dentro de uma comunidade existente — por exemplo, uma comunidade online de matemáticos — sem o conhecimento deles.

Depois de algum tempo, os membros são testados para verificar se perceberam que se tratava de uma máquina ou não.

Ainda há algum nível de decepção, mas Pantsar acredita que a maior parte do teste envolveria o sistema "comportando-se de maneira humana", e não "personificando" humanos — o que ele afirma ser uma distinção importante.

"A inteligência deve ser avaliada em circunstâncias naturais — o tipo de ambiente em que realmente interagimos", argumenta o filósofo.

Ele diz que seu teste também incentiva os desenvolvedores a focarem em se um sistema de IA é útil ao criá-lo, em vez de se ele passaria ou não em um teste de enganação.

Mappouras, por outro lado, elaborou um teste que, segundo ele, analisa uma medida de inteligência mais concreta.

Ele acredita que a inteligência artificial geral — um conceito teórico onde uma máquina tem a mesma capacidade intelectual que um humano — seria alcançada se uma máquina pudesse "propor algum novo conhecimento científico e explicá-lo", desde que ela já conheça toda a informação necessária.

Um homem em pé sob luz vermelha, usando óculos e uma camisa, mexendo no celular em frente a um painel de vidro. Seu reflexo é mostrado do outro lado.
Getty Images
Outras alternativas ao Teste de Turing incluem o estudo da IA ??em ambientes online naturais

Apesar das críticas, alguns acreditam que o Teste de Turing ainda tem um lugar na pesquisa moderna de IA.

Jones diz que o fato de ele ser aberto e as perguntas não serem claramente definidas permite testar "algum tipo de inteligência dinâmica e flexível".

"Se substituirmos isso por apenas outro parâmetro estático, acho que estaremos interpretando mal o que Turing pretendia", afirma.

'Uma batalha perdida'

Independentemente do teste utilizado, Pantsar acredita que, à medida que os sistemas de IA continuam a se desenvolver, é provável que se tornem indistinguíveis das pessoas.

"No fim das contas, essa é uma batalha perdida que estamos travando", diz ele.

E ser capaz de provar isso, argumenta, justificaria a necessidade de marcos legais que obriguem a IA a se declarar como IA — por razões de responsabilidade.

"Se eu publicasse um artigo que contivesse alguns dados errôneos, eu seria o responsável por isso", diz Pantsar. "Mas se for um artigo escrito por IA, ninguém é responsável."

Um par de mãos digitando em um laptop.
Getty Images
Nossa interação com a IA está aumentando, à medida que a própria IA se torna mais sofisticada

Jones acredita que é importante medir quão bem uma máquina consegue imitar um humano, o que torna o Teste de Turing ainda relevante hoje.

"Passamos muito tempo interagindo com pessoas na internet", diz ele.

"E, cada vez mais, as pessoas estão começando a ter essa experiência de... entrar em uma discussão com uma conta no Twitter e perceber: 'Na verdade, não estou falando com um ser humano'."

"Uma das coisas que o Teste de Turing faz, eu acho, é acompanhar essa capacidade de ver qual a probabilidade de isso acontecer", acrescenta.

  • Google Discover Icon
BBC
Daisy Stephens - BBC World Service
postado em 09/01/2026 16:57 / atualizado em 09/01/2026 21:42
x