CIêNCIA »

Mistura de sentidos

Diferentes estudos mostram que o processamento do tato, da visão e da audição no cérebro pode ocorrer de forma conjunta. Pesquisa da Universidade de Utah identifica como as imagens alteram a compreensão dos sons

INFORMAÇÕES PESSOAIS:

RECOMENDAR PARA:

- AMIGO + AMIGOS
Preencha todos os campos.

postado em 09/09/2013 08:00

Bruna Sensêve

 

 
"Nós mostramos que os sinais neurais que devem ser impulsionados pelo som estão sendo substituídos por estímulos visuais que dizem: "Ouvi isto!". Seu cérebro está, essencialmente, ignorando a física do som no ouvido e seguindo o que está acontecendo" de acordo com sua visão%u201D Bradley Greger, bioengenheiro


Por mais complexo que o cérebro já pareça ser, neurocientistas, a cada dia, descobrem novas facetas que revelam uma rede ainda mais complicada de conexões. A concepção mais tradicional do órgão que exerce o comando geral do organismo humano sugere que, nessa “empresa”, cada área seria responsável por uma tarefa específica. Assim, ao se pensar nos sentidos do corpo, estímulos táteis acionariam apenas regiões responsáveis por essa função e nada mais, assim como os motores e visuais ativariam somente seus respectivos setores mentais. Essa noção, contudo, é considerada cada vez mais superada, com base em diversos estudos que apontam uma grande interação entre essas diversas regiões.

Um dos exemplos mais recentes é uma pesquisa feita na Universidade de Utah, nos Estados Unidos, e publicada na edição mais recente da revista Plos One. O trabalho mostra que a visão exerce um papel muito mais importante do que se imaginava quando duas pessoas conversam. Em outras palavras, olhar ajuda a ouvir. O resultado lembra um artigo publicado no início do mês pelo neurocientista brasileiro Miguel Nicolelis, que mostrou a influência da visão na percepção tátil.

“Percepção não é um processo passivo. Não é só um tipo de cópia fidedigna do que os olhos, os ouvidos ou a pele captam. O que se vê, se ouve e se sente é influenciado, em parte, pelo que você espera ver, ouvir e sentir. Expectativas que vêm da memória, por exemplo, e também de outros sentidos”, afirma Peter Claessens, membro da Sociedade Brasileira de Neurociência e Comportamento (SBNec) e professor da Universidade Federal do ABC. Segundo ele, essa noção abre novas possibilidades no trabalho de reabilitação de pessoas com deficiência.

O início
O estudo da Universidade de Utah tem como base o chamado efeito McGurk, descoberto na década de 1970. O psicólogo cognitivo escocês Harry McGurk foi pioneiro em estudos sobre a relação entre audição e visão, concluindo que o cérebro considera tanto o som como a imagem durante o processamento da escuta. E mais: quando parece haver conflito entre o que se ouve e o que se vê, muitas vezes, as pessoas decidem que aquilo que enxergaram deve ser a informação correta.

Até agora, a origem desse efeito não estava bem determinada. Assim, os bioengenheiros americanos buscaram responder à questão analisando o córtex temporal, a região que normalmente processa o som. O primeiro autor do estudo, Elliot Smith, estudante de pós-graduação em bioengenharia e neurociência, trabalhou com as equipes do bioengenheiro Bradley Greger e do neurocirurgião Paul House, para registrar sinais elétricos das superfícies do cérebro de dois homens e duas mulheres adultos severamente epilépticos. Foram posicionados eletrodos nos hemisférios cerebrais dos voluntários, convidados a assistir e ouvir vídeos focados na boca de uma pessoa que pronunciava algumas sílabas.

Os pesquisadores produziram três tipos de filmagem. No primeiro, o movimento da boca correspondia ao som. Se o vídeo mostrava uma boca pronunciando “ba”, o áudio correspondia à mesma sílaba. Outro modelo, misturava som e imagem, como em um filme mal dublado. Enquanto a boca fazia o movimento necessário para se falar “ga”, o que se ouvia era a sílaba “ta”. Na terceira produção, o movimento labial correspondia a “ba”, mas o áudio era de “va”. A segunda peça não foi capaz de enganar os participantes. Eles notaram que som e imagem estavam descasados. No último vídeo, porém, eles podiam jurar que tinham escutado o som de ba, influenciados pela leitura labial.

Ao analisar o comportamento cerebral dos indivíduos durante os testes, os cientistas notaram que, quando a sílaba declamada e a ouvida eram iguais ou muito diferentes, a atividade cerebral relacionada ao som era predominante. No entanto, quando o gesto labial era parecido com o do som que estava sendo emitido, o padrão de atividade mudava e se mostrava mais parecido com a reação cerebral a estímulos visuais.

“Nós mostramos que os sinais neurais no cérebro que devem ser impulsionados pelo som estão sendo substituídos por estímulos visuais que dizem: ‘Ouvi isto!’”, considera Greger. “Seu cérebro está, essencialmente, ignorando a física do som no ouvido e seguindo o que está acontecendo de acordo com sua visão”, completa. “Pela primeira vez, fomos capazes de conectar o sinal auditivo no cérebro para que uma pessoa diga que ouviu algo, quando o que ela realmente ouviu era diferente. Descobrimos que a visão está influenciando a parte de audição do cérebro para alterar a sua percepção da realidade — e você não pode desligar a ilusão”, acrescenta Smith. Um dos possíveis usos da descoberta é imaginar uma classe de aparelhos auditivos artificiais e softwares de reconhecimento de fala que fossem munidos de uma câmera e não apenas de um microfone.

Toque ocular
Fenômeno parecido, porém relacionado à área tátil, foi comprovado pelo neurocientista Miguel Nicolelis este mês, em artigo publicado na revista especializada Pnas. O professor da Universidade Duke e fundador do Instituto Internacional de Neurociências de Natal Edmond e Lily Safra (IINN-ELS) usou a ilusão do membro de borracha (veja Para saber mais) para comprovar que é possível um estímulo visual ativar a área tátil do cérebro, responsável pelas sensações motoras.

Em entrevista ao Correio, Nicolelis relatou que, depois de um treinamento prévio, o cérebro dos macacos usados no estudo registraram a sensação de tato apenas ao olhar um braço tridimensional mostrado em uma tela ser tocado por uma bola. “Os livros em neurociência dizem que o córtex tátil só responde aos estímulos táteis, o córtex visual só aos estímulos visuais. Estamos dizendo que o córtex tátil responde aos estímulos visuais”, afirmou o neurocientista, na ocasião.

Para o professor Antonio Pereira, do Instituto do Cérebro da Universidade Federal do Rio Grande do Norte (UFRN), o que vem sendo demonstrado em laboratório indica que o sistema nervoso humano evoluiu para atender a demanda ambiental. O cérebro alterou-se para resolver algumas ambiguidades entre o que é visto e o que é ouvido, por exemplo.

“Isso foi uma questão de vida ou morte para os nossos ancestrais frente aos perigos da natureza. Eles precisavam fazer uma aposta rápida quando tinham informações ambíguas, tinham de optar pelo que parecia ser o mais confiável. Apesar de a manipulação experimental criar uma ilusão, as ilusões são importantes em neurociência para demonstrar alguns fenômenos”, avalia Pereira.

Segundo o neurocientista, a equipe de Utah comprova a prevalência da informação visual no momento de modelar a atividade em uma área que, a princípio, seria modulada por um estímulo auditivo. “É fácil imaginar o conflito: estou vendo uma pessoa falando e ouvindo outra coisa. Em que o cérebro vai apostar as fichas dele?” De acordo com Pereira, a aposta será na visão, porque ela tende a ser menos ambígua que a audição.

 
Palavra de especialista

Forma de
aprendizado


“Esse tipo de influência da visão na interpretação de sons, particularmente na linguagem, já é conhecido da ciência há pelo menos 10 anos, talvez um pouco mais. Isso parece estar relacionado com a forma como o sistema nervoso aprende, isto é, de forma essencialmente associativa. Por exemplo, ao longo do desenvolvimento do bebê, a exposição a sons da linguagem falada implica também a estimulação visual — os movimentos da boca de quem fala. Como essas informações são apresentadas conjuntamente, o sistema nervoso as arquiva na memória de maneira associativa. Isso implica que haverá neurônios que respondem à estimulação auditiva, outros à visual e outros a ambas. Isso vale para qualquer modalidade sensorial apresentada em conjunto ao longo do desenvolvimento da pessoa. Por exemplo, movimentos das mãos geram estimulações proprioceptivas que são associadas à estimulação visual da mão se movendo.”

Gilberto Xavier
, do Laboratório de
Neurociência e Comportamento, da Universidade de São Paulo

Tags: