Notícias

Instagram vai alertar pais sobre buscas por suicídio; associações dizem que medida é insuficiente

Especialistas em segurança digital afirmam que a Meta está "transferindo a responsabilidade" para as famílias com o novo recurso.

Pais que utilizam ferramentas de supervisão do Instagram passarão a receber notificações caso seus filhos adolescentes pesquisem repetidamente na plataforma termos relacionados a suicídio ou automutilação.

A medida marca a primeira vez em que a Meta decide alertar proativamente responsáveis sobre os hábitos de pesquisa dos jovens.

Até então, a empresa limitava-se a bloquear determinadas buscas na plataforma e direcionar usuários para serviços externos de apoio.

O novo recurso começará a ser implementado a partir da próxima semana para famílias que participam do programa de Contas para Adolescentes do Instagram no Reino Unido, Estados Unidos, Austrália e Canadá.

Segundo a empresa, a intenção é expandir a funcionalidade gradualmente para outros países.

A iniciativa, porém, foi duramente criticada pela organização britânica de prevenção ao suicídio Molly Rose Foundation, que alertou que as medidas "podem causar mais danos do que benefícios".

"Esse anúncio é cheio de riscos. Temos medo que divulgações forçadas possam causar mais danos do que benefícios", afirmou Andy Burrows, diretor-executivo da Molly Rose Foundation.

A entidade foi criada pela família de Molly Russell, adolescente que tirou a própria vida em 2017, aos 14 anos, após ter sido exposta a conteúdos sobre automutilação e suicídio em plataformas digitais, incluindo o Instagram.

Burrows acrescentou que "todo pai gostaria de saber se o filho está em lutando contra algo, mas essas notificações frágeis podem deixar os responsáveis em pânico e despreparados para as conversas sensíveis e difíceis que virão depois".

Getty Images

A Meta afirma que os alertas enviados aos pais quando adolescentes pesquisarem no Instagram conteúdos sobre suicídio e automutilação em um curto intervalo de tempo serão acompanhados de materiais produzidos por especialistas, com orientações sobre como lidar com a situação.

Mesmo assim, o pai de Molly, Ian Russell, que fundou a organização em homenagem à filha, continu cético quanto à eficácia da medida.

"Imagine ser pai de um adolescente e receber, no trabalho, uma mensagem dizendo que seu filho pode estar pensando em tirar a própria vida… não sei como reagiria", disse ele à BBC.

"Mesmo que a Meta diga que vai oferecer apoio para aquele pai, naquele momento de pânico que você recebe uma notícia assim sobre o próprio filho, não me parece uma forma muito sensata de lidar com a situação", acrescentou.

'Negligenciando o verdadeiro problema'

Diversas organizações, entre elas a Molly Rose Foundation, afirmam que o anúncio da Meta representa, na prática, um reconhecimento de que algo mais poderia ser feito para proteger crianças e adolescentes no Instagram.

Ged Flynn, diretor-executivo da organização Papyrus Prevention of Young Suicide, disse que, embora a entidade veja a iniciativa com bons olhos, a empresa estaria "negligenciando o verdadeiro problema, que é o fato de crianças e jovens continuarem sendo atraídos para um ambiente online sombrio e perigoso".

"Pais entram em contato conosco todos os dias para dizer o quanto estão preocupados com seus filhos na internet", afirmou ele à BBC.

"Eles não querem ser alertados depois que seus filhos já buscaram conteúdos prejudiciais; não querem que isso lhes seja oferecido de bandeja por algoritmos."

Já Leanda Barrington-Leach, diretora-executiva da organização de defesa dos direitos das crianças 5Rights, afirmou que, "se a Meta pretende levar a segurança infantil a sério, precisa repensar completamente seus sistemas e torná-los adequados à idade desde a concepção e por padrão".

Burrows também citou pesquisas anteriores feitas pela fundação que indicam que o Instagram ainda recomenda "ativamente" conteúdos prejudiciais sobre depressão, suicídio e automutilação para "jovens vulneráveis".

"O foco deveria estar em enfrentar esses riscos, e não em fazer mais um anúncio oportunista que transfere a responsabilidade para os pais", acrescentou.

A Meta contestou as conclusões do estudo publicado em setembro do ano passado, afirmando que ele "distorce nossos esforços para empoderar pais e proteger adolescentes".

Maior escrutínio

Os novos alertas foram criados para informar os pais quando houver uma mudança repentina no comportamento e nos hábitos de busca de seus filhos dentro da plataforma.

Em uma publicação oficial, a Meta afirmou que a medida complementa as proteções já existentes no Instagram para adolescentes, que incluem ocultar conteúdos relacionados a suicídio e automutilação, e bloquear pesquisas por assuntos considerados perigosos.

As notificações serão enviadas aos pais por e-mail, mensagem de texto, WhatsApp ou no próprio aplicativo do Instagram, dependendo das informações de contato que a Meta possuir das famílias.

Segundo a Meta, os novos alertas do Instagram, baseados em padrões de busca dos usuários, podem ocasionalmente alertar os pais sem que haja um motivo real para preocupação, pois "priorizarão a cautela"

O pesquisador Sameer Hinduja, codiretor do Cyberbullying Research Center, disse que receber esse tipo de alerta "obviamente" assusta qualquer responsável.

Mas ele disse à BBC que "o que importa não é apenas o alerta em si, mas a qualidade das informações e recursos que os pais vão receber para orientá-los sobre o que fazer em seguida."

"Você não pode simplesmente enviar uma notificação dessa para um dos pais e deixá-lo se virar sozinho, e parece que a Meta entende isso", acrescentou Hinduja.

O Instagram também disse que planeja, para os próximos meses, ter alertas semelhantes caso adolescentes discutam automutilação e suicídio com seu chatbot de IA, já que as crianças "recorrem cada vez mais à IA em busca de apoio".

As plataformas de redes sociais têm enfrentado uma pressão crescente de governos em todo o mundo para tornar suas plataformas mais seguras para crianças.

No início do ano, a Austrália proibiu redes sociais para menores de 16 anos, e Espanha, França e o Reino Unido estudam medidas semelhantes.

Enquanto isso, órgãos reguladores e legisladores estão analisando de perto as práticas comerciais das grandes empresas de tecnologia em relação aos jovens usuários.

Executivos da empresa, incluindo Mark Zuckerberg e Adam Mosseri, compareceram recentemente a tribunal nos Estados Unidos para responder a acusações de que a empresa teria direcionado seus produtos a usuários mais jovens.

Reportagem adicional de James Kelly.

Mais Lidas