Um estudo recente da Surfshark revelou que quase um terço dos aplicativos de chatbots de inteligência artificial mais populares compartilham dados de usuários com terceiros. Essa prática levanta preocupações significativas sobre a privacidade e segurança dos usuários. As informações coletadas são frequentemente utilizadas para publicidade direcionada e outras finalidades comerciais.
Em média, as plataformas de inteligência artificial generativa coletam 11 dos 35 tipos possíveis de dados, incluindo histórico de navegação, detalhes de contato e o conteúdo gerado durante as interações. Além disso, 40% dos aplicativos analisados armazenam dados de localização, revelando movimentos e padrões comportamentais dos usuários.
Quais dados os chatbots de IA coletam?
Os chatbots de IA coletam uma variedade de dados dos usuários. O estudo destacou que o Google Gemini é um dos mais intensivos na coleta de informações, armazenando 22 tipos de dados, incluindo a localização precisa. A plataforma Poe, que integra diversas ferramentas de IA, aparece em segundo lugar, coletando cerca de 14 categorias de dados, enquanto o Claude está em terceiro.
Os dados coletados podem incluir desde informações básicas de contato até detalhes mais sensíveis, como localização exata e histórico de interações. Essa coleta extensiva de dados aumenta os riscos de violações de privacidade, especialmente em casos de vazamentos de dados, como o ocorrido com o Deepseek em janeiro, que expôs mais de 1 milhão de registros.

Como proteger seus dados ao usar chatbots de IA?
Para proteger suas informações ao utilizar chatbots de IA, é essencial escolher aplicativos que valorizem a segurança e a transparência no uso dos dados. Optar por plataformas com uma forte reputação como ChatGpt, Gemini e entre outros pode aumentar a proteção das suas informações pessoais. Além disso, é aconselhável evitar compartilhar detalhes pessoais durante as interações, pois as conversas podem ser armazenadas.
Outra medida importante é ajustar as configurações de privacidade dos aplicativos, caso essa opção esteja disponível. Muitos serviços permitem limitar o compartilhamento de dados, desativar o histórico de interação e a exibição de anúncios personalizados. Revisar as políticas de privacidade dos desenvolvedores também é crucial, pois esses documentos detalham como os dados são coletados, armazenados e compartilhados.
Por que a revisão das políticas de privacidade é essencial?
Revisar as políticas de privacidade dos aplicativos de chatbots de IA é uma prática fundamental para garantir a segurança dos dados pessoais. Esses documentos fornecem informações detalhadas sobre como os dados dos usuários são coletados, utilizados e compartilhados. Ao entender essas práticas, os usuários podem tomar decisões informadas sobre o uso dos serviços.
Além disso, a revisão das políticas de privacidade pode ajudar a identificar possíveis riscos e a adotar medidas preventivas para proteger as informações pessoais. Manter-se informado sobre as práticas de coleta de dados dos aplicativos é uma etapa essencial para garantir a segurança e a privacidade no uso de chatbots de IA.










