Pplware

Cinco dados que nunca deve partilhar com o ChatGPT ou qualquer outro chatbot de IA

Apesar de verdadeiramente úteis, os chatbots alimentados por Inteligência Artificial (IA), como o ChatGPT ou o Gemini, são vulneráveis. Por isso, há um conjunto de dados pessoais que não deve, em momento algum, partilhar com eles, pela sua segurança.


O ChatGPT revolucionou a Internet e motivou o aparecimento de outras plataformas semelhantes. Por conseguirem gerar respostas semelhantes às humanas, dando informação sobre quase tudo o que o utilizador quiser, os chatbots são cada vez mais populares.

Contudo, o que lhes confere popularidade é, ao mesmo tempo, o que os torna vulneráveis, pois depender de grandes modelos linguísticos (em inglês, LLM) acarreta riscos de privacidade e segurança.

Primeiro, porque os chatbots de IA utilizam largas quantidades de dados para serem treinados, aproveitando inclusivamente as interações do utilizador. Empresas como a OpenAI permitem que os utilizadores optem por não participar na recolha de dados, mas garantir a privacidade total pode ser complexo.

Depois, os dados do utilizador armazenados são suscetíveis a tentativas de pirataria informática, com os cibercriminosos a poderem roubar e utilizar indevidamente a informação para fins maliciosos.

Em terceiro lugar, os dados das interações com o chatbot podem ser partilhados com fornecedores de serviços terceiros ou acedidos por pessoas autorizadas, aumentando o risco de violações.

Por estes motivos, importa garantir que não se expõe demasiado a estes chatbots e resguarda a informação que lhe é mais importante. Para assegurar a sua privacidade, dizemos-lhe as cinco categorias de dados que não pode partilhar com um chatbot alimentado por IA generativa, como o ChatGPT ou o Gemini.

 

#1 – Dados financeiros

Com o crescimento dos chatbots e a ideia de que respondem a qualquer coisa, muitos utilizadores recorreram-lhes para aconselhamento financeiro e gestão de finanças pessoais.

Embora possam melhorar a sua literacia financeira, assegure que limita as suas interações com chatbots de IA a informações gerais e perguntas gerais. Partilhar detalhes específicos da conta, históricos de transações ou palavras-passe pode deixá-lo vulnerável.

Um consultor financeiro licenciado é uma opção mais segura e fiável, caso necessite de aconselhamento personalizado.

 

#2 – Informações confidenciais do local de trabalho

Aquando de uma interação com um chatbot, o utilizador deve evitar, ao máximo, a partilha de informações confidenciais sobre o local de trabalho. Aliás, gigantes tecnológicas como Apple, Samsung e Google restringiram até os seus funcionários de utilizarem chatbots de IA no local de trabalho.

Tendo em conta os riscos associados à partilha de dados com chatbots, importa evitar fornecer informações sensíveis sobre a empresa para a qual trabalha, de modo a evitar fugas inadvertidas ou violações de dados.

 

#3 – Palavras-passe

A partilha de palavras-passe é desaconselhada, independentemente da plataforma que estiver a usar. Contudo, partilhar dados sensíveis com chatbots alimentados por IA pode ser verdadeiramente perigoso, pois estes armazenam dados em servidores que podem ser comprometidos.

Para proteger as suas credenciais, nunca as partilhe com chatbots, mesmo que para fins de resolução de problemas. Se precisar de repor ou gerir palavras-passe, utilize gestores de palavras-passe específicos ou os protocolos da empresa para a qual trabalha.

 

#4 – Dados de residência e outros dados pessoais

Mais uma vez, referimos uma categoria de dados que não deve ser partilhada em qualquer plataforma online, pela sensibilidade que lhe está associada.

Estes dados incluem informações sensíveis como a localização, número de segurança social, data de nascimento e informações de saúde, que podem ser utilizadas para identificar ou localizar um utilizador.

Por exemplo, mencionar casualmente a sua morada enquanto pergunta a um chatbot por serviços próximos pode inadvertidamente expô-lo a riscos.

 

#5 – Pensamentos íntimos

À semelhança do aconselhamento financeiro, há quem veja nos chatbots um psicólogo. Contudo, importa ressalvar que este tipo de plataforma alimentada por IA não conhece o mundo real e só dá respostas genéricas a questões relacionadas com a saúde mental.

Isto significa que os medicamentos ou tratamentos que sugere podem não ser adequados às necessidades específicas de cada utilizador e podem, mais do que isso, prejudicar a sua saúde.

Além disso, a partilha de pensamentos pessoais com chatbots de IA suscita preocupações em termos de privacidade, uma vez que os seus segredos e pensamentos íntimos podem ser divulgados online ou utilizados para treino da IA.

Indivíduos mal-intencionados podem explorar esta informação para espiar ou outros fins prejudiciais.

Se precisar de aconselhamento ou tratamento de saúde mental, consultar um profissional de saúde mental qualificado será sempre a opção mais segura.

Mantenha a sua segurança, bem como a privacidade dos seus dados, adotando boas práticas online

  • Familiarize-se com as políticas de privacidade dos chatbots para compreender os riscos associados.
  • Evite fazer perguntas que possam revelar inadvertidamente a sua identidade ou informações pessoais.
  • Tenha cuidado e evite partilhar as suas informações médicas com os chatbots de IA.

Proteger os seus dados pessoais aquando da utilização de qualquer chatbot de IA não é particularmente difícil. Contudo, importa estar atento.

Exit mobile version