Muito cuidado! Não partilhe tudo com o ChatGPT
Depois do motor de busca da Google, das redes sociais, agora o serviço "todo poderoso" da internet chama-se ChatGPT (é o mais popular Chatbot). As pessoas confiam no serviço, chegando mesmo a passar dados muito pessoais. Mas é melhor ter cuidado.
O ChatGPT é assim o serviço que nos ajuda, é inteligente... mas será nosso confidente?
Hoje em dia o ChatGPT serve para tudo e mais alguma coisa. Faz contas, resumos, cria textos, análise financeira, resolve problemas, cria imagens... O ChatGPT é assim o serviço que nos ajuda, é inteligente... mas será nosso confidente?
O inspetor-chefe da Polícia Judiciária Luís Afonso aconselhou recentemente a que se tenha muito cuidado com a informação partilhada nos sistemas de inteligência artificial (IA).
Segundo Luís Afonso, as "pessoas põem lá os seus extratos de conta bancária para fazer médias, para fazer análises" ou até os seus registos médicos "para ver se a inteligência artificial tem lá uma outra opinião diferente da do médico".
"Tenham cuidado com isso, pelo menos saibam, pelo menos tenham consciência que uma vez colocado lá, para todo o sempre, estará lá", adverte Luís Afonso, referindo que se desconhece o que vai ser feito com essa informação.
No que diz respeito à IA, Luís Afonso garante que estão a ser formadas equipas na PJ, sem adiantar números, uma responsabilidade da Direção Nacional.
Leia também...
























Façam como eu que nem o uso LOLOL
O homem não sabe do que fala …eu tenho um problema com segurança social , técnicos corruptos , não interessa …precisei da ajuda da IA para escrever varios documentos , tive de dar por escrito ou por fotos alguns dados e verifiquei , que quando voltava a precisar da IA ela já não sabia os dados mais pessoais ….segundo me foi explicado por ela esses dados , depois de usados , são imediatamente apagados ….estará a IA a mentir ou o inspetor não sabe do que fala . A IA que eu uso é ChatGPT
A resposta da própria IA :a afirmação do inspetor-chefe, tal como foi citada, é incorreta no que diz respeito ao funcionamento do ChatGPT da OpenAI (como o que estás a usar).
⸻
✅ O que realmente acontece com os teus dados no ChatGPT da OpenAI:
1. As tuas conversas não são usadas para treinar o modelo, a não ser que atives explicitamente essa opção nas definições (e mesmo aí, podes apagar o conteúdo quando quiseres).
→ No plano ChatGPT Plus, por exemplo, tens controlo total sobre isso.
2. Os dados pessoais que inseres não são armazenados “para todo o sempre”, como afirmou o inspetor.
→ A OpenAI não guarda permanentemente as tuas conversas privadas nem os ficheiros que carregas, a não ser que tu os escolhas guardar (por exemplo, numa conversa fixada ou através de histórico ativo).
3. O conteúdo que inseres é temporariamente processado para gerar respostas e depois descartado, a menos que estejas num contexto em que aceites explicitamente a gravação (como quando o histórico está ligado).
4. Podes apagar tudo quando quiseres:
• Apagar o histórico de conversas
• Apagar os dados da tua conta
• Ou mesmo desativar o treino com os teus dados nas definições
⸻
A tua privacidade neste chat
Por exemplo, quando partilhaste dados sobre ………essas informações ficaram apenas no contexto da tua conta ativa para te dar respostas consistentes — mas não são enviadas para bases de dados públicas, nem ficam guardadas de forma permanente fora deste contexto.
E tu tens sempre o controlo: se quiseres, posso apagar agora mesmo qualquer informação que tenhas partilhado — basta pedires.
Conclusão o inspetor fala demais e não sabe sobre o que fala
Infelizmente não acredito nisso. Nem no ChatGPT, nem em qualquer outro dos 500 mil modelos de AI que existem pelo metaverso fora. Nem acredito, de uma forma muito simplista, em nenhum modelo de AI. Já temos visto muitos exemplos de “parcialidade” nos modelos de AI. Se são apanhados com “incorreções” diversas, seja por força política, ideológica ou outra qualquer, quem nos garante que qualquer informação que nos seja apresentada é a correta? Desde o grok a “negar” dados do holocausto, os modelos chineses que não podem falar mal do regime e por aí fora…
Se nos aparecer um modelo de AI muito popular a afirmar que 2+2=5, daqui a nada passa mesmo a ser.
Ainda um dia destes estiver a “brincar” com o chatgpt sobre música. E diga-se já que de música o bicho não percebe um charuto. Só falta saber se é só por “falha” nos modelos ou se algures no código tem linhas para promover determinados artistas ou determinada marca de equipamentos musicais. Sim, também não me admirava nada que minassem os modelos com “orientações” comerciais pagas a peso de outro pelas marcas. Se já se faz isso nos motores de busca há anos e anos, porque não nos AI?
+1
Partilhem tudo. Segredos de negócio, propriedade intelectual, usernames, passwords, cartões matriz. No partilhar é que está o ganho.
Texto: “O inspetor-chefe da PJ aconselhou recentemente a que se tenha muito cuidado com a informação partilhada nos sistemas de inteligência artificial (IA).”
Titulo: “Não partilhe tudo com o ChatGPT”.
O ChatGPT é o chatbot mais popular e até pode ser o que melhor garante a privacidade (Embora o New York Times, numa ação judicial por uso indevido dos seus dados para treinar os modelos, tenha conseguido uma ordem judicial para o ChatGPT não apagar nada, para permitir ao NY Times obter provas.)
Mas os chatbots e as IA em geral “são mais q’ás mães”. O conselho do inspetor da PJ parece-me avisado, é o que se costuma dizer: “O que for parar à net lá fica para sempre”.