Falha grave de segurança no DeepSeek deixa dados de milhões em risco
O DeepSeek é o tema do momento em toda a Internet. Esta é mais uma IA que vem dar novas potencialidades aos utilizadores, mas tem particularidades únicas. Como foi criada, esta proposta deixa a concorrência longe e a questionar-se como foi possível ser criada. Agora, e no meio de outros problemas, surge uma falha grave de segurança no DeepSeek que deixa dados de milhões em risco.
Falha grave de segurança no DeepSeek
A IA vinda da China continua a ser o centro das atenções, com o DeepSeek a ser agora o principal concorrente do Gemini, ChatGPT e Copilot. No entanto, o lançamento do DeepSeek está rodeado de controvérsias relacionadas com o uso de informação para treino. É pretendido garantir a segurança dos utilizadores, mas uma falha grave de segurança no DeepSeek acaba de vir a público.
Este problema pode colocar em risco os dados de milhões de utilizadores que decidiram registar-se no DeepSeek e usaram o chatbot com IA nos últimos dias. A informação sobre esta vulnerabilidade provém de uma análise realizada por investigadores da Wiz Research e é uma descoberta que pode colocar em risco toda a credibilidade do lançamento do DeepSeek. A pesquisa descobriu que uma das bases de dados da IA está completamente exposta.
BREAKING: Internal #DeepSeek database publicly exposed 🚨
Wiz Research has discovered "DeepLeak" - a publicly accessible ClickHouse database belonging to DeepSeek, exposing highly sensitive information, including secret keys, plain-text chat messages, backend details, and logs. pic.twitter.com/C7HZTKNO3p
— Wiz (@wiz_io) January 29, 2025
O principal problema que o DeepSeek enfrenta é a falta de confiança dos utilizadores, dos governos e das empresas. Ser um chatbot de IA vindo da China colocou em causa tanto as suas capacidades como o facto de ter sido desenvolvido com um orçamento de apenas 6 milhões de dólares. A descoberta de uma falha de segurança lança ainda mais dúvidas sobre a viabilidade e fiabilidade deste chatbot.
Dados de milhões de utilizadores em risco
O que a Wiz Research descobriu na sua investigação é que a base de dados exposta contém informações privilegiadas, como mais de um milhão de registos. Estão incluídos dados de utilizadores, registos do sistema, chaves de API e até mesmo envios de pedidos. Além disso, a situação é ainda pior porque encontrar esta base de dados não é fácil.
Esta situação coloca o DeepSeek em problemas. A base de dados exposta representa um perigo para os utilizadores e, segundo o discutido na investigação, não foi possível encontrar completamente a porta de acesso a essa base de dados. As possibilidades geradas por este problema são alargadas, sendo os utilizadores as potenciais vítimas deste problema de segurança.
Os investigadores que descobriram o problema de segurança não explicaram como o encontraram. Querem evitar que outros sigam os seus passos e usem a vulnerabilidade de forma ilícita. Ainda é muito cedo para saber como o DeepSeek irá agir. Estas vulnerabilidades são comuns, mas quando se trata de IA, a situação agrava-se, especialmente porque o DeepSeek não tomou as medidas para proteger os utilizadores.
Eu estou registado lá como no ChatGPT. As perguntas que faço em ambos de pessoal não têm nada. Se eu sempre resisti a ter redes sociais por questões de privacidade não iria agora colocar informações pessoais minhas numa IA.
Com as empresas americanas (Meta, Google, Apple, Microsoft, Oracle, etc) as pessoas expõem tudo e mais alguma coisa. E não fazem disso notícia e muito menos fazem ideia por onde andam os seus dados. Quando se trata da China aqui d’el rei. Ao menos sejam coerentes. Será que ainda não perceberam que a China não é o Japão e que vai comer de cebolada os EUA?
O problema aqui é que as Big Tech com a IA e a inúmera informação que as pessoas expõem diariamente serão os próximos ditadores do futuro.
Serão?
O meu deepseek é local e não fala com ninguém só comigo e os meus documentos 😀 . O que eu gostei mais foi que antes de criar a resposta, ele exibe os seus “pensamentos” o que ajuda muito no finetuning. Estou a gostar e provavelmente vai substituir o meu llama 3 nos afazeres.
O mundo inteiro sempre adorou uma boa loja do “chines”. Grandes, baratas… mas cheias de quinquilharias de fraca qualidade… nos gozamos com eles riem-se… e no final enchem o bolso.
Depois de alertada a DeepSeek sobre a vulnerabilidade no acesso à base de dados a DeepSeek corrigiu-a.
Mas há outras questões. Com a proliferação de IA, foram sendo criadas empresas que são contratadas para verificar até que ponto são seguras. A HiddenLayer é uma delas e acaba de publicar a sua avaliação dos riscos do DeepSeek. Tendo em atenção que o seu negócio é encontrar riscos e vender soluções para os detetar (ou seja, quanto mais encontrassem melhor) é muito interessante. Concluíram que: “A nossa pesquisa preliminar sobre o DeepSeek-R1 descobriu várias questões de segurança, desde censura de ponto de vista e restrições de alinhamento” [com o PCC, como Tiananmen, coisa que já se sabia] “até suscetibilidade a simples jailbreaks e geração de desinformação” [aqui já é mais complicado porque foi verificada suscetibilidade em casos que outros modelos já resolveram]. “Atualmente, não recomendamos o uso desse modelo de linguagem em qualquer ambiente de produção, mesmo quando hospedado localmente, até que os profissionais de segurança tenham tido a chance de sondá-lo mais extensivamente. Nós encorajamos fortemente o estudo e a replicação deste modelo para fins de pesquisa em ambientes controlados.”
Discute também as vantagens e desvantagens dos modelos open-weight (em que os pesos/parâmetros são disponibilizados publicamente, o que não é exatamente o mesmo que open-source) vs. closet-weight. Parece-me que com tanto modelo open-weight (e open-source), como os que vão ser criados com base no DeepSeek, isso de a mítica “comunidade open-source” examinar a segurança de todos é uma miragem.
https://hiddenlayer.com/innovation-hub/deepsht-exposing-the-security-risks-of-deepseek-r1/