OpenAI alega que a DeepSeek utilizou os seus modelos para treino de IA
Chineses terão "copiado" o método dos americanos? Bom, segundo as alegações da empresa OpenAI, o DeepSeek foi treinado com modelos da empresa de Sam Altman.
IA: A guerra entrou num novo nível
A OpenAI afirma ter descoberto provas de que a empresa chinesa DeepSeek, que está a iniciar a sua atividade no domínio da IA, utilizou os seus modelos proprietários para treinar um modelo de código aberto concorrente, violando potencialmente os termos de serviço da empresa.
A descoberta centra-se numa técnica chamada "distillation" (destilação), em que os programadores utilizam os resultados de modelos de IA maiores para treinar modelos mais pequenos.
A prática é comum no desenvolvimento de IA, mas a OpenAI afirma que a DeepSeek ultrapassou os limites ao usá-la para construir um modelo rival.
O problema é quando se retira da plataforma e se faz isso para criar o seu próprio modelo para os seus próprios fins.
Disse uma fonte próxima da OpenAI ao Financial Times.
O modelo de raciocínio R1 da DeepSeek atraiu a atenção generalizada da indústria tecnológica por conseguir resultados comparáveis aos dos principais modelos norte-americanos a um custo extraordinariamente baixo.
A empresa afirma que gastou apenas 5,6 milhões de dólares no desenvolvimento, o que é uma fração do que empresas como a OpenAI e a Google normalmente investem. Esta semana, a aplicação alcançou o primeiro lugar na lista de aplicações gratuitas da App Store da Apple em vários países, incluindo os EUA.
Chineses da DeepSeek usaram sem autorização os modelos da OpenAI?
Questionado sobre as alegações da OpenAI numa entrevista à Fox News, o czar da IA da Casa Branca, David Sacks, não mediu as palavras.
Há evidências substanciais de que o que a DeepSeek fez aqui foi destilar conhecimento dos modelos da OpenAI, e não acho que a OpenAI esteja muito feliz com isso.
A polémica já teve implicações no mercado. A Nvidia viu suas ações caírem 17% na segunda-feira, eliminando um recorde de um dia de US $ 589 bilhões em seu valor de mercado, já que os investidores questionaram se os caros investimentos em hardware de IA podem ser desnecessários se as empresas puderem obter resultados semelhantes com menos recursos.
De acordo com a Bloomberg, a OpenAI e a Microsoft investigaram e bloquearam contas em agosto por suspeita de violação dos termos de serviço, e agora acreditam que essas contas estavam associadas ao DeepSeek. Ambas as empresas se recusaram a fornecer detalhes específicos sobre as suas provas.
olha os amaricanos a tentarem gamar dinheiro aos chineses com invenções. LOL
Ainda que seja verdade é muito bem feito, por várias razões e mais algumas porque a IA não pode ser exclusiva de um país nem só para os ricos. Nesse aspeto só todo a favor dos chineses. Se não fossem eles andávamos todos a mando de Musks e outros pretorianos. Quer dizer mal ou bem já andamos mas ainda há Chinas e Prússias para se fazerem de vilões ainda maiores, mas que na verdade…
deixa de dizer asneiras ok? ou seja tu crias um produto novo. gastas 100 milhoes a o desenvolver, vem o teu vizinho tira uma fotografia do teu produto e o copia e vende 10x mais barato que nao gastou nada para o desenvolver, e tu ficas feliz da vida porque toda a gente tem que ter direito ao teu produto não é? até os sem abrigos como tu tem direito a ele né, parolo com meio cerebro?
+1
Para já ainda estou à espera das provas, mas como é hábito neste tipo de “conclusões” que involven concorrentes, as provas nunca passam de alegações. No entanto, a ser verdade, acho extremamente irónico a OpenAI queixar-se de alguém quebrar os seus termos de serviço, quando este o fez ao usar a informação contidas em milhares de sites, que dizem explicitamente nos seus termos que os seus conteúdos não podem ser usados para finais lucrativos para treinar o seu modelo de IA altamente lucrativo.
E a destilação em IA não é copiar um modelo, reproduzir um modelo ou sei lá o que vai na tua cabeça, é sim usar os resultados de um modelo existente para treinares o teu, algo que a própria OpenAI o faz.
Típico comentário de comunista de esquerda. Os outros perdem anos em R&D, testes, treinos, ordenados, servidores, infra.
Depois de estar a roda inventada e coisa mais oleada, vem alguém e leva-te o conceito, a ideia, vai já com o caminho feito e usa as bases que tu levaste anos a criar.
Depois pega nisso tudo e vende ao desbarato.
Achas justo? Esquece a OpenAI e pensa abstratamente.
Obvio que os chineses podem vender mais barato, não gastaram os mesmos recursos na investigação que os outros gastaram.
Um produto que sai hoje esteve anos em desenvolvimento e estudo, e esse tempo tem que se pagar.
Acho uma certa graça colocar questões a um chat IA sobre ele próprio.
Num dos pontos da resposta à pergunta como foi treinado refere:
“**Transferência de Conhecimento**: Embora o modelo não “use” diretamente os resultados de outros modelos, ele pode se beneficiar de técnicas e insights desenvolvidos a partir de pesquisas anteriores em modelos de linguagem.
Altura para lhe perguntar se nesses modelos se incluía os da OpenAI. Extrato da resposta:
“DeepSeek-V3 foi desenvolvido com base em técnicas e pesquisas amplamente disponíveis no campo de processamento de linguagem natural (NLP), que incluem contribuições de diversas organizações e pesquisadores, incluindo, mas não se limitando à OpenAI. No entanto, o treinamento do DeepSeek-V3 não envolve o uso direto dos resultados ou modelos específicos da OpenAI, como o GPT-3 ou GPT-4.
Em resumo, enquanto o DeepSeek-V3 pode se beneficiar de insights e técnicas que foram exploradas por outros modelos, incluindo os da OpenAI, ele é treinado de forma independente com base em seus próprios conjuntos de dados e processos de treinamento.”
Parece-me uma boa resposta. A OpenAI diz que a empresa DeepSeek “destilou” indevidamente o conhecimento transmitido pelos modelos da OpenAI para treinar o seu próprio modelo. A empresa DeepSeek (ou a sua AI por ela) assume que beneficiou (mas que não “usou de forma direta) e que foi treinada de forma independente. Não sei se haverá mais para dizer – exceto que a IA DeepSeek “sabe-a toda”.
P.S. E sabe a receita de arroz de marisco, coisa que sabem todos os chat IA, mas quiz confirmar 🙂 Tenho alguma prática dos outros chat IA (e quase nada deste), mas é mais que proáavel que a opinião, unânime, de que está no top seja correta.
Perguntando ao ChatGPT o que é a destilação do conhecimento a resposta é muito interessante:
“A destilação do conhecimento (knowledge distillation) é uma técnica utilizada no treino de modelos de inteligência artificial para transferir o conhecimento de um modelo maior e mais complexo (modelo professor) para um modelo menor e mais eficiente (modelo aluno). Como funciona:
1. O modelo professor é treinado primeiro e tem um desempenho elevado, mas com um custo computacional elevado.
2. Durante o processo de destilação, o modelo professor gera previsões com informações mais ricas do que apenas as classificações corretas, como as probabilidades associadas a cada possível classe.
3. O modelo aluno é treinado para imitar essas previsões detalhadas, aprendendo tanto a resposta correta quanto a incerteza associada.
Exemplo:
No reconhecimento de imagens, um modelo professor pode indicar não apenas que uma imagem contém um gato, mas também que há 70% de probabilidade de ser um gato, 20% de ser um tigre e 10% de ser um cão. O modelo aluno aprende com essa informação detalhada, o que melhora a sua capacidade de generalização.
Vantagens:
• Redução do tamanho do modelo, mantendo um desempenho elevado.
• Diminuição do consumo de memória e dos requisitos computacionais.
• Melhor eficiência em dispositivos com recursos limitados, como smartphones.
Aplicações:
A destilação do conhecimento é amplamente usada em assistentes virtuais, aplicações móveis, modelos de linguagem natural (como ChatGPT) e na visão computacional.”
Isto levanta duas questões, segundo os especialistas:
– Se o DeepSeek foi treinado como “aluno” com o modelo da OpenAI como “professor”, ficava explicado como é que o seu treino foi tão barato. Mas, sem se saber ao certo como isso foi feito não é possível saber se é replicável, ou seja, se de facto é possível criar modelos avançados a baixo custo.
– A DeepSeek teve acesso indevido ao modelo “professor” da OpenAI para treinar o seu modelo “aluno”, como esta alega?
Os americanos a mudar a narrativa depois de verem os milhões e milhões que estão em causa e abanou a bolsa.
Opensource
Mais rápida
Melhor scores nos benchmarks
Mais eficiente energeticamente
LLM gratuitas para instalar numa máquina e rodar offline
…
Há evidencias, mas nada apresentam como prova.
A OpenAI perdeu o emprego para a IA mesmo antes de perdermos o nosso emprego para a IA.
Entretanto a Europa visionária e pioneira anda focada noutras inovações tecnológicas como as tampas das garrafas de plástico que não dão para tirar.
Hehehe verdade e não esquecer das portas USB.
Está perdida a UE e sem rumo.
Os outros continentes estão a “lutar” por conquistar o seu lugar no mundo da IA.
A EU está a lutar pela troca de browser por defeito nos dispositivos.
Cada um com as suas lutas 😀
A ironia da OpenIA acusar outra empresa de não respeitar a propriedade intelectual. Quando treinou os modelos dela com material protegido por propriedade intelectual.
+1
Certo! Neste caso, o Deepseek apenas usou a ferramenta disponível (API) pela própria OpenIA!
Sempre foi assim. Os chineses sempre copiaram. Nunca criaram nada. Agora nos últimos anos eles souberam foi copiar e aprefeissoar
Acho que deves por começar “aprefeissoar” outras matérias, como por exemplo a língua portuguesa, antes de fazeres análises ignorantes!
Comentário a roçar a prefeissão.
And we think you’re gonna love it!
– Apple
Se os chineses copiaram o método, claro que não é o correto, mas a OpenAI também se apropriou de propriedade intelectual alheia. Acho que todos iremos beneficiar com esta fuga de informação até o nosso governo que pretende fazer uma IA portuguesa. Assim irá ficar mais barata.
Achas que o dinheiro que o governo portugues vai gastar vai diminuir?
Hehe parece que não conheces as cadeiras e tachos criadas pelos governantes para distribuir gamelas.
A Microsoft já testou e adorou e colocou disponível no Azure AI foundry e vai mais longe as pessoas com PCs compatíveis com Copiloto + vão poder usar localmente o Deepseek já que o algoritmo é rápido e gasta poucos recursos, mais uma machada para a OpenAI.