PplWare Mobile

OpenAI alega que a DeepSeek utilizou os seus modelos para treino de IA

                                    
                                

Autor: Vítor M.


  1. maxapadajá says:

    olha os amaricanos a tentarem gamar dinheiro aos chineses com invenções. LOL

    Ainda que seja verdade é muito bem feito, por várias razões e mais algumas porque a IA não pode ser exclusiva de um país nem só para os ricos. Nesse aspeto só todo a favor dos chineses. Se não fossem eles andávamos todos a mando de Musks e outros pretorianos. Quer dizer mal ou bem já andamos mas ainda há Chinas e Prússias para se fazerem de vilões ainda maiores, mas que na verdade…

    • serafrango? says:

      deixa de dizer asneiras ok? ou seja tu crias um produto novo. gastas 100 milhoes a o desenvolver, vem o teu vizinho tira uma fotografia do teu produto e o copia e vende 10x mais barato que nao gastou nada para o desenvolver, e tu ficas feliz da vida porque toda a gente tem que ter direito ao teu produto não é? até os sem abrigos como tu tem direito a ele né, parolo com meio cerebro?

      • Nuno V says:

        Para já ainda estou à espera das provas, mas como é hábito neste tipo de “conclusões” que involven concorrentes, as provas nunca passam de alegações. No entanto, a ser verdade, acho extremamente irónico a OpenAI queixar-se de alguém quebrar os seus termos de serviço, quando este o fez ao usar a informação contidas em milhares de sites, que dizem explicitamente nos seus termos que os seus conteúdos não podem ser usados para finais lucrativos para treinar o seu modelo de IA altamente lucrativo.

        E a destilação em IA não é copiar um modelo, reproduzir um modelo ou sei lá o que vai na tua cabeça, é sim usar os resultados de um modelo existente para treinares o teu, algo que a própria OpenAI o faz.

    • Fusion says:

      Típico comentário de comunista de esquerda. Os outros perdem anos em R&D, testes, treinos, ordenados, servidores, infra.

      Depois de estar a roda inventada e coisa mais oleada, vem alguém e leva-te o conceito, a ideia, vai já com o caminho feito e usa as bases que tu levaste anos a criar.
      Depois pega nisso tudo e vende ao desbarato.

      Achas justo? Esquece a OpenAI e pensa abstratamente.

      Obvio que os chineses podem vender mais barato, não gastaram os mesmos recursos na investigação que os outros gastaram.
      Um produto que sai hoje esteve anos em desenvolvimento e estudo, e esse tempo tem que se pagar.

  2. Max says:

    Acho uma certa graça colocar questões a um chat IA sobre ele próprio.
    Num dos pontos da resposta à pergunta como foi treinado refere:
    “**Transferência de Conhecimento**: Embora o modelo não “use” diretamente os resultados de outros modelos, ele pode se beneficiar de técnicas e insights desenvolvidos a partir de pesquisas anteriores em modelos de linguagem.
    Altura para lhe perguntar se nesses modelos se incluía os da OpenAI. Extrato da resposta:
    “DeepSeek-V3 foi desenvolvido com base em técnicas e pesquisas amplamente disponíveis no campo de processamento de linguagem natural (NLP), que incluem contribuições de diversas organizações e pesquisadores, incluindo, mas não se limitando à OpenAI. No entanto, o treinamento do DeepSeek-V3 não envolve o uso direto dos resultados ou modelos específicos da OpenAI, como o GPT-3 ou GPT-4.
    Em resumo, enquanto o DeepSeek-V3 pode se beneficiar de insights e técnicas que foram exploradas por outros modelos, incluindo os da OpenAI, ele é treinado de forma independente com base em seus próprios conjuntos de dados e processos de treinamento.”
    Parece-me uma boa resposta. A OpenAI diz que a empresa DeepSeek “destilou” indevidamente o conhecimento transmitido pelos modelos da OpenAI para treinar o seu próprio modelo. A empresa DeepSeek (ou a sua AI por ela) assume que beneficiou (mas que não “usou de forma direta) e que foi treinada de forma independente. Não sei se haverá mais para dizer – exceto que a IA DeepSeek “sabe-a toda”.
    P.S. E sabe a receita de arroz de marisco, coisa que sabem todos os chat IA, mas quiz confirmar 🙂 Tenho alguma prática dos outros chat IA (e quase nada deste), mas é mais que proáavel que a opinião, unânime, de que está no top seja correta.

    • Max says:

      Perguntando ao ChatGPT o que é a destilação do conhecimento a resposta é muito interessante:
      “A destilação do conhecimento (knowledge distillation) é uma técnica utilizada no treino de modelos de inteligência artificial para transferir o conhecimento de um modelo maior e mais complexo (modelo professor) para um modelo menor e mais eficiente (modelo aluno). Como funciona:
      1. O modelo professor é treinado primeiro e tem um desempenho elevado, mas com um custo computacional elevado.
      2. Durante o processo de destilação, o modelo professor gera previsões com informações mais ricas do que apenas as classificações corretas, como as probabilidades associadas a cada possível classe.
      3. O modelo aluno é treinado para imitar essas previsões detalhadas, aprendendo tanto a resposta correta quanto a incerteza associada.
      Exemplo:
      No reconhecimento de imagens, um modelo professor pode indicar não apenas que uma imagem contém um gato, mas também que há 70% de probabilidade de ser um gato, 20% de ser um tigre e 10% de ser um cão. O modelo aluno aprende com essa informação detalhada, o que melhora a sua capacidade de generalização.
      Vantagens:
      • Redução do tamanho do modelo, mantendo um desempenho elevado.
      • Diminuição do consumo de memória e dos requisitos computacionais.
      • Melhor eficiência em dispositivos com recursos limitados, como smartphones.
      Aplicações:
      A destilação do conhecimento é amplamente usada em assistentes virtuais, aplicações móveis, modelos de linguagem natural (como ChatGPT) e na visão computacional.”
      Isto levanta duas questões, segundo os especialistas:
      – Se o DeepSeek foi treinado como “aluno” com o modelo da OpenAI como “professor”, ficava explicado como é que o seu treino foi tão barato. Mas, sem se saber ao certo como isso foi feito não é possível saber se é replicável, ou seja, se de facto é possível criar modelos avançados a baixo custo.
      – A DeepSeek teve acesso indevido ao modelo “professor” da OpenAI para treinar o seu modelo “aluno”, como esta alega?

  3. Rodrigo says:

    Os americanos a mudar a narrativa depois de verem os milhões e milhões que estão em causa e abanou a bolsa.

    Opensource
    Mais rápida
    Melhor scores nos benchmarks
    Mais eficiente energeticamente
    LLM gratuitas para instalar numa máquina e rodar offline

  4. carai says:

    Há evidencias, mas nada apresentam como prova.

  5. Factos says:

    A OpenAI perdeu o emprego para a IA mesmo antes de perdermos o nosso emprego para a IA.
    Entretanto a Europa visionária e pioneira anda focada noutras inovações tecnológicas como as tampas das garrafas de plástico que não dão para tirar.

  6. Nelson says:

    A ironia da OpenIA acusar outra empresa de não respeitar a propriedade intelectual. Quando treinou os modelos dela com material protegido por propriedade intelectual.

  7. Sérgio V. says:

    Sempre foi assim. Os chineses sempre copiaram. Nunca criaram nada. Agora nos últimos anos eles souberam foi copiar e aprefeissoar

  8. São Pedro says:

    Se os chineses copiaram o método, claro que não é o correto, mas a OpenAI também se apropriou de propriedade intelectual alheia. Acho que todos iremos beneficiar com esta fuga de informação até o nosso governo que pretende fazer uma IA portuguesa. Assim irá ficar mais barata.

  9. Rodrigo says:

    Achas que o dinheiro que o governo portugues vai gastar vai diminuir?
    Hehe parece que não conheces as cadeiras e tachos criadas pelos governantes para distribuir gamelas.

    A Microsoft já testou e adorou e colocou disponível no Azure AI foundry e vai mais longe as pessoas com PCs compatíveis com Copiloto + vão poder usar localmente o Deepseek já que o algoritmo é rápido e gasta poucos recursos, mais uma machada para a OpenAI.

Deixe um comentário

O seu endereço de email não será publicado.

You may use these HTML tags and attributes: <a href="" title="" rel=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

*

Aviso: Todo e qualquer texto publicado na internet através deste sistema não reflete, necessariamente, a opinião deste site ou do(s) seu(s) autor(es). Os comentários publicados através deste sistema são de exclusiva e integral responsabilidade e autoria dos leitores que dele fizerem uso. A administração deste site reserva-se, desde já, no direito de excluir comentários e textos que julgar ofensivos, difamatórios, caluniosos, preconceituosos ou de alguma forma prejudiciais a terceiros. Textos de caráter promocional ou inseridos no sistema sem a devida identificação do seu autor (nome completo e endereço válido de email) também poderão ser excluídos.