Afinal é possível ter a IA mais barata que a DeepSeek? Bastaram 28 euros para o conseguir
A chegada da DeepSeek abalou o mercado da IA e como esta é criada. O preço apresentado fica muito abaixo do que a OepnAI anunciou e que usa como padrão para justificar os preços praticados. Uma equipa da UC Berkeley foi agora mais longe com o TinyZero e anunciou ter conseguido replicar a IA da DeepSeek por apenas 28 euros. Será que é mesmo assim barata?
Afinal é possível ter a IA mais barata?
Uma equipa de investigadores da UC Berkeley afirma ter replicado com sucesso uma versão de pequena escala do DeepSeek R1-Zero por apenas 28 euros (30 dólares), levantando questões sobre o verdadeiro custo do desenvolvimento de IA. A revelação alimenta os debates em curso sobre o preço e a avaliação da tecnologia de IA por parte das grandes empresas.
A OpenAI, por exemplo, cobra atualmente 15 dólares por milhão de tokens através da sua API, enquanto a DeepSeek oferece uma taxa significativamente mais baixa de 0,55 dólares por milhão de tokens. As conclusões da equipa de Berkeley sugerem que modelos de IA altamente capazes podem ser criados por uma fração do custo atualmente investido pelos líderes do setor.
Jiayi Pan, candidato a doutoramento que lidera o projeto, apresentou o TinyZero — um modelo de IA de código aberto disponível para experimentação e formação pública. Ainda nas suas fases iniciais, o TinyZero demonstrou a sua capacidade de jogar Contagem Decrescente e realizar tarefas de multiplicação, demonstrando adaptabilidade na resolução estratégica de problemas.
We reproduced DeepSeek R1-Zero in the CountDown game, and it just works
Through RL, the 3B base LM develops self-verification and search abilities all on its own
You can experience the Ahah moment yourself for < $30
Code: https://t.co/B2IsN1PrXVHere's what we learned 🧵 pic.twitter.com/43BVYMmS8X
— Jiayi Pan (@jiayi_pirate) January 24, 2025
Bastaram 28 euros para o conseguir
A investigação desafia uma suposição fundamental na IA: será que a inteligência artificial consome realmente tantos recursos como os gigantes tecnológicos afirmam, ou será que a indústria está a inflacionar os custos para manter o controlo sobre o seu desenvolvimento?
A DeepSeek, uma empresa chinesa de IA em ascensão, tem causado impacto no setor, provocando grandes mudanças no mercado tecnológico dos EUA. Esta descoberta da equipa de Berkeley pode desafiar ainda mais o status quo, potencialmente remodelando a economia do desenvolvimento da IA.
Se a chegada da DeepSeek já colocou em causa o que empresas como a OpenAI oferece, em especial no que toca a preços e recursos, esta novidade muda ainda mais. Afinal é possível ter a IA muito mais barata e assim massificar de forma mais simples esta tecnologia que será em breve essencial.
Convém distinguir um modelo “fundamental” (foundation model) de um referido no post “com capacidade de jogar CountDown e realizar tarefas de multiplicação”. Um modelo fundamental “serve de base para o desenvolvimento de outros modelos especializados por meio de ajustes (fine-tuning)”
Os preços dos modelos fundamentais (como o ChatGPT e o DeepSeek) comparam-se entre eles. Há uma diferença de escala com IAzinha que “reproduz o DeepSeek no jogo CountDown”. Aparentemente, dada a referência, a IAzinha do post foi desenvolvida como modelo especializado do DeepSeek – e ficou da graça, o que é relevante. Não tarda cada um cria a sua conforme a sua necessidade.
+1
Bom artigo Mestre Pedro, mas gostaria de ver alguns benchmarks do que esses 28 paus conseguem realmente fazer…. principalmente níveis de perplexity, accuracy, MMLU pro, GPQA….
Alguem perguntou ás pessoas se querem mesmo a IA em todos os aspectos da sua vida? temos que papar tudo o que as tecnologicas nos querem impingir? estranho futuro democractio este…
Perguntei à IA (ChatGPT): “A IA constitui um perigo para a democracia?”
R: “Sim, a IA pode constituir um perigo para a democracia se não for regulada e utilizada de forma ética e transparente (…)”
E enumerou os principais perigos: Desinformação e manipulação; Microtargeting político; Vigilância em massa; Discriminação algorítmica; e Automatização de decisões públicas. E enumerou as possíveis soluções: Regulamentação ética; Transparência; Educação cívica; e Supervisão independente.
Queria aproveitar a resposta da IA para uma segunda derivada – dificilmente alguém é capaz de pensar numa resposta tão boa como a da IA. E vai ser assim para tudo. O que vai levar a que, progressivamente, as pessoas abdiquem de pensar – para quê pensar se a IA pensa e escreve melhor? Por falar em democracia, na altura de votar, lá saberá dar o seu conselho sobre quem é o melhor candidato, por isso a democracia não corre perigo. As pessoas é que estão em perigo.
Regular para não nos transformarem em gado ou pior plantas!
Regular é do que o X gosta… regulações que originam mais burocracia que por sua vez origina mais entraves ao desenvolvimento e à criação de riqueza que por sua vez promovem o alastramento da corrupção que deixa uns poucos ricos e os restantes na pobreza.
Não regulem é os luxos capitalistas a que o X já se habituou e dos quais não prescinde!
O que o Max parece hoje ter convenientemente ignorado é que as ideias expressas nessa resposta que obteve do ChatGPT vieram originalmente de um humano que olha com desconfiança para a IA.
Ou já se esqueceu que a IA “aprende” com o que já existe?
O que eu vejo é que recorro cada vez mais à IA. Se se quiser, sou cada vez mais “IA dependente”. Em tempos, quando queria saber alguma coisa “googlava” e, em questões mais complexas, tinha que abrir uma sucessão de sites/páginas, muitas delas inúteis, e “mastigar” aquilo tudo para chegar a conclusões. Isso dava-me trabalho, mas confrontava-me com vários pontos de vista e via, em estágios temporais diferentes, como tinha evoluído o pensamento sobre a questão. Agora, para poupar tempo e poupar-me à chatice, basta-me pedir ao chat IA que elabore um texto, pode ser os “riscos da IA para a democracia” ou outra coisa qualquer.
Isto, a começar nos mais novos, vai ser um risco grande no desenvolvimento pessoal.
Para não alongar muito, pego na frase: “as ideias expressas nessa resposta do ChatGPT vieram originalmente de um humano”. Não de um, mas de muitos, além de a IA, por si mesma, as poder combinar e completar. Mas há uma questão que convém reter – na aprendizagem dos modelos IA há “transmissão de conhecimento” de um modelo para o seguinte. O que o anterior sabia o seguinte aprende sem esforço. Agora, basta comparar com os anos e esforço na transmissão de conhecimento entre os humanos (e os tristes resultados, como se vê em muitos comentários) e facilmente se percebe que o pensamento das IA, que está ainda no início, vai ser muito mais acelerado. O que conduz à forte possibilidade de os humanos passarem a pensar só o que a IA (e as redes sociais) lhes disser para pensar.
Exactamente; produtividade e mais tempo livre. O que recomendo é que se escolha os melhores modelos de IA segundo os benchmarks independentes, como MMLU Pro leaderboard, ou no opensource para correr em casa no hardware que se tenha ( boa IA ainda é muito exigente nos dias de hoje em termos de hardware) , o openLM leaderboard. Se fizerem download de versões Quantizadas de LLMs menores que 32B, nunca abaixo de Q4-KM.
Fico feliz por se ter relembrado.
Bastou aparecer uma empresa que faz melhor que os EUA para aparecer logo montes de vozes a dizer que é batota, que é vigarice e conspiração contra os EUA
Europa por favor acorda
E faz mesmo melhor ou é só propaganda? É que actualmente isto parece mais uma guerrinha do “eu sou melhor que tu” com muita publicidade e propaganda à mistura vinda de todos os lados com interesses no assunto.
Ora, há um motor de busca, chinês, que, em 2007, se declarou melhor que o Google, com preços 99,9995% inferiores e eficácia, superior, a 99,54%. Esse motor, hoje, é um casino online, em que é possível usar… o Google (e o Bing), como motor de busca. Se era tão mais barato e tão eficaz, como é que não evoluiu e se desenvolveu?
O Deepseek tem uma vertente que usa ficheiros temporários, criando um index torrent, em cada utilizador. E quando, alguém, que fez uma pergunta, vir que tem 200gb, a ocupar o telemóvel e que envia 800mb, por semana, de dados, que não sabe o que são? Apaga e lá se foram uns, milhares de milhões, de dados, que será preciso reconstruir. O ChatGPT e a OpenAI, reduziram essa parte, apesar de, também, a usarem.