PplWare Mobile

DeepSeek: a alternativa chinesa ao ChatGPT que colocou a indústria da IA ​​em causa

                                    
                                

Autor: Pedro Simões


  1. Eu says:

    Tanto alarido com a IA.
    Chegaram os chineses e rebentaram com os americanos, com um Pentium II
    Agora já sabemos o que acontecerá, aplicar taxinhas à China.

    • says:

      Como tudo o que vem da China, devemos olhar com pensamento crítico e não acreditar em tudo o que eles dizem.

      • Eu says:

        Mas então a Nvidia desvalorizou sem se ter analisado com pensamento crítico a ferramenta chinesa??
        Eu acho que foi analisado e chegaram à conclusão que não são necessários tantos recursos como apregoa a nvidia. O ponto é mesmo este.

        • says:

          A NVIDIA não analisou nada. Desvalorizou em bolsa meramente por questões de mercado (motivadas pelo anúncio da deepseek). Vamos a ver com o tempo se o que a deepseek diz é verdade ou não. Obviamente a nvidia estava sobrevalorizada, como está tudo o que remotamente parece AI. Deve ser a nova corrida ao ouro mas no fim de contas só ganham os que vendem os trenós e as picaretas.

          • Técnico Meo says:

            Isto ! +1

          • Eu says:

            A análise dos investidores, caro.
            É preciso uma perspectiva muito elaborada, para me responder a achar que eu pensava que teria sido a nvidia a analisar alguma coisa e ter determinado a sua própria desvalorização em bolsa.
            Quanto ao resto, sim vamos a ver.

  2. says:

    Eu ainda não percebi o que é que a IA traz afinal. Tirando enormes “bolhas” financeiras, ainda não vi nada de nada.

    • LOL says:

      Tens de sair da tua bolha

    • Alexis says:

      Oh zezinho não deves ser muito inteligente mas falo por mim, os modelos de IA tem me ajudado imenso na empresa onde trabalho em criar patentes novas de antenas e modulares. Se nao entende para que serve a IA é porque não trabalha ou é muito limitado. A minha mulher criou uma empresa com o chargpt e tem sido tso bem sucedida que aumentou o volume de vendas em 250% em apenas 15 meses

      • says:

        “A minha mulher criou uma empresa com o chargpt e tem sido tso bem sucedida que aumentou o volume de vendas em 250% em apenas 15 meses”

        De 0 aumentou 250%? É obra. O “chargpt” não te fez a continha melhor?

    • Amilcar says:

      quem trabalha nas obras, não necessita de AI

    • ETS says:

      Uma coisa que vai trazer, no mundo dos contos de fadas, no qual o estado Português não é incompetente nem vive de tachos, é a as chamadas do SNS, 112, etc serem atendidas pela AI, de forma rápida e eficaz. Não sei se foi aqui que vi uma notícia sobre alguém que foi atendido por um bot e nem deu pela diferença. Espero que o futuro seja melhor neste capítulo, pelo menos os privados já devem estar todos a apostar forte nisto (MEO, NOS, Vodafone à cabeça), para os serviços do estado já devem demorar bem mais (e os serviços da Saúde24 bem precisam). Tenho pena pelos muitos trabalhadores mas prevejo um futuro negro para eles. Isto é só um exemplo das muitas revoluções que a AI vai trazer

  3. Person says:

    “Where We Store Your Information

    The personal information we collect from you may be stored on a server located outside of the country where you live. We store the information we collect in secure servers located in the People’s Republic of China .”

    Quando surgiu o ChatGPT toda a gente questionou tudo, desde segurança e privacidade, armazenamento, perigos para a sociedade, etc etc.
    No entanto, surge agora uma engenhoca chinesa que promete tudo a todos, e apenas por ser barato e chinês, toda a gente aceita sem que se questione nada.
    Quando se começar a explorar bem, ainda se vai encontrar muita coisa.

    • José says:

      Sim, esconda-se.
      Os chineses andam aí a papar tudo.
      Tenha medo, tenha muito medo.

    • Max says:

      Isso é para o uso da app no telemóvel, que é sempre consulta de IA. Mas o ChatGPT avançado custa US$ 20/mês e o da DeepSeek é gratuito (mas perguntando por Tiannamen ou os Uigures dá as respostas do governo chinês).
      Para empresas é diferente – como é open source pode-se fazer o download do modelo para os servidores próprios, protegendo os dados confidenciais. A OpenAI, na consulta de IA, pelo processamento feito nos seus próprios servidores cobra US$ 15 por 1 milhão de “tokens” de entrada. A DeepSeek também tem esta modalidade mas cobra US$ 0,14 (menos de 1 décimo).
      Sim, ainda a procissão vai no adro, mas o que se sabe é que o modelo R1 da DeepSeek é muito mais barato que os mais avançados da OpenAI (e bastante mais barato que outros mdelos open source)

    • RPG says:

      Há pessoal tão ignorante, e depois fala sem saber, e dá nisto… Tens noção que é open source, ou não? Sendo que qualquer pessoa pode analisar o código fonte de uma ponta à outra, correr o LLM no seu próprio hardware, e até mesmo sem qualquer ligação à internet LOL.. Já as soluções da OpenAI por exemplo, ninguém do comum mortal faz ideia do que está por detrás daquilo, com quem partilham a informação, etc etc.. É normal que se questione, quando não se sabe, ou não? O proósito das pessoas se questionarem é exatamente esse. Já quando se trata de algo aberto ao público, em que qualquer um pode obter as suas próprias respostas, questionar já se torna meio inútil 😀

      • Person says:

        “Australia’s science minister, Ed Husic, has become the first member of a Western government to raise privacy concerns about DeepSeek”

        Mas quem é este ministro para levantar este tipo de questões? Tem de ser alguém muito ignorante, como dizes. 🙂
        Não sei como não se lembraram de vir aqui à secção de comentários do pplware contratar o RPG que tem um ego do tamanho do mundo.

        As empresas que vão utilizar em modo offline e controlar devidamente são apenas uma ínfima fração do público global que vai utilizar. Não perceber isso é que é a verdadeira ignorância.

        • Mr. Y says:

          Ou seja, é a mesma preocupação que se tem com os dados enviados para a OpenAI.
          Várias empresas já vieram a público a anunciar políticas para evitar envio de dados sensíveis para o seu negócio.

        • RPG says:

          Tua afirmação “apenas por ser barato e chinês, toda a gente aceita sem que se questione nada.”

          É barato de facto, é open-source, e necessita de uma pequena fatia dos recursos que a OpenAI exige, sendo assim mais ecológico, eficiente, e fácil de desenhar a infraestrutura para o suportar.

          Aceitar sem questionar? Como disse, qualquer um pode analisar de uma ponta à outra o código fonte, e das milhares de pessoas que o fizeram entendidas, ninguém levantou esse tipo de questões, mas o xo ministro da Austrália é que sabe LOOL (nada suspeito diga-se) …

          Agora claro, já existem empresas (algumas ocidentais diga-se), que estão a pegar neste LLM e a facultar o acesso free em web, para que o público geral utilize como dizes, e sim, estas empresas é preciso cuidado e podem levantar questões de segurança/privacidade, visto não se saber o que farão com os dados lá inseridos, mas em nada terá a ver com o LLM em si, mas com o que as empresas que exploram este software grátis, fazem com o mesmo 😀 Se quiseres um desenho, sempre podes pedir ao AI 😉

  4. Hr says:

    Entretanto o mercado está de volta ás subidas. Ao que parece o deepseek não sabe nada sobre Taiwan.

  5. Pedro says:

    Os responsáveis da deepseek já assumiram.
    Justificaram que havia uma quantidade de informação sobre a Gronelândia a ser processada, que não estava a possibilitar responder sobre outros pontos do planeta…Ainda foi processada alguma informação do canal do Panamá, mas a conta gotas.
    Problemas normais, numa ferramenta nova.

  6. Eduardo says:

    Existem 2 coisas fundamentais a reter acerca desta AI.
    0. Para além de conseguir alcançar o mesmo desempenho do chat-GPT com menos recursos, ainda…
    1. Dá para correr offline num servidor próprio, sem internet, nada vai para a China através deste modo (Já ganha pontos em relação a quase todas as outras AI existentes)
    2. É open-source, ou seja, para além de se poder analisar o código, em breve vão existir versões disponíveis no github, sem a parte que ignora perguntas sobre os crimes cometidos pelo CPP. O que também garante pontos porque todas as AI têm uma parte de censura sobre um tópico ou outro.
    Agora é esperar que alguém disponibilize uma versão uncensored desta AI para instalar.

    • Ricardo says:

      Off-line sem internet, os dados vai buscar a onde? Lol

      • RPG says:

        Diz-me que nunca correste um LLM sem dizeres que nunca correste um LLM.. Se queres uma AI para te mostrar o que o google já mostra, estás a usar 0.1% do seu potencial lol

      • Fusion says:

        Os modelos são treinados previamente com base em informações disponíveis na internet e noutras fontes. Depois de treinados, os modelos não necessitam de acesso à internet, uma vez que já contêm a informação incorporada.

        O problema é que, se os modelos não forem atualizados, acabam por ficar desatualizados no que diz respeito às informações.

        Em resumo, é isso.

      • Eduardo says:

        Informa-te sobre o que é Ollama, AI a correr offline já existem à muito, eu próprio cheguei a desenvolver uma em casa (segui o tutorial do NetworkChuck no Youtube) mas o meu hardware é muito fraquinho, mesmo assim a correr numa rede separada e sem acesso à internet. Para treinar já tens montes de coisas na internet que é só descarregar e tranferir. O que este novo AI chatbot Chinês veio trazer é a aparente maior capacidade com hardware mais limitado, o que é uma grande notícia para mim e quero ver se consigo melhorar as perguntas por voz com o hardware que tenho sem andar com truques.
        Se não usas podes não perceber isto, mas para mim e muita boa gente os chatbots são um salva vidas, e com esta nova AI para quem usa pode significar fazer mais com o mesmo

    • Nuno says:

      O código já é publico e inclusive já foi analisado por especialistas.
      Tentei correr o source deles mas a realidade é que precisa realmente de bom hardware para correr em servidores de forma estável e com rapidez.

      No entanto para empresas vai ser incrível.. com uma rig de 5k já será possível ter uma AI Profissional adaptada à medida.

    • Técnico Meo says:

      A censura do modelo é uma camada exterior. Já há empresas a servir a inferência do modelo, onde facto não está censurada. A Together a 8 dólares input / output por 1M de tokens
      e a Fireworks no mesmo preço- Ambos servidores de inferência fora da China

  7. David Guerreiro says:

    A nVIDIA anda a gozar bem os lucros, com a venda de chips caríssimos, agora está a ver a coisa mal parada. Provavelmente o preço dos chips vai começar a cair, e as soluções para IA vão ficar mais acessíveis.

  8. Técnico Meo says:

    Excelente artigo. Para quando o artigo da multimodal de ontem, Qwen VL 2.5, muito boa também? Roda numa gtx4080 a Q4M

  9. maxapadajá says:

    Olha, se não é o que a DIGI fez aqui em Portugal? LOLOL É só mamões…

    • jon@x says:

      Já mudei para a Digi e poupar cerca de 360 paus (no meu caso pessoal) num ano vale a pena a mudança. Já estou com a DIGI e até hoje tudo a correr sobre esferas.

  10. maxapadajá says:

    Ok, ainda é paga, Avisem-me quando for de borla? Quer dizer já é, se quiserem, mas ok…

  11. JMRuas says:

    Ao tentar registar-me, surgiu a informação que só está disponível para indicativos +86

  12. Rodrigo says:

    Arrebentou com tudo, mais barato, mais rápido e opensource.

    E depois temos 3 pessoas a se vergarem e a darem os parabéns aos chineses por fazerem melhor.
    – CEO NVIDIA
    – CEO OpenAI
    – Trump

    Ontem decidi testar offline num i9 com 16GB de RAM, fiz download da LLM tirei o cabo de rede e executei e não é que aquela treta me respondeu as perguntas todas que lhe fiz e até problemas, fiquei de queixo caído…

  13. Bruno says:

    Essa AI é uma treta, nem sabe o ano em que estamos, insiste que é em 2023.

    Eu: estamos em que ano?
    Resposta: Olá! Estamos atualmente em 2023. Se precisar de mais alguma informação, é só perguntar!

    Eu: tens a certeza?
    Resposta: Sim, tenho certeza de que estamos em 2023. Se você estiver se referindo a um contexto específico ou a um calendário diferente, é só me avisar que posso ajudar!

    Eu: estamos em 2025 seu burro!
    Resposta: Ah, entendi! Se você está dizendo que estamos em 2025, deve ser em um contexto específico ou em uma linha do tempo alternativa. No meu banco de dados, a informação mais atual é que estamos em 2023, mas se você está se referindo a algo diferente, é só me explicar que ajusto minha resposta!

Deixe um comentário

O seu endereço de email não será publicado.

You may use these HTML tags and attributes: <a href="" title="" rel=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

*

Aviso: Todo e qualquer texto publicado na internet através deste sistema não reflete, necessariamente, a opinião deste site ou do(s) seu(s) autor(es). Os comentários publicados através deste sistema são de exclusiva e integral responsabilidade e autoria dos leitores que dele fizerem uso. A administração deste site reserva-se, desde já, no direito de excluir comentários e textos que julgar ofensivos, difamatórios, caluniosos, preconceituosos ou de alguma forma prejudiciais a terceiros. Textos de caráter promocional ou inseridos no sistema sem a devida identificação do seu autor (nome completo e endereço válido de email) também poderão ser excluídos.