PplWare Mobile

Existe um grande problema com os agentes de IA: erram 70% das vezes…

                                    
                                

Autor: Rui Neto


  1. 2 dedos de testa says:

    Agentes LLM? Não existem agentes de IA, just saying.
    O que temos atualmente como chatgpt e outros,não são conscientes, não pensam.
    São algoritmos bastante complexos e avançados que perante bases de dados devidamente organizadas e classificadas ajudam a encontrar rapidamente correlação entre fontes de dados diferentes e por vezes domínios de conhecimento diferentes. Mas AI? nope, e sim daí “errarem” tanto

  2. Torrão says:

    O CEO da Microsoft é que adora os agentes de IA.
    Desconfio que ele se anda a aconselhar, com os mesmos.

  3. Max says:

    Em 70% das vezes as IA não foram capazes de concluir todas as etapas das tarefas que lhes deram. Quais tarefas? Só são bem especificadas duas. Numa, a IA tem que navegar na web – aparece-lhe uma janela de pop-up e não atina com o “X” para a fechar. Noutra, a IA tem que estabelecer contactos para saber qual seria a pessoa a quem se devia dirigir para obter uma certa informação, faz os contactos e identifica a pessoa, mas não lhe telefona a pedir a informação por considerar a tarefa concluída.
    Como um humano facilmente carregava no “X” ou percebia que a tarefa só estava concluída depois de identificar a pessoa que tinha a informação e pedir-lha – a IA falhou. Em todo o caso, é preferível dizer que a “IA falhou” ou que não foi capaz de realizar uma tarefa que um humano é capaz de realizar (e por isso não é capaz de o substituir) em vez de a “IA errou”.
    Mas também depende das tarefas: em administração e finanças, que são fáceis para os humanos, foi onde os modelos LLM tiveram mais dificuldade. Em desenvolvimento de engenharia de software foi onde as IA obtiveram melhor score.

    • Manuel da Rocha says:

      A IA errou… porque recebeu, instruções 100% detalhadas, de que devia usar um programa, fazer login, usando a informação cedida, sobre uma conta, que a empresa usa, enviar 30 linhas, de informação, a um utilizador.
      Ora, a IA, não descobriu que programa era aquele, então usou, o whatsapp, registou um novo utilizador, com a designação que recebeu, para enviar as 30 linhas. Validando que cumpriu as tarefas. Por isso, a IA errou a 100%, em todas as tarefas.
      A IA pode ler 80000000000000000000000000 de páginas, por segundo. Daí o software ser mais simples, de montar, pois é possível criar 100000000 milhões de biliões, de linhas, baseadas nas instruções, de forma a reduzir as incongruências. Além de poder realizar 100000000 milhões de testes, por minuto. Aí sim, a IA pode ajudar a desenvolver programas, melhores. Mesmo assim, existem muitas limitações, pois criar software que suporte coisas externas (como a operação humana), a lógica, dos 80000000000000000000 milhões de páginas, não é incluída.

  4. Mário J says:

    É uma questão de tempo, ainda são bebés aprender a caminhar. A evolução está a ser muito rápida. Os broncos e aqui há muitos nem se apercebem do potencial dos agentes de IA.

    • Manuel da Rocha says:

      Isso é o mesmo que disseram da “condução 100% autónoma”, em 2014. O anúncio que “em 3 anos, 100 milhões de carros, já não precisam de condutor para fazerem 10000km, por dia”. Viu a data de hoje?

  5. bot says:

    existem agentes de AI 100x superiores aos testados. Não entendo como testam botalhada.

    • Manuel da Rocha says:

      Quais? É que o ChatGPT falhou a 99,93%, a preencher uma declaração de IRS, em que existia uma rasteira simples, que o contribuinte só tinha a chave móvel digital, de 1 das contas, com as outras a usar as senhas, do site. A IA 50000000% certa, segundo você, não foi capaz de perceber, que há 2 formas de fazer login, no site. Assim, fez download, do programa, para preenchimento externo e gravou o ficheiro, com os nifs dos contribuintes.
      O Deepseek até foi mais simpático, disse logo que não podia aceder ao site, porque não corria HTML 7000 versão 2025.

      • bot says:

        Um agente de IA =
        LLM (Cérebro) + Agente (Corpo)

        E a qualidade final depende de ambos:

        Componente Impacto na qualidade
        LLM (Cérebro) Qualidade do raciocínio, compreensão, criatividade, fluidez da resposta.
        Agente (Corpo) Capacidade de executar corretamente ações no mundo real, robustez, segurança, integração com sistemas.

        Exemplos:
        Um LLM top com um agente básico pode gerar ideias excelentes mas falhar ao executar (ex: clicar na janela errada, apagar ficheiros errados).

        Um agente muito bem feito com um LLM limitado pode executar tarefas simples com precisão, mas não vai raciocinar ou adaptar-se a contextos complexos.

        O ideal é uma combinação equilibrada:

        LLM poderoso (ex: GPT‑4o, Claude 3.5)

        Agente robusto, confiável, seguro, e que entenda o ambiente do utilizador (ex: OpenHands, OpenAgents).

      • bot says:

        Não existe um melhor tudo em um cada Agente é especializado em determinadas tarefas e deve ser escolhido o agente de acordo com essas tarefas que se querem fazer.

        OpenAgents: Ideal para tarefas específicas e isoladas (ex.: extrair dados de planilhas, automatizar interações web) sem necessidade de colaboração entre agentes.

        n8n: Recomendado para automações de negócios que exigem integração com APIs externas (ex.: CRM, ERP) e implantação rápida.

        AutoGen: Superior para problemas complexos que envolvem geração de código, múltiplos especialistas em IA e intervenção humana.

        LangChain: Melhor para prototipagem avançada de aplicações LLM, especialmente com necessidade de controle total sobre componentes

        Existe um Sistema Operativo que mete a AI à frente de tudo o resto que também dá para criar agentes. o SmythOS.

  6. Um gajo sério says:

    Como já escrevi anteriormente a “Inteligência Artificial” é uma técnica de programação muito específica e que nada tem a ver com o ChatGPT, DeepSeek, Gemini, Perplexity, e outras soluções que agora abundam, todas elas prometendo milagres.
    Para não complicar vou chamar às atuais IA como plataformas de programação inteligente do conhecimento adquirido tornado público, enquanto a programação de inteligência artificial é uma técnica de redes neurais que tenta reproduzir a inteligência como um fator fisiológico de imitação do cérebro.
    Simplificando, as atuais “AI” = Conhecimento  Redes Neurais = Inteligência
    Qual a diferença? É simples, façam uma pergunta que aparentemente não tem solução, mas cuja solução é óbvia para um humano. Claro que a resposta não pode existir no chamado mundo cibernético, ou se existir que seja praticamente inexistente.
    Se encontrarem essa pergunta que toda a gente sabe a resposta óbvia, pesquisem no Google ou outro programa semelhante e vejam quais as respostas mais dadas. Depois coloquem a pergunta a um sistema de “AI”. Verão que a resposta é a mais consensual que obtiveram no Google ou semelhante, isto porque o programa de AI foi baseado nas respostas divulgadas na “internet” e nas redes sociais. Mas o “conhecimento” das massas nem sempre é o correto.
    Por exemplo, coloquem a seguinte questão a um “AI”:
    “Como se sai de um labirinto que não tem saída?”
    Provavelmente a resposta dada será para seguir sempre a mesma direção (“mão direita” ou “mão esquerda”) porque foi a que o Google me apresentou como resposta á minha pesquisa, passando por cima do facto de que o “labirinto não tem saída”.
    No entanto todos os humanos sabem que os labirintos tem sempre pelo menos uma saída que pode ser coincidente com a entrada, logo a resposta “inteligente” deveria ser.
    “Deve sair pela entrada”
    Isto tem a ver com a ideia preconcebida que determinadas coisas tem determinadas características que assumimos como imutáveis e não pensamos “fora da caixa” e aqueles que o fazem são chamados de “inteligentes”. É óbvio que se tem entrada tem saída.
    Argumento: E se o labirinto não tem entrada nem saída?
    Resposta: Deixava de ser um labirinto e passava a ser um circuito fechado.
    Resposta: Pulava a parede, como é óbvio, mesmo que seja um sistema fechado a saída pode ser aquela que está por natureza aberta que é a parte superior.
    Argumento: E se o labirinto não tem entrada nem saída e tem cobertura?
    Resposta: Então agora é uma prisão? A maneira mais usada para sair de uma prisão é escavando um túnel.
    Aquilo que pretendi aqui demonstrar é que uma coisa é conhecimento outra é inteligência, e para mim o conhecimento é a utilização de uma solução que já conhecemos e inteligência é a capacidade que temos de encontrar uma solução para problemas com que nunca antes nos deparámos.
    Portanto não é de admirar que estes programas errem tão frequentemente. A sua origem é baseado em redes sociais e textos existentes na internet, muitos deles sem qualquer tipo de avaliação e/ou revisão, e todos sabemos quem somos e como queremos aparentar saber mais sobre todos os assuntos quando na verdade pouco ou nada sabemos sobre qualquer assunto

  7. KingSOL says:

    A IA só diz disparates.

    Quem sabe pesquisar não precisa de IA.

Deixe um comentário

O seu endereço de email não será publicado.

You may use these HTML tags and attributes: <a href="" title="" rel=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

*

Aviso: Todo e qualquer texto publicado na internet através deste sistema não reflete, necessariamente, a opinião deste site ou do(s) seu(s) autor(es). Os comentários publicados através deste sistema são de exclusiva e integral responsabilidade e autoria dos leitores que dele fizerem uso. A administração deste site reserva-se, desde já, no direito de excluir comentários e textos que julgar ofensivos, difamatórios, caluniosos, preconceituosos ou de alguma forma prejudiciais a terceiros. Textos de caráter promocional ou inseridos no sistema sem a devida identificação do seu autor (nome completo e endereço válido de email) também poderão ser excluídos.