Melhorias nos modelos de IA de “raciocínio” poderão estar a chegar ao limite
Um recente estudo da Epoch AI, um instituto de investigação sem fins lucrativos, levanta a possibilidade de uma desaceleração nos ganhos de desempenho dos modelos de inteligência artificial (IA) focados em raciocínio, num futuro próximo. Esta potencial estagnação poderá impactar significativamente a trajetória da indústria.
Progresso nos modelos de raciocínio estão a abrandar cada vez mais
A análise sugere que a indústria da IA poderá não conseguir sustentar por muito mais tempo os enormes ganhos de desempenho observados nos modelos de IA de raciocínio. Segundo as conclusões do relatório, o progresso destes modelos poderá abrandar já no decurso do próximo ano.
Modelos de raciocínio, como o o3 da OpenAI, têm alcançado progressos substanciais em benchmarks de IA nos últimos meses, especialmente em parâmetros que avaliam capacidades matemáticas e de programação.
Estes modelos conseguem aplicar maior poder computacional à resolução de problemas, o que pode otimizar o seu desempenho, embora com a contrapartida de necessitarem de mais tempo para completar tarefas em comparação com os modelos convencionais.
O desenvolvimento de modelos de raciocínio inicia-se com o treino de um modelo convencional numa vasta quantidade de dados, aplicando-se posteriormente uma técnica conhecida como aprendizagem por reforço (reinforcement learning). Esta técnica, na prática, fornece "feedback" ao modelo sobre as suas soluções para problemas complexos.
Investimento na reinforcement learning tem crescido bastante
Até à data, os principais laboratórios de IA, como a OpenAI, não tinham dedicado uma quantidade excessiva de poder computacional à fase de reinforcement learning no treino de modelos de raciocínio, de acordo com a Epoch.
Agora, a OpenAI indicou que aplicou aproximadamente 10 vezes mais computação para treinar o o3 do que o seu antecessor, o o1, e a Epoch especula que a maior parte deste aumento computacional foi alocada à reinforcement learning.
Além disso, Dan Roberts, investigador da OpenAI, revelou recentemente que os planos futuros da empresa contemplam a priorização da reinforcement learning para utilizar um poder computacional ainda mais significativo, superando mesmo o do treino inicial do modelo.
Contudo, a Epoch salienta que existe um limite superior para a quantidade de computação que pode ser aplicada à reinforcement learning.
Modelos convencionais têm evoluído mais rápido
Josh You, analista da Epoch e autor da análise, explica que os ganhos de desempenho resultantes do treino de modelos de IA convencionais estão atualmente a quadruplicar anualmente, enquanto os ganhos de desempenho provenientes da reinforcement learning crescem 10 vezes a cada 3-5 meses. O progresso do treino de raciocínio "provavelmente convergirá com a fronteira geral até 2026", continua.
A análise da Epoch assenta em diversas suposições e baseia-se, em parte, em declarações públicas de executivos de empresas de IA. No entanto, argumenta também que o escalonamento de modelos de raciocínio poderá revelar-se problemático por razões que transcendem a capacidade computacional, incluindo elevados custos indiretos associados à investigação.
Se existir um custo indireto persistente necessário para a investigação, os modelos de raciocínio poderão não escalar tanto quanto o esperado. O rápido escalonamento da computação é, potencialmente, um ingrediente muito importante no progresso dos modelos de raciocínio, pelo que vale a pena acompanhar esta questão de perto.
Escreve You.
De facto, estudos já demonstraram que os modelos de raciocínio, cuja operação pode ser incrivelmente dispendiosa, apresentam falhas graves, como uma maior propensão para "alucinar" (gerar informações incorretas) em comparação com determinados modelos convencionais.
Leia também:
A Inteligência Artificial um dia será “Burrice Artificial”.
Eu subscrevi o plano “Chat GPT PLUS” 20$ mensais mais imposto VAT (fica-me a 24$ mensais, ou seja 21 euros).
Cancelei após dez dias!
Não compensava pagar.
Muitas vezes servidor lento, erros de gerar resposta, surgiam mensagens de erro a vermelho e conexão ao servidor.
Queixei-me ao apoio técnico (que só respondem via chat), diziam que ser assinante PLUS não dá acesso melhorado ou mais rápido, inclusive quando há “hora de ponta” e muitos utilizadores a aceder ao serviço.
Outra coisa. para gerar imagens com o DALL-E3 (Incorporado no GPT), havia limite, de vez em quando ele dizia-me para esperar uma ou duas horas. Muitas imagens davam erro (ele não entendia o prompt, ou a imagem de referência que eu fiz upload) eu desperdiçava imagens assim. Outras vezes coisas básicas como por exemplo “faz a foto de uma casa a arder”, ele rejeitava porque “violava os termos”.
Uma pessoa andar a pagar por esse lixo, e sempre erros de conexão, bugs, ou erros de imagens, ou censura?
Cancelei logo.
Dá para usar grátis, e depois passa ao modo GPT 3.5.
Ou com duas ou três contas diferentes GMAIL, vai-se fazendo login com outra conta, e usa-se gratuitamente o GPT modo 4.0 mais uma horinha.
Tudo tem limite. Afinal quem constrói é o ser humano, limitado por natureza.