Pplware

Nova versão do ChatGPT já interpreta imagens e funciona quase como um ser humano

A OpenAI mudou a Internet e todos os serviços que esta oferece ao apresentar o ChatGPT. Este assenta no modelo de linguagem que esta empresa criou e que consegue olhar ao mundo de forma diferente. Esta empresa apresentou agora o GPT-4, elevando ainda o que oferece, com novidades surpreendentes. Esta funciona quase como um ser humano.


Chegou o GPT-4 com toda a sua inteligência

O tema do momento é o chatGPT, a OpenAI e tudo o que a inteligência artificial consegue oferecer aos utilizadores. Uma verdadeira revolução está a caminho e agora a nova versão deste modelo de linguagem vem mostrar isso mesmo. O GPT-4 foi apresentado e as mudanças são enormes.

Se já achávamos muito importante e interessante termos um sistema que conseguia interpretar o que lhe era escrito e responder com informação, isso foi elevado. A nova versão mantém essa capacidade, mas passa a poder também interpretar imagens, com todos os seus detalhes.

Para além disso, e do que foi revelado na publicação onde o GPT-4 foi revelado, esta novo modelo está mais criativo e colaborativo do que nunca. Agora pode resolver problemas mais difíceis com ainda mais precisão. Isso é possível graças ao seu nível conhecimento geral mais amplo e a novas habilidades para a resolução de problemas.

Interpreta imagens e funciona quase como um ser humano

Em testes internos da OpenAI, esta a nova versão é 82% menos propensa a responder solicitações de conteúdo não autorizado. Além disso, o GPT-4 é 40% mais propenso a produzir respostas factuais quando comparado com o GPT-3.5.

Ainda mais impressionante, e do que foi revelado, é o seu desempenho quando comparado com o dos seres humanos. Embora menos capaz em muitos cenários do mundo real, exibe desempenho de nível humano em vários benchmarks profissionais e académicos. Em testes reais de relevância, o GPT-4 obteve pontuação mínima de 88%.

O recurso de entrada multimodal adicionado gerará saídas de texto, em linguagem natural, código de programação ou o que se quiser. Este usará uma base ampla de entradas mistas de texto e imagem. Basicamente, poderá digitalizar relatórios, com todos os gráficos e números; livros e manuais de compras e até capturas de ecrã funcionarão. O ChatGPT resumirá os vários detalhes em pequenas palavras que todos entendem melhor.

A OpenAI tem ainda muito para mostrar nestas respostas

A OpenAI alertou que o GPT-4 será disponibilizado tanto para o ChatGPT quanto para a sua API. OS utilizadores vão precisar de ter subscrito o ChatGPT Plus para obter acesso e haverá um limite de utilização para este novo modelo. O acesso à API deste novo modelo está a ser feito através de uma lista de espera.

O GPT-4 já estava a ser testado e avaliado em cenários reais sem os utilizadores saberem. O melhor exemplo é a sua presença no Bing Chat, onde tem interagido com os utilizadores e com as suas questões que foram colocadas.

Com um interesse cada vez maior, a OpenAI já revelou que muitas empresas formaram parcerias para usar o GPT-4 nas suas propostas. Os exemplos apresentados, para além da Microsoft, foram o Duolingo, a Stripe, a Khan Academy e até o governo da Islândia. Certamente que terá ainda muito para oferecer e para ser descoberto, agora que nos habituámos à sua presença.

Exit mobile version