‘Desempenho de nível humano’: OpenAI, criador do ChatGPT, lança IA GPT-4 mais inteligente e rápida



A OpenAI anunciou oficialmente o lançamento de seu mais recente modelo de linguagem AI, GPT-4. A empresa afirma que este modelo é “mais criativo e colaborativo do que nunca” e é capaz de resolver problemas difíceis com maior precisão do que seus antecessores. O GPT-4 pode analisar entrada de texto e imagem, embora só possa responder via texto.

É importante observar que o GPT-4 retém muitos dos mesmos problemas dos modelos de linguagem anteriores, incluindo a capacidade de inventar informações (ou “alucinar”). A OpenAI alerta que o modelo ainda carece de conhecimento sobre eventos ocorridos após setembro de 2021.

“Ainda é falho, ainda é limitado e ainda parece mais impressionante no primeiro uso do que depois de passar mais tempo com ele”, escreveu o CEO da OpenAI, Sam Altman, no Twitter ao anunciar o GPT-4.

Enquanto o OpenAI em seu site disse: “GPT-4 é um grande modelo multimodal (aceitando entradas de imagem e texto, emitindo saídas de texto) que, embora menos capaz que os humanos em muitos cenários do mundo real, exibe desempenho de nível humano em vários profissionais e referências acadêmicas”.

Apesar dessas limitações, a OpenAI já fez parceria com várias empresas para integrar o GPT-4 em seus produtos, incluindo Duolingo, Stripe e Khan Academy. O modelo mais recente pode ser acessado por pessoas que possuem o ChatGPT Plus, a assinatura mensal do ChatGPT de $ 20 da OpenAI. Ele também está alimentando o chatbot Bing da Microsoft e estará acessível como uma API para os desenvolvedores desenvolverem.

A OpenAI sugere que a diferença entre o GPT-4 e seu antecessor GPT-3.5 não é facilmente perceptível nas conversas do dia a dia. A empresa afirma que os aprimoramentos do GPT-4 são aparentes em seu desempenho em vários testes e benchmarks, como os exames Uniform Bar Exam, LSAT, SAT Math e SAT Evidence-Based Reading & Writing. GPT-4 obteve percentil 88 ou superior nesses exames.

O GPT-4 é de fato multimodal, mas só pode aceitar entradas de texto e imagem e emitir saídas de texto. No entanto, a capacidade do modelo de analisar texto e imagens simultaneamente permite que ele interprete entradas mais complexas.

Leia também

Instagram agora permite que os usuários postem GIFs nos comentários, veja como funciona

Elon Musk diz que suas postagens no Twitter não foram impulsionadas e planeja tomar medidas legais contra o funcionário

Assista: Salil Parekh, Suresh Narayanan e mais: o que os principais CEOs da Índia estudaram, ganham