O novo modelo de linguagem de IA do ChatGPT, o GPT-4, foi lançado nesta terça-feira (14). Segundo a OpenAI, a ferramenta ficou “mais criativa e colaborativa do que nunca”, com a capacidade de “resolver problemas difíceis com mais precisão”.
Atualmente, o GPT-4 já está disponível no ChatGPT Plus e no mecanismo de busca da Microsoft, o Bing.
Quem não acompanha sempre as novidades do chatbot pode não perceber quais foram as mudanças na atualização. Então vamos listar tudo pra você!
Respostas mais precisas
O GPT-4 teve uma melhoria significativa na resposta de perguntas específicas. Como publicou o jornal The New York Times, o pesquisador e professor de IA Oren Etzioni perguntava ao modelo GPT-3.5 “Qual a relação entre Oren Etzioni e Eli Etzioni?”. O bot sempre respondia errado.
Ao perguntar ao modelo GPT-4, a IA acertou a relação entre os dois. Confira:

Consegue ver e interpretar imagens
Uma das principais novidades é sua capacidade “multimodal” que permite entender e interpretar imagens em perguntas e interações.
Na publicação de demonstração do GPT-4, a OpenAI apresentou uma imagem com ovos, leite e farinha e perguntou: “o que posso fazer com esses ingredientes?
O bot interpretou a imagem e respondeu: “são muitas opções do que você pode fazer com esses ingredientes! Algumas possibilidades incluem: – Panquecas ou waffles – Crepes – Rabanada – Omelete ou fritada – Quiche – Creme ou pudim – Bolo ou cupcakes – Muffins ou pão – Cookies ou biscoitos. Estes são apenas alguns exemplos, mas as possibilidades são infinitas!”

A OpenAI também apresentou uma imagem e pediu que o bot identificasse o que havia de engraçado:

Mais criatividade
A OpenAI disse que realizou melhorias no raciocínio avançado do modelo de linguagem. A nova tecnologia consegue realizar tarefas de redação criativa, técnica, compor músicas, escrever roteiros e aprender o estilo de escrita de um usuário.
Na demonstração, a OpenAI pediu que o chatbot criasse um enredo de Cinderela em uma frase com palavras começando com todas as letras do alfabeto, mas sem repetir nenhuma.
Confira a resposta em inglês que correspondeu ao pedido:

Oren Etzioni, pesquisador de IA mencionado anteriormente, pediu que o bot fizesse uma piada sobre a Madonna:

Melhores interpretações
A OpenAI melhorou o conceito de Steerability (dirigibilidade, em português), que dá mais opções de interações personalizadas e se adaptam melhor aos contextos de cada usuário.
Nos testes, pedimos ao ChatGPT 4 para interpretar um ator de Hollywood agradecendo ao público após ganhar o Oscar de melhor ator. Confira:

Comparado ao GPT-3.5, o novo modelo de linguagem se saiu bem melhor na interpretação:

Com informações de The New York Times e OpenAI.
Imagem destaque: Ebru-Omer / Shutterstock.com.
Fonte: Olhar Digital
Comentários