Após meses de rumores e especulações, a OpenAI enfim anunciou oficialmente o GPT-4 nesta terça=feira (14), a versão mais recente do seu modelo de linguagem que alimenta ferramentas de IA como o ChatGPT e o novo Bing da Microsoft.
A empresa afirma que o modelo ficou “mais criativo e colaborativo do que nunca” e agora “pode resolver problemas difíceis com mais precisão”. Tudo graças ao seu nível conhecimento geral que ficou mais amplo e a novas “habilidades para resolução de problemas”.
O que mudou no GPT-4?
Também foram implementadas melhorias de desempenho vistas em vários testes, incluindo os exames Uniform Bar Exam, LSAT, SAT Math e SAT Evidence-Based Reading & Writing. Segundo a OpenAI, em todos mencionados antes o GPT-4 obteve pontuação mínima de 88%.
No ano passado, as primeiras especulações sugeriam que a novidade iria representar um grande salto em relação às gerações anteriores. Curiosamente, o boato mais recente sobre o lançamento ganhou força na semana passada, quando um executivo da Microsoft deixou escapar que o sistema seria lançado esta semana.
O CTO da Microsoft, Andreas Braun, também revelou que o seria GPT-4 multimodal, ou seja, capaz de trabalhar com outras mídias além de texto. O GPT-4 é de fato multimodal. A OpenAI diz que o novo sistema já aceita entradas de texto e imagens e pode analisar tudo simultaneamente, o que permite interpretar conversas mais complexas.
No exemplo abaixo, a IA explica que há um homem amarrado em um táxi passando roupa após analisar a foto.
Vale ressaltar que o ChatGPT vem desencadeando um verdadeiro “frenesi” no mundo da tecnologia desde o lançamento em novembro do ano passado. A Microsoft correu para lançar o seu próprio chatbot no Bing, enquanto o Google também não ficou parado e acaba de anunciar novos recursos de IA para os seus aplicativos.
Imagem principal: Muhammad S0hail/Shutterstock
Via: The Verge
Fonte: Olhar Digital
Comentários