OpenAI apresenta os modelos GPT-4.1 com melhorias significativas em codificação

Conheça as inovações do GPT-4.1 da OpenAI, que oferece uma codificação melhorada e recursos avançados.
15/04/2025 às 11:02 | Atualizado há 2 semanas
Modelos GPT 4.1
GPT-4.1 supera o GPT-4o em 21% e o GPT-4.5 em 27% na codificação. (Imagem/Reprodução: Forbes)

A OpenAI lançou, na segunda-feira (14), os novos Modelos GPT 4.1, juntamente com as versões menores GPT-4.1 mini e GPT-4.1 nano. A empresa afirma que os modelos trazem melhorias significativas na codificação, execução de instruções e compreensão de contexto longo. Os novos modelos estão disponíveis apenas na interface de programação de aplicativos (API) da OpenAI.

Os novos modelos superam o modelo GPT-4o mais avançado da empresa em todos os aspectos, segundo a OpenAI. Com uma melhor compreensão do contexto, os modelos podem suportar até 1 milhão de tokens – um termo que se refere às unidades de dados processadas por um modelo de IA. Os modelos também são equipados com conhecimento atualizado até junho de 2024.

O GPT-4.1 apresentou uma melhoria de 21% em relação ao GPT-4o e de 27% em relação ao GPT-4.5 na codificação. Enquanto isso, os aprimoramentos na execução de instruções e na compreensão de contextos longos também tornam os modelos GPT-4.1 mais eficazes para agentes de IA.

Sam Altman, presidente-executivo da OpenAI, disse que os benchmarks são fortes, mas que a empresa está focada na utilidade no mundo real, e os desenvolvedores parecem muito felizes. A família de modelos também opera a um custo muito menor em comparação com o GPT-4.5, segundo a OpenAI.

A empresa acrescentou que desativará em julho a visualização do GPT-4.5 que está disponível na API, já que os novos modelos oferecem desempenho aprimorado ou semelhante. Em fevereiro, a OpenAI lançou a prévia de pesquisa do GPT-4.5 para alguns usuários e desenvolvedores e anunciou planos para expandir o acesso nas semanas seguintes.

Via Forbes Brasil

Artigos colaborativos escritos por redatores e editores do portal Vitória Agora.