AiotAiot


OpenAI lança a versão “mais inteligente” do ChatGPT

Empresa afirma que o GPT-4 é mais criativo e colaborativo e pode editar e interagir em tarefas como compor músicas e escrever roteiros

17/03/2023

OpenAI lança a versão “mais inteligente” do ChatGPT
Tamanho fonte

Por redação AIoT Brasil

Os rumores que circulavam nas redes se confirmaram e a OpenAI anunciou oficialmente o lançamento da nova versão do ChatGPT, chamada de GPT-4, com mais funcionalidades e as limitações semelhantes aos sistemas anteriores. De acordo com a OpenAI, o GPT-4 é mais avançado e produz respostas “mais seguras e úteis”, podendo resolver problemas difíceis com maior precisão, “graças ao seu conhecimento geral mais amplo e novas habilidades”.

A empresa também afirmou: “O GPT-4 está mais criativo e colaborativo do que nunca. Pode gerar e editar conteúdo e interagir com os usuários em tarefas de redação criativa e técnica, como compor músicas, escrever roteiros ou aprender o estilo de escrita de um usuário”. Disse ainda que a versão 4 supera o ChatGPT em seus recursos avançados de raciocínio e “ao pontuar em percentuais aproximados mais altos entre os participantes dos testes”.

A OpenAI acrescenta: “Seguindo o caminho de pesquisa do GPT, GPT-2 e GPT-3, nossa abordagem de aprendizado profundo aproveita mais dados e mais computação para criar modelos de linguagem cada vez mais sofisticados e capazes”. De fato, algumas das melhorias introduzidas no GPT-4 impressionam, mas a própria OpenAI admite que o sistema ainda apresenta falhas semelhantes àquelas encontradas nos modelos anteriores – ou seja, ainda não atingiu a perfeição.

A empresa passou mais de seis meses no trabalho de alinhamento dos sistemas do novo modelo e no esforço de torná-lo mais seguro. De acordo com dados avançados da pesquisa, a tendência do GPT-4 para responder a questões relacionadas com conteúdo inapropriado foi reduzida em 82%, na comparação com o GPT-3.5. Além disso, a versão tem 40% a mais de probabilidade de gerar respostas factuais.

O novo sistema está disponível no ChatGPT Plus e já há uma lista de espera para usar sua API. O GPT-4 é multimodal, mas, diferentemente do que foi dito anteriormente pela Microsoft, ainda não consegue receber inputs a partir de vídeo, concentrando-se, por enquanto, em imagens e texto. Embora receba inputs com imagens, o modelo continua a gerar resultados textuais. A OpenAI disse que essa funcionalidade está ainda em modo “preview”, para um público restrito.

Nesse sentido, a empresa buscou a colaboração dos criadores do aplicativo Be My Eyes, destinado a pessoas com deficiência visual, a fim de preparar a funcionalidade de interpretação de imagens para o público em geral. Sam Altman, CEO da OpenAI, afirmou também que será necessário mais algum tempo para mitigar os desafios de segurança associados à versão 4.

TAGS

#ChatGPT#GPT#GPT-4#open AI

COMPARTILHE

Notícias Relacionadas