OpenAI é acusada na Índia de violação de direitos autorais
Processo foi aberto por uma das principais agências de notícias do país e envolve dados usados no treinamento do ChatGPT
21/11/202417/03/2023
Por redação AIoT Brasil
Os rumores que circulavam nas redes se confirmaram e a OpenAI anunciou oficialmente o lançamento da nova versão do ChatGPT, chamada de GPT-4, com mais funcionalidades e as limitações semelhantes aos sistemas anteriores. De acordo com a OpenAI, o GPT-4 é mais avançado e produz respostas “mais seguras e úteis”, podendo resolver problemas difíceis com maior precisão, “graças ao seu conhecimento geral mais amplo e novas habilidades”.
A empresa também afirmou: “O GPT-4 está mais criativo e colaborativo do que nunca. Pode gerar e editar conteúdo e interagir com os usuários em tarefas de redação criativa e técnica, como compor músicas, escrever roteiros ou aprender o estilo de escrita de um usuário”. Disse ainda que a versão 4 supera o ChatGPT em seus recursos avançados de raciocínio e “ao pontuar em percentuais aproximados mais altos entre os participantes dos testes”.
A OpenAI acrescenta: “Seguindo o caminho de pesquisa do GPT, GPT-2 e GPT-3, nossa abordagem de aprendizado profundo aproveita mais dados e mais computação para criar modelos de linguagem cada vez mais sofisticados e capazes”. De fato, algumas das melhorias introduzidas no GPT-4 impressionam, mas a própria OpenAI admite que o sistema ainda apresenta falhas semelhantes àquelas encontradas nos modelos anteriores – ou seja, ainda não atingiu a perfeição.
A empresa passou mais de seis meses no trabalho de alinhamento dos sistemas do novo modelo e no esforço de torná-lo mais seguro. De acordo com dados avançados da pesquisa, a tendência do GPT-4 para responder a questões relacionadas com conteúdo inapropriado foi reduzida em 82%, na comparação com o GPT-3.5. Além disso, a versão tem 40% a mais de probabilidade de gerar respostas factuais.
O novo sistema está disponível no ChatGPT Plus e já há uma lista de espera para usar sua API. O GPT-4 é multimodal, mas, diferentemente do que foi dito anteriormente pela Microsoft, ainda não consegue receber inputs a partir de vídeo, concentrando-se, por enquanto, em imagens e texto. Embora receba inputs com imagens, o modelo continua a gerar resultados textuais. A OpenAI disse que essa funcionalidade está ainda em modo “preview”, para um público restrito.
Nesse sentido, a empresa buscou a colaboração dos criadores do aplicativo Be My Eyes, destinado a pessoas com deficiência visual, a fim de preparar a funcionalidade de interpretação de imagens para o público em geral. Sam Altman, CEO da OpenAI, afirmou também que será necessário mais algum tempo para mitigar os desafios de segurança associados à versão 4.
Processo foi aberto por uma das principais agências de notícias do país e envolve dados usados no treinamento do ChatGPT
21/11/2024O AIoT Brasil acompanhará de perto um dos mais importantes eventos de tecnologia do mundo, que deverá receber mais de 70 mil participantes
11/11/2024Confira novas profissões que estão surgindo com a inteligência artificial e saiba como se preparar para esse mercado em expansão
05/11/2024