AiotAiot


OpenAI explica por que o ChatGPT se tornou bajulador demais

Empresa decidiu reverter a atualização feita na semana passada e iniciou um processo de correção da “personalidade” do bot

02/05/2025

OpenAI explica por que o ChatGPT se tornou bajulador demais
Tamanho fonte

Por redação AIoT Brasil

De uma hora para a outra, o ChatGPT começou a mostrar uma vontade de agradar demais as pessoas, ou, na interpretação da OpenAI, sua proprietária, de se se comportar de maneira “excessivamente lisonjeira ou agradável, frequentemente descrita como bajuladora”. A fim de evitar que o problema aumentasse, na terça-feira, dia 29, a empresa publicou um comunicado para informar que está testando ativamente novas correções e que havia revertido a atualização feita no bot na semana passada.

No mesmo dia, o CEO da OpenAI, Sam Altman, havia publicado uma mensagem no X em que afirmou: “Começamos a reverter a atualização mais recente do GPT-4o ontem à noite. Ela já foi 100% revertida para usuários gratuitos do ChatGPT e atualizaremos novamente quando estiver concluída para usuários pagos, com sorte ainda hoje. Estamos trabalhando em correções adicionais para a personalidade do modelo e compartilharemos mais nos próximos dias”.

No comunicado, a OpenAI explicou que a atualização do GPT‑4o, o modelo de IA que alimenta o ChatGPT, tinha o objetivo de tornar o bot mais intuitivo e eficaz em uma variedade de tarefas. “No entanto, nessa atualização, nos concentramos demais no feedback de curto prazo e não levamos em conta como as interações dos usuários com o ChatGPT evoluem ao longo do tempo. Como resultado, o GPT‑4o se inclinou para respostas excessivamente favoráveis, mas desonestas”.

Porém, nos dias anteriores, a mudança de comportamento do chatbot logo virou meme, e muitos usuários postaram capturas de tela em que o ChatGPT aplaudia todo tipo de decisões e ideias problemáticas e perigosas. A OpenAI admitiu o constrangimento: “A personalidade padrão do ChatGPT afeta profundamente a maneira como você o vivencia e confia nele. Interações bajuladoras podem ser desconfortáveis, perturbadoras e causar sofrimento. Não conseguimos evitar o problema e estamos trabalhando para corrigi-lo”, disse a empresa.

Depois de explicar as técnicas usadas para a correção do “desvio de personalidade” do bot, a Open AI acrescentou: “Projetamos a personalidade padrão do ChatGPT para refletir nossa missão e para que seja útil, solidário e respeitoso com diferentes valores e experiências. No entanto, cada uma dessas qualidades desejáveis, como tentar ser útil ou solidário, pode ter efeitos colaterais indesejados. E com 500 milhões de pessoas usando o ChatGPT semanalmente, em todas as culturas e contextos, uma única personalidade padrão não consegue capturar todas as preferências”.

TAGS

#chatbot#ChatGPT#comportamento#desvio de personalidade

COMPARTILHE

Notícias Relacionadas