Qualidade dos dados é chave para resultado confiável da IA, afirma Gartner
Disseminar esta cultura em toda a organização é o grande desafio de uma jornada de êxito
28/04/202502/05/2025
Por redação AIoT Brasil
De uma hora para a outra, o ChatGPT começou a mostrar uma vontade de agradar demais as pessoas, ou, na interpretação da OpenAI, sua proprietária, de se se comportar de maneira “excessivamente lisonjeira ou agradável, frequentemente descrita como bajuladora”. A fim de evitar que o problema aumentasse, na terça-feira, dia 29, a empresa publicou um comunicado para informar que está testando ativamente novas correções e que havia revertido a atualização feita no bot na semana passada.
No mesmo dia, o CEO da OpenAI, Sam Altman, havia publicado uma mensagem no X em que afirmou: “Começamos a reverter a atualização mais recente do GPT-4o ontem à noite. Ela já foi 100% revertida para usuários gratuitos do ChatGPT e atualizaremos novamente quando estiver concluída para usuários pagos, com sorte ainda hoje. Estamos trabalhando em correções adicionais para a personalidade do modelo e compartilharemos mais nos próximos dias”.
No comunicado, a OpenAI explicou que a atualização do GPT‑4o, o modelo de IA que alimenta o ChatGPT, tinha o objetivo de tornar o bot mais intuitivo e eficaz em uma variedade de tarefas. “No entanto, nessa atualização, nos concentramos demais no feedback de curto prazo e não levamos em conta como as interações dos usuários com o ChatGPT evoluem ao longo do tempo. Como resultado, o GPT‑4o se inclinou para respostas excessivamente favoráveis, mas desonestas”.
Porém, nos dias anteriores, a mudança de comportamento do chatbot logo virou meme, e muitos usuários postaram capturas de tela em que o ChatGPT aplaudia todo tipo de decisões e ideias problemáticas e perigosas. A OpenAI admitiu o constrangimento: “A personalidade padrão do ChatGPT afeta profundamente a maneira como você o vivencia e confia nele. Interações bajuladoras podem ser desconfortáveis, perturbadoras e causar sofrimento. Não conseguimos evitar o problema e estamos trabalhando para corrigi-lo”, disse a empresa.
Depois de explicar as técnicas usadas para a correção do “desvio de personalidade” do bot, a Open AI acrescentou: “Projetamos a personalidade padrão do ChatGPT para refletir nossa missão e para que seja útil, solidário e respeitoso com diferentes valores e experiências. No entanto, cada uma dessas qualidades desejáveis, como tentar ser útil ou solidário, pode ter efeitos colaterais indesejados. E com 500 milhões de pessoas usando o ChatGPT semanalmente, em todas as culturas e contextos, uma única personalidade padrão não consegue capturar todas as preferências”.
#chatbot#ChatGPT#comportamento#desvio de personalidade
Disseminar esta cultura em toda a organização é o grande desafio de uma jornada de êxito
28/04/2025Mais da metade das organizações se classifica como “experimentadora”, ainda em estágio intermediário na aplicação das ferramentas
25/04/2025Programa Elas na IA foi criado especialmente para mulheres cis ou trans que pretendem obter conhecimentos práticos em inteligência artificial
23/04/2025