OpenAI é acusada na Índia de violação de direitos autorais
Processo foi aberto por uma das principais agências de notícias do país e envolve dados usados no treinamento do ChatGPT
21/11/202426/02/2024
Por redação AIoT Brasil
Até que ponto é admissível a criação de imagens de soldados negros e asiáticos em uniformes nazistas? Pois foi isso o que fez uma nova ferramenta da inteligência artificial Gemini (ex-Bard) do Google, ao aplicar supostas regras de “inclusão e diversidade” às solicitações dos usuários por meio de uma ferramenta lançada há menos de um mês e já desativada.
Depois de todo o barulho provocado, o Google resolveu se explicar e convocou o vice-presidente sênior Prabhakar Raghavan para assinar um comunicado publicado no blog da empresa, na sexta-feira, 23, com um este título: “A geração de imagens do Gemini errou. Faremos melhor”. O executivo admite a falha: “É claro que esse recurso errou o alvo. Algumas das imagens geradas são imprecisas e até ofensivas. Agradecemos o feedback dos usuários e lamentamos que o recurso não tenha funcionado bem. Reconhecemos o erro e pausamos temporariamente a geração de imagens de pessoas no Gemini enquanto trabalhamos em uma versão melhorada”, disse.
Além dos “soldados nazistas em 1943”, o Gemini criou uma imagem de uma mulher negra supostamente assinando um documento numa imagem em que aparecem os chamados “Pais Fundadores dos Estados Unidos”, na Declaração da Independência. De acordo com Raghavan, o erro provavelmente foi causado pela intenção do Google de adotar uma postura politicamente correta. “Se você pedir uma imagem de jogadores de futebol ou de alguém passeando com um cachorro, talvez queira ver diferentes pessoas. Você provavelmente não deseja receber apenas imagens de pessoas de apenas uma etnia “, ponderou o executivo.
Segundo Raghavan, o ajuste para garantir que o Gemini mostrasse uma gama de pessoas não levou em conta os casos em que claramente não deveria fazer isso. “Em segundo lugar, com o tempo, o modelo se tornou muito mais cauteloso do que pretendíamos e se recusou a responder inteiramente a certas solicitações – interpretando erroneamente algumas solicitações muito anódinas como sensíveis. Essas duas coisas levaram o modelo a compensar excessivamente em alguns casos e a ser demasiado conservador em outros, conduzindo a imagens embaraçosas e erradas”, acrescentou.
Depois dessas explicações, Raghavan disse que trabalha para melhorar significativamente o recurso antes de reativá-lo, em um processo que incluirá testes extensivos. “Há casos em que a IA simplesmente entende errado as coisas. Isso é algo que estamos constantemente trabalhando para melhorar”, completou o vice-presidente do Google.
#diversidade#Gemini#google#IA generativa#imagens de pessoas#inclusão#inteligência artificial
Processo foi aberto por uma das principais agências de notícias do país e envolve dados usados no treinamento do ChatGPT
21/11/2024O AIoT Brasil acompanhará de perto um dos mais importantes eventos de tecnologia do mundo, que deverá receber mais de 70 mil participantes
11/11/2024Confira novas profissões que estão surgindo com a inteligência artificial e saiba como se preparar para esse mercado em expansão
05/11/2024