AiotAiot


“A geração de imagens do Gemini errou”, admite o Google

Empresa explica por que desativou recurso lançado há menos de um mês no sistema de IA generativa antes conhecido como Bard

26/02/2024

“A geração de imagens do Gemini errou”, admite o Google
Tamanho fonte

Por redação AIoT Brasil

Até que ponto é admissível a criação de imagens de soldados negros e asiáticos em uniformes nazistas? Pois foi isso o que fez uma nova ferramenta da inteligência artificial Gemini (ex-Bard) do Google, ao aplicar supostas regras de “inclusão e diversidade” às solicitações dos usuários por meio de uma ferramenta lançada há menos de um mês e já desativada.

Depois de todo o barulho provocado, o Google resolveu se explicar e convocou o vice-presidente sênior Prabhakar Raghavan para assinar um comunicado publicado no blog da empresa, na sexta-feira, 23, com um este título: “A geração de imagens do Gemini errou. Faremos melhor”. O executivo admite a falha: “É claro que esse recurso errou o alvo. Algumas das imagens geradas são imprecisas e até ofensivas. Agradecemos o feedback dos usuários e lamentamos que o recurso não tenha funcionado bem. Reconhecemos o erro e pausamos temporariamente a geração de imagens de pessoas no Gemini enquanto trabalhamos em uma versão melhorada”, disse.

Além dos “soldados nazistas em 1943”, o Gemini criou uma imagem de uma mulher negra supostamente assinando um documento numa imagem em que aparecem os chamados “Pais Fundadores dos Estados Unidos”, na Declaração da Independência. De acordo com Raghavan, o erro provavelmente foi causado pela intenção do Google de adotar uma postura politicamente correta. “Se você pedir uma imagem de jogadores de futebol ou de alguém passeando com um cachorro, talvez queira ver diferentes pessoas. Você provavelmente não deseja receber apenas imagens de pessoas de apenas uma etnia “, ponderou o executivo.

Segundo Raghavan, o ajuste para garantir que o Gemini mostrasse uma gama de pessoas não levou em conta os casos em que claramente não deveria fazer isso. “Em segundo lugar, com o tempo, o modelo se tornou muito mais cauteloso do que pretendíamos e se recusou a responder inteiramente a certas solicitações – interpretando erroneamente algumas solicitações muito anódinas como sensíveis. Essas duas coisas levaram o modelo a compensar excessivamente em alguns casos e a ser demasiado conservador em outros, conduzindo a imagens embaraçosas e erradas”, acrescentou.

Depois dessas explicações, Raghavan disse que trabalha para melhorar significativamente o recurso antes de reativá-lo, em um processo que incluirá testes extensivos. “Há casos em que a IA simplesmente entende errado as coisas. Isso é algo que estamos constantemente trabalhando para melhorar”, completou o vice-presidente do Google.

Reprodução X

TAGS

#diversidade#Gemini#google#IA generativa#imagens de pessoas#inclusão#inteligência artificial

COMPARTILHE

Notícias Relacionadas