IA de Elon Musk viraliza depois de sugerir voto em Lula
Grok provoca polêmica ao dizer que escolheria o presidente pelo seu alinhamento com a democracia, o meio ambiente e o bem-estar social
04/04/202526/02/2024
Por redação AIoT Brasil
Até que ponto é admissível a criação de imagens de soldados negros e asiáticos em uniformes nazistas? Pois foi isso o que fez uma nova ferramenta da inteligência artificial Gemini (ex-Bard) do Google, ao aplicar supostas regras de “inclusão e diversidade” às solicitações dos usuários por meio de uma ferramenta lançada há menos de um mês e já desativada.
Depois de todo o barulho provocado, o Google resolveu se explicar e convocou o vice-presidente sênior Prabhakar Raghavan para assinar um comunicado publicado no blog da empresa, na sexta-feira, 23, com um este título: “A geração de imagens do Gemini errou. Faremos melhor”. O executivo admite a falha: “É claro que esse recurso errou o alvo. Algumas das imagens geradas são imprecisas e até ofensivas. Agradecemos o feedback dos usuários e lamentamos que o recurso não tenha funcionado bem. Reconhecemos o erro e pausamos temporariamente a geração de imagens de pessoas no Gemini enquanto trabalhamos em uma versão melhorada”, disse.
Além dos “soldados nazistas em 1943”, o Gemini criou uma imagem de uma mulher negra supostamente assinando um documento numa imagem em que aparecem os chamados “Pais Fundadores dos Estados Unidos”, na Declaração da Independência. De acordo com Raghavan, o erro provavelmente foi causado pela intenção do Google de adotar uma postura politicamente correta. “Se você pedir uma imagem de jogadores de futebol ou de alguém passeando com um cachorro, talvez queira ver diferentes pessoas. Você provavelmente não deseja receber apenas imagens de pessoas de apenas uma etnia “, ponderou o executivo.
Segundo Raghavan, o ajuste para garantir que o Gemini mostrasse uma gama de pessoas não levou em conta os casos em que claramente não deveria fazer isso. “Em segundo lugar, com o tempo, o modelo se tornou muito mais cauteloso do que pretendíamos e se recusou a responder inteiramente a certas solicitações – interpretando erroneamente algumas solicitações muito anódinas como sensíveis. Essas duas coisas levaram o modelo a compensar excessivamente em alguns casos e a ser demasiado conservador em outros, conduzindo a imagens embaraçosas e erradas”, acrescentou.
Depois dessas explicações, Raghavan disse que trabalha para melhorar significativamente o recurso antes de reativá-lo, em um processo que incluirá testes extensivos. “Há casos em que a IA simplesmente entende errado as coisas. Isso é algo que estamos constantemente trabalhando para melhorar”, completou o vice-presidente do Google.
Reprodução X
#diversidade#Gemini#google#IA generativa#imagens de pessoas#inclusão#inteligência artificial
Grok provoca polêmica ao dizer que escolheria o presidente pelo seu alinhamento com a democracia, o meio ambiente e o bem-estar social
04/04/2025IA de busca lançada no Brasil em agosto do ano passado promete resumos concisos e relevantes e aprofundamento das pesquisas
03/04/2025Os dois filmes do partido foram produzidos inteiramente com a tecnologia e alertam para o risco de manipulação nas eleições
02/04/2025