Inteligência artificial do Google chega aos carros e TVs
Gemini vai oferecer respostas em linguagem natural e sugestões de conteúdo por comando de voz; TCL será a primeira a incorporar esse recurso em seus televisores
16/05/202526/02/2024
Por redação AIoT Brasil
Até que ponto é admissível a criação de imagens de soldados negros e asiáticos em uniformes nazistas? Pois foi isso o que fez uma nova ferramenta da inteligência artificial Gemini (ex-Bard) do Google, ao aplicar supostas regras de “inclusão e diversidade” às solicitações dos usuários por meio de uma ferramenta lançada há menos de um mês e já desativada.
Depois de todo o barulho provocado, o Google resolveu se explicar e convocou o vice-presidente sênior Prabhakar Raghavan para assinar um comunicado publicado no blog da empresa, na sexta-feira, 23, com um este título: “A geração de imagens do Gemini errou. Faremos melhor”. O executivo admite a falha: “É claro que esse recurso errou o alvo. Algumas das imagens geradas são imprecisas e até ofensivas. Agradecemos o feedback dos usuários e lamentamos que o recurso não tenha funcionado bem. Reconhecemos o erro e pausamos temporariamente a geração de imagens de pessoas no Gemini enquanto trabalhamos em uma versão melhorada”, disse.
Além dos “soldados nazistas em 1943”, o Gemini criou uma imagem de uma mulher negra supostamente assinando um documento numa imagem em que aparecem os chamados “Pais Fundadores dos Estados Unidos”, na Declaração da Independência. De acordo com Raghavan, o erro provavelmente foi causado pela intenção do Google de adotar uma postura politicamente correta. “Se você pedir uma imagem de jogadores de futebol ou de alguém passeando com um cachorro, talvez queira ver diferentes pessoas. Você provavelmente não deseja receber apenas imagens de pessoas de apenas uma etnia “, ponderou o executivo.
Segundo Raghavan, o ajuste para garantir que o Gemini mostrasse uma gama de pessoas não levou em conta os casos em que claramente não deveria fazer isso. “Em segundo lugar, com o tempo, o modelo se tornou muito mais cauteloso do que pretendíamos e se recusou a responder inteiramente a certas solicitações – interpretando erroneamente algumas solicitações muito anódinas como sensíveis. Essas duas coisas levaram o modelo a compensar excessivamente em alguns casos e a ser demasiado conservador em outros, conduzindo a imagens embaraçosas e erradas”, acrescentou.
Depois dessas explicações, Raghavan disse que trabalha para melhorar significativamente o recurso antes de reativá-lo, em um processo que incluirá testes extensivos. “Há casos em que a IA simplesmente entende errado as coisas. Isso é algo que estamos constantemente trabalhando para melhorar”, completou o vice-presidente do Google.
Reprodução X
#diversidade#Gemini#google#IA generativa#imagens de pessoas#inclusão#inteligência artificial
Gemini vai oferecer respostas em linguagem natural e sugestões de conteúdo por comando de voz; TCL será a primeira a incorporar esse recurso em seus televisores
16/05/2025Lançado em julho de 2024, o PBIA tem investimento previsto de R$ 23 bilhões durante quatro anos e metas ambiciosas
15/05/2025Governo anunciou a introdução do curso no currículo de todos os níveis até o ensino médio para mostrar as aplicações no dia a dia
13/05/2025