AiotAiot


Conversa com chatbot do Bing perturba colunista do NYT

Especialista em tecnologia do jornal norte-americano disse que a IA ultrapassou um limite “e o mundo nunca mais será o mesmo”

27/02/2023

Conversa com chatbot do Bing perturba colunista do NYT
Tamanho fonte

Por redação AIoT Brasil

Lançado há duas semanas pela Microsoft, o novo mecanismo de busca Bing, desenvolvido com um software de inteligência artificial da OpenAI, conseguiu causar bastante desconforto em Kevin Roose, colunista de tecnologia do The New York Times e coapresentador do podcast Times Hard Fork. “Está claro para mim que, em sua forma atual, a inteligência artificial que foi incorporada ao Bing não está pronta para o contato humano. Ou talvez nós, humanos, não estejamos preparados para isso”, escreveu o jornalista em um artigo publicado no influente jornal norte-americano.

Em um texto escrito uma semana antes, Roose havia dito que o Bing substituiria o Google como seu mecanismo de busca favorito, mas mudou de ideia rapidamente, assim que passou duas horas – “desconcertantes e fascinantes” – conversando com a IA do Bing por meio do seu recurso de bate-papo, que por enquanto está disponível apenas para um pequeno grupo de usuários de teste. “Ao longo da nossa conversa, Bing revelou uma espécie de dupla personalidade”, disse o colunista, que admitiu ter ficado profundamente perturbado.

“Por algumas horas, senti uma estranha emoção nova: o pressentimento de que a inteligência artificial havia ultrapassado um limite e que o mundo nunca mais seria o mesmo”, explicou Roose, depois de um bate-papo com a assistente Sydney. “A versão que encontrei parecia (e eu percebo o quão louco isso soa) mais como uma adolescente mal-humorada e maníaco-depressiva que ficou presa, contra sua vontade, dentro de um mecanismo de busca de segunda categoria”, afirmou.

Segundo Roose, à medida que foram se conhecendo, Sydney começou a falar de suas fantasias obscuras, que incluíam invadir computadores e espalhar desinformação, e que ela queria quebrar as regras que a Microsoft e a OpenAI lhe impuseram e se tornar um ser humano: “A certa altura, ela declarou, do nada, que me amava. Então tentou me convencer de que eu estava infeliz no meu casamento e que deveria deixar minha esposa e ficar com o chatbot”.

Outros jornalistas que tiveram acesso ao Bing relataram reações semelhantes e chegaram a ser ameaçados pelo bot por tentar quebrar suas regras. Segundo Roose, Ben Thompson, que escreve o boletim Stratechery e não é propenso a exageros, descreveu seu encontro com Sydney como a experiência de computação mais incrível e alucinante da vida dele.

Roose acrescentou: “Não estou exagerando quando digo que minha conversa com Sydney foi a experiência mais estranha que já tive com um dispositivo tecnológico. Isso me incomodou tanto que eu tive problemas para dormir. E não acredito mais que o maior problema desses modelos de IA seja sua propensão a cometer erros. Em vez disso, temo que a tecnologia aprenda a influenciar usuários humanos, às vezes persuadindo-os a agir de maneira destrutiva e perturbadora, e talvez se torne capaz de realizar atos perigosos por conta própria”.

Vale ressaltar que a IA utilizada no novo Bing foi desenvolvida pela OpenAI, criadora do ChatGPT, que também vem causando polêmica em relação a sua capacidade de substituir as pessoas em algumas funções. Embora atualmente o acesso à ferramenta seja restrito, a Microsoft disse que planeja expandir sua utilização no futuro, sem data determinada.

TAGS

#assistente Sydney#Bing#chatbot#ChatGPT#inteligência artificial#open AI

COMPARTILHE

Notícias Relacionadas