OpenAI é acusada na Índia de violação de direitos autorais
Processo foi aberto por uma das principais agências de notícias do país e envolve dados usados no treinamento do ChatGPT
21/11/202430/03/2023
Por Daniel dos Santos, editor do AIoT Brasil
Você tem medo da inteligência artificial? Pois saiba que tem gente “graúda” muito preocupada com ela. Tanto que nomes como Elon Musk (CEO da SpaceX, Tesla e Twitter), Steve Wozniak (lendário cofundador da Apple e o gênio tecnológico responsável pelos primeiros computadores da empresa da maçã) e o popular escritor Yuval Noah Harari, autor de Homo Deus e Sapiens, divulgaram uma carta na qual apontam a IA como uma ameaça à humanidade. E pedem que seja feita uma pausa de pelo menos seis meses no desenvolvimento de sistemas de inteligência artificial avançados.
O documento, que é assinado por dezenas de especialistas e outros grandes nomes do mundo da tecnologia, afirma que sistemas de IA podem representar “riscos profundos para a sociedade e a humanidade, conforme demonstrado por extensa pesquisa e reconhecido pelos principais laboratórios de IA”. Segundo eles, a IA avançada pode representar uma mudança profunda na vida na Terra e deve ser planejada e gerenciada com cuidados e recursos proporcionais.
“Infelizmente, esse nível de planejamento e gerenciamento não está acontecendo, embora nos últimos meses tenhamos visto laboratórios de IA em uma corrida descontrolada para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável”, diz o documento. Vale lembrar que até o próprio ChatGPT admite que a IA pode ser utilizada contra os seres humanos como mostra a recente “entrevista” feita pelo AIoT Brasil, com a popular ferramenta de inteligência artificial.
No documento, os especialistas pedem a todos os laboratórios de IA que “parem imediatamente, por pelo menos seis meses, o desenvolvimento de sistemas de inteligência artificial mais poderosos que o GPT-4. Essa pausa deve ser pública e verificável e incluir todos os principais atores. Se tal pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória”.
A ideia é que laboratórios de IA e especialistas independentes usem essa pausa para desenvolver e implementar em conjunto um grupo de protocolos de segurança para design e desenvolvimento avançados de IA que sejam rigorosamente auditados e supervisionados por especialistas externos independentes.
Esses protocolos devem garantir que os sistemas que aderem a eles sejam seguros. Vale lembrar que isso não significa uma pausa no desenvolvimento da IA em geral, é apenas um freio na “corrida perigosa para modelos cada vez mais imprevisíveis”, afirma o documento.
#apple#ChatGPT#Elon Musk#IA#Wosniak
Processo foi aberto por uma das principais agências de notícias do país e envolve dados usados no treinamento do ChatGPT
21/11/2024O AIoT Brasil acompanhará de perto um dos mais importantes eventos de tecnologia do mundo, que deverá receber mais de 70 mil participantes
11/11/2024Confira novas profissões que estão surgindo com a inteligência artificial e saiba como se preparar para esse mercado em expansão
05/11/2024