Repórteres Sem Fronteiras pede que a IA seja classificada como “de alto risco”
Organização RSF afirma que o projeto que tramita no Congresso apresenta “uma grave lacuna”
28/08/202530/03/2023
Por Daniel dos Santos, editor do AIoT Brasil
Você tem medo da inteligência artificial? Pois saiba que tem gente “graúda” muito preocupada com ela. Tanto que nomes como Elon Musk (CEO da SpaceX, Tesla e Twitter), Steve Wozniak (lendário cofundador da Apple e o gênio tecnológico responsável pelos primeiros computadores da empresa da maçã) e o popular escritor Yuval Noah Harari, autor de Homo Deus e Sapiens, divulgaram uma carta na qual apontam a IA como uma ameaça à humanidade. E pedem que seja feita uma pausa de pelo menos seis meses no desenvolvimento de sistemas de inteligência artificial avançados.
O documento, que é assinado por dezenas de especialistas e outros grandes nomes do mundo da tecnologia, afirma que sistemas de IA podem representar “riscos profundos para a sociedade e a humanidade, conforme demonstrado por extensa pesquisa e reconhecido pelos principais laboratórios de IA”. Segundo eles, a IA avançada pode representar uma mudança profunda na vida na Terra e deve ser planejada e gerenciada com cuidados e recursos proporcionais.
“Infelizmente, esse nível de planejamento e gerenciamento não está acontecendo, embora nos últimos meses tenhamos visto laboratórios de IA em uma corrida descontrolada para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável”, diz o documento. Vale lembrar que até o próprio ChatGPT admite que a IA pode ser utilizada contra os seres humanos como mostra a recente “entrevista” feita pelo AIoT Brasil, com a popular ferramenta de inteligência artificial.
No documento, os especialistas pedem a todos os laboratórios de IA que “parem imediatamente, por pelo menos seis meses, o desenvolvimento de sistemas de inteligência artificial mais poderosos que o GPT-4. Essa pausa deve ser pública e verificável e incluir todos os principais atores. Se tal pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória”.
A ideia é que laboratórios de IA e especialistas independentes usem essa pausa para desenvolver e implementar em conjunto um grupo de protocolos de segurança para design e desenvolvimento avançados de IA que sejam rigorosamente auditados e supervisionados por especialistas externos independentes.
Esses protocolos devem garantir que os sistemas que aderem a eles sejam seguros. Vale lembrar que isso não significa uma pausa no desenvolvimento da IA em geral, é apenas um freio na “corrida perigosa para modelos cada vez mais imprevisíveis”, afirma o documento.
#apple#ChatGPT#Elon Musk#IA#Wosniak
Organização RSF afirma que o projeto que tramita no Congresso apresenta “uma grave lacuna”
28/08/2025Segundo a OpenAI o novo modelo tem desempenho superior em programação, matemática, escrita, saúde e percepção visual
26/08/2025Estudo global a respeito do tema surpreendeu ao afirmar que 95% dos projetos-piloto de IA não geram impacto financeiro significativo
25/08/2025