Fórum de Lisboa destaca a urgência da regulamentação da IA
Evento que se encerra hoje na capital portuguesa enfatizou os desafios e os riscos à democracia envolvidos no uso da tecnologia
04/07/202530/03/2023
Por Daniel dos Santos, editor do AIoT Brasil
Você tem medo da inteligência artificial? Pois saiba que tem gente “graúda” muito preocupada com ela. Tanto que nomes como Elon Musk (CEO da SpaceX, Tesla e Twitter), Steve Wozniak (lendário cofundador da Apple e o gênio tecnológico responsável pelos primeiros computadores da empresa da maçã) e o popular escritor Yuval Noah Harari, autor de Homo Deus e Sapiens, divulgaram uma carta na qual apontam a IA como uma ameaça à humanidade. E pedem que seja feita uma pausa de pelo menos seis meses no desenvolvimento de sistemas de inteligência artificial avançados.
O documento, que é assinado por dezenas de especialistas e outros grandes nomes do mundo da tecnologia, afirma que sistemas de IA podem representar “riscos profundos para a sociedade e a humanidade, conforme demonstrado por extensa pesquisa e reconhecido pelos principais laboratórios de IA”. Segundo eles, a IA avançada pode representar uma mudança profunda na vida na Terra e deve ser planejada e gerenciada com cuidados e recursos proporcionais.
“Infelizmente, esse nível de planejamento e gerenciamento não está acontecendo, embora nos últimos meses tenhamos visto laboratórios de IA em uma corrida descontrolada para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável”, diz o documento. Vale lembrar que até o próprio ChatGPT admite que a IA pode ser utilizada contra os seres humanos como mostra a recente “entrevista” feita pelo AIoT Brasil, com a popular ferramenta de inteligência artificial.
No documento, os especialistas pedem a todos os laboratórios de IA que “parem imediatamente, por pelo menos seis meses, o desenvolvimento de sistemas de inteligência artificial mais poderosos que o GPT-4. Essa pausa deve ser pública e verificável e incluir todos os principais atores. Se tal pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória”.
A ideia é que laboratórios de IA e especialistas independentes usem essa pausa para desenvolver e implementar em conjunto um grupo de protocolos de segurança para design e desenvolvimento avançados de IA que sejam rigorosamente auditados e supervisionados por especialistas externos independentes.
Esses protocolos devem garantir que os sistemas que aderem a eles sejam seguros. Vale lembrar que isso não significa uma pausa no desenvolvimento da IA em geral, é apenas um freio na “corrida perigosa para modelos cada vez mais imprevisíveis”, afirma o documento.
#apple#ChatGPT#Elon Musk#IA#Wosniak
Evento que se encerra hoje na capital portuguesa enfatizou os desafios e os riscos à democracia envolvidos no uso da tecnologia
04/07/2025Governo propõe uma lei que pretende combater a manipulação da identidade dos cidadãos por meio de IA generativa
02/07/2025Pesquisa feita a partir de entrevistas com 650 líderes de TI e Cybersecurity do Brasil e do mundo mostra que 54% deles dizem que avanço é prejudicado pela ausência de habilidades em IA no time
27/06/2025