OpenAI é acusada na Índia de violação de direitos autorais
Processo foi aberto por uma das principais agências de notícias do país e envolve dados usados no treinamento do ChatGPT
21/11/202431/10/2024
Por Ricardo Marques da Silva
O grupo norte-americano Penguin Random House, maior editora comercial do mundo, iniciou um trabalho destinado a proibir o uso dos seus livros para o treinamento de grandes modelos de linguagem (LLMs) e outras ferramentas de inteligência artificial. O primeiro passo foi a introdução de um aviso em seus documentos de proteção dos direitos autorais, com esta redação: “Nenhuma parte deste livro pode ser usada ou reproduzida de nenhuma maneira com o propósito de treinar tecnologias ou sistemas de IA”.
A informação foi divulgada inicialmente no portal da revista britânica The Bookseller, especializada no mercado editorial, acrescentando que a mudança foi complementada por uma seção que exclui as obras da Penguin também da exceção de mineração de texto e dados da União Europeia, de acordo com as leis de direitos autorais aplicáveis.
A restrição será incluída em todos os novos títulos e reimpressões da editora. Segundo a Bookseller, a Penguin é a primeira das cinco grandes editoras comerciais de língua inglesa a alterar suas informações de direitos autorais para reagir ao avanço dos sistemas de IA e à dependência das big techs do conteúdo de livros para treinar modelos de linguagem.
A mudança ocorre no momento em que se registra uma série de casos de violação de direitos autorais nos Estados Unidos e em outros países, com relatos de que grandes lotes de livros pirateados já foram usados por empresas de tecnologia para treinar ferramentas de IA. Em 2024, várias editoras acadêmicas, entre as quais a Taylor & Francis, a Wiley e a Sage, já anunciaram parcerias para licenciar conteúdo para empresas de IA.
Em entrevista à Bookseller, Barbara Hayes, CEO da Authors’ Licensing and Collecting Society, aplaudiu a iniciativa: “É encorajador ver grandes editoras como a Penguin Random House adotarem uma nova redação em seus materiais impressos para reafirmar o princípio dos direitos autorais e proibir explicitamente as empresas de tecnologia de usar trabalhos protegidos para treinar seus modelos de IA. Esperamos que mais editoras sigam o exemplo e que as empresas que desenvolvem tais modelos se adaptem a essa realidade”, afirmou.
A advogada editorial Chien Wei Lui disse à Bookseller que o uso de livros para treinamento de grandes modelos de linguagem é uma ação infratora, e os editores devem garantir que podem controlar essa atividade para o benefício deles próprios e de seus autores. “Quanto mais treinamento for feito em uma base não contratual e sem licença, maior será o risco de que o conteúdo do autor esteja sendo desvalorizado”, acrescentou.
#direitos autorais#grandes modelos de linguagem#LLMs#mineração de texto#treinamento de IA#violação de direitos autorais
Processo foi aberto por uma das principais agências de notícias do país e envolve dados usados no treinamento do ChatGPT
21/11/2024O AIoT Brasil acompanhará de perto um dos mais importantes eventos de tecnologia do mundo, que deverá receber mais de 70 mil participantes
11/11/2024Confira novas profissões que estão surgindo com a inteligência artificial e saiba como se preparar para esse mercado em expansão
05/11/2024