Dinamarca vai dar às pessoas o direito sobre sua identidade
Governo propõe uma lei que pretende combater a manipulação da identidade dos cidadãos por meio de IA generativa
02/07/202531/10/2024
Por Ricardo Marques da Silva
O grupo norte-americano Penguin Random House, maior editora comercial do mundo, iniciou um trabalho destinado a proibir o uso dos seus livros para o treinamento de grandes modelos de linguagem (LLMs) e outras ferramentas de inteligência artificial. O primeiro passo foi a introdução de um aviso em seus documentos de proteção dos direitos autorais, com esta redação: “Nenhuma parte deste livro pode ser usada ou reproduzida de nenhuma maneira com o propósito de treinar tecnologias ou sistemas de IA”.
A informação foi divulgada inicialmente no portal da revista britânica The Bookseller, especializada no mercado editorial, acrescentando que a mudança foi complementada por uma seção que exclui as obras da Penguin também da exceção de mineração de texto e dados da União Europeia, de acordo com as leis de direitos autorais aplicáveis.
A restrição será incluída em todos os novos títulos e reimpressões da editora. Segundo a Bookseller, a Penguin é a primeira das cinco grandes editoras comerciais de língua inglesa a alterar suas informações de direitos autorais para reagir ao avanço dos sistemas de IA e à dependência das big techs do conteúdo de livros para treinar modelos de linguagem.
A mudança ocorre no momento em que se registra uma série de casos de violação de direitos autorais nos Estados Unidos e em outros países, com relatos de que grandes lotes de livros pirateados já foram usados por empresas de tecnologia para treinar ferramentas de IA. Em 2024, várias editoras acadêmicas, entre as quais a Taylor & Francis, a Wiley e a Sage, já anunciaram parcerias para licenciar conteúdo para empresas de IA.
Em entrevista à Bookseller, Barbara Hayes, CEO da Authors’ Licensing and Collecting Society, aplaudiu a iniciativa: “É encorajador ver grandes editoras como a Penguin Random House adotarem uma nova redação em seus materiais impressos para reafirmar o princípio dos direitos autorais e proibir explicitamente as empresas de tecnologia de usar trabalhos protegidos para treinar seus modelos de IA. Esperamos que mais editoras sigam o exemplo e que as empresas que desenvolvem tais modelos se adaptem a essa realidade”, afirmou.
A advogada editorial Chien Wei Lui disse à Bookseller que o uso de livros para treinamento de grandes modelos de linguagem é uma ação infratora, e os editores devem garantir que podem controlar essa atividade para o benefício deles próprios e de seus autores. “Quanto mais treinamento for feito em uma base não contratual e sem licença, maior será o risco de que o conteúdo do autor esteja sendo desvalorizado”, acrescentou.
#direitos autorais#grandes modelos de linguagem#LLMs#mineração de texto#treinamento de IA#violação de direitos autorais
Governo propõe uma lei que pretende combater a manipulação da identidade dos cidadãos por meio de IA generativa
02/07/2025Pesquisa feita a partir de entrevistas com 650 líderes de TI e Cybersecurity do Brasil e do mundo mostra que 54% deles dizem que avanço é prejudicado pela ausência de habilidades em IA no time
27/06/2025Empresa diz que o GPT Maker é capaz de combinar assistentes de vários perfis para aperfeiçoar o atendimento ao cliente
26/06/2025