OpenAI é acusada na Índia de violação de direitos autorais
Processo foi aberto por uma das principais agências de notícias do país e envolve dados usados no treinamento do ChatGPT
21/11/202404/05/2023
Por redação AIoT Brasil
Um vazamento acidental provocado por um engenheiro levou a multinacional sul-coreana Samsung Electronics a proibir os funcionários de sua divisão de eletrodomésticos e celulares de usar o ChatGPT e outras ferramentas de inteligência artificial generativa, como o Bing e o Google Bard. De acordo com a Forbes, a medida foi adotada depois do carregamento de um código-fonte confidencial no chatbot da OpenAI, em abril.
Embora não tenha detalhado a gravidade do vazamento, a Samsung admitiu em um relatório divulgado em 2 de maio que está preocupada com o fato de os dados compartilhados serem armazenados em servidores de empresas que operam serviços de IA generativa, como a OpenAI, a Microsoft e o Google, sem uma maneira fácil de acessá-los e excluí-los. A Samsung também teme que os dados confidenciais possam ser acessados por usuários externos.
A Forbes lembrou que a decisão de vetar o uso do ChatGPT e de bots semelhantes em locais de trabalho já havia ocorrido em outras empresas, justamente para evitar o vazamento de informações internas confidenciais. Em janeiro, a Amazon emitiu um alerta como esse aos funcionários e determinou que não compartilhassem nenhum código ou informação confidencial no ChatGPT, depois da descoberta de que respostas da plataforma faziam referência a dados internos.
Em fevereiro, foi a vez do grupo financeiro JPMorgan Chase restringir o uso interno do ChatGPT, com a preocupação de que pudesse enfrentar riscos regulatórios referentes ao compartilhamento de informações confidenciais. Rapidamente, o exemplo foi seguido por outros grandes bancos de investimento, entre os quais o Bank of America, o Citigroup, o Deutsche Bank, a Wells Fargo e o Goldman Sachs.
Essas ocorrências refletem o enorme impacto do ChatGPT desde que foi lançado em novembro de 2022, como precursor de um tipo de IA capaz de responder perguntas técnicas e criar textos com alto nível de qualidade. Por outro lado, a IA generativa é vista também como uma ameaça à segurança de dados sensíveis, na medida em que persistem dúvidas em relação à forma de coleta e armazenamento das informações compartilhadas pelos usuários. Como padrão, o ChatGPT salva o histórico das interações do usuário e o utiliza para treinar os modelos de linguagem e aperfeiçoar as respostas.
Internamente, a Samsung disse que está buscando maneiras mais seguras de usar os chatbots, sem abrir mão dos benefícios que podem proporcionar. “Até que essas medidas estejam definidas, proibimos temporariamente o uso de serviços de IA generativa em computadores de propriedade da empresa”, informou.
#Bing#ChatGPT#Google Bard#IA generativa#informações confidenciais#inteligência artificial generativa#open AI#samsung#vazamento
Processo foi aberto por uma das principais agências de notícias do país e envolve dados usados no treinamento do ChatGPT
21/11/2024O AIoT Brasil acompanhará de perto um dos mais importantes eventos de tecnologia do mundo, que deverá receber mais de 70 mil participantes
11/11/2024Confira novas profissões que estão surgindo com a inteligência artificial e saiba como se preparar para esse mercado em expansão
05/11/2024