AiotAiot


Samsung proíbe que seus funcionários usem o ChatGPT

Medida foi anunciado pela empresa sul-coreana poucos dias depois do vazamento acidental de um código-fonte sensível

04/05/2023

Samsung proíbe que seus funcionários usem o ChatGPT
Tamanho fonte

Por redação AIoT Brasil

Um vazamento acidental provocado por um engenheiro levou a multinacional sul-coreana Samsung Electronics a proibir os funcionários de sua divisão de eletrodomésticos e celulares de usar o ChatGPT e outras ferramentas de inteligência artificial generativa, como o Bing e o Google Bard. De acordo com a Forbes, a medida foi adotada depois do carregamento de um código-fonte confidencial no chatbot da OpenAI, em abril.

Embora não tenha detalhado a gravidade do vazamento, a Samsung admitiu em um relatório divulgado em 2 de maio que está preocupada com o fato de os dados compartilhados serem armazenados em servidores de empresas que operam serviços de IA generativa, como a OpenAI, a Microsoft e o Google, sem uma maneira fácil de acessá-los e excluí-los. A Samsung também teme que os dados confidenciais possam ser acessados por usuários externos.

A Forbes lembrou que a decisão de vetar o uso do ChatGPT e de bots semelhantes em locais de trabalho já havia ocorrido em outras empresas, justamente para evitar o vazamento de informações internas confidenciais. Em janeiro, a Amazon emitiu um alerta como esse aos funcionários e determinou que não compartilhassem nenhum código ou informação confidencial no ChatGPT, depois da descoberta de que respostas da plataforma faziam referência a dados internos.

Em fevereiro, foi a vez do grupo financeiro JPMorgan Chase restringir o uso interno do ChatGPT, com a preocupação de que pudesse enfrentar riscos regulatórios referentes ao compartilhamento de informações confidenciais. Rapidamente, o exemplo foi seguido por outros grandes bancos de investimento, entre os quais o Bank of America, o Citigroup, o Deutsche Bank, a Wells Fargo e o Goldman Sachs.

Essas ocorrências refletem o enorme impacto do ChatGPT desde que foi lançado em novembro de 2022, como precursor de um tipo de IA capaz de responder perguntas técnicas e criar textos com alto nível de qualidade. Por outro lado, a IA generativa é vista também como uma ameaça à segurança de dados sensíveis, na medida em que persistem dúvidas em relação à forma de coleta e armazenamento das informações compartilhadas pelos usuários. Como padrão, o ChatGPT salva o histórico das interações do usuário e o utiliza para treinar os modelos de linguagem e aperfeiçoar as respostas.

Internamente, a Samsung disse que está buscando maneiras mais seguras de usar os chatbots, sem abrir mão dos benefícios que podem proporcionar. “Até que essas medidas estejam definidas, proibimos temporariamente o uso de serviços de IA generativa em computadores de propriedade da empresa”, informou.

TAGS

#Bing#ChatGPT#Google Bard#IA generativa#informações confidenciais#inteligência artificial generativa#open AI#samsung#vazamento

COMPARTILHE

Notícias Relacionadas