OpenAI reforça a segurança com novo método de red teaming
Abordagem usa pessoas ou IA para explorar os riscos potenciais de um sistema de forma estruturada a fim de aumentar a proteção
26/11/202428/10/2024
Por redação AIoT Brasil
1 milhão de dólares: esse é o valor da recompensa máxima oferecida pela Apple a pesquisadores de segurança que conseguirem completar com êxito um ataque remoto aos dados armazenados em sua nuvem privada. Um comunicado com essa oferta foi publicado na quinta-feira passada no blog da big tech, que também está disposta a pagar outros prêmios valiosos a quem descobrir vulnerabilidades em seu sistema de proteção de dados.
A iniciativa é, também, uma maneira de chamar atenção para a estreia do sistema de inteligência em nuvem privada da Apple, chamado de Private Cloud Compute (PCC), que ocorrerá nesta semana. De acordo com a empresa, o PCC atende a solicitações computacionalmente intensivas para o Apple Intelligence, ao mesmo tempo em que fornece proteções de privacidade e segurança inovadoras.
A Apple disse que também dará os seguintes prêmios extras: US$ 250 mil ao especialista que conseguir acesso aos dados de solicitação de um usuário ou informações confidenciais fora do limite de confiança, US$ 150 mil a quem acessar dados ou informações confidenciais do usuário, US$ 100 mil ao pesquisador capaz de executar código não testado e US$ 50 mil pela divulgação acidental ou inesperada de dados devido a problemas de implantação ou configuração.
Mais do que simplesmente propor um desafio, a Apple tenta eliminar a possibilidade de falhas em sua nova IA em nuvem. “Para incentivar ainda mais a pesquisa em Private Cloud Compute, estamos expandindo o Apple Security Bounty para incluir recompensas por vulnerabilidades que demonstrem um comprometimento das garantias fundamentais de segurança e privacidade do PCC. Como o PCC estende a segurança e a privacidade dos dispositivos Apple para a nuvem, as recompensas que oferecemos são comparáveis às do iOS. Concedemos quantias máximas para vulnerabilidades que comprometem dados do usuário e dados de solicitação de inferência fora do limite de confiança do PCC”, explicou a empresa.
O PCC está sendo anunciado como uma extensão online do modelo de IA no dispositivo dos clientes da marca, chamado de Apple Intelligence, que pode lidar com tarefas de IA muito mais pesadas. “Avaliaremos cada relatório de acordo com a qualidade do que é apresentado, a prova do que pode ser explorado e o impacto para os usuários”, disse a Apple. Os pesquisadores que quiserem participar do desafio devem visitar a página do Apple Security Bounty.
#apple#Apple Intelligence#ataque remoto#código arbitrário#dados do usuário#inteligência em nuvem privada#pesquisadores de segurança#privacidade#segurança#vulnerabilidades
Abordagem usa pessoas ou IA para explorar os riscos potenciais de um sistema de forma estruturada a fim de aumentar a proteção
26/11/2024Documento emitido no dia 24 afirma que quando mal utilizada a tecnologia pode “minar instituições e processos democráticos”
29/10/2024Novo app identifica golpes em mensagens, chamadas de vídeo e redes sociais, oferecendo mais segurança aos consumidores em tempo real
24/10/2024