Visitante Postado 7 de agosto de 2021 Denunciar Compartilhar Postado 7 de agosto de 2021 (editado) Nesse tópico eu quero apenas compartilhar com vocês uma notícia que eu tive acesso recentemente, e que acho importante que o maior número de pessoas tomem conhecimento. Abaixo está a notícia publicada no FINANCIAL TIMES, traduzida por mim. Apple planeja escanear iPhones dos EUA em busca de imagens de abuso infantil. Pesquisadores de segurança levantam alerta sobre a potencial vigilância de dispositivos pessoais A Apple pretende instalar software em iPhones americanos para procurar imagens de abuso infantil, de acordo com pessoas informadas sobre seus planos, levantando alarme entre pesquisadores de segurança que advertem que poderia abrir a porta para a vigilância de dispositivos pessoais de milhões de pessoas. A Apple detalhou seu sistema proposto conhecido como "neuralMatch" para alguns acadêmicos dos EUA no início desta semana, de acordo com dois pesquisadores de segurança informados sobre a reunião virtual. O sistema automatizado alertaria pro ativamente uma equipe de revisores humanos se acreditasse que imagens ilegais são detectadas, que entrariam em contato com a aplicação da lei se o material pudesse ser verificado. O esquema será inicialmente lançado apenas nos EUA. A Apple confirmou seus planos em um post no blog, dizendo que a tecnologia de digitalização faz parte de um novo conjunto de sistemas de proteção infantil que "evoluiriam e se expandiriam ao longo do tempo"'. Os recursos serão lançados como parte do iOS 15, previsto para ser lançado no próximo mês. "Essa nova tecnologia inovadora permite que a Apple forneça informações valiosas e acionáveis ao Centro Nacional de Crianças Desaparecidas e Exploradas e à aplicação da lei sobre a proliferação do CSAM [material de abuso sexual infantil] conhecido", disse a empresa. "E isso acontece enquanto fornece benefícios significativos de privacidade em relação às técnicas existentes, já que a Apple só aprende sobre as fotos dos usuários se eles tiverem uma coleção de CSAM conhecidos em sua conta do iCloud Photos. As propostas são a tentativa da Apple de encontrar um compromisso entre sua própria promessa a a de proteger a privacidade dos clientes e as demandas de governos, agências policiais e ativistas de segurança infantil por mais assistência em investigações criminais, incluindo terrorismo e pornografia infantil. A tensão entre empress de tecnologia como Apple e Facebook, que defenderam seu uso crescente de criptografia em seus produtos e serviços, e a aplicação da lei só se intensificou desde que o fabricante do iPhone foi a tribunal com o FBI em 2016 sobre o acesso ao iPhone de um suspeito de terrorismo após um tiroteio em San Bernardino, Califórnia. Pesquisadores de segurança, embora apoiem os esforços para combater o abuso infantil, estão preocupados que a Apple corra o risco de permitir que governos de todo O mundo busquem acesso aos dados pessoais de seus cidadãos, potencialmente muito além de sua intenção original. "'É uma idea absolutamente terrível, porque levará à vigilância em massa distribuída de… nossos telefones e laptops!" disse Ross Anderson, professor de engenharia de segurança da Universidade de Cambridge. Embora 0 sistema seja atualmente treinado para detectar abuso sexual infantil, ele pode ser adaptado para procurar qualquer outra imagem e texto direcionados, por exemplo, decapitações terroristas ou sinais antigovernamentais em protestos, dizem pesquisadores. O precedente da Apple também pode a aumentar a pressão sobre outras empress de tecnologia a usar técnicas semelhantes. "Isso vai quebrar a barragem a OS governos exigirão isso de todos," disse Matthew Green, professor de segurança da Universidade Johns Hopkins, que se acredita ser 0 primeiro pesquisador a postar um tweet sobre o assunto. Alec Muffett, um pesquisador de segurança e ativista de privacidade que trabalhou anteriormente no Facebook e Deliveroo, disse que a mudança da Apple foi "tectônica" e um 'grande e regressivo passo para a privacidade individual" "A Apple está voltando a privacidade para permitir 1984," disse ele. Sistemas de armazenamento de fotos e sites de redes sociais baseados em nuvem já procuram imagens de abuso infantil, mas esse processo se torna mais complexo ao tentar acessar dados armazenados em um dispositivo pessoal. O sistema da Apple é a menos invasivo, pois a triagem é feita pelo telefone, e "somente se houver uma correspondência é que a é notificação é enviada de volta para aqueles que pesquisam", disse Alan Woodward, professor de segurança de computadores da Universidade de Surrey. "Essa abordagem descentralizada é a melhor abordagem que você poderia adotar se seguir esse caminho.' O algoritmo neuralMatch da Apple digitalizará continuamente fotos armazenadas no iPhone de um usuário dos EUA e também foram carregadas em seu sistema de backup do iCloud. As fotos dos usuários, convertidas em uma sequência de números através de um processo conhecido como "hashing", serão comparadas com as de um banco de dados de imagens conhecidas de abuso sexual infantil. O sistema foi treinado em 200.000 imagens de abuso sexual coletadas pelo NCMEC. De acordo com pessoas informadas sobre OS plans, todas as fotos enviadas para o iCloud nos EUA receberão um "vale de segurança" dizendo se é suspeita ou não. Uma vez que um certo número de fotos seja marcado como suspeito, a Apple permitirá que a todas as fotos suspeitas sejam descriptografadas e, se aparentemente ilegais, repassadas às autoridades competentes. Você pode ler a notícia aqui. Você pode enternder como essa tecnologia funciona aqui. Gostaria de dar os meus dois centavos: com toda a certeza, vai aparecer aquele tiozão que vai dizer: "ah, mas eu não devo nada, podem olhar minhas fotos a vontade, e quem não tem nada a esconder não tem medo disso"; bem, esse pensamento está baseado em um sofisma: a ideia de que a privacidade é apenas sobre esconder coisas ruins. Eu posso não ter nada de ruim ou ilegal a esconder, mas mesmo assim eu não quero que algum abelhudo veja ou pior, fique escanenando as minhas coisas sem o meu consentimento - para quem ler o documento que eu deixei no final da notícia, vai ver que essa tecnologia escaneia as fotos do usuário e as classifica sem o conhecimento ou consentimento dele. Hoje a justificativa da Apple é que ela está fazendo isso para o bem das crianças… mas amanhã ela estará escanenado os nossos dispositivos para o bem das mulheres assediadas, e depois as para impedir o discurso de ódio, e depois para impedir o terrorismo, enfim, sempre para o nosso "próprio bem", a Apple vai começar a tirar, grão a grão, a nossa privacidade! Eu acredito que se nada for feito agora, estaremos abrindo uma porta que depois será muito difícil de fechar. Editado 7 de agosto de 2021 por Visitante Citar Link para o comentário Compartilhar em outros sites More sharing options...
fabiofsl Postado 8 de agosto de 2021 Denunciar Compartilhar Postado 8 de agosto de 2021 A ideia é ótima, porém este sistema vai verificar e analisar todas as fotos? Me lembro quando fui bombardeado sobre a Apple não dar acesso a iPhone de pessoas que supostamente tem crimes cometidos e nestes podem ser pedófilos por exemplo. Eu sou pai de família se um dia a autoridade quiser ver meus dados sem problema, porém é meio confuso a ideia atual da Apple poder então invadir a privacidade e as autoridades não… fique claro minha opinião sem brigas… Citar Link para o comentário Compartilhar em outros sites More sharing options...
Posts Recomendados
Participe do debate
Você pode postar agora e se registrar depois. Se você tem uma conta, entre agora para postar com ela.