Ir para conteúdo
  • Cadastre-se

Fim da privacidade no iOS e início de uma possível vigilância em massa?


Visitante

Posts Recomendados

Nesse tópico eu quero apenas compartilhar com vocês uma notícia que eu tive acesso recentemente, e que acho importante que o maior número de pessoas tomem conhecimento.

Abaixo está a notícia publicada no FINANCIAL TIMES, traduzida por mim.

 

Apple planeja escanear iPhones dos EUA em busca de imagens
de abuso infantil.

 

Pesquisadores de segurança levantam alerta sobre
a potencial vigilância de dispositivos pessoais

 

A Apple pretende instalar software em iPhones americanos para procurar imagens de
abuso infantil, de acordo com pessoas informadas sobre seus planos, levantando
alarme entre pesquisadores de segurança que advertem que poderia abrir a porta para
a vigilância de dispositivos pessoais de milhões de pessoas.


A Apple detalhou seu sistema proposto conhecido como "neuralMatch" para alguns
acadêmicos dos EUA no início desta semana, de acordo com dois pesquisadores de
segurança informados sobre a reunião virtual.

O sistema automatizado alertaria pro ativamente uma equipe de revisores humanos se
acreditasse que imagens ilegais são detectadas, que entrariam em contato com a
aplicação da lei se o material pudesse ser verificado. O esquema será inicialmente
lançado apenas nos EUA.


A Apple confirmou seus planos em um post no blog, dizendo que a tecnologia de
digitalização faz parte de um novo conjunto de sistemas de proteção infantil que
"evoluiriam e se expandiriam ao longo do tempo"'. Os recursos serão lançados como
parte do iOS 15, previsto para ser lançado no próximo mês.


"Essa nova tecnologia inovadora permite que a Apple forneça informações valiosas e
acionáveis ao Centro Nacional de Crianças Desaparecidas e Exploradas e à aplicação da
lei sobre a proliferação do CSAM [material de abuso sexual infantil] conhecido", disse a
empresa.


"E isso acontece enquanto fornece benefícios significativos de privacidade em relação
às técnicas existentes, já que a Apple só aprende sobre as fotos dos usuários se eles
tiverem uma coleção de CSAM conhecidos em sua conta do iCloud Photos.


As propostas são a tentativa da Apple de encontrar um compromisso entre sua própria
promessa a a de proteger a privacidade dos clientes e as demandas de governos,
agências policiais e ativistas de segurança infantil por mais assistência em
investigações criminais, incluindo terrorismo e pornografia infantil.


A tensão entre empress de tecnologia como Apple e Facebook, que defenderam seu
uso crescente de criptografia em seus produtos e serviços, e a aplicação da lei só se
intensificou desde que o fabricante do iPhone foi a tribunal com o FBI em 2016 sobre o
acesso ao iPhone de um suspeito de terrorismo após um tiroteio em San Bernardino,
Califórnia.


Pesquisadores de segurança, embora apoiem os esforços para combater o abuso
infantil, estão preocupados que a Apple corra o risco de permitir que governos de todo
O mundo busquem acesso aos dados pessoais de seus cidadãos, potencialmente muito
além de sua intenção original.


"'É uma idea absolutamente terrível, porque levará à vigilância em massa distribuída
de… nossos telefones e laptops!" disse Ross Anderson, professor de engenharia de
segurança da Universidade de Cambridge.

Embora 0 sistema seja atualmente treinado para detectar abuso sexual infantil, ele
pode ser adaptado para procurar qualquer outra imagem e texto direcionados, por
exemplo, decapitações terroristas ou sinais antigovernamentais em protestos, dizem
pesquisadores. O precedente da Apple também pode a aumentar a pressão sobre outras empress de tecnologia a usar técnicas semelhantes.

"Isso vai quebrar a barragem a OS governos exigirão isso de todos," disse Matthew
Green, professor de segurança da Universidade Johns Hopkins, que se acredita ser 0
primeiro pesquisador a postar um tweet sobre o assunto.


Alec Muffett, um pesquisador de segurança e ativista de privacidade que trabalhou anteriormente no Facebook e Deliveroo, disse que a mudança da Apple foi "tectônica" e um 'grande e regressivo passo para a privacidade individual"

"A Apple está voltando a privacidade para permitir 1984," disse ele.

Sistemas de armazenamento de fotos e sites de redes sociais baseados em nuvem já
procuram imagens de abuso infantil, mas esse processo se torna mais complexo ao
tentar acessar dados armazenados em um dispositivo pessoal.


O sistema da Apple é a menos invasivo, pois a triagem é feita pelo telefone, e "somente
se houver uma correspondência é que a é notificação é enviada de volta para aqueles
que pesquisam", disse Alan Woodward, professor de segurança de computadores da
Universidade de Surrey. "Essa abordagem descentralizada é a melhor abordagem que
você poderia adotar se seguir esse caminho.'


O algoritmo neuralMatch da Apple digitalizará continuamente fotos armazenadas no
iPhone de um usuário dos EUA e também foram carregadas em seu sistema de backup
do iCloud. As fotos dos usuários, convertidas em uma sequência de números através
de um processo conhecido como "hashing", serão comparadas com as de um banco de
dados de imagens conhecidas de abuso sexual infantil.


O sistema foi treinado em 200.000 imagens de abuso sexual coletadas pelo NCMEC.
De acordo com pessoas informadas sobre OS plans, todas as fotos enviadas para o
iCloud nos EUA receberão um "vale de segurança" dizendo se é suspeita ou não. Uma
vez que um certo número de fotos seja marcado como suspeito, a Apple permitirá que a
todas as fotos suspeitas sejam descriptografadas e, se aparentemente ilegais,
repassadas às autoridades competentes.

Você pode ler a notícia aqui.

Você pode enternder como essa tecnologia funciona aqui.

 

Gostaria de dar os meus dois centavos: com toda a certeza, vai aparecer aquele tiozão que vai dizer: "ah, mas eu não devo nada, podem olhar minhas fotos a vontade, e quem não tem nada a esconder não tem medo disso"; bem, esse pensamento está baseado em um sofisma: a ideia de que a privacidade é apenas sobre esconder coisas ruins. Eu posso não ter nada de ruim ou ilegal a esconder, mas mesmo assim eu não quero que algum abelhudo veja ou pior, fique escanenando as minhas coisas sem o meu consentimento - para quem ler o documento que eu deixei no final da notícia, vai ver que essa tecnologia escaneia as fotos do usuário e as classifica sem o conhecimento ou consentimento dele. 

Hoje a justificativa da Apple é que ela está fazendo isso para o bem das crianças… mas amanhã ela estará escanenado os nossos dispositivos para o bem das mulheres assediadas, e depois as para impedir o discurso de ódio, e depois para impedir o terrorismo, enfim, sempre para o nosso "próprio bem", a Apple vai começar a tirar, grão a grão, a nossa privacidade! Eu acredito que se nada for feito agora, estaremos abrindo uma porta que depois será muito difícil de fechar.

 

 

Editado por Visitante
Link para o comentário
Compartilhar em outros sites

  • Respostas 1
  • Criado
  • Última resposta

Top Postadores Neste Tópico

Dias Populares

Top Postadores Neste Tópico

A ideia é ótima, porém este sistema vai verificar e analisar todas as fotos? 
Me lembro quando fui bombardeado sobre a Apple não dar acesso a iPhone de pessoas que supostamente tem crimes cometidos e nestes podem ser pedófilos por exemplo.

Eu sou pai de família se um dia a autoridade quiser ver meus dados sem problema, porém é meio confuso a ideia atual da Apple poder então invadir a privacidade e as autoridades não…

 

fique claro minha opinião sem brigas…

Link para o comentário
Compartilhar em outros sites

Participe do debate

Você pode postar agora e se registrar depois. Se você tem uma conta, entre agora para postar com ela.

Visitante
Responder este tópico…

×   Você colou conteúdo com formatação.   Remover formatação

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Limpar editor

×   You cannot paste images directly. Upload or insert images from URL.

  • Quem Está Navegando   0 membros estão online

    • Nenhum usuário registrado visualizando esta página.



  • Estatísticas do Fórum

    • Total de Tópicos
      56.4k
    • Total de Posts
      466.5k
×
×
  • Criar Novo...