top of page
  • Foto do escritorRafael de Angeli

Coalizão global incita Apple a abandonar recursos contra abuso infantil

Uma coalizão internacional de mais de 90 grupos de políticas e direitos publicou uma carta aberta incitando a Apple a abandonar seus planos de "construir capacidades de vigilância em iPhones, iPads e outros produtos" - uma referência à intenção da empresa de digitalizar bibliotecas de fotos do iCloud dos usuários para imagens de abuso sexual infantil, de acordo com a Reuters.


"Embora esses recursos tenham como objetivo proteger as crianças e reduzir a disseminação de material de abuso sexual infantil (CSAM), estamos preocupados que eles sejam usados ​​para censurar discurso protegido, ameaçar a privacidade e a segurança de pessoas em todo o mundo, e consequências desastrosas para muitas crianças".

Alguns signatários da carta, organizada pelo Centro para Democracia e Tecnologia (CDT), sem fins lucrativos e com sede nos EUA, estão preocupados que o sistema de digitalização de material de abuso sexual infantil no iPhone possa ser subvertido em países com sistemas jurídicos diferentes para pesquisar por conteúdo político ou outro conteúdo confidencial.


"Uma vez que esse recurso backdoor estiver integrado, os governos podem obrigar a Apple a estender a notificação a outras contas e detectar imagens que são questionáveis ​​por outras razões que não sejam sexualmente explícitas".

A carta também pede que a Apple abandone as mudanças planejadas para o iMessage nas contas familiares, o que tentaria identificar e borrar a nudez nas mensagens das crianças, permitindo que elas a vissem apenas se os pais fossem notificados. Os signatários afirmam que a medida não apenas colocaria em perigo crianças em lares intolerantes ou aqueles que buscam material educacional, mas também quebraria a criptografia de ponta a ponta para o iMessage.


Alguns signatários vêm de países onde já existem acirradas batalhas legais sobre criptografia digital e direitos de privacidade, como o Brasil, onde o WhatsApp foi repetidamente bloqueado por não descriptografar mensagens em investigações criminais. Outros signatários estão baseados na Índia, México, Alemanha, Argentina, Gana e Tanzânia. Os grupos que também assinaram incluem American Civil Liberties Union, Electronic Frontier Foundation, Access Now, Privacy International e o Tor Project.


O plano da Apple para detectar imagens de material de abuso sexual infantil conhecidas armazenadas no Fotos do iCloud tem sido particularmente controverso e gerou preocupações de pesquisadores de segurança, acadêmicos, grupos de privacidade e outros sobre o sistema potencialmente sendo abusado por governos como uma forma de vigilância em massa. A empresa tentou resolver as preocupações publicando documentos adicionais e uma página de perguntas frequentes (FAQ) explicando como o sistema de detecção de imagens funcionará e argumentando que o risco de falsas detecções é baixo.


A Apple também disse que recusaria as exigências de expandir o sistema de detecção de imagens além de fotos de crianças sinalizadas por bancos de dados reconhecidos de material de abuso sexual infantil.


Na semana passada, o vice-presidente sênior de engenharia de software da Apple, Craig Federighi, defendeu os polêmicos recursos planejados de segurança infantil da empresa em uma entrevista significativa ao The Wall Street Journal, revelando uma série de novos detalhes sobre as proteções embutidas no sistema para "digitalizar" a bibliotecas de fotos de usuários com material de abuso sexual infantil.


O News On Apple também colocou seu ponto de vista sobre o assunto no podcast #71.


Pelo visto, a novela está mesmo apenas começando…



Fonte: Reuters e MacRumors

21/8/2021 - 0h33

bottom of page