• Rafael de Angeli

Entenda a confusão sobre o recurso de segurança infantil da Apple e novos detalhes sobre a proteção

Em entrevista ao The Wall Street Journal, Craig Federighi reconhece a confusão em torno dos recursos de segurança infantil da Apple e explica novos detalhes sobre as proteções.


O vice-presidente sênior de engenharia de software da Apple, Craig Federighi, defendeu os polêmicos recursos planejados de segurança infantil da empresa em uma entrevista significativa ao The Wall Street Journal, revelando uma série de novos detalhes sobre as proteções embutidas no sistema da Apple para "digitalizar" a bibliotecas de fotos de usuários com Material de Abuso Sexual Infantil (CSAM).


Federighi admitiu que a Apple tratou mal o anúncio da semana retrasada dos dois novos recursos, relacionados à detecção de conteúdo explícito em Mensagens para crianças e conteúdo de Material de Abuso Sexual Infantil armazenado em bibliotecas de fotos do iCloud, e reconheceu a confusão generalizada em torno das ferramentas:


"É realmente claro que muitas mensagens foram confundidas muito mal em termos de como as coisas eram entendidas. Gostaríamos que isso tivesse ficado um pouco mais claro para todos, porque nos sentimos muito positivos e fortemente sobre o que estamos fazendo".

[...]


"Em retrospectiva, apresentar esses dois recursos ao mesmo tempo era uma fórmula para esse tipo de confusão. Ao liberá-los ao mesmo tempo, as pessoas os conectaram tecnicamente e ficaram muito assustadas: o que está acontecendo com minhas mensagens? A resposta é... nada está acontecendo com suas mensagens".

O recurso de segurança nas comunicações significa que se as crianças enviarem ou receberem imagens explícitas via iMessage, elas serão avisadas antes de visualizá-las, a imagem ficará desfocada e haverá a opção de alertar seus pais. A digitalização de Material de Abuso Sexual Infantil, por outro lado, tenta combinar as fotos dos usuários com imagens hash de Material de Abuso Sexual Infantil conhecidos antes de serem carregados para o iCloud. As contas que tiverem o Material de Abuso Sexual Infantil detectado estarão, então, sujeitas a uma revisão manual pela Apple e podem ser relatadas ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) dos Estados Unidos.


Os novos recursos receberam muitas críticas de usuários, pesquisadores de segurança, pela Electronic Frontier Foundation (EFF), por Edward Snowden (ex-chefe de segurança do Facebook) e até mesmo de funcionários da Apple.


Em meio a essas críticas, Federighi abordou uma das principais áreas de preocupação, enfatizando que o sistema da Apple será protegido contra aproveitamento de governos ou terceiros com "vários níveis de auditabilidade".



Federighi também revelou uma série de novos detalhes sobre as proteções do sistema, como o fato de que um usuário precisará encontrar cerca de 30 correspondências para conteúdo de Material de Abuso Sexual Infantil em sua biblioteca de fotos antes que a Apple seja alertada, em seguida, ela irá confirmar se essas imagens parecem ser instâncias genuínas de Material de Abuso Sexual Infantil.


"Se e somente se você atingir um limite de algo na ordem de 30 imagens de pornografia infantil conhecidas, só então a Apple saberá alguma coisa sobre sua conta e saberá alguma coisa sobre essas imagens e, nesse ponto, só saberá sobre essas imagens, não sobre qualquer uma de suas outras imagens. Isso não está fazendo uma análise porque você tinha uma foto do seu filho na banheira? Ou, por falar nisso, você tinha uma foto de algum tipo de pornografia? Isso é literalmente apenas coincidir com as 'impressões digitais' exatas de imagens de pornografia infantil específicas conhecidas".

Ele também apontou a vantagem de segurança de colocar o processo de correspondência diretamente no iPhone, em vez de ocorrer nos servidores do ‌iCloud‌.


"Por estar no [telefone], os pesquisadores de segurança são constantemente capazes de introspectar o que está acontecendo no software [do telefone] da Apple. Portanto, se alguma mudança foi feita para expandir o escopo disso de alguma forma - de uma forma que nos comprometemos a não fazer - há verificabilidade, eles podem detectar o que está acontecendo".

Quando questionado se o banco de dados de imagens usado para corresponder ao conteúdo de Material de Abuso Sexual Infantil nos dispositivos dos usuários poderia ser comprometido por ter outros materiais inseridos, como conteúdo político em certas regiões, Federighi explicou que o banco de dados é construído a partir de imagens de Material de Abuso Sexual Infantil conhecidas de várias organizações de segurança infantil, com pelo menos dois sendo "em jurisdições distintas", para proteger contra o abuso do sistema.


Essas entidades de proteção à infância, além de um auditor independente, poderão verificar se o banco de dados de imagens é composto apenas por conteúdo dessas entidades, segundo Federighi.


A entrevista com o vice-presidente sênior de engenharia de software da Apple está entre as maiores resistências de relações públicas da gigante de Cupertino até agora, após a resposta mista do público ao anúncio dos recursos de segurança infantil. A empresa também tentou várias vezes abordar as preocupações dos usuários, publicando um FAQ e abordando diretamente as preocupações em entrevistas com os meios de comunicação.



Fontes: Apple, The Wall Street Journal e MacRumors

16/8/2021 - 1h01