Ticker

6/recent/ticker-posts

Ad Code

Responsive Advertisement

Como a Apple vai identificar Material de Abuso Infantil no iPhone [CSAM]

A Apple irá atuar ativamente no controle de conteúdo criminoso, com o envolvimento de crianças. Veja abaixo, como a Apple vai identificar Material de Abuso Infantil no iPhone. A sigla CSAM está em inglês, mas em tradução livre teria o mesmo sentido de “pornografia infantil”, um crime internacional, tanto para aqueles que produzem, fazem posse ou repassam este tipo de material nocivo e criminoso.

Como a Apple vai identificar Material de Abuso Infantil no iPhone (Imagem: Laurenz Heymann/Unsplash)

O que é CSAM?

Como dito acima, CSAM é uma sigla em inglês que significa Child Sexual Abuse Material – Material de abuso sexual de menores. Apesar de CSAM ser um sinônimo para pornografia infantil, o crime recebeu essa nova nomenclatura para fins profissionais de tipificação jurídica.

Este tipo de crime é difundido mundialmente, onde os criminosos, normalmente, fazem uso de subterfúgios de encriptação, fóruns na dark web, conexão mascarada via VPN, etc. 

Será que monitorar ativamente aparelhos smartphones, serviços de armazenamento em nuvem, de todos os usuários, irá reduzir esse tipo de crime, mesmo quando os envolvidos não costumam utilizar métodos “comuns” para troca dos materiais?

A Apple divulgou seu novo sistema para identificar fotos contendo imagens de abuso infantil. Apesar dos motivos serem, indiscutivelmente, corretos para o combate desse crime hediondo contra crianças, a comunidade se alertou para o fato, devido a metodologia ser, a princípio, “invasiva” nos sistemas de aparelhos individuais – atacando diretamente a privacidade dos usuários.

A comunidade ficou preocupada com a invasão de “privacidade” (Imagem: Jason Dent/Unsplash)

Como a Apple quer identificar material sensível no iPhone

Então, já que a dúvida dos usuários é sobre a invasão da privacidade de todos os portadores do iPhone, como funciona essa identificação de CSAM?

Proteção individual para mensagens

Especialmente para o app de mensagens da Apple, o aplicativo irá adicionar novas ferramentas para alertar as crianças e seus pais ao receber ou enviar fotos sexualmente explícitas. 

Ao receber este tipo de conteúdo, a foto ficará desfocada e a criança será avisada, fazendo uso de recursos úteis e assegurada de que está tudo bem se não quiser ver esta foto. Como precaução adicional, a criança também pode ser informada de que, para ter certeza de que está segura, seus pais receberão uma mensagem se ela decidir ver. 

Proteções semelhantes serão ativadas se uma criança tentar enviar fotos sexualmente explícitas. A criança será avisada antes do envio da foto e os pais poderão receber uma mensagem, caso decida enviá-la. 

De acordo com a Apple, iMessage app usa aprendizado de máquina no dispositivo para analisar anexos de imagem e determinar se uma foto é sexualmente explícita. O recurso é projetado para que a Apple não tenha acesso às mensagens. 

O iMessage é o primeiro foco de controle parental (Imagem: Meio Bit/Divulgação)

Rastreio em nuvem do iCloud

Aqui está o ponto que gerou a desconfiança da comunidade pelos “métodos” – mesmo com o objetivo de prevenir a disseminação de conteúdo CSAM. 

A Apple disponibilizará diversas tecnologias para prevenção de troca e armazenamento do material através do iCloud, segundo a empresa, com técnicas avançadas que permitirão a manutenção da privacidade dos usuários.

A revelação de várias tecnologias novas resultou em confusão, com muitas pessoas tendo a sensação que a Apple iria monitorar todos os usuários o tempo todo. O que não é verdade.

iCloud é o alvo principal na caçada aos CSAM (Imagem: Canva Pro/Divulgação)

Correlação com banco de dados CSAM conhecidos

A Apple irá detectar imagens CSAM conhecidas que estão armazenadas em Fotos do iCloud. Isso permitirá que a Apple relate essas ocorrências ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) – órgão americano que controla e investiga este tipo de crime virtual. O NCMEC atua como um centro de relatórios abrangente para CSAM e trabalha em colaboração com agências de aplicação da lei nos Estados Unidos. 

Uso de hashes para garantir a privacidade dos usuários

Em vez de digitalizar imagens na nuvem, o sistema executa a correspondência no dispositivo usando um banco de dados de hashes de imagem CSAM conhecidos fornecidos pelo NCMEC e outras organizações de segurança infantil. 

A Apple transforma ainda mais esse banco de dados em um conjunto ilegível de hashes que é armazenado com segurança nos dispositivos dos usuários. Antes de uma imagem ser armazenada no iCloud Photos, um processo de correspondência no dispositivo é executado para a imagem em relação aos hashes CSAM conhecidos. 

Esse processo de correspondência é alimentado por uma tecnologia criptográfica chamada interseção de conjuntos privados, que determina se há uma correspondência sem revelar o resultado. O dispositivo cria um voucher de segurança criptográfico que codifica o resultado da correspondência junto com dados criptografados adicionais sobre a imagem. 

Este voucher é carregado no iCloud Photos junto com a imagem. Usando outra tecnologia chamada compartilhamento limite de segredo, o sistema garante que o conteúdo dos vouchers de segurança não possa ser interpretado pela Apple, a menos que a conta do iCloud Photos ultrapasse um limite de conteúdo CSAM conhecidos. 

No CSAM Apple, o limite é definido para fornecer um nível extremamente alto de precisão e garante menos de uma chance em um trilhão por ano de sinalizar incorretamente uma determinada conta como criminosa. 

Dispositivos compatíveis com o CSAM Detection

O CSAM Apple Detection fará parte dos sistemas iOS 15 e iPadOS 15, que estarão disponíveis para usuários de todos os iPhones e iPads atuais – desde o iPhone 6S, iPad de quinta geração e posteriores. 

Embora, teoricamente, a função esteja disponível em dispositivos Apple em todo o mundo, até agora, o sistema funcionará completamente apenas nos Estados Unidos.

Todos os dispositivos a partir do iPhone 6S e iPad 5 terão o recurso (Imagem: Unsplash)

Problemas do recurso

Se tudo for feito exatamente como vem sendo divulgado, no CSAM Apple não existirão problemas. Então, basicamente, se a empresa executar perfeitamente toda a tecnologia que está ofertando, ninguém será prejudicado. Por outro lado, consigo identificar apenas uma possibilidade de transtornos, mas deverá ser um dos casos em um trilhão por ano – de acordo com a Apple –, para estar sujeito a isso.

Ao ser “tagueado” incorretamente, tendo sua conta suspensa e ser indicado como possível criminoso virtual. O que levará o usuário a ter que prestar algumas explicações a justiça.

Para evitar esse tipo de problema – muito raro, segundo a Apple –, seria necessário “flexibilizar” os filtros de comparação automatizada, mas isso levaria a perda de boa parte da eficiência do recurso. 

Outro ponto levantado é o retorno da discussão, se menores de idade têm direito à “privacidade” sem o controle direto dos pais ou responsáveis. E essa discussão está aquém da empresa de tecnologia.

Com informação: Apple, Kaspersky.

Como a Apple vai identificar Material de Abuso Infantil no iPhone [CSAM]

Enregistrer un commentaire

0 Commentaires