CLOUDFLARE E APPLE

COMBATE AO

MATERIAL DE ABUSO SEXUAL INFANTIL (CSAM)

FERRAMENTA DE VERIFICAÇÃO DE CSAM da cloudflare

A ferramenta de verificação de CSAM (material contendo abuso sexual infantil) permite que os proprietários de sites identifiquem e ajam de forma proativa em relação a possível CSAM localizado em seu site.

Com esse serviço habilitado, a ferramenta tenta fazer a correspondência de hashes das suas imagens armazenadas em cache com hashes de CSAM conhecido. Quando ocorre alguma correspondência, a ferramenta:

  • Comunica o conteúdo ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) usando as credenciais do CyberTipline que você informou
  • Bloqueia o URL em que o conteúdo foi encontrado
  • Envia um e-mail com o ID do relatório do NCMEC e o caminho do arquivo para permitir que você remova a imagem permanentemente

Cloudflare fora do ar? Falhas e problemas acontecendo neste momento. |  Downdetector

Em 2019, a CLOUDFLARE responde ao CSAM online, iniciativa de auxiliar no combate a disseminação de Material de Abuso Sexual Infantil (CSAM).

Veja abaixo a tradução e adaptação de: https://blog.cloudflare.com/cloudflares-response-to-csam-online/

Resposta da Cloudflare ao CSAM Online

Por: Doug Kramer e Justin Paine

Responder a incidentes de material de abuso sexual infantil (CSAM) online tem sido uma prioridade na Cloudflare desde o início. As histórias de vítimas de CSAM são trágicas e trazem à luz um canto terrível da Internet. Quando se trata de CSAM, nossa posição é simples: Não toleramos isso. Nós o abominamos. É um crime e fazemos o que podemos para apoiar os processos de identificação e remoção desse conteúdo.

Em 2010, poucos meses após o lançamento do Cloudflare, nos conectamos com o Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) e iniciamos um processo colaborativo para entender nosso papel e como poderíamos cooperar com eles. Ao longo dos anos, temos mantido comunicação regular com vários grupos governamentais e de defesa para determinar o que a Cloudflare deve e pode fazer para responder a denúncias sobre CSAM que recebemos por meio de nosso processo de abuso, ou como podemos fornecer informações de apoio às investigações de sites usando os serviços da Cloudflare.

Recentemente, 36 empresas de tecnologia , incluindo Cloudflare, receberam esta carta de um grupo de senadores dos EUA pedindo mais informações sobre como lidamos com o conteúdo CSAM. Os senadores referiram-se a histórias influentes do New York Times publicadas no final de setembro e início de novembro que transmitiram o número perturbador de imagens de abuso sexual infantil na Internet, com detalhes gráficos sobre as fotos horríveis e como a recirculação de imagens retraumatiza as vítimas. As histórias se concentraram nas deficiências e desafios em levar os infratores à justiça, bem como nos esforços, ou falta deles, de um grupo de empresas de tecnologia, incluindo Amazon, Facebook, Google, Microsoft e Dropbox, para erradicar o máximo possível deste material por meio processos existentes ou novas ferramentas como PhotoDNA que podem identificar proativamente o material CSAM.

Achamos importante compartilhar nossa resposta aos senadores (copiada no final desta postagem do blog), falar publicamente sobre o que temos feito neste espaço e abordar o que mais acreditamos que pode ser feito.

Como a Cloudflare responde ao CSAM

Pelo nosso trabalho com o NCMEC, sabemos que eles estão focados em fazer tudo o que podem para validar a legitimidade dos relatórios de CSAM e, em seguida, trabalhar o mais rápido possível para que os operadores de sites, moderadores de plataforma ou hosts de sites removam esse conteúdo da Internet. Mesmo que a Cloudflare não esteja em posição de remover conteúdo da Internet para usuários de nossos serviços principais, temos trabalhado continuamente ao longo dos anos para entender as melhores maneiras de contribuir com esses esforços.

Endereçando Relatórios

O primeiro ponto da resposta da Cloudflare ao CSAM é o relato adequado de qualquer alegação que recebemos. Cada denúncia que recebemos sobre o conteúdo de um site que usa os serviços da Cloudflare arquivado na categoria “pornografia infantil” em nossa página de denúncia de abuso leva a três ações:

  1. Encaminhamos o relatório ao NCMEC. Além do conteúdo do relatório feito à Cloudflare, fornecemos ao NCMEC informações que identificam o provedor de hospedagem do site, informações de contato desse provedor de hospedagem e o endereço IP de origem onde o conteúdo em questão pode ser localizado.
  2. Encaminhamos o relatório ao operador do site e ao provedor de hospedagem para que tomem medidas para remover o conteúdo e fornecemos o IP de origem de onde o conteúdo está localizado no sistema para que eles possam localizar o conteúdo rapidamente. (Desde 2017, oferecemos às partes denunciantes a oportunidade de fazer uma denúncia anônima se preferirem que o host ou o operador do site não sejam informados de sua identidade).
  3. Fornecemos a qualquer pessoa que fizer uma denúncia informações sobre a identidade do provedor de hospedagem e informações de contato do provedor de hospedagem, caso desejem fazer um acompanhamento direto.

Desde a nossa fundação, a Cloudflare encaminhou 5.208 relatórios ao NCMEC. Nos últimos três anos, fornecemos 1.111 relatórios em 2019 (até o momento), 1.417 em 2018 e 627 em 2017.

Os relatórios arquivados na categoria “pornografia infantil” representam cerca de 0,2% das reclamações de abuso que a Cloudflare recebe. Esses relatórios são tratados como a maior prioridade para nossa equipe de confiança e segurança e são movidos para a frente da fila de respostas a abusos. Em geral, podemos responder enviando o relatório ao NCMEC e fornecendo as informações adicionais em questão de minutos, independentemente da hora do dia ou do dia da semana.

Pedidos de Informação

O segundo ponto principal de nossa resposta ao CSAM é a operação de nosso programa de “repórter de confiança” para fornecer informações relevantes para apoiar as investigações de cerca de 60 organizações de segurança infantil em todo o mundo. O programa “repórter confiável” foi estabelecido em resposta ao nosso trabalho contínuo com essas organizações e suas solicitações de informações sobre o provedor de hospedagem dos sites em questão, bem como informações sobre o endereço IP de origem do conteúdo em questão. As informações de IP de origem, que geralmente são informações de segurança confidenciais porque permitiriam que os hackers contornassem certas proteções de segurança de um site, como as proteções DDoS, são fornecidas a essas organizações por meio de canais dedicados de maneira expedita.

Como o NCMEC, essas organizações são responsáveis ​​por investigar relatórios de CSAM em sites ou provedores de hospedagem operados fora de suas jurisdições locais e buscam os recursos para identificar e contatar essas partes o mais rápido possível para que removam o conteúdo. Os participantes do programa “relator de confiança” incluem grupos como a Internet Watch Foundation (IWF), a INHOPE Association , a Australian eSafety Commission e Meldpunt. Nos últimos cinco anos, respondemos a mais de 13.000 solicitações da IWF e a mais de 5.000 solicitações de Meldpunt. Respondemos a essas solicitações no mesmo dia e, geralmente, em algumas horas. De forma semelhante, a Cloudflare também recebe e responde às solicitações de aplicação da lei por informações como parte das investigações relacionadas ao CSAM ou à exploração de um menor.

Dentre esse grupo, o Centro Canadense de Proteção à Criança tem se empenhado em um esforço único que merece menção específica. O programa Cybertip do Centro opera sua iniciativa Project Arachnid, uma abordagem inovadora que emprega um rastreador automatizado que pesquisa proativamente na Internet para identificar imagens que correspondem a um hash CSAM conhecido e, em seguida, alerta os provedores de hospedagem quando há uma correspondência. Com base em nosso trabalho contínuo com o Projeto Arachnid, respondemos a mais de 86.000 relatórios fornecendo informações sobre o provedor de hospedagem e fornecendo o endereço IP de origem, que entendemos que eles usam para entrar em contato com esse provedor de hospedagem diretamente com esse relatório e quaisquer relatórios subsequentes.

Embora normalmente processemos esses relatórios em questão de horas, ouvimos de participantes em nosso programa de “repórter de confiança” que nossa resposta não instantânea causa atrito em seus sistemas. Eles querem ser capazes de consultar nossos sistemas diretamente para obter o provedor de hospedagem e as informações de IP de origem, ou melhor, ser capazes de construir extensões em seus sistemas automatizados que possam interagir com os dados em nossos sistemas para remover qualquer atraso. Isso é particularmente relevante para o pessoal do Projeto Aracnídeo do Canadian Centre, que deseja tornar nossas informações parte de seu sistema automatizado. Depois de examinar esta solução por um tempo, agora estamos confiantes de que temos um caminho a seguir e informamos a alguns repórteres de confiança em novembro que disponibilizaremos uma API que lhes permitirá obter informações instantâneas em resposta às suas solicitações de acordo com suas investigações. Esperamos que essa funcionalidade esteja online no primeiro trimestre de 2020.

Rescisão de serviços

A Cloudflare toma medidas em circunstâncias apropriadas para encerrar seus serviços de um site quando fica claro que o site é dedicado ao compartilhamento de CSAM ou se os operadores do site e seu host não tomam as medidas adequadas para remover o conteúdo do CSAM. Na maioria das circunstâncias, os relatórios de CSAM envolvem imagens individuais postadas em sites de conteúdo gerado pelo usuário e removidas rapidamente por operadores de sites ou provedores de hospedagem responsáveis. Em outras circunstâncias, quando os operadores ou hosts não agem, o Cloudflare não consegue por conta própria excluir ou remover o conteúdo, mas tomará medidas para encerrar os serviços para o site. Acompanhamos os relatórios do NCMEC ou de outras organizações quando eles nos relatam que concluíram sua investigação inicial e confirmaram a legitimidade da reclamação, mas não conseguiram que o operador do site ou o host removesse o conteúdo. Também trabalhamos com a Interpol para identificar e descontinuar serviços de sites que eles determinaram que não tomaram medidas para lidar com o CSAM.

Com base nessas determinações e interações, encerramos o serviço para 5.428 domínios nos últimos 8 anos.

Além disso, a Cloudflare introduziu novos produtos nos quais servimos como host de conteúdo e estaríamos em posição de remover conteúdo da Internet, incluindo Cloudflare Stream e Cloudflare Workers. Embora esses produtos tenham adoção limitada até o momento, esperamos que sua utilização aumente significativamente nos próximos anos. Portanto, faremos varreduras do conteúdo que hospedamos para usuários desses produtos usando PhotoDNA (ou ferramentas semelhantes) que fazem uso da lista de hash de imagens do NCMEC. Se sinalizado, removeremos esse conteúdo imediatamente. Estamos trabalhando nessa funcionalidade agora e esperamos que esteja em vigor no primeiro semestre de 2020.

Parte de uma abordagem organizada para lidar com o CSAM

A abordagem da Cloudflare para lidar com o CSAM opera dentro de um contexto jurídico e político abrangente. O Congresso e as comunidades de aplicação da lei e de proteção à criança há muito colaboram na melhor forma de combater a exploração infantil. Reconhecendo a importância de combater a disseminação online do CSAM, o NCMEC criou o CyberTipline pela primeira vez em 1998, para fornecer um sistema de relatório centralizado para membros do público e provedores online para relatar a exploração de crianças online.

Em 2006, o Congresso conduziu uma investigação de um ano e depois aprovou uma série de leis para lidar com o abuso sexual de crianças. Essas leis tentaram calibrar os vários interesses em jogo e coordenar as maneiras como as várias partes deveriam responder. O equilíbrio político alcançado pelo Congresso ao abordar o CSAM na Internet tinha vários elementos para os provedores de serviços online.

Primeiro, o Congresso formalizou o papel do NCMEC como câmara de compensação central para relatórios e investigação, por meio da CyberTipline. A lei adiciona uma exigência , respaldada por multas, para que os provedores online relatem quaisquer relatórios de CSAM ao NCMEC. A lei observa especificamente que, para preservar a privacidade, eles não estavam criando um requisito para monitorar o conteúdo ou pesquisar ou filtrar o conteúdo de forma afirmativa para identificar possíveis relatórios.

Em segundo lugar, o Congresso respondeu às muitas histórias de crianças vítimas que enfatizaram o dano contínuo causado pela transmissão de imagens de seu abuso. Conforme descrito pelo NCMEC , “não apenas essas imagens e vídeos documentam a exploração e o abuso das vítimas, mas, quando esses arquivos são compartilhados pela Internet, as crianças vítimas sofrem revitimização cada vez que a imagem de seu abuso sexual é visualizada”, mesmo quando visualizada para fins de investigação aparentemente legítimos. Para ajudar a resolver essa preocupação, a lei instrui os provedores a minimizar o número de funcionários com acesso a qualquer representação visual de abuso sexual infantil.

Finalmente, para garantir que as organizações de segurança infantil e aplicação da lei tenham os registros necessários para conduzir uma investigação, a lei instrui os provedores a preservar não apenas o relatório para o NCMEC, mas também “quaisquer representações visuais, dados ou outros arquivos digitais que sejam razoavelmente acessíveis e pode fornecer contexto ou informações adicionais sobre o material ou pessoa relatada ”por um período de 90 dias.

Como os serviços da Cloudflare são usados ​​tão extensivamente – por mais de 20 milhões de propriedades da Internet e com base em dados da W3Techs , mais de 10% dos 10 milhões de sites principais do mundo – temos trabalhado muito para entender esses princípios de política a fim de responder adequadamente em uma ampla variedade de circunstâncias. Os processos descritos nesta postagem do blog foram projetados para garantir que cumpramos esses princípios, da maneira mais completa e rápida possível, e tomar outras medidas para apoiar os objetivos subjacentes do sistema.

Conclusão

Não temos a ilusão de que nosso trabalho neste espaço esteja concluído. Continuaremos a trabalhar com grupos que se dedicam a combater esse crime horrível e fornecer ferramentas para obter mais rapidamente informações para retirar o conteúdo do CSAM e investigar os criminosos que o criam e distribuem.

iPad, iMac, iPhone... Você sabe o significado do 'i' nos produtos da Apple?  - TecMundo

Em 2021, a Apple também teve a iniciativa de auxiliar no combate a disseminação de Material de Abuso Sexual Infantil (CSAM).

Veja abaixo a tradução e adaptação de: https://www.apple.com/child-safety/

Proteções expandidas para crianças

Na Apple, nosso objetivo é criar tecnologia que capacite as pessoas e enriqueça suas vidas – ao mesmo tempo que as ajuda a permanecer seguras. Queremos ajudar a proteger as crianças de predadores que usam ferramentas de comunicação para recrutá-los e explorá-los, e limitar a disseminação de Material de Abuso Sexual Infantil (CSAM).

A Apple está introduzindo novos recursos de segurança infantil em três áreas, desenvolvidos em colaboração com especialistas em segurança infantil. Em primeiro lugar, as novas ferramentas de comunicação permitirão aos pais desempenhar um papel mais informado ajudando seus filhos a navegar na comunicação online. O aplicativo Mensagens usará o aprendizado de máquina no dispositivo para alertar sobre conteúdo confidencial, enquanto mantém as comunicações privadas ilegíveis pela Apple.

Em seguida, iOS e iPadOS usarão novos aplicativos de criptografia para ajudar a limitar a disseminação do CSAM online, enquanto projetam para a privacidade do usuário. A detecção de CSAM ajudará a Apple a fornecer informações valiosas para as autoridades policiais sobre coleções de CSAM no iCloud Photos.

Por fim, as atualizações do Siri e da Pesquisa fornecem aos pais e filhos mais informações e ajuda se eles se depararem com situações inseguras. O Siri e a Pesquisa também intervêm quando os usuários tentam pesquisar tópicos relacionados ao CSAM.

Esses recursos chegarão ainda este ano em atualizações para iOS 15, iPadOS 15, watchOS 8 e macOS Monterey. *

Este programa é ambicioso e proteger as crianças é uma responsabilidade importante. Esses esforços irão evoluir e se expandir com o tempo.

Segurança de comunicação em mensagens

O aplicativo Mensagens irá adicionar novas ferramentas para alertar as crianças e seus pais ao receber ou enviar fotos sexualmente explícitas.

Ao receber este tipo de conteúdo, a foto ficará desfocada e a criança será avisada, presenteada com recursos úteis e assegurada de que está tudo bem se não quiser ver esta foto. Como precaução adicional, a criança também pode ser informada de que, para ter certeza de que está segura, seus pais receberão uma mensagem se a virem. Proteções semelhantes estão disponíveis se uma criança tentar enviar fotos sexualmente explícitas. A criança será avisada antes do envio da foto e os pais poderão receber uma mensagem se a criança decidir enviá-la.

O Mensagens usa aprendizado de máquina no dispositivo para analisar anexos de imagem e determinar se uma foto é sexualmente explícita. O recurso é projetado para que a Apple não tenha acesso às mensagens.

Esse recurso virá em uma atualização no final deste ano para contas configuradas como famílias no iCloud para iOS 15, iPadOS 15 e macOS Monterey.

Fonte: https://www.apple.com/child-safety/

 

As mensagens alertarão as crianças e seus pais ao receber ou enviar fotos sexualmente explícitas.

Detecção de CSAM

Outra preocupação importante é a disseminação de Material de Abuso Sexual Infantil (CSAM) online. CSAM se refere a conteúdo que retrata atividades sexualmente explícitas envolvendo uma criança.

Para ajudar a resolver isso, a nova tecnologia no iOS e iPadOS * permitirá que a Apple detecte imagens CSAM conhecidas armazenadas no iCloud Photos. Isso permitirá que a Apple relate essas ocorrências ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC). NCMEC atua como um centro de relatórios abrangente para CSAM e trabalha em colaboração com agências de aplicação da lei nos Estados Unidos.

O método da Apple para detectar um CSAM conhecido foi desenvolvido com a privacidade do usuário em mente. Em vez de digitalizar imagens na nuvem, o sistema executa a correspondência no dispositivo usando um banco de dados de hashes de imagem CSAM conhecidos fornecidos pelo NCMEC e outras organizações de segurança infantil. A Apple transforma ainda mais esse banco de dados em um conjunto ilegível de hashes que é armazenado com segurança nos dispositivos dos usuários.

Antes de uma imagem ser armazenada no iCloud Photos, um processo de correspondência no dispositivo é executado para essa imagem em relação aos hashes CSAM conhecidos. Esse processo de correspondência é alimentado por uma tecnologia criptográfica chamada interseção de conjuntos privados, que determina se há uma correspondência sem revelar o resultado. O dispositivo cria um voucher de segurança criptográfico que codifica o resultado da correspondência junto com dados criptografados adicionais sobre a imagem. Este voucher é carregado no iCloud Photos junto com a imagem.

Usando outra tecnologia chamada compartilhamento de segredo de limite, o sistema garante que o conteúdo dos vouchers de segurança não possa ser interpretado pela Apple, a menos que a conta do iCloud Photos ultrapasse um limite de conteúdo CSAM conhecido. O limite é definido para fornecer um nível extremamente alto de precisão e garante menos de uma chance em um trilhão por ano de sinalizar incorretamente uma determinada conta.

Somente quando o limite é excedido, a tecnologia criptográfica permite que a Apple interprete o conteúdo dos vouchers de segurança associados às imagens CSAM correspondentes. A Apple então analisa manualmente cada relatório para confirmar se há uma correspondência, desativa a conta do usuário e envia um relatório ao NCMEC. Se um usuário achar que sua conta foi sinalizada por engano, ele pode entrar com um recurso para que sua conta seja restabelecida.

Esta nova tecnologia inovadora permite que a Apple forneça informações valiosas e acionáveis ​​ao NCMEC e às autoridades policiais sobre a proliferação de CSAM conhecidos. E faz isso enquanto fornece benefícios de privacidade significativos sobre as técnicas existentes, uma vez que a Apple só fica sabendo das fotos dos usuários se eles tiverem uma coleção de CSAM conhecidos em sua conta do iCloud Photos. Mesmo nesses casos, a Apple só aprende sobre as imagens que correspondem ao CSAM conhecido.

Expandindo a orientação no Siri e na Pesquisa

A Apple também está expandindo a orientação no Siri e na Pesquisa, fornecendo recursos adicionais para ajudar crianças e pais a se manterem seguros online e obter ajuda em situações inseguras. Por exemplo, os usuários que perguntam ao Siri como eles podem relatar CSAM ou exploração infantil serão direcionados a recursos sobre onde e como registrar uma denúncia.

O Siri e a Pesquisa também estão sendo atualizados para intervir quando os usuários realizam pesquisas para consultas relacionadas ao CSAM. Essas intervenções irão explicar aos usuários que o interesse neste tópico é prejudicial e problemático e fornecer recursos de parceiros para obter ajuda com esse assunto.

Essas atualizações para Siri e Pesquisa serão lançadas no final deste ano em uma atualização para iOS 15, iPadOS 15, watchOS 8 e macOS Monterey.

O Siri fornecerá recursos e ajuda em pesquisas relacionadas ao CSAM.