Quinta-feira, 12 de dezembro de 2024
Por Redação O Sul | 9 de dezembro de 2024
O abuso começou quando ela ainda era um bebê. Um parente a molestou, tirou fotos e trocou as imagens online com outras pessoas. Ele permitiu que outro homem passasse tempo com ela, multiplicando os abusos.
Hoje, aos 27 anos e vivendo no Nordeste dos EUA, a mulher é constantemente lembrada desse abuso por meio de notificações das autoridades policiais informando que alguém foi acusado de possuir essas imagens. Uma dessas notificações, recebida no final de 2021, dizia que as imagens haviam sido encontradas no MacBook de um homem em Vermont. O advogado da mulher confirmou com a polícia que as imagens também estavam armazenadas no iCloud da Apple
A notificação chegou meses após a Apple apresentar uma ferramenta para escanear imagens ilegais de abuso sexual. No entanto, a empresa abandonou rapidamente o plano após críticas de especialistas em cibersegurança, que alertaram para o risco de pedidos governamentais de vigilância.
Agora, a mulher, usando um pseudônimo, está processando a Apple, alegando que a empresa descumpriu a promessa de proteger vítimas como ela. Em vez de usar as ferramentas criadas para identificar, remover e relatar as imagens de seu abuso, o processo afirma que a Apple permitiu a proliferação desse material, forçando as vítimas de abuso sexual infantil a reviverem traumas que marcaram suas vidas.
O processo foi aberto no sábado à noite no Tribunal Distrital do Norte da Califórnia. A ação acusa a Apple de vender produtos defeituosos que prejudicaram uma classe de consumidores — vítimas de abuso sexual infantil — porque introduziu brevemente “um design amplamente anunciado para proteger crianças”, mas “falhou em implementá-lo ou tomar medidas para detectar e limitar” o material abusivo.
A ação busca mudanças nas práticas da Apple e uma compensação para um grupo potencial de 2.680 vítimas que poderiam se qualificar para o caso, disse James Marsh, um dos advogados envolvidos. Pela lei, vítimas de abuso sexual infantil têm direito a um mínimo de US$ 150 mil em indenizações. Com a multiplicação dos danos pedida no processo, o valor total pode ultrapassar US$ 1,2 bilhão, caso um júri declare a Apple responsável.
O caso é o segundo do tipo contra a Apple, mas sua magnitude e impacto financeiro potencial podem levar a empresa a um litígio que pode durar anos. Além disso, o processo destaca uma crescente preocupação com o fato de que a privacidade do iCloud permite a circulação de material ilegal sem ser facilmente identificado, ao contrário de plataformas como Facebook.
Nos últimos anos, a Apple relatou menos material abusivo do que seus concorrentes. Google e Facebook, por exemplo, enviaram mais de um milhão de relatórios ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) em 2020, enquanto a Apple apresentou apenas 267.
Em resposta ao novo processo, Fred Sainz, porta-voz da Apple, afirmou: “Material de abuso sexual infantil é abominável e estamos comprometidos em combater as formas como predadores colocam crianças em risco. Estamos urgentemente inovando para enfrentar esses crimes sem comprometer a segurança e a privacidade de nossos usuários.”
O processo aponta para decisões recentes da Justiça dos EUA que abriram caminho para que empresas de tecnologia sejam desafiadas judicialmente, limitando a proteção concedida pela Seção 230 do Communications Decency Act.
A mulher disse que decidiu participar da ação porque acredita que a Apple deu falsas esperanças às vítimas ao introduzir e abandonar o sistema NeuralHash. Usuária de iPhone, ela criticou a empresa por priorizar privacidade e lucro em vez de segurança. “A inação da Apple é devastadora”, disse ela.