Apple enfrenta multa de $1,2 mil milhões por incapacidade de combater imagens de abuso
Uma mulher de 27 anos, que foi vítima de abuso na infância, instaurou um processo judicial contra a Apple, onde acusa a empresa de não agir para impedir a contínua disseminação de imagens de abuso infantil. Este caso traz à tona os problemas que as empresas tecnológicas têm na gestão e denúncia de material de abuso sexual infantil (CSAM, originalmente) online.
O processo, submetido no Tribunal Distrital dos EUA no Norte da Califórnia, alega que a Apple não implementou integralmente uma ferramenta que havia prometido para identificar e remover imagens ilegais. A autora, que permanece anónima por questões de segurança, afirma que, apesar de a Apple ter desenvolvido um sistema chamado NeuralHash, a empresa abandonou a tecnologia após críticas de especialistas em cibersegurança.
De acordo com o The New York Times, a ação legal procura representar cerca de 2680 potenciais vítimas, com indemnizações que poderão ultrapassar os 1,2 mil milhões de dólares.
A queixa coloca em causa a abordagem da Apple no combate ao CSAM, mesmo quando a empresa tem relatado um número significativamente inferior de ocorrências comparativamente a gigantes tecnológicos como o Google e o Facebook.
Este caso reflete uma tendência emergente da procura de estratégias legais que desafiem a responsabilidade das empresas tecnológicas relativamente a conteúdos gerados por utilizadores. Recentes decisões judiciais nos EUA indicam que as proteções anteriormente garantidas pela Secção 230 do Communications Decency Act podem não ser aplicáveis de forma tão ampla como antes.
Apple tem afirmado o seu compromisso no combate ao CSAM
Entre as medidas introduzidas pela empresa estão avisos de conteúdo na aplicação Mensagens e métodos para denunciar material nocivo. No entanto, especialistas jurídicos acreditam que o processo enfrenta obstáculos consideráveis.
Riana Pfefferkorn, investigadora no Instituto de Inteligência Artificial Centrada no Humano de Stanford, destacou que um veredito favorável à acusação poderia levantar questões constitucionais complexas sobre a obrigatoriedade governamental de monitorização de conteúdos.
O processo surge num contexto de preocupações crescentes sobre como as plataformas tecnológicas lidam com conteúdos sensíveis. Desde 2009, quando a Microsoft desenvolveu a tecnologia PhotoDNA para identificar imagens ilegais, as empresas têm enfrentado dificuldades em equilibrar as preocupações com a privacidade e os esforços de proteção de crianças.
Leia também:
Eu tinha visto isso aí. E foi impressionante a hipocresia de alguns quanto ao X/Twitter e ao BlueSky.
Vou comprar pipoca e ver se baterão na Apple com a mesma força que estavam batendo no X/Twitter e BlueSky.
Se a Apple avançar e cheirar dentro dos mails dos utilizadores, vai aparecer um outro grupo de caça tesouros a querer sacar nota. é que nem tem nada a ver com o que acontece no facebook ou twitter/x que metes tudo no meso saco. Mas a Google tem tb uns milhares de pessoas a querer sacar nota também. Os estados unidos são campeoes de caçadores de indemnizações.
Vamos culpar as empresas pelos erros que as pessoas cometem. Ja agora multa para todos os que produzem facas por nao prevenirem quem as use em assaltos
E como a caneta é uma das melhores armas para o assassinato, porque não começar por proibir a BIC, ou os fabricantes de teclados, porque uma traulitada na móina de um sujeito pode fazer estragos sérios e AH, esquecia me, ratos sem fios já, pois esse fio/cordão é um convite a atentados ou a sugestões ao suicídio.
erros que as pessoas cometem?! quais erros?
a pessoa é abusada e ela é que comete erros…?
é abusada por quem? pela apple ou por outra pessoa? Exato.
Como o @Rick IT disse e muito bem, á anos que andam atrás das gigantes tecnológicas porque é dinheiro fácil. Uma miuda suicida-se, os pais em vez de assumirem a culpa, processam o tiktok, um menor sofre de cyberbullying a culpa é dos pais que não sentiram a mudança no filho? Não, bora processar a META.
É ridículo. Comecem a ser bons pais e deixem-se de tretas.
As empresas têm de ser responsáveis por criar mecanismos para evitar que essas imagens circulem.
Aliás até aqui, no pplware e por esse motivo, existem moderadores.
Para existir moderadores ele precisam de ter acesso aos conteudos.
Se isso acontecer vai estar tudo a gritar devido á violacao de privacidade.
Não podem exigir que uma empresa monitorize os nosssos conteudos e ao mesmo tempo querer não tenham acesso ou conhecimento dos contudos