Apple poursuivie pour inaction contre les contenus illégaux
Une femme de 27 ans, victime d’abus sexuels dans son enfance, vient d’intenter une action en justice contre Apple. Le géant technologique est accusé d’avoir failli à sa promesse de protéger les victimes en abandonnant son outil de détection d’images pédopornographiques, laissant ainsi proliférer des contenus illégaux sur ses serveurs. L’entreprise, déjà secouée par plusieurs procès cette année (l’affaire Spotify et l’amende salée punissant le fonctionnement de l’App Store) se retrouve cette fois dans une toute autre dimension juridique.
L’iCloud, refuge d’images illégales
L’histoire commence dès la naissance de la plaignante, victime d’abus perpétrés par un membre de sa famille qui photographiait ses actes et partageait les clichés en ligne. L’homme fut arrêté après avoir proposé ces images dans un salon de discussion, puis condamné à la prison. Toutefois, le calvaire de la victime ne s’arrête pas là. Depuis plus d’une décennie, elle reçoit quotidiennement des notifications l’informant que ses photos ont été découvertes sur de nouveaux appareils grâce à iCloud.
En 2021, un nouveau signalement l’informe que ses images ont été retrouvées sur le MacBook d’un homme dans le Vermont, stockées également sur iCloud. Cette découverte est intervenue peu après qu’Apple ait annoncé puis abandonné NeuralHash, son système de détection d’images pédopornographiques. Ce dernier devait scanner les photos stockées sur iCloud et les comparer à une base de données d’images référencées par le National Center for Missing & Exploited Children (NCMEC). Une organisation américaine qui lutte contre les disparitions et l’exploitation sexuelle des enfants, en garantissant une assistance aux familles, en collaborant avec la police et en sensibilisant le public.
Néanmoins, les spécialistes en cybersécurité avaient alors soulevé le spectre d’une potentielle instrumentalisation de cette technologie à des fins de surveillance étatique. Apple a donc suspendu le déploiement de NeuralHash, estimant impossible de concilier l’analyse systématique des contenus avec la préservation absolue de la confidentialité des utilisateurs.
Des milliers de victimes présumées
Le cabinet Marsh Law, fort de 17 ans d’expérience dans la défense des victimes d’abus sexuels, mène la charge. Margaret E. Mabie, associée du cabinet, a documenté plus de 80 cas impliquant les produits Apple, dont celui d’un homme de la région de San Francisco possédant plus de 2 000 images et vidéos illégales sur iCloud.
Les chiffres ne sont pas à la faveur de la marque à la pomme : tandis que Google et Facebook signalent chacun plus d’un million de cas au NCMEC, Apple n’en déclare que 267. Cette disparité avait d’ailleurs alerté Eric Friedman, cadre d’Apple chargé de la protection contre la fraude, qui avait admis en 2020 :
« Nous sommes la plus grande plateforme de distribution de contenus pédopornographiques »
Une déclaration choquante qui indique que la protection des données primerait donc sur la sécurité chez Apple.
La plainte, déposée devant le tribunal fédéral de Californie du Nord, pourrait représenter 2 680 victimes. Avec des dommages et intérêts minimum de 150 000 dollars par victime, potentiellement triplés, l’addition pourrait dépasser 1,2 milliard de dollars si Apple est coupable. Fred Sainz, porte-parole d’Apple, a défendu ainsi la position de l’entreprise :
« Nous condamnons fermement les contenus concernant les abus sexuels sur mineurs et nous nous engageons à lutter contre les prédateurs qui s’en prennent aux enfants. Nous développons sans cesse de nouvelles solutions pour combattre ces crimes, tout en respectant la vie privée et la sécurité de tous nos utilisateurs »
Pour la plaignante, qui vit dans le Nord-Est des États-Unis, cette action en justice représente un risque personnel considérable puisque la médiatisation du procès pourrait provoquer une recrudescence du partage de ses images. Néanmoins, elle persiste, estimant qu’Apple doit assumer ses responsabilités après avoir donné de faux espoirs aux victimes en introduisant puis en abandonnant NeuralHash. Cette affaire, si elle est avérée, pourrait contraindre Apple à repenser fondamentalement son approche de l’équilibre entre protection de la vie privée et lutte contre les contenus illégaux.
En bref…
Une femme poursuit Apple pour avoir abandonné son outil NeuralHash, laissant proliférer des images d’abus sexuels sur iCloud.
Apple a signalé bien moins de contenus illégaux que Google ou Facebook, suscitant des critiques sur ses priorités entre vie privée et sécurité.
La plainte pourrait représenter 2 680 victimes et coûter à Apple plus de 1,2 milliard de dollars en dommages et intérêts.
#apple #contenus #Cybersécurité #enfants #justice #NeuralHash #outils #pédopornographie #ViePrivée