Selon le Financial Times, Apple prévoit de scanner les photos stockées sur les iPhones et iCloud à la recherche d’images d’abus d’enfants. Le nouveau système pourrait aider les forces de l’ordre dans les enquêtes criminelles, mais pourrait ouvrir la porte à une augmentation des demandes légales et gouvernementales pour les données des utilisateurs… L’enfer est-il une fois de plus pavé de bonnes intentions ?
Le système, appelé neuralMatch, « alertera de manière proactive une équipe d’examinateurs humains s’il pense que des images illégales sont détectées, qui contacteront ensuite les forces de l’ordre si le matériel peut être vérifié », indique le Financial Times. neuralMatch, qui a été formé à l’aide de 200 000 images du National Center for Missing & Exploited Children, sera d’abord déployé aux États-Unis. Les photos seront hachées et comparées à une base de données d’images connues d’abus sexuels sur des enfants.
Selon des personnes informées des plans, chaque photo téléchargée sur iCloud aux États-Unis recevra un « bon de sécurité » indiquant si elle est suspecte ou non, indique le journal américain. « Une fois qu’un certain nombre de photos seront marquées comme suspectes, Apple permettra de décrypter toutes les photos suspectes et, si elles semblent illégales, de les transmettre aux autorités compétentes. »
Matthew Green, professeur à l’université John Hopkins et cryptographe, a fait part de ses inquiétudes concernant ce système sur Twitter mercredi soir. « Ce genre d’outil peut être une aubaine pour trouver de la pédopornographie dans les téléphones des gens », a déclaré Green. « Mais imaginez ce qu’il pourrait faire entre les mains d’un gouvernement autoritaire ».
But even if you believe Apple won’t allow these tools to be misused 🤞there’s still a lot to be concerned about. These systems rely on a database of “problematic media hashes” that you, as a consumer, can’t review.
— Matthew Green (@matthew_d_green) August 5, 2021
« Même si vous croyez qu’Apple ne permettra pas que ces outils soient utilisés à mauvais escient, il y a encore beaucoup de choses à craindre », a-t-il ajouté. « Ces systèmes reposent sur une base de données de ‘hachages de médias problématiques’ que vous, en tant que consommateur, ne pouvez pas examiner. »
Apple vérifie déjà les fichiers iCloud par rapport aux images connues d’abus d’enfants, comme tous les autres grands fournisseurs de cloud. Mais le système décrit ici irait plus loin, en permettant un accès central au stockage local.
La société a informé certains universitaires américains à ce sujet cette semaine, et Apple pourrait en dire plus sur le système « dès cette semaine », selon deux chercheurs en sécurité qui ont été informés de la réunion précédente d’Apple, rapporte le Financial Times.