Apple accède aux photos stockées sur iCloud pour combattre la pédopornographie

À l’occasion du CES de Las Vegas, Apple a confirmé accéder aux photos présentes sur son service de stockage en ligne. Le but est de détecter des images portant sur l’exploitation sexuelle d’enfants. Pour cela, elle utilise un logiciel de comparaison d’images. Si les photos d’un client sont détectées positives, le compte est fermé. Cette procédure fait suite à des changements récents des conditions d’utilisation d’iCloud.

Pirater un iPhone via iCloud

Apple accède aux photos de ses clients stockées sur iCloud. Cette révélation, nous la devons à Jane Horvath, directrice d’Apple en charge de la protection de la vie privée. Cette dernière a participé à une conférence organisée à Las Vegas, à l’occasion du CES qui se tient cette semaine. Nous voyons d’ores et déjà les détracteurs de la firme de Cupertino s’indigner, car cette dernière a souvent joué le chevalier blanc dans les affaires de sécurité des données et d’exploitation des données personnelles, que ce soit contre Google ou Facebook, par exemple.

Lire aussi : La panne Facebook révèle comment le réseau social interprète nos photos

Mais pour une fois, tempérons notre jugement. Car, officiellement, c’est pour la bonne cause. Contrairement à d’autres firmes qui utilisent les photos personnelles stockées sur leurs serveurs pour entrainer une intelligence artificielle, Apple accède aux photos pour détecter les usages illicites. Et plus concrètement pour lutter contre la pédopornographie.

Une détection systématique sur toutes les photos

Techniquement, Apple scanne toutes les photos transmises sur ses serveurs et détecte celles qui concernent l’exploitation sexuelle d’enfants. La procédure est réalisée avec un logiciel que la firme n’a pas identifié, mais qui ressemble à PhotoDNA. Ce dernier est utilisé par Facebook, Twitter et Google. Ces derniers l’utilisent pour identifier des photos affichant des ressemblances. Mais pas forcément dans le même objectif.

Lire aussi : WhatsApp héberge un volume massif de contenus pédopornographiques

L’accès aux photos stockées sur iCloud dans le cadre de la lutte contre la pédopornographie a fait l’objet d’une mise à jour des conditions d’utilisation dans le courant de l’année 2019. Une mise à jour qui cadre explicitement l’accès aux photos personnelles pour cet usage. Dans ces nouvelles conditions, il y est expliqué que l’utilisation de contenu relatif à l’exploitation sexuelle des enfants est interdite. Si des photos sont détectées, le compte Apple associé est immédiatement fermé. Apple ne précise pas si elle transmet des informations aux autorités.

Source : The Telegraph

Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers articles !
iPhone 12 : Apple pourrait lancer un modèle 4G moins cher dès 2021

L’iPhone 12 pourrait être décliné dans une version 4G moins cher dès début 2021. C’est en tout cas qu’affirment les analystes de la société Wedbush Securities.  Comme à chaque rentrée scolaire, Apple s’apprête à lancer l’iPhone 12 lors de la…

L’Apple Watch Series 6 aura une plus grosse batterie que la Series 5

La batterie de l’Apple Watch Series 6 se montre sur le site d’un organisme de certification sud-Coréen. Elle est quasiment identique comparativement à celle de l’Apple Watch Series 5, mais affiche une meilleure capacité. Apple vient d’obtenir une nouvelle certification…

Les iPhone 12 ne seront pas lancés en septembre selon Qualcomm

Le lancement des iPhone 12 connaîtra quelques semaines de retard selon Qualcomm. Le partenaire d’Apple confirme les rumeurs de ces derniers mois. Ce lancement retardé aura un impact sur ses résultats financiers au troisième trimestre, a annoncé la firme dans…