Apple accède aux photos stockées sur iCloud pour combattre la pédopornographie

À l’occasion du CES de Las Vegas, Apple a confirmé accéder aux photos présentes sur son service de stockage en ligne. Le but est de détecter des images portant sur l’exploitation sexuelle d’enfants. Pour cela, elle utilise un logiciel de comparaison d’images. Si les photos d’un client sont détectées positives, le compte est fermé. Cette procédure fait suite à des changements récents des conditions d’utilisation d’iCloud.

Pirater un iPhone via iCloud

Apple accède aux photos de ses clients stockées sur iCloud. Cette révélation, nous la devons à Jane Horvath, directrice d’Apple en charge de la protection de la vie privée. Cette dernière a participé à une conférence organisée à Las Vegas, à l’occasion du CES qui se tient cette semaine. Nous voyons d’ores et déjà les détracteurs de la firme de Cupertino s’indigner, car cette dernière a souvent joué le chevalier blanc dans les affaires de sécurité des données et d’exploitation des données personnelles, que ce soit contre Google ou Facebook, par exemple.

Lire aussi : La panne Facebook révèle comment le réseau social interprète nos photos

Mais pour une fois, tempérons notre jugement. Car, officiellement, c’est pour la bonne cause. Contrairement à d’autres firmes qui utilisent les photos personnelles stockées sur leurs serveurs pour entrainer une intelligence artificielle, Apple accède aux photos pour détecter les usages illicites. Et plus concrètement pour lutter contre la pédopornographie.

Une détection systématique sur toutes les photos

Techniquement, Apple scanne toutes les photos transmises sur ses serveurs et détecte celles qui concernent l’exploitation sexuelle d’enfants. La procédure est réalisée avec un logiciel que la firme n’a pas identifié, mais qui ressemble à PhotoDNA. Ce dernier est utilisé par Facebook, Twitter et Google. Ces derniers l’utilisent pour identifier des photos affichant des ressemblances. Mais pas forcément dans le même objectif.

Lire aussi : WhatsApp héberge un volume massif de contenus pédopornographiques

L’accès aux photos stockées sur iCloud dans le cadre de la lutte contre la pédopornographie a fait l’objet d’une mise à jour des conditions d’utilisation dans le courant de l’année 2019. Une mise à jour qui cadre explicitement l’accès aux photos personnelles pour cet usage. Dans ces nouvelles conditions, il y est expliqué que l’utilisation de contenu relatif à l’exploitation sexuelle des enfants est interdite. Si des photos sont détectées, le compte Apple associé est immédiatement fermé. Apple ne précise pas si elle transmet des informations aux autorités.

Source : The Telegraph

Réagissez à cet article !
Abonnez-vous gratuitement à la newsletter
Chaque semaine, le meilleur de Phonandroid dans votre boite mail !
Demandez nos derniers articles !
iPhone : Apple s’accroche coûte que coûte à son port Lightning

Apple ne veut pas que quelqu’un s’en prenne à son port Lightining. Alors que l’Europe veut standardiser les chargeurs pour les smartphones, la seule marque qui serait impactée par ce changement, Apple, est montée au créneau pour défendre sa technologie…

iPhone 9 (SE2) : découvrez son design complètement démodé

L’iPhone 9 (SE 2) se dévoile en images. Apple a visiblement décidé de reprendre à la lettre le design des anciens iPhone. On retrouve ainsi d’épaisses bordures autour de l’écran, le retour du lecteur d’empreintes digitales Touch ID et un…

iPhone 12 : leur puce A14 sera gravée en 5 nm

Les iPhone 12 bénéficieront bien d’une puce « A14 » gravée en 5 nm par le fondeur taïwanais TSMC. Le design de la puce aurait été finalisé dès le mois d’avril 2019 – elle permettrait des gains importants de performances même avec…

iPhone 9 (SE 2) : Apple lancerait non pas une mais deux versions

iPhone 9, tel s’appellerait finalement l’iPhone SE 2 d’après les derniers développements. Et à mesure qu’on s’approche de la prochaine Keynote d’Apple, le smartphone se révèle être l’héritier spirituel de l’iPhone 8. Aux dernières nouvelles, la Pomme aurait prévu de…