
Apple a dévoilé de nouveaux outils destinés à mieux repérer les images à caractère sexuel impliquant des enfants sur ses iPhone, iPad et son serveur iCloud aux Etats-Unis, suscitant les inquiétudes de défenseurs de la vie privée sur internet. "Nous voulons aider à protéger les enfants contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et limiter la diffusion de contenus pédopornographiques", a expliqué le groupe sur son site.
Pour ce faire, Apple prévoit d'utiliser des outils de cryptographie pour comparer les photos téléchargées sur son serveur iCloud avec celles entreposées dans un fichier géré par le Centre national des enfants disparus et exploités (NCMEC).
Le groupe assure qu'il n'a ainsi pas directement accès à l'image. Quand une photo semble similaire à celle du fichier, Apple ira manuellement vérifier, désactivera le cas échéant le compte de l'utilisateur et enverra un rapport au Centre.
Le groupe prévoit par ailleurs de scanner les images envoyées ou reçues via le service de messagerie iMessage sur les comptes d'enfants liés à un abonnement familial.
Quand des photos explicites sont repérées, elles seront alors floutées et l'enfant sera renvoyé vers des messages de prévention avant de pouvoir éventuellement les ouvrir ou les envoyer. Les parents pourront, s'ils le décident, choisir de recevoir un message quand leur enfant reçoit ou envoie de telles photos.
Vos réactions
Réagissez
Nouveau ?
Inscrivez-vousDéjà membre ?
Mot de passe oublié ?