Apple cherche la bonne formule contre la pédopornographie

La firme de Cupertino fait machine arrière à propos du déploiement de ses nouveaux outils censés contribuer à la lutte contre l’exploitation sexuelle des enfants.

Apple rembobine. Le constructeur électronique renonce (pour l’instant) à déployer ses nouveaux outils anti-pédopornographiques tel que prévu il y a quelques semaines. Le groupe de Tim Cook avait annoncé début août le lancement prochain d’une série de mesures désignées sous le sigle CSAM (Child Sexual Abuse Material) traduisible en français par outil de protection des enfants contre les abus sexuels. Décliné sous trois aspects, ce système devrait permettre de resserrer l’étau autour des prédateurs sexuels à travers leur appareil Apple (iPhone, iPad, notamment).

La première mesure vise à signaler aux autorités toute recherche répétée via le moteur dédié d’Apple ou l’assistant vocal Siri, de contenus impliquant des enfants sexuels abusés. La deuxième permet de prévenir les parents chaque fois que leur enfant de moins de 12 ans reçoit ou envoie une photo sexuellement explicite. Quant à la dernière mesure, elle est prévue pour passer en revue toute la galerie photo des utilisateurs pour peu qu’elle ait été synchronisée sur le cloud d’Apple (iCloud), afin d’y détecter de potentiels contenus concernant des abus d’enfants.

Controverse

L’ambition du groupe californien si noble soit-elle n’en a pas moins fait des vagues. Les outils annoncés pour y parvenir ont notamment suscité la controverse. La perspective de laisser son téléphone portable à la merci de Big browser même si c’est à des fins de lutte contre un crime aussi odieux que l’exploitation des enfants a provoqué une levée de boucliers dans le rang des utilisateurs de la marque à la pomme. Beaucoup de voix y compris celle de l’ancien de la CIA devenu lanceur d’alerte, Edward Snowden, ont estimé qu’une telle pratique participe ni plus ni moins à de la violation de la vie privée. Et les dénégations d’Apple n’ont pas suffi à taire les critiques. D’autant que l’entreprise californienne a érigé au fil des années, le respect de la vie privée de ses utilisateurs en principe sacro-saint, raillant au passage ses concurrents à chaque occasion à ce propos.

Faire amende honorable

La polémique s’est poursuivie jusque dans les rangs d’Apple où de nombreux employés restent peu convaincus par les mesures du géant américain. La suspension annoncée de cette CSAM est donc une façon pour le constructeur d’iPhone de faire, même si elle ne le dit pas, amende honorable. En attendant une mesure plus consensuelle contre la pédopornographie ?

appleCSAMpédopornographievie privée