Accueil HI-TECH Apple retarde le système controversé d’analyse de la sécurité des enfants

Apple retarde le système controversé d’analyse de la sécurité des enfants

apple-retarde-le-systeme-controverse-d'analyse-de-la-securite-des-enfants
Apple retarde le système controversé d'analyse de la sécurité des enfants

La société Apple retarde le lancement de ses fonctions controversées de sécurité pour les enfants, en reportant le système qui analyserait les téléchargements de photos iCloud et les discussions iMessage à la recherche de signes de contenu sexuel illégal ou de manipulation sexuelle.

Ce système, annoncé le mois dernier, utiliserait une base de données tierce de matériel pédopornographique (CSAM) pour rechercher des signes de photos illégales téléchargées dans le nuage, mais a rencontré une réaction immédiate des défenseurs de la vie privée.

La confusion est d’autant plus grande qu’Apple a annoncé deux systèmes en même temps, même si les fonctionnalités ont été confondues à de nombreux endroits.

Le système iMessage utilise la reconnaissance d’images pour signaler les photos potentiellement explicites partagées dans les conversations avec de jeunes utilisateurs.

En cas de partage d’une telle image, celle-ci est automatiquement censurée et, dans le cas des jeunes utilisateurs, leurs parents sont informés de son contenu.

Parallèlement, le deuxième système rechercherait les MSC. Seules les images téléchargées sur le service iCloud Photos d’Apple seraient surveillées, à l’aide des empreintes digitales des images générées par une base de données de ce type de contenu illégal par des agences spécialisées. Si plusieurs de ces images étaient repérées, Apple signalerait l’utilisateur aux autorités.


Soucieux du respect de la vie privée et de la sécurité, Apple avait prévu un certain nombre de conditions. La société a souligné que l’analyse se ferait sur l’appareil, plutôt qu’à distance, et les empreintes digitales permettant de comparer les images ne contiendraient pas de contenu illégal proprement dit. Même si les téléchargements étaient signalés, un examen humain serait effectué avant tout signalement.

Cependant, les opposants au projet se sont fait entendre. Ils estiment que le système d’Apple est une pente glissante et que la firme de Cupertino, en dépit de ses protestations, subira sans aucun doute des pressions de la part des forces de l’ordre et des gouvernements pour ajouter du contenu à la liste des médias dont les comptes des utilisateurs seront surveillés.

Des jeunes pourraient également être mis en danger, a-t-on souligné, et leur droit à la vie privée pourrait être compromis, si Apple révélait par inadvertance aux parents qu’ils sont LGBTQ par le biais de son système de balayage iMessage.

Les dirigeants d’Apple eux-mêmes ont admis que l’annonce n’avait pas été gérée avec toute la délicatesse nécessaire. Des informations non officielles émanant de la société ont suggéré que les équipes ont été déconcertées par l’ampleur de la réaction négative et sa durée.

Aujourd’hui, Apple a confirmé qu’elle ne lancera plus les nouveaux systèmes aux côtés d’iOS 15, iPadOS 15, watchOS 8 et macOS Monterey plus tard cette année.

” Nous avons annoncé le mois dernier des plans pour des fonctionnalités destinées à aider à protéger les enfants contre les prédateurs qui utilisent les outils de communication pour les recruter et les exploiter, et limiter la propagation des documents relatifs aux abus sexuels sur les enfants “, a déclaré Apple dans un communiqué aujourd’hui. “Sur la base des commentaires des clients, des groupes de défense, les chercheurs et autres, nous avons décidé de prendre du temps supplémentaire au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité des enfants d’une importance critique.”

En clair, il ne s’agit pas d’une annulation pure et simple des nouveaux systèmes CSAM, mais d’un report. Il est toutefois probable que cette décision soit considérée comme une victoire pour les défenseurs de la vie privée qui, tout en admettant la nécessité de protéger les enfants contre les comportements prédateurs, se demandent si la numérisation généralisée est le meilleur moyen d’y parvenir.

 



AUCUN COMMENTAIRE

LAISSER UN COMMENTAIRE Annuler la réponse

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Nous utilisons des cookies pour vous offrir la meilleure expérience possible
En continuant, nous supposerons que vous acceptez notre
Politique des Cookies
Je Suis D'Accord
Plus D'Infos
Quitter la version mobile