Explication de la fonctionnalitĂ© de protection des enfants d’Apple : porte-t-elle atteinte Ă  la vie privĂ©e des utilisateurs ?

Apple a toujours Ă©tĂ© fier de sa sĂ©curitĂ©. L’iPhone est considĂ©rĂ© comme l’un des smartphones les plus sĂ»rs pour la confidentialitĂ© des donnĂ©es sur le marchĂ©. Ă€ cet Ă©gard, le gĂ©ant de la technologie a rĂ©cemment annoncĂ© une nouvelle fonctionnalitĂ© qui dĂ©tecte les images et les vidĂ©os d’exploitation d’enfants dans le cadre de sa campagne de protection des enfants et de lutte contre les abus sexuels sur les enfants.

Aussi bonne que puisse paraĂ®tre l’intention, certains dĂ©fenseurs de la sĂ©curitĂ© craignent que cela n’affecte la confidentialitĂ© des donnĂ©es des utilisateurs. Voici ce que nous savons de la nouvelle fonctionnalitĂ© jusqu’Ă  prĂ©sent.

Nouvelle fonctionnalité Apple iOS 15 pour renforcer la protection des enfants

Apple a annoncĂ© avoir Ă©tendu ses protections pour les enfants afin de limiter la propagation du matĂ©riel d’abus sexuel d’enfants ou CSAM. L’entreprise technologique vise Ă  protĂ©ger les enfants des prĂ©dateurs qui utilisent tous les moyens de communication pour les recruter et les exploiter.

Trois changements seront déployés plus tard cette année pour aider à atteindre leur objectif, a déclaré The Verge.

Le premier des trois changements concerne l’application de recherche d’Apple et Siri. Si un utilisateur recherche quelque chose liĂ© Ă  l’abus sexuel d’enfants, Apple le dirigera vers des ressources pour expliquer que l’intĂ©rĂŞt pour des sujets comme ceux-ci est nuisible et problĂ©matique et le liera aux ressources de partenaires pour obtenir de l’aide.

Apple fournit Ă©galement des ressources supplĂ©mentaires pour aider les enfants et les parents Ă  rester en sĂ©curitĂ© en ligne et Ă  obtenir de l’aide dans les situations dangereuses.

Les deux autres mises Ă  jour sont celles qui reçoivent le plus d’attention et de contrecoups.

Un changement ajoute une option de contrôle parental aux messages, masquant les images sexuellement explicites pour les utilisateurs de moins de 18 ans et envoyant une alerte aux parents si un enfant de 12 ans ou moins voit ou envoie ce type de photos, a expliqué The Verge.

L’autre fonctionnalitĂ© analyse les donnĂ©es, les images et les vidĂ©os d’iCloud Photos pour trouver le CSAM et le signaler aux modĂ©rateurs d’Apple qui peuvent ensuite le transmettre au National Center for Missing and Exploited Children ou NCMEC. La fonctionnalitĂ© est spĂ©cialement conçue pour protĂ©ger la confidentialitĂ© des utilisateurs tout en trouvant du contenu illĂ©gal, cependant, les critiques pensent qu’il pourrait s’agir d’une porte dĂ©robĂ©e de sĂ©curitĂ©.

Lisez aussi : Pourquoi mon iPhone iMessage ne fonctionne-t-il pas ? 5 façons de résoudre le problème Apple ennuyeux

Apple espionne-t-il vos messages et vos photos ?

Des inquiétudes quant à savoir si ces fonctionnalités peuvent ou non être manipulées et abusées ont été soulevées.

Apple est restĂ© ferme, affirmant qu’il avait conçu les fonctionnalitĂ©s pour empĂŞcher les outils d’ĂŞtre dĂ©formĂ©s, a dĂ©clarĂ© Cnet. Le système ne numĂ©rise pas rĂ©ellement les photos Ă  leur valeur nominale, mais vĂ©rifie plutĂ´t les correspondances entre les codes de hachage. La base de donnĂ©es de hachage est stockĂ©e sur le tĂ©lĂ©phone et donc rien n’est envoyĂ© au cloud. Apple a Ă©galement notĂ© comment les analyses sont effectuĂ©es sur l’appareil afin que les chercheurs en sĂ©curitĂ© puissent vĂ©rifier plus facilement son fonctionnement.

Si les utilisateurs craignent que les photos de la baignoire de leur bĂ©bĂ© ne dĂ©clenchent accidentellement le système, Apple a dĂ©clarĂ© que la probabilitĂ© d’un faux positif est infĂ©rieure Ă  un sur mille milliards par an. Les codes de hachage sont vĂ©rifiĂ©s par rapport Ă  une base de donnĂ©es connue de vidĂ©os et de photos d’exploitation d’enfants et si quelque chose est dĂ©couvert, les donnĂ©es signalĂ©es sont ensuite examinĂ©es par un vĂ©ritable humain avant de faire le rapport au NCMEC, a expliquĂ© Apple.

En ce qui concerne les messages, la fonctionnalitĂ© est conçue pour qu’Apple n’ait pas accès aux messages, mais elle alerte rapidement le parent assignĂ© en cas de problème.

Apple maintient toujours qu’il garde toujours Ă  l’esprit la confidentialitĂ© de ses utilisateurs. Les nouvelles fonctionnalitĂ©s sont la rĂ©ponse d’Apple au problème de l’exploitation des enfants qui se produit Ă  l’Ă©chelle mondiale. La sociĂ©tĂ© a reçu des Ă©loges pour les mises Ă  jour tandis que certains critiques trouvent que le système pourrait ĂŞtre très exploitĂ©.

Ces mises Ă  jour seront dĂ©ployĂ©es plus tard cette annĂ©e dans l’Ă©cosystème Apple avec les nouveaux iOS 15, iPadOS 15, watchOS 8 et macOS Monterey.

Article connexe : Date de sortie, prix, spĂ©cifications et mises Ă  jour de l’iPhone 13 : les fans dĂ©testent-ils le design sans port, le WiFi 6E ?