WhatsApp est devenu une plateforme pornographique

WhatsApp est devenu une plateforme pornographique

WhatsApp est devenu une plateforme pornographique

 

Les groupes de discussion WhatsApp sont utilisés pour diffuser des images de maltraitance illégale d’enfants, masquées par le chiffrement de bout en bout de l’application. Sans le nombre nécessaire de modérateurs humains, le contenu dérangeant est glissé par les systèmes automatisés de WhatsApp. Un rapport de deux ONG israéliennes examiné par TechCrunch explique comment les applications tierces pour découvrir les groupes WhatsApp incluent des sections «Adultes» qui offrent des liens d’invitation pour rejoindre des cercles d’utilisateurs commercialisant des images d’exploitation d’enfants. TechCrunch a passé en revue les documents montrant que bon nombre de ces groupes sont actuellement actifs. 

L’enquête de TechCrunch montre que Facebook pourrait faire plus pour contrôler WhatsApp et supprimer ce type de contenu. Même sans solutions techniques qui nécessiteraient un affaiblissement du chiffrement, WhatsApp les modérateurs auraient dû trouver ces groupes et y mettre un terme. Les groupes avec des noms comme «pornographie enfantine seulement sans publicité» et «xvideos pornographie enfantine» trouvés sur l’application de découverte de groupe «Group Links For Whats» par Lisa Studio n’essaient même pas de cacher leur nature. Et une capture d’écran fournie par la startup anti-exploitation AntiToxin révèle des groupes WhatsApp actifs avec des noms comme «Children  » ou «videos cp» – une abréviation connue pour « la pornographie enfantine».💋👙👙

[Mise à jour 27/12/18: Google Play a supprimé au moins six de ces applications tierces de Google Play à la suite de notre rapport et de notre demande de commentaire.]

WhatsApp est devenu une plateforme pornographique

Une capture d’écran d’aujourd’hui de groupes d’exploitation d’enfants actifs sur WhatsApp. Numéros de téléphone et photos expurgés. Fourni par AntiToxin .

Une meilleure enquête manuelle de ces applications de découverte de groupe et de WhatsApp lui-même aurait dû immédiatement entraîner la suppression de ces groupes et l’interdiction de leurs membres. Alors que Facebook a doublé son personnel de modération de 10000 à 20000 en 2018 pour réprimer les interférences électorales, l’intimidation et d’autres violations de politiques, ce personnel ne modère pas le contenu WhatsApp. Avec seulement 300 employés, WhatsApp fonctionne de manière semi-indépendante et l’entreprise confirme qu’elle gère ses propres efforts de modération. Cela s’avère insuffisant pour contrôler une communauté de 1,5 milliard d’utilisateurs.

 TechCrunch a rapporté plus tard que des applications pour découvrir des groupes d’images WhatsApp sur les abus d’enfants s’exécutaient sur les réseaux publicitaires de Google et Facebook . Cela leur a permis de monétiser et de subvenir à leurs besoins tout en gagnant de l’argent mal acquis pour ces plateformes. À la suite du rapport, les deux plateformes ont bloqué ces applications de leurs réseaux publicitaires et de Facebook accepté de rembourser les annonceurs.]

 

Les conclusions des ONG Screen Savers et Netivei Reshet ont été écrites aujourd’hui par Financial Times , mais TechCrunch publie le rapport complet , leur lettre traduite à Facebook, les  courriels traduits avec Facebook, leur rapport de police , ainsi que les noms des groupes d’images de maltraitance des enfants sur WhatsApp et les applications de découverte de groupe répertoriées ci-dessus. Une startup appelée AntiToxin Technologiesqui étudie le sujet a soutenu le rapport, fournissant la capture d’écran ci-dessus et disant qu’il a identifié plus de 1300 vidéos et photographies de mineurs impliqués dans des actes sexuels sur des groupes WhatsApp. Étant donné que l’application de Tumblr a récemment été temporairement supprimée de l’App Store d’Apple pour avoir prétendument hébergé des images de maltraitance d’enfants, nous avons demandé à Apple si elle suspendrait temporairement WhatsApp, mais nous n’avons pas eu de réponse. 

Découvrir un cauchemar

En juillet 2018, les ONG ont pris connaissance du problème après qu’un homme a signalé à l’une de leurs lignes directes qu’il avait vu de la pornographie hardcore sur WhatsApp. En octobre,  ils ont passé 20 jours à cataloguer plus de 10 groupes d’images de maltraitance d’enfants, leur contenu et les applications qui permettent aux gens de les trouver.

Les ONG ont commencé à contacter le responsable des politiques de Facebook, Jordana Cutler, à partir du 4 septembre. Ils ont demandé une réunion à quatre reprises pour discuter de leurs conclusions. Cutler a demandé des preuves par e-mail, mais n’a pas accepté une réunion, suivant les directives des forces de l’ordre israéliennes pour demander aux chercheurs de contacter les autorités. L’ONG a rapporté ses conclusions à la police israélienne mais a refusé de fournir à Facebook ses recherches. WhatsApp n’a reçu aujourd’hui que son rapport et la capture d’écran des groupes d’images actives de maltraitance des enfants de TechCrunch.

Listes d’une application de découverte de groupe de groupes d’exploitation d’enfants sur WhatsApp. Les URL et les photos ont été supprimées.

WhatsApp me dit qu’il enquête maintenant sur les groupes visibles à partir des recherches que nous avons fournies.  Un porte-parole de Facebook a déclaré à TechCrunch: «La sécurité des personnes sur Facebook est fondamentale pour le travail de nos équipes à travers le monde. Nous avons proposé de travailler avec la police israélienne pour lancer une enquête pour mettre fin à ces abus. »Une déclaration du chef de la police israélienne du Bureau de protection en ligne des enfants, Meir Hayoun, note que:« Lors de réunions antérieures avec Jordana, je lui ai demandé de dites toujours à toute personne qui souhaite signaler un contenu pédophile de contacter la police israélienne pour signaler une plainte. »

Un porte-parole de WhatsApp m’a dit que bien que la pornographie légale pour adultes soit autorisée sur WhatsApp, il a interdit 130000 comptes au cours d’une récente période de 10 jours pour avoir violé ses politiques contre l’exploitation des enfants. Dans une déclaration, WhatsApp a écrit que:

WhatsApp a une politique de tolérance zéro concernant les abus sexuels sur enfants. Nous déployons notre technologie la plus avancée, y compris l’intelligence artificielle, pour numériser des photos et des images de profil dans le contenu signalé, et interdisons activement les comptes soupçonnés de partager ce contenu ignoble. Nous répondons également aux demandes des forces de l’ordre du monde entier et signalons immédiatement les abus au Centre national pour les enfants disparus et exploités. Malheureusement, comme les magasins d’applications et les services de communication sont utilisés à mauvais escient pour diffuser du contenu abusif, les entreprises technologiques doivent travailler ensemble pour y mettre fin.

Mais c’est cette dépendance excessive à l’égard de la technologie et le manque de personnel qui a suivi qui semblent avoir permis au problème de s’aggraver. Zohar Levkovitz, PDG d’AntiToxin, me dit: «Peut-on affirmer que Facebook a involontairement piraté la croissance? Oui. En tant que parents et cadres technologiques, nous ne pouvons pas rester complaisants à cet égard. »

WhatsApp est devenu une plateforme phonographique

La modération automatisée ne suffit pas

WhatsApp a introduit une fonctionnalité de lien d’invitation pour les groupes à la fin de 2016, ce qui permet de découvrir et de rejoindre des groupes plus facilement sans connaître les membres. Des concurrents comme Telegram en avaient profité alors que l’engagement dans leurs conversations de groupe publiques augmentait. WhatsApp a probablement considéré les liens d’invitation de groupe comme une opportunité de croissance, mais n’a pas alloué suffisamment de ressources pour surveiller les groupes d’étrangers se rassemblant autour de différents sujets. Des applications ont vu le jour pour permettre aux utilisateurs de parcourir différents groupes par catégorie. Une certaine utilisation de ces applications est légitime, car les gens recherchent des communautés pour discuter de sports ou de divertissement. Mais bon nombre de ces applications comportent désormais des sections «Adultes» qui peuvent inclure des liens d’invitation vers des groupes de partage de pornographie légale ainsi que du contenu d’exploitation illégale d’enfants.

Un porte-parole de WhatsApp m’a dit qu’il scanne toutes les informations non cryptées sur son réseau – essentiellement tout ce qui se trouve en dehors des discussions elles-mêmes – y compris les photos de profil utilisateur, les photos de profil de groupe et les informations de groupe. Il cherche à faire correspondre le contenu avec les banques PhotoDNA d’images indexées sur la maltraitance des enfants que de nombreuses entreprises technologiques utilisent pour identifier les images inappropriées signalées précédemment. S’il trouve une correspondance, ce compte ou ce groupe et tous ses membres reçoivent une interdiction à vie de WhatsApp.

Si les images ne correspondent pas à la base de données mais sont suspectées de montrer l’exploitation des enfants, elles sont examinées manuellement. S’il est déclaré illégal, WhatsApp interdit les comptes et / ou les groupes, l’empêche d’être téléchargé à l’avenir et signale le contenu et les comptes au Centre national pour les enfants disparus et exploités. Le seul exemple de groupe signalé à WhatsApp par Financial Times a déjà été signalé pour examen humain par son système automatisé, puis a été banni avec les 256 membres.

Pour décourager les abus, WhatsApp dit qu’il limite les groupes à 256 membres et ne propose pas délibérément de fonction de recherche pour les personnes ou les groupes au sein de son application. Il n’encourage pas la publication de liens d’invitation de groupe et la grande majorité des groupes ont six membres ou moins. Il travaille déjà avec Google et Apple pour appliquer ses conditions de service contre des applications comme les applications de découverte de groupes d’exploitation d’enfants qui abusent de WhatsApp. Ce type de groupes est déjà introuvable dans l’App Store d’Apple, mais reste disponible sur Google Play. Nous avons contacté Google Play pour savoir comment il traite les applications de découverte de contenu illégal et si les liens de groupe pour ce qui est de Lisa Studio resteront disponibles, et seront mis à jour si nous entendons de nouveau. [Mise à jour 15h PT: Google n’a pas fourni de commentaire mais l’application Group Links For Whats de Lisa Studio a été supprimée de Google Play.

Mais la plus grande question est que si WhatsApp était déjà au courant de ces applications de découverte de groupe, pourquoi ne les utilisait-il pas pour traquer et interdire les groupes qui violent ses politiques. Un porte-parole a affirmé que les noms de groupe avec «CP» ou d’autres indicateurs d’exploitation des enfants sont certains des signaux qu’il utilise pour chasser ces groupes, et que les noms dans les applications de découverte de groupe ne sont pas nécessairement en corrélation avec les noms de groupe sur WhatsApp. Mais TechCrunch a ensuite fourni une capture d’écran montrant les groupes actifs au sein de WhatsApp à partir de ce matin, avec des noms comme « Children   » ou « videos cp ». Cela montre que les systèmes automatisés et le personnel allégé de WhatsApp ne suffisent pas à empêcher la propagation d’images illégales.💋👙👙

La situation soulève également des questions sur les compromis du cryptage alors que certains gouvernements comme l’Australie cherchent à empêcher son utilisation par les applications de messagerie. La technologie peut protéger la liberté d’expression, améliorer la sécurité des dissidents politiques et empêcher la censure par les gouvernements et les plateformes technologiques. Cependant, cela peut également rendre la détection des délits plus difficile, exacerbant les dommages causés aux victimes.

Le porte-parole de WhatsApp m’a dit qu’il soutenait un cryptage de bout en bout solide qui protège les conversations avec vos proches, les médecins et plus encore. Ils ont déclaré qu’il existe de nombreuses bonnes raisons pour le chiffrement de bout en bout et qu’il continuera de le prendre en charge. Changer cela de quelque façon que ce soit, même pour aider à attraper ceux qui exploitent les enfants, nécessiterait un changement significatif des garanties de confidentialité accordées aux utilisateurs. Ils ont suggéré que la recherche de contenu illégal sur l’appareil devrait être mise en œuvre par les fabricants de téléphones pour empêcher sa propagation sans entraver le cryptage.

Mais pour l’instant, WhatsApp a besoin de plus de modérateurs humains prêts à utiliser une enquête manuelle proactive et non évolutive pour résoudre son problème d’imagerie de la maltraitance des enfants. Avec Facebook gagnant des milliards de bénéfices par trimestre et disposant de ses propres rangs de modération, il n’y a aucune raison que l’autonomie supposée de WhatsApp devrait l’empêcher d’appliquer des ressources adéquates au problème. WhatsApp a cherché à se développer à travers de grands groupes publics, mais n’a pas mis en œuvre les précautions nécessaires pour s’assurer qu’ils ne deviennent pas des refuges pour l’exploitation des enfants. Les entreprises technologiques comme WhatsApp doivent cesser de supposer que des solutions technologiques bon marché et efficaces sont suffisantes. S’ils veulent gagner de l’argent avec d’énormes bases d’utilisateurs, ils doivent être prêts à payer pour les protéger et les contrôler.

Source: techcrunch

 

Lire aussi:WhatsApp vient d’être interdit aux agents de l’ONU pour raison sécuritaire

Partager

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *