Numéro 2

Child abuse & chat control : la dark side de la data

En parcourant les petites annonces du dernier Médor, j’ai été interpellée par un appel à pétition : sur la plateforme stopscanningme.eu , on encourageait citoyennes et organisations à se mobiliser contre le vote d’un règlement européen visant à lutter contre la pédo-pornographie. La protection de l’enfance est-elle inconciliable avec le droit à la vie privée ?

Éclairage en trois questions avec Siméon – de la Commission « Nouvelles Technologies et Vie Privée » de la Ligue des droits humains.

L’idée de surveiller la vie en ligne des individus pour débusquer le crime n’est pas neuve. Ce sont ici les messageries privées qui sont concernées, pour lutter contre la diffusion de contenu pédo-pornographique. Peux-tu préciser de quoi il s’agit ?

Depuis 2021, une dérogation à la directive sur la protection de la vie privée permet de scanner les messageries privées pour débusquer spécifiquement ce genre de contenu. Cette procédure avait été mise en place à titre provisoire mais le projet sur la table propose de la transformer en système obligatoire et généralisé. Actuellement, cette détection n’est possible que sur base volontaire, et c’est ce que font déjà de grands opérateurs, comme Meta (Facebook, Instagram...), qui appliquent de manière généralisée un algorithme de détection des contenus pédopornographiques.

Des données non filtrées

C’est une obligation aux États-Unis, les comptes européens sont passés en revue de la même manière : des millions de rapports de signalement sont ainsi envoyés chaque année en Europe. Cependant, ces chiffres extrêmement alarmants doivent être relativisés, dans le sens où ils s’expliquent notamment par le fait que le même contenu est relayé de très nombreuses fois.

En effet, selon un rapport de Meta, on peut estimer que sur cette énorme masse de notifications, 90 % du contenu signalé sera lié à une même poignée d’images retransmises à plusieurs reprises. À terme, la question se pose de pouvoir vérifier aussi des conversations dont le contenu est chiffré. Dans le cas précis qui nous occupe, on parle d’algorithmes qui appartiennent aux plateformes, mais il existe aussi quelques rares compagnies qui proposent un outil de scanning des conversations avant qu’elles ne soient chiffrées lors de l’envoi, c’est-à-dire quand le contenu est encore au niveau de l’utilisateurice (on appelle cela le « client-side scanning »). La compagnie Thorn est l’une d’entre elles. Ses méthodes de lobbying au niveau de la Commission sont controversées.

L’absence de traitement

Il n’y a pas actuellement d’obligation de signalement, ni de la part de la police envers les plateformes (par exemple pour faire retirer le contenu), ni réciproquement de la part des plateformes à la police en cas de détection. C’est une des raisons qui explique à la fois la persistance d’une certaine quantité de contenus pédo-pornographiques et l’augmentation inquiétante des chiffres : ce contenu, qui reste en place, continue à être signalé. En cela, les mesures qui ont déjà été mises en place par la Commission européenne et qui se basent sur cette impression que les contenus préjudiciables sont effectivement en train d’augmenter ne sont pas forcément pertinentes, alors que d’autres mesures plus proportionnées pourraient soutenir le cadre légal actuel.

Un groupe de journalistes a publié une enquête qui évoque l’influence d’une fondation américaine et le lobbying de sociétés technologiques (à lire par exemple sur Le Monde, « Pédopornographie en ligne : bataille d’influence autour d’un texte européen controversé », paru le 25 septembre 2023). Qui sont les acteurices qui poussent le projet porté par la Commission ? Et ces méthodes de détection peuvent-elles être efficaces ?

Hormis au niveau de la DG Home (l’équivalent européen du ministère de l’Intérieur) qui porte le projet, on n’a pas une très bonne lisibilité des groupes qui le soutiennent.
On constate un soutien de certaines ONG qui rassemblent des « survivantes », c’est-à-dire des personnes qui ont été victimes, mais ces associations sont loin d’être unanimes. Et on remarque, par ailleurs, que celles qui défendent le projet le plus ardemment ont été largement financées par une association américaine, la « Oak Foundation » – tout comme la société Thorn. Cet appui plutôt unilatéral est problématique, et sans doute peut-on relever un certain manque de transparence – mais tout cela ne décrédibilise pas pour autant ces associations.
Le problème vient du caractère quasi exclusivement émotionnel des arguments qui portent ce projet de loi.
Il est délicat de se positionner contre une loi qui cherche à protéger des enfants, et ses défenseurs exploitent cet angle à fond. Pour certaines, cette approche « children first » suffit à balayer les arguments des expertes du droit et des technologies, qui opposent de leur côté qu’une loi visant la protection des enfants ne justifie pas de menacer tout le monde. Car, au-delà de la prétendue efficacité du scanning, ce sont les droits fondamentaux de chacune, y compris des enfants, qui sont en jeu. Évidemment, l’agenda sécuritaire des États-Unis et de la DG Home ne s’attarde pas sur l’ampleur de l’impact de cette proposition de loi sur la société.
Mais honte à ses partisanes de ne pas voir clair dans ce jeu ! La question n’est pas de protéger ou non les enfants : sinon, au lieu de proposer des mouchards sur nos téléphones, on mettrait des agentes de police dans nos maisons, là où se produisent les deux tiers de ces crimes.

Le risque de noyade

Pour ce qui est de l’efficacité, on peut se poser la question en deux temps : d’abord, est-ce efficace au regard du système actuel ? Selon la dérogation de 2021, il devrait déjà y avoir des rapports annuels publiés par les États membres et par la Commission pour évaluer l’efficacité de ce système. Or, il n’y a toujours pas de rapport concret sur le nombre d’éléments qui ont été utiles ou qui ont été pris en compte. On manque de données à ce niveau, qui devraient être fournies par la Commission, laquelle continue entre-temps à argumenter sur l’augmentation des chiffres pour justifier le fait d’aller plus loin. Secundo, le volume global mérite d’être interrogé : si on considère qu’il y a plus d’un milliard de messages échangés chaque jour sur WhatsApp dans l’Union européenne, avec un taux de faux positif de 0,1 %, cela représente plus d’un million d’alertes quotidiennes à traiter manuellement. Si on applique le système à plusieurs messageries, le risque d’engorgement devient énorme, notamment au niveau des forces de police.

Les moyens de la prévention

La commission joue sur les mots en disant qu’il s’agit de
mesures préventives permettant d’empêcher les pédo-pornographes d’agir. Mais la prévention, c’est différent : ce serait investir dans les hotlines, les helplines, dans les moyens de police, où on sait qu’il y a un manque de ressources. Ce serait mettre en place des systèmes qui soient par défaut protecteurs des enfants, par exemple en faisant en sorte qu’on ne puisse pas si facilement entrer en contact avec des inconnues ou envoyer des requêtes non sollicitées.

On trouve, en consultant les signataires de la pétition Stop scanning me, des associations de victimes opposées au projet, des associations concernées par le numérique, mais de manière plus large divers secteurs de la société civile, en plus des politiques. Quels sont les arguments de l’opposition, et où en est la mobilisation ?

On peut s’inquiéter de la généralisation de l’usage de la surveillance comme moyen de résoudre des problèmes humains : si c’est mis en place aujourd’hui pour lutter contre la pédopornographie, l’étape à franchir ensuite pour étendre la pratique devient bien plus accessible.
Europol a déjà formulé un souhait en ce sens pour lutter contre le terrorisme.
De nombreuses associations de protection de l’enfance ont jugé que les mesures proposées ne résoudraient pas grand-chose, c’est pourquoi elles appellent à mettre en place d’autres moyens. D’autres secteurs (journalistes, juristes, survivantes de violences sexuelles...) sont plutôt concernés par l’atteinte à la confidentialité des communications, la liberté d’expression et d’information, car celles-ci sont vitales dans leur mission. Le secteur du numérique avertit quant à lui du manque d’efficacité du scanning, mais aussi du danger pour la cybersécurité.

Le Parlement au diapason des libertés civiles et un futur compromis à la belge

Le Parlement européen a adopté à la mi-novembre une formule profondément remaniée par rapport au projet initial de la Commission, marquant un rejet massif de la part des différents groupes : le texte postule que seules les communications des personnes dont on soupçonne qu’elles sont liées à un crime en la matière pourraient subir une surveillance sur injonction d’un juge, et les conversations cryptées resteraient hors du champ d’application.

Au niveau du Conseil européen, le nombre d’États qui se sont opposés à la proposition a été conséquent, assez pour amener la Commission à lancer des campagnes de publicité ciblée au sein de ces États réfractaires – y compris en Belgique – dans le but d’y retourner l’opinion publique ! Or, la Belgique assumera bientôt la présidence du Conseil (NDLR : cet article a été écrit avant janvier 2024), qui aura le rôle de présenter un compromis. Nous sommes donc extrêmement curieureuses de voir quelle sera l’attitude de la Belgique à l’égard de ce dossier : prendra-t-elle le chemin emprunté par les présidences précédentes, qui y ont échoué, ou bien suivra-t-elle la même voie que le Parlement ?