Passez au contenu principal Passez au menu de la section

Quand l’histoire se répète : Le dernier rapport de l’autorité australienne de réglementation du numérique montre que la protection des enfants n’est pas une priorité pour les géants des médias sociaux


Un texte de , directrice générale du Centre canadien de protection de l’enfance (CCPE)

Du point de vue d’un organisme de protection de l’enfance, il est impossible de prendre la pleine mesure des failles de sécurité des plateformes de médias sociaux que nos enfants et adolescents utilisent tous les jours.

Plusieurs facteurs compliquent l’analyse de la situation, à commencer par le manque de transparence des entreprises de technologie vis-à-vis de leurs pratiques de modération de contenu et de sûreté de conception.

Le dernier rapport du Commissariat australien à la sécurité en ligne (eSafety Commissioner) s’avère donc un document fort utile pour demander des comptes aux entreprises de technologie. On y examine les pratiques de cinq grandes entreprises – Google, TikTok, Twitch, Discord et X (feu Twitter) – en matière de protection des enfants et les ressources qu’elles y consacrent. Les résultats illustrent une fois de plus pourquoi le modèle d’autoréglementation ne fonctionne tout simplement pas et nuit gravement aux enfants et aux survivant·es.

N’hésitant pas à utiliser les pouvoirs que lui confère la loi, le commissariat a demandé des informations détaillées à ces plateformes et dégagé plusieurs constats inquiétants, dont ceux-ci :

  • Discord et Twitch – qui s’en remettent en partie à la modération communautaire – ne sont pas automatiquement avertis lorsque des utilisateurs bénévoles trouvent des images d’abus pédosexuels. Il est aussi possible à des modérateurs autoproclamés et à d’autres personnes de mettre en place des canaux spécialement consacrés à l’exploitation et aux abus sexuels d’enfants.
  • Certaines entreprises n’utilisent pas les listes de blocage d’images d’abus pédosexuels connues, alors que ces listes sont largement diffusées.
  • Certaines plateformes s’empêchent d’utiliser les outils largement disponibles pour intercepter les images d’abus pédosexuels et empêcher les utilisateurs de les mettre en ligne.
  • La plateforme Discord, en partie consacrée à la diffusion en direct, s’abstient de déployer des outils de détection d’activités nocives, invoquant des coûts « prohibitifs ».

Qui plus est, le Commissariat à la sécurité en ligne a infligé une amende d’un peu plus de 380 000 $ US à X pour modération insuffisante des contenus et envoyé une mise en demeure à Google pour omission de fournir toutes les informations demandées. Ces constats démontrent une fois de plus la défiance affichée par les entreprises de technologie lorsque des gouvernements dûment élus les soumettent à des exigences minimales et raisonnables.

Ce ne sont là que quelques exemples du ramassis dysfonctionnel de mécanismes et de politiques de protection que le Commissariat a relevés dans le deuxième de ses excellents rapports sur les exigences de base en matière de sécurité en ligne (Basic Online Safety Expectations). Ce dernier rapport s’inscrit dans la continuité du rapport inaugural de 2022.

Ces constats concordent hélas avec ce que nous observons au CCPE dans notre travail auprès des survivant·es d’abus pédosexuels et à travers les activités de notre plateforme Projet Arachnid, qui freine la distribution des images connues sur Internet à l’échelle mondiale lorsqu’il s’agit d’abus pédosexuels et d’images préjudiciables/violentes d’enfants. Le CCPE a illustré dans ses nombreux rapports de recherche l’incapacité chronique des entreprises de technologie à faire prévaloir la sécurité des enfants.

Au nom des acteurs de première ligne dans la lutte contre l’exploitation sexuelle des enfants sur Internet, au nom des parents, et surtout, au nom des survivant·es, nous saluons les efforts inlassables du Commissariat à la sécurité en ligne pour responsabiliser les entreprises. Nous avons plus que jamais besoin que les gouvernements se mobilisent d’urgence pour protéger leurs citoyens sur Internet, en particulier ceux qui sont les plus vulnérables à l’exploitation et aux abus sexuels.

-30-

Un mot sur le Centre canadien de protection de l’enfance : Le Centre canadien de protection de l’enfance (CCPE) est un organisme de bienfaisance national qui se consacre à la protection personnelle de tous les enfants. Il veut réduire l’exploitation et les abus sexuels d’enfants et offre à cette fin des programmes, des services et des ressources aux familles, au personnel éducatif, aux organismes de services à l’enfance et aux forces policières du Canada ainsi qu’à d’autres intervenants. Cyberaide.ca — la centrale canadienne de signalement des cas d’exploitation et d’abus sexuels d’enfants sur Internet — relève aussi du CCPE, de même que Projet Arachnid, une plateforme Web qui détecte les images d’abus pédosexuels connues sur le Web visible et le Web clandestin et qui envoie des demandes de suppression à l’industrie. En date du 12 octobre 2023, Projet Arachnid avait traité plus de 161 milliards d’images et envoyé plus de 35 millions de demandes de suppression à plus de 1400 fournisseurs de services électroniques dans une centaine de pays.

Soutenez nos efforts. Faites-nous un don.

Associez-vous à une grande cause. En tant qu’organisme de bienfaisance enregistré, nous faisons appel aux dons pour nous aider à offrir nos services et nos programmes à la population. Aidez-nous à aider les familles et à protéger les enfants.

Faire un don