Skip to main content

Construire une communauté civile et sécurisée

novembre

05, 2020

by David Baszucki


Communauté

Chère communauté Roblox,

Roblox a été conçu pour les enfants et les adolescents, et nous avons la responsabilité de veiller à ce que nos joueurs puissent apprendre, créer et jouer en toute sécurité. Cela reste notre priorité la plus importante et cela ne changera jamais. La sécurité n’est pas une simple mise à niveau, elle est dans notre ADN depuis le premier jour.

Nous avons parcouru un long chemin ensemble depuis les tout premiers jours où Erik, Matt, John et moi avons construit la première version du système de modération de Roblox, et nous avions au maximum 40 joueurs sur Roblox en même temps. Nous avons reconnu très tôt que la construction d’une communauté civile et sécurisée était essentielle à notre vision de relier le monde par le jeu. Dès les premiers jours, nous avons tous passé de nombreuses heures à agir en tant que premiers modérateurs sur Roblox, et cette expérience de première main reste avec nous aujourd’hui.

Nous ne tolérons pas les contenus ou les comportements qui enfreignent nos règles, et nous travaillons inlassablement et sans relâche pour créer une communauté sûre, civile et diversifiée. C’est pourquoi nous disposons d’un système de sécurité rigoureux – l’un des plus rigoureux de toutes les plateformes, allant bien au-delà des exigences réglementaires :

  • Nous disposons d’une équipe de 1 600 personnes qui protègent nos utilisateurs et surveillent la sécurité pour détecter les contenus inappropriés 24 heures sur 24, 7 jours sur 7, en combinant le scan des machines et la modération humaine. Nous prenons des mesures rapides (généralement en quelques minutes) pour traiter tout contenu ou tout développeur qui enfreint nos conditions d’utilisation.
  • Nous filtrons tous les chats textuels sur la plateforme pour bloquer les contenus inappropriés, y compris les questions sur les informations personnelles et les instructions sur la façon de se connecter à d’autres applications de chat de tiers, moins restrictives.
  • Nous effectuons un examen de sécurité de toutes les images et de tous les fichiers audio et vidéo en combinant un examen humain et une détection automatique avant qu’ils ne soient disponibles sur notre plateforme.
  • Nous travaillons en étroite collaboration et en toute transparence avec les régulateurs, les autorités et les groupes de sécurité dans chaque pays où nous opérons et nous signalons rapidement tout soupçon d’exploitation d’enfant, de matériel pédopornographique ou de manipulation psychologique en ligne aux autorités compétentes comme la National Crime Agency et le Child Exploitation and Online Protection Command au Royaume-Uni, ainsi que le National Center for Missing & Exploited Children (NCMEC) aux États-Unis.
  • Nous avons des partenariats avec plus de 20 organisations mondiales de premier plan qui se concentrent sur la sécurité des enfants et la sécurité sur Internet, notamment l’Alliance mondiale WePROTECT, l’Internet Watch Foundation (IWF), le UK Safer Internet Centre, Fair Play Alliance, le Family Online Safety Institute (FOSI), Connect Safely et kidSAFE, entre autres.
  • Nous sommes membres de diverses organisations de notre industrie, telles que l’UKIE et The Technology Coalition, dont l’objectif est la collaboration interindustrielle, l’échange de connaissances et de technologies dans les domaines de la sécurité des utilisateurs et de la sécurité des enfants. Par exemple, nous avons travaillé avec Microsoft sur un projet de filtre de texte de grooming intersectoriel afin de fournir de meilleurs outils de détection des chats de grooming.
  • En tant que membre de la coalition technologique, nous nous sommes engagés à respecter les principes volontaires, notamment la transparence de nos efforts pour lutter contre l’exploitation et les abus sexuels des enfants en ligne.
  • Nous travaillons assidûment avec d’autres plateformes de chat, de médias sociaux et de CGU (Contenu généré par l’utilisateur) pour signaler les mauvais acteurs et contenus, afin qu’ils puissent également prendre les mesures appropriées sur leurs plateformes.

Nous reconnaissons qu’il y aura toujours des individus qui tenteront délibérément d’enfreindre nos règles. Nous continuons à consacrer du temps et des ressources à la recherche de nouveaux moyens pour les arrêter. Notre objectif est que ces efforts continus rendent la tâche de plus en plus difficile à ce petit groupe d’utilisateurs. C’est pourquoi, en plus de continuer à investir dans nos vastes mesures de sécurité, nous y travaillons activement :

  • Continuer à développer nos outils et le cadre de notre réputation afin de mieux soutenir l’écrasante majorité de nos acteurs et créateurs qui construisent une communauté positive, tout en rendant la tâche de plus en plus difficile aux mauvais acteurs sur notre plateforme.
  • Déployer des algorithmes de détection avancés supplémentaires conçus pour bloquer la publication de contenus problématiques et pour signaler d’autres contenus suspects en vue d’un examen rapide.

Notre quête permanente est de construire le meilleur système de modération de contenu possible pour protéger notre communauté. En fin de compte, il est de notre responsabilité d’assurer la sécurité de nos joueurs et de soutenir la créativité de nos développeurs. Nous avons un système de sécurité rigoureux et des politiques fortes, mais nous reconnaissons que notre travail n’est jamais terminé. Nous évoluons continuellement pour combattre ces mauvais acteurs qui tentent de saper nos efforts pour connecter des millions de personnes du monde entier afin qu’elles apprennent, jouent, travaillent et créent ensemble.

Nous pensons que des plateformes comme Roblox sont essentielles pour aider les gens à apprendre et à pratiquer la civilité, et nous ne renoncerons pas à notre mission de construire une communauté sécurisée, civile et diversifiée.

David Baszucki
PDG et cofondateur