Comment protégeons-nous la communauté Roblox ?
La vision de Roblox est de connecter des milliards de personnes à travers des expériences partagées dans le Métaverse. La sécurité et la civilité sont les fondements de cette vision et de la création d'une plateforme où chacun se sent bienvenu. C'est pourquoi nous avons toujours eu pour priorité de veiller à ce que les membres de notre communauté puissent se connecter, créer et se réunir dans un espace accueillant, sûr, inclusif et respectueux. Nous avons passé plus de dix ans à mettre en place un système et des politiques de sécurité rigoureux dont nous sommes fiers et que nous faisons évoluer en permanence à mesure que notre communauté se développe.
Nos politiques
Nos normes communautaires définissent des attentes claires sur la façon de se comporter sur Roblox. Elles exigent que chacun traite autrui avec civilité et respect et contribuent à la sécurité de tous en interdisant les contenus et les comportements inappropriés ou nuisibles. Notre équipe « Fiabilité et sécurité » utilise ces normes pour modérer le contenu et répondre aux signalements d'abus des utilisateurs. S'il s'avère que des utilisateurs enfreignent ces normes, ils peuvent être suspendus ou exclus de la communauté. Dans certains cas, Roblox travaille également de manière proactive avec les autorités pour signaler les cas de menaces violentes, de mise en danger d'enfants ou d'autres dommages graves dans le monde réel. Nous mettons périodiquement à jour nos normes communautaires en fonction de l'évolution des besoins de notre communauté et du produit.
Nos équipes et outils
Équipe « Fiabilité et sécurité » : Nous disposons d'une équipe importante, formée par des experts et comptant des milliers de membres, qui se consacre à la protection de nos utilisateurs et à la surveillance 24 heures sur 24 et 7 jours sur 7 des contenus inappropriés. Notre équipe « Fiabilité et sécurité » prend des mesures rapides (généralement en quelques minutes) pour traiter tout contenu ou comportement qui enfreint nos conditions d'utilisation ou les normes de la communauté.
Examen préventif de la sécurité des contenus téléchargés : Nous effectuons un examen de sécurité de chaque image, fichier audio et vidéo téléchargé, en utilisant une combinaison de contrôles par une équipe importante de modérateurs humains et de détection automatique avant que ces contenus ne soient disponibles sur notre plateforme et que notre communauté puisse les utiliser dans ses créations.
Contrôles parentaux : Roblox propose des contrôles parentaux qui vous permettent de déterminer comment votre enfant utilise Roblox et interagit avec les autres utilisateurs. Vous pouvez prendre les décisions les mieux adaptées à votre famille et gérer plusieurs aspects du compte de votre enfant, comme le temps passé devant l'écran, la maturité du contenu, les limites de dépenses et les paramètres de confidentialité.
Maturité du contenu : Nos étiquettes de maturité du contenu aident les utilisateurs et leurs parents à comprendre quels types de contenu ils trouveront dans les expériences Roblox. Ces étiquettes se basent sur des recherches sur le développement des enfants et sur les normes du secteur. Les parents peuvent ajuster le paramètre de maturité du contenu dans les contrôles parentaux afin de limiter l'accès de leur enfant au contenu qu'ils jugent adapté.
Signalement : Nous encourageons activement nos utilisateurs à signaler toute activité ou tout contenu qui les met mal à l'aise ou les inquiète. Les utilisateurs peuvent facilement mettre en sourdine ou bloquer les joueurs qu'ils rencontrent dans les jeux et signaler tout contenu ou comportement inapproprié à l'aide de notre système de signalement des abus. Lorsqu'un utilisateur soumet un rapport sur une quelconque transgression des règles, notre équipe de sécurité évalue les plaintes jugées recevables pour s'assurer que les mesures appropriées sont prises le plus rapidement possible. Cette action peut inclure la suspension temporaire, la suppression du compte ou du contenu, ou un signalement proactif aux autorités.
Filtrage du chat : Nous filtrons toutes les discussions textuelles sur la plateforme pour bloquer les contenus inappropriés, tels que les discours discriminatoires, les brimades, l'extrémisme, la violence, les contenus sexuels, etc. ainsi que les informations personnelles et les instructions sur la manière de quitter la plateforme. Nous mettons nos filtres à jour en permanence, plusieurs fois par jour. Pour les utilisateurs de moins de 13 ans, nos filtres sont encore plus stricts et incluent toute information personnelle potentiellement identifiable, l'argot, etc. Afin de maintenir une plateforme sûre et d'empêcher tout contenu inapproprié en infraction avec nos politiques, les utilisateurs ne peuvent pas échanger d'images ou de vidéos par le biais du chat ou d'interactions individuelles entre utilisateurs sur Roblox.
Confidentialité : Nous ne partageons aucune donnée personnelle avec des tiers des utilisateurs de moins de 13 ans au-delà de ce qui est autorisé par la COPPA, et de manière générale, nous limitons la collecte de données à ce qui est nécessaire et acceptable dans le cadre de notre politique de confidentialité stricte afin de gérer une plateforme sûre et efficace. Nous sommes certifiés COPPA par kidSAFE (nous sommes membres de leur programme kidSAFE Seal) et nous révisons régulièrement notre politique de confidentialité pour nous assurer que nous traitons vos informations de manière conforme à celle-ci.
Nos partenaires
Collaboration avec des organisations de sécurité et d'autres plateformes : Nous avons des partenariats avec plus de 20 organisations mondiales de premier plan qui se concentrent sur la sécurité des enfants et la sécurité sur Internet, notamment l'Alliance mondiale WePROTECT, la Fondation Internet Watch (IWF), le UK Safer Internet Centre, Fair Play Alliance, Family Online Safety Institute (FOSI), Digital Wellness Lab, Connect Safely et kidSAFE.
- Nous sommes également membres de diverses organisations professionnelles, telles que l'UKIE et Technology Coalition, dans le but d'établir une collaboration interprofessionnelle dans les domaines de la sécurité des utilisateurs et des enfants. En tant que membre de Technology Coalition, nous nous engageons à respecter les Voluntary Principles, notamment la transparence de nos efforts pour lutter contre l'exploitation et les abus sexuels des enfants en ligne.
- En outre, nous travaillons avec des entreprises individuelles lorsque nous voyons des possibilités de partager des enseignements et des efforts de développement. Par exemple, nous avons collaboré avec Microsoft dans le cadre d'un projet interprofessionnel visant à développer une technique basée sur l'intelligence artificielle qui analyse les discussions en mode texte et à fournir de meilleurs outils pour la détection des discussions liée à la prédation sexuelle.
- Nous travaillons également en étroite collaboration avec d'autres plateformes de chat, de médias sociaux et de contenu généré par l'utilisateur (CGU) pour signaler les mauvais acteurs et contenus, afin qu'ils puissent également prendre les mesures appropriées sur leurs plateformes.
En consultation avec des organisations spécialisées comme Anti-Defamation League, Tech Against Terrorism (TAT) et The Simon Wiesenthal Center, ainsi qu'avec des universitaires et des partenaires en sécurité du monde entier, nous évaluons constamment nos politiques de modération. Nous contrôlons fréquemment notre plateforme afin de nous assurer que nous renforçons continuellement nos processus et nos algorithmes pour prévenir, détecter et bloquer tout nouveau contenu ou comportement qui violerait nos conditions d'utilisation. Notre objectif est de protéger notre communauté contre les contenus, termes, mémés et symboles discriminatoires ou nuisibles émergents.
Collaboration avec les autorités : nous collaborons étroitement et dans la transparence avec les législateurs, les autorités et les groupes spécialisés dans la sécurité des pays dans lesquels nous exerçons notre activité, et nous signalons sans attendre tous les cas potentiels d'exploitation infantile, de contenus abusifs et de prédation en ligne au National Center for Missing & Exploited Children (NCMEC) aux États-Unis.
Roblox s'engage pour les droits de l'Homme : Roblox adhère aux Principes directeurs des Nations unies relatifs aux entreprises et aux droits de l'Homme et soutient la protection des droits fondamentaux pour tous les individus.
Éducation et ressources communautaires
Initiative pour la civilité numérique : Nous pensons que l'éducation de la communauté est très importante. En 2019, nous avons créé notre Initiative de civilité numérique pour fournir des ressources exploitables aux parents, aux soignants et aux éducateurs afin de promouvoir l'apprentissage de la sécurité et de la civilité numérique. Cet effort vise également à enseigner aux enfants et aux adolescents comment interagir en ligne de manière positive et à les équiper avec les outils et les connaissances nécessaires pour reconnaître des comportements néfastes ou douteux et les mesures à prendre en conséquence.
- Dans le cadre de son engagement en faveur de la civilité numérique, Roblox a créé un Conseil consultatif de fiabilité et sécurité composé d'autorités de renommée mondiale en matière de sécurité numérique. Nous partageons régulièrement des mises à jour sur nos progrès dans le cadre de l'initiative globale Civilité numérique, y compris les résultats de notre recherche connexe et de l'écoute de la communauté.
Nous sommes constamment à la recherche de moyens pour rendre Roblox plus sûr et nous mettons continuellement à jour cette page avec nos derniers règlements, outils et ressources.