Políticas e Procedimentos que Regem a Moderação de Conteúdo
A segurança na Roblox está no centro de tudo o que fazemos. Isso começa com nosso conjunto robusto de Regras da Comunidade, que descreve como esperamos que nossos usuários se comportem e deixa claro o que é e o que não é permitido na Roblox. Usamos essas Regras para moderar conteúdo e responder a denúncias de abuso dos usuários. Se for descoberto que algum usuário está violando essas Regras, podemos tomar uma série de ações, conforme descrito abaixo.
Processos e Sistemas Gerais
Monitoramento e Processos de Revisão
Temos um sistema de segurança e monitoramento rigoroso integrado à Roblox para promover a civilidade e garantir a segurança de nossos usuários. Esses sistemas são projetados para aplicar nossas políticas, proteger as informações pessoais dos usuários e manter a conformidade com as leis locais. Implementamos moderadores e sistemas automatizados para identificar proativamente comportamentos que possam violar nossas políticas.
O conteúdo enviado pelos criadores passa automaticamente por um processo de revisão de várias etapas antes de aparecer na plataforma. O conteúdo inclui imagens, malhas, arquivos de áudio e arquivos de vídeo que os criadores enviam para a Roblox para serem incluídos em suas experiências. As imagens são avaliadas em busca de Material de Abuso Sexual Infantil (CSAM, da sigla em inglês) e outros conteúdos inapropriados, enquanto os arquivos de áudio são verificados em busca de violação de propriedade intelectual. Se uma imagem é identificada como CSAM, ela é automaticamente denunciada ao Centro Nacional para Crianças Desaparecidas e Exploradas. Finalmente, o conteúdo que não foi sinalizado automaticamente para remoção fica sujeito à revisão humana — por exemplo, se o conteúdo for denunciado como algo que viola nossas políticas. A Roblox também possui sistemas em vigor para evitar o upload de conteúdo removido anteriormente. Isso inclui tecnologia que revisa o conteúdo e analisa se é igual ou semelhante a outro que já removemos.
Quando experiências são publicadas ou atualizadas na Roblox, elas são avaliadas por um conjunto de ferramentas que identifica linguagem problemática, possíveis desvios de nossos filtros e conteúdo que não esteja englobado por nossas políticas. Uma equipe de revisão humana está operando continuamente para avaliar experiências sinalizadas. Os processos de moderação da Roblox incluem um conjunto de tecnologia anti-invasão que emprega o aprendizado de máquina aliado a mecanismos reguladores e de parada para bloquear ataques automatizados de bots e mitigar o impacto de humanos que tentam enviar spam a usuários e interromper o serviço. Também utilizamos testes de penetração automatizados, um programa de recompensas para a identificação de erros, assessorias para ameaças no código e ferramentas de gerenciamento de vulnerabilidades para garantir a segurança de nossos usuários e da plataforma. Nossa equipe de segurança se esforça para tomar medidas rápidas e responder em poucos minutos para agir sobre qualquer conteúdo ou comportamento que viole nossos Termos de Uso ou Regras da Comunidade.
Processos de Denúncia
Denúncias de Usuários
Na Roblox, os usuários podem facilmente denunciar conteúdo ou comportamento inapropriado usando nosso sistema Denunciar Abuso localizado proeminentemente em toda a plataforma Roblox, inclusive dentro de experiências. Também incentivamos nossos usuários a denunciar qualquer atividade que gere preocupação diretamente à Roblox. A Roblox também fornece aos usuários um canal direto para nossa equipe de Atendimento ao Cliente para relatar preocupações ou outros problemas.
Os usuários da UE também podem denunciar conteúdo que acreditem violar a lei dos estados-membros da UE usando nosso formulário de denúncia de conteúdo ilegal da UE. O conteúdo denunciado por meio desse formulário é primeiramente avaliado em relação às nossas Regras da Comunidade — se o conteúdo for incompatível com nossas políticas de nível de plataforma, ele receberá as ações devidas de acordo. Quaisquer itens denunciados que não violem nossas Regras da Comunidade são escalados para especialistas legais para avaliação em relação às leis locais relevantes.
Sinalizadores Confiáveis
A Roblox tem um programa de sinalizador de confiança, no qual parceiros próximos e confiáveis podem denunciar conteúdo terrorista para nós. Firmamos um compromisso com eles de que seu conteúdo denunciado será revisado e, se necessário, receberá as medidas cabíveis rapidamente. Além disso, os Sinalizadores de Confiança da UE, em conformidade com a Lei de Serviços Digitais, podem enviar avisos de Conteúdo Ilegal por meio de nosso formulário de denúncia de Conteúdo Ilegal da UE. Esses relatórios serão priorizados por nossa equipe de moderadores.
Consequências
Sempre que tomamos uma decisão de restringir o acesso a algum conteúdo na plataforma, notificamos os usuários sobre nossa decisão e lhes fornecemos uma oportunidade para apelarem. Dependendo da gravidade e do impacto de uma violação das Regras da Comunidade ocasionada por algum conteúdo, tomamos medidas que vão desde avisos, remoção do conteúdo ou restrições ao nível da conta da Roblox. Em circunstâncias que apresentam um risco iminente de danos, os usuários podem ser denunciados às autoridades relevantes.
A duração de nossa decisão e como decidimos agir com base em violações de conteúdo varia — temos processos em vigor que são estritamente manuais, automatizados ou uma combinação de ambos. Além de considerarmos a violação específica, também levamos em conta o comportamento histórico de um usuário na plataforma e se ele violou repetidamente nossas políticas. Violações repetidas de nossas políticas podem aumentar a gravidade das consequências (ou seja, um aviso, seguido por um tempo de espera, seguido por uma suspensão, etc.).
Apelando de uma Decisão de Moderação de Conteúdo
Os usuários podem entrar em contato com a Roblox para solicitar uma revisão das decisões de moderação. Nossa equipe dará uma segunda olhada na decisão de moderação e fará os ajustes necessários no status de moderação da conta. Levamos todas as solicitações de apelo a sério. Ao revisar uma solicitação de apelo, consideramos holisticamente a gravidade da violação, o motivo do usuário para apelar e o comportamento do usuário na plataforma. Observe que, em algumas circunstâncias, as solicitações de apelo podem não ser facilmente aplicáveis — por exemplo, uma consequência de tempo de espera, como um de 20 minutos, na qual a suspensão já foi removida. Além do nosso processo de apelo, todos os usuários podem tentar resolver conflitos de acordo com nossos Termos de Uso.
De acordo com a Lei de Serviços Digitais, aqueles que denunciam conteúdo ilegal em nossa plataforma por meio do nosso formulário de denúncia de conteúdo ilegal da UE também têm o direito de apelar da decisão da Roblox relacionada à sua denúncia. Os usuários da UE também podem apelar de uma decisão de moderação por até 6 meses após nossa decisão inicial. Para disputas relacionadas à moderação de conteúdo, os usuários da UE podem selecionar um órgão de resolução de litígios certificado extrajudicial para resolver disputas relacionadas a uma decisão de moderação de conteúdo que tomamos. A Comissão da UE manterá uma lista dos órgãos de resolução de litígios extrajudiciais credenciados para esse propósito.
Encerramento do Uso da Roblox
Os usuários podem descontinuar o uso do serviço a qualquer momento solicitando uma exclusão da conta no aplicativo, ou por meio do nosso Formulário de Suporte, usando a funcionalidade de solicitação Direito de Ser Esquecido. Para obter mais informações sobre como iniciar esse processo, consulte nosso artigo de Suporte relevante.