Políticas y procedimientos que rigen la moderación de contenido
La seguridad es una parte fundamental de todo lo que hacemos en Roblox. Esto comienza con nuestras sólidas Normas de la comunidad que describen cómo esperamos que nuestros usuarios se comporten y que aclaran lo que está y lo que no está permitido en Roblox. Usamos estas Normas para moderar el contenido y responder a las denuncias de abuso de los usuarios. Si se descubre que algún usuario está infringiendo estas Normas, podemos tomar una serie de acciones, como se describe a continuación.
Procesos y sistemas generales
Procesos de supervisión y revisión
Tenemos un sistema de seguridad y supervisión estricto integrado con Roblox para promover la cortesía y garantizar la seguridad de nuestros usuarios. Estos sistemas están diseñados para hacer respetar nuestras políticas, proteger la información personal de los usuarios y cumplir con las leyes locales. Empleamos moderadores y sistemas automatizados para identificar de forma proactiva comportamientos que pueden infringir nuestras políticas.
El contenido que los creadores envían pasa automáticamente por un proceso de revisión de varios pasos antes de aparecer en la plataforma. El contenido incluye imágenes, mallas, archivos de audio y de video que los creadores cargan a Roblox para incluirlos en experiencias. Las imágenes se examinan para detectar si hay Material de abuso sexual infantil (MASI) y otro contenido inapropiado, mientras que los archivos de audio se analizan para detectar infracciones de propiedad intelectual. Si se identifica una imagen como MASI, se denuncia automáticamente al Centro Nacional para Niños Desaparecidos y Explotados. Por último, el contenido que no se ha marcado para su eliminación se somete a revisión humana si, por ejemplo, recibimos una denuncia de que infringe nuestras políticas. Roblox también tiene sistemas para evitar que se vuelva a cargar contenido que se ha eliminado anteriormente. Esto incluye tecnología que revisa si hay contenidos iguales o similares a los que ya hemos eliminado.
Cuando las experiencias se publican o actualizan en Roblox, usamos un conjunto de herramientas identificar lenguaje problemático, posibles evasiones a nuestros filtros y contenido que no cumple con nuestras políticas. Un equipo de revisores humanos trabaja continuamente para evaluar las experiencias marcadas. Los procesos de moderación de Roblox incluyen un conjunto de tecnología antiintrusos que emplea el aprendizaje automático, reguladores y patrones de disyuntores para bloquear los ataques de robots automatizados y mitigar el impacto de las personas que intentan enviar spam a los usuarios e interrumpir servicio. También empleamos pruebas de penetración automatizadas, un programa de recompensas por detectar errores, evaluaciones de amenazas de código y herramientas de gestión de vulnerabilidades para garantizar la seguridad de nuestros usuarios y de la plataforma. Nuestro equipo de Seguridad se esfuerza por tomar medidas rápidas y responder en cuestión de minutos para abordar cualquier contenido o comportamiento que infrinja los Términos de uso o las Normas de la comunidad.
Procesos de denuncia
Denuncias de usuarios
Los usuarios pueden denunciar fácilmente contenido o comportamiento inapropiados mediante nuestro sistema Denunciar abuso ubicado en un lugar destacado en Roblox, incluso dentro de las experiencias. También alentamos a nuestros usuarios a denunciar directamente a Roblox cualquier actividad que les preocupe. Roblox también proporciona a los usuarios un canal directo a nuestro equipo de Atención al cliente para hacer denuncias u otras consultas.
Los usuarios de la UE también pueden denunciar contenido que consideren que infringe las leyes de los estados miembros de la UE mediante nuestro formulario de denuncia de contenidos ilegales de la UE. El contenido que se denuncia a través de este formulario se evalúa primero teniendo en cuenta las Normas de la comunidad: si el contenido es incompatible con las políticas de nuestra plataforma, se ejecuta la acción necesaria. Aquellos objetos denunciados que no infrinjan las Normas de la comunidad pasan a la evaluación de expertos legales para ver si cumplen con las leyes locales pertinentes.
Denunciantes de confianza
Roblox tiene un programa de denunciantes de confianza, en el que los socios cercanos y de confianza pueden denunciar contenido terrorista. Nos hemos comprometido a revisar el contenido denunciado y, si es necesario, a tomar las medidas necesarias en un plazo corto. Además, los Indicadores de confianza de la Unión Europea acreditados de acuerdo con la Ley de Servicios Digitales pueden enviar avisos de Contenido ilegal a través de nuestro formulario de información de Contenido ilegal. Nuestro equipo de moderadores priorizará dichas denuncias.
Si usted es un alertador confiable recomendado en virtud de los Códigos de práctica de contenido ilegal de Ofcome, puede contactarnos a UK-tf@roblox.com y le brindaremos detalles sobre el modo en que puede integrar nuestro canal exclusivo para reportes.
Consecuencias
Cuando tomamos la decisión de restringir el acceso a contenidos en la plataforma, notificamos a los usuarios nuestra decisión y les brindamos la oportunidad de apelar. Según la gravedad y el impacto de la infracción de las Normas de la comunidad, tomamos medidas que van desde advertencias, eliminación de contenido o restricciones en la cuenta de Roblox. En situaciones que representen un riesgo inminente de daño, podremos denunciar a los usuarios a las autoridades pertinentes.
La duración de nuestra decisión y cómo decidimos actuar en función de las infracciones de contenido varía. Tenemos procesos estrictamente manuales, automatizados o una combinación de ambos. Además de considerar la infracción específica, también tenemos en cuenta el comportamiento histórico del usuario en la plataforma y si ha infringido nuestras políticas repetidamente. Las infracciones reiteradas de nuestras políticas pueden aumentar la gravedad de las consecuencias (es decir, una advertencia, seguida de una suspensión breve, seguida de una suspensión, etc.).
Apelar una decisión de moderación de contenido
Los usuarios pueden ponerse en contacto con Roblox para solicitar que se revisen las decisiones de moderación. Nuestro equipo revisará la decisión de moderación y hará los ajustes necesarios en el estado de moderación de una cuenta. Nos tomamos en serio todas las solicitudes de apelación. Cuando revisamos una solicitud de apelación, consideramos de manera integral la gravedad de la infracción, el motivo por el que apela el usuario y su comportamiento en la plataforma. Tenga en cuenta que, en algunas circunstancias, es posible que las apelaciones no sean aplicables; por ejemplo, cuando una consecuencia ya transcurrió, como una suspensión de 20 minutos cuando la suspensión ya se ha retirado. Además de nuestro proceso de apelación, todos los usuarios pueden intentar resolver disputas de acuerdo con los Términos de uso.
De acuerdo con la Ley de Servicios Digitales, quienes denuncien contenidos ilegales en nuestra plataforma a través de nuestro formulario de denuncia de contenidos ilegales de la UE también tienen derecho a apelar la decisión que Roblox tome en relación con su denuncia. Los usuarios de la UE también pueden apelar una decisión de moderación hasta por seis meses después de nuestra decisión inicial. En el caso de disputas relacionadas con la moderación de contenido, los usuarios de la UE pueden seleccionar un organismo de resolución de disputas extrajudicial certificado para que las resuelva. La Comisión de la UE mantendrá una lista de organismos de resolución de disputas extrajudiciales acreditados para este propósito.
Cesar el uso de Roblox
Los usuarios pueden dejar de usar el servicio en cualquier momento al solicitar la eliminación de la cuenta en la aplicación o a través de nuestro Formulario de soporte, usando la función de solicitud de Derecho al olvido. Para obtener más información sobre cómo iniciar este proceso, consulte este artículo de Soporte.