Richtlinien und Verfahren für die Inhaltsmoderation
Die Sicherheit bei Roblox steht im Mittelpunkt unseres Handelns. Das beginnt mit unseren Community-Regeln, die beschreiben, wie wir erwarten, dass sich unsere Nutzer verhalten und dass ihnen klar ist, was bei Roblox erlaubt ist und was nicht. Wir nutzen diese Regeln, um Inhalte zu moderieren und auf Missbrauchsberichte von Nutzern zu reagieren. Sollte sich herausstellen, dass Nutzer gegen diese Regeln verstoßen, können wir eine Reihe von Maßnahmen ergreifen, wie weiter unten beschrieben.
Allgemeine Prozesse und Systeme
Überwachungs- und Überprüfungsprozesse
Wir haben ein striktes Sicherheits- und Überwachungssystem, das bei Roblox integriert ist, um den rücksichtsvollen Umgang und die Sicherheit unserer Nutzer zu gewährleisten. Diese Systeme wurden entwickelt, um unsere Richtlinien durchzusetzen, die personenbezogenen Daten der Nutzer zu schützen und die vor Ort geltenden Gesetze zu beachten. Wir nutzen Moderatoren und automatisierte Systeme, um proaktiv Verhaltensweisen zu erkennen, die gegen unsere Richtlinien verstoßen.
Inhalte wie Bilder, Meshes, Audio- und Videodateien, die von Creators auf Roblox hochgeladen werden, um sie in ihre Erlebnisse einzubinden, durchlaufen automatisch einen mehrstufigen Überprüfungsprozess, bevor sie auf der Plattform erscheinen. Bilder werden auf Material des sexuellen Missbrauchs von Kindern (CSAM) und andere unangemessene Inhalte ausgewertet, während Audiodateien auf Verletzung von geistigem Eigentum überprüft werden. Wird ein Bild als CSAM erkannt, wird es automatisch an das Nationale Zentrum für vermisste und ausgebeutete Kinder gemeldet. Inhalte, die nicht zur Entfernung gekennzeichnet worden sind, werden von Mitarbeitern überprüft, beispielsweise wenn der Inhalt uns als Verstoß gegen unsere Richtlinien gemeldet wird. Roblox verfügt auch über Systeme, die das erneute Hochladen von zuvor entfernten Inhalten verhindern. Dazu gehört auch Technologie, die Inhalte überprüft, die denen gleich oder ähnlich sind, die wir bereits entfernt haben.
Wenn Erlebnisse auf Roblox veröffentlicht oder aktualisiert werden, werden sie von einer Reihe von Tools ausgewertet, die problematische Sprache, mögliche Umgehungen unserer Filter und Inhalte, die nicht unseren Richtlinien entsprechen, erkennen. Ein Team von Mitarbeitern ist ständig im Einsatz, um gekennzeichnete Erlebnisse zu überprüfen. Die Roblox-Moderationsprozesse umfassen eine Reihe von Technologien gegen Zugriffe, die maschinelles Lernen, Drosselungen und Stromkreisunterbrechungen nutzen, um automatisierte Bot-Angriffe zu blockieren und die Auswirkungen menschlicher Spam-Versuche und Störungen des Dienstes abzuschwächen. Wir nutzen auch automatisierte Penetrationstests, ein Bug-Bounty-Programm, Bewertungen von Code-Bedrohungen und Tools zum Schwachstellenmanagement, um die Sicherheit unserer Nutzer und der Plattform zu gewährleisten. Unser Sicherheitsteam ist bestrebt, schnell zu handeln und innerhalb von Minuten zu reagieren, um Inhalte oder Verhaltensweisen zu erkennen, die gegen unsere Nutzungsbedingungen oder Community-Regeln verstoßen.
Meldeprozesse
Nutzermeldungen
Bei Roblox können Nutzer unangemessene Inhalte oder unangemessenes Verhalten einfach melden, indem sie unser Missbrauchsmeldungssystem nutzen, das bei Roblox schnell zu finden ist, auch innerhalb von Erlebnissen. Wir empfehlen unseren Nutzern auch, alle Aktivitäten, die ihnen Sorgen machen, direkt an Roblox zu melden. Roblox bietet Nutzern auch einen direkten Kanal zu unserem Kundendienst, um Bedenken oder andere Probleme zu melden.
Nutzer aus der EU können auch Inhalte melden, von denen sie glauben, dass sie gegen das Recht der EU-Mitgliedstaaten verstoßen, indem sie unser Formular für die Meldung illegaler Inhalte verwenden. Über dieses Formular gemeldete Inhalte werden zunächst anhand unserer Community-Regeln bewertet. Wenn der Inhalt gegen unsere Richtlinien auf Plattformebene verstößt, werden entsprechende Maßnahmen ergriffen. Alle gemeldeten Items, die nicht gegen unsere Community-Regeln verstoßen, werden dann an Rechtsexperten zur Beurteilung im Hinblick auf die einschlägigen lokalen Gesetze weitergeleitet.
Vertrauenswürdige Hinweisgeber
Roblox verfügt über ein Programm für vertrauenswürdige Hinweisgeber, über das wichtige und vertrauenswürdige Partner terroristische Inhalte an uns melden können. Wir haben uns ihnen gegenüber verpflichtet, dass ihre gemeldeten Inhalte innerhalb kurzer Zeit überprüft und gegebenenfalls entsprechende Maßnahmen ergriffen werden. Zusätzlich können gemäß dem Gesetz über digitale Dienste akkreditierte vertrauenswürdige Hinweisgeber der EU Hinweise auf illegale Inhalte über unser EU-Meldeformular für illegale Inhalte übermitteln. Solche Meldungen werden von unserem Moderatorenteam priorisiert.
Folgen
Wann immer wir eine Entscheidung treffen, den Zugriff auf Inhalte auf der Plattform zu beschränken, informieren wir die Nutzer über unsere Entscheidung und bieten ihnen die Möglichkeit zum Einspruch. Je nach Schwere und Auswirkungen eines Verstoßes von Inhalten gegen die Community-Regeln ergreifen wir Maßnahmen, die von Warnungen, der Entfernung von Inhalten bis zu Einschränkungen auf Roblox-Kontoebene reichen. Unter Umständen, die ein unmittelbares Schadensrisiko darstellen, können Nutzer den zuständigen Behörden gemeldet werden.
Die Dauer unserer Entscheidung und wie wir aufgrund von Regelverstößen von Inhalten Maßnahmen ergreifen, variiert. Wir haben Prozesse, die streng manuell, automatisiert oder eine Kombination aus beiden sind. Außer dem konkreten Verstoß berücksichtigen wir auch das bisherige Verhalten eines Nutzers auf der Plattform und ob er wiederholt gegen unsere Richtlinien verstoßen hat. Wiederholte Verstöße gegen unsere Richtlinien führen zu stärkeren Konsequenzen (z. B. eine Warnung, gefolgt von einem Timeout, gefolgt von einer Sperrung usw.).
Einspruch gegen eine Entscheidung über die Inhaltsmoderation
Nutzer können Roblox kontaktieren, um eine Überprüfung von Moderationsentscheidungen einzufordern Unser Team wird die Entscheidung über die Moderation erneut anschauen und die erforderlichen Anpassungen an der Moderation eines Kontos vornehmen. Wir nehmen alle Einsprüche ernst. Bei der Prüfung eines Einspruchs berücksichtigen wir ganzheitlich die Schwere des Verstoßes, den Grund für den Einspruch des Nutzers und das Verhalten des Nutzers auf der Plattform. Bitte beachte, dass unter bestimmten Umständen ein Einspruch nicht ohne Weiteres möglich ist, z. B. bei einer Zeitstrafe wie einer 20-minütigen Auszeit, wenn die Sperre bereits aufgehoben worden ist. Neben unserem Einspruchsverfahren können alle Nutzer versuchen, Streitfälle in Übereinstimmung mit unseren Nutzungsbedingungen zu lösen.
Gemäß dem Digital Services Act haben diejenigen, die über unser Formular für die Meldung illegaler Inhalte auf unserer Plattform illegale Inhalte melden, auch das Recht, gegen die Entscheidung von Roblox in Bezug auf ihre Meldung Einspruch zu erheben. Nutzer aus der EU können gegen eine Moderationsentscheidung bis zu sechs Monate nach unserer ursprünglichen Entscheidung Einspruch erheben. Bei Streitfällen im Zusammenhang mit der Moderation von Inhalten können Nutzer aus der EU eine zertifizierte außergerichtliche Streitbeilegungsstelle wählen, die Streitfälle im Zusammenhang mit einer von uns getroffenen Entscheidung über die Moderation von Inhalten beilegt. Die EU-Kommission wird eine Liste akkreditierter außergerichtlicher Streitbeilegungsstellen führen.
Beendigung der Nutzung von Roblox
Nutzer können die Nutzung des Dienstes jederzeit beenden, indem sie die Löschung des Kontos in der App oder über unser Supportformular einfordern und die Anfragefunktion „Recht auf Vergessenwerden“ verwenden. Weitere Informationen dazu, wie du diesen Prozess einleiten kannst, findest du in unserem betreffenden Support-Artikel.