Det føles som om, at vi alt for ofte ser nyheder om, at en eller anden grov lovovertrædelse er blevet begået på det ene eller det andet sociale medie, inklusive ulovlige opslag eller livestreaming af voldeligt indhold. Det kan være let at undre sig over, hvordan sådanne ting i denne teknologisk fremskredne tidsalder kan slippe igennem.

Men faktum er, at det er praktisk talt umuligt at moderere sociale medier effektivt. Hvorfor? Der er et par grunde.

Nogle sociale mediesider er stadig i gang eller er mere niche. Store sociale medier har dog store brugerbaser. De største websteder har mellem hundrede af millioner til milliarder af brugere. Naturligvis er enhver så stor platform svær at overvåge.

De fleste større sociale netværk klarer dette gennem en kombination af fællesskabsrapportering, algoritmer (ufuldkomment) trænet til at opdage skadeligt indhold og nogle få menneskelige moderatorer. Mens et fællesskabsmedlem eller AI måske opdager og rapporterer skadelig information, er det et menneske (eller en gruppe af mennesker), der har det sidste ord. Og mange websteder tilbyder en appelproces.

instagram viewer

Sociale mediesider er ikke kun enorme i forhold til deres brugerbase. Forskellige stater og forskellige lande har forskellige love i forhold til, hvilken slags indhold der skal rapporteres og hvordan.

Så sociale medievirksomheder, der er aktive i forskellige geografiske områder, skal ofte have forskellige politikker for forskellige brugere. Dette inkluderer forskellige politikker for misinformation og privatliv. Faktisk, Twitter var nødt til at acceptere specifikke vilkår for at blive ophævet i Nigeria.

Endnu mere end det, sociale medier er et globalt fænomen, men det sker ikke altid på de "globale" sprog. Dette kan få sociale medievirksomheder til at kæmpe for at finde indholdsmoderatorer, der taler regionale sprog, for at kunne levere tjenester globalt uden at efterlade disse brugere sårbare over for dårlige aktører.

Et godt eksempel er Facebook-ejer Meta. Virksomheden blev for nylig sagsøgt af en tidligere indholdsmoderator i Nairobi som hævder, at indholdsmoderatorer i området vildledes til at tage rollen.

3. Moderatorer går i snor

De fleste brugere af sociale medier ønsker to ting: de vil føle sig trygge, og de vil føle sig frie. At finde en balance mellem disse to ønsker er indholdsmoderatorens vanskelige opgave.

Gå for langt til den ene side, og brugerne vil føle sig overvåget. Gå for langt til den anden side, og brugerne vil føle sig forladt. En måde, hvorpå nogle sociale medier kan komme uden om dette, er gennem community-moderatorer.

Community-moderatorer hjælper med at udtrykke, at moderation er noget, der gøres ud fra passion for at promovere konstruktiv diskurs uden at tillade skadeligt indhold snarere end ud fra ethvert ønske om at kontrollere eller undertrykke brugere. Denne model er udfordrende i skala, selvom forskellige platforme får den til at fungere på forskellige måder.

Parler kom online igen efter at have justeret sin moderationspolitik for at overholde tredjepartspolitikker. De har noget af et samfundsjurysystem, der mere eller mindre først kommer i spil, efter at et potentielt problematisk indlæg allerede er blevet rapporteret. Prioritering af brugerrapporter er en anden måde, hvorpå Parler hjælper med at lette belastningen på sine moderatorer.

4. Moderatorer skal have en dynamisk linje

Indholdsmoderatorer opererer også i, hvad der kan føles som en moralsk gråzone. Selv platforme med et mere frit syn på moderation har regler mod potentielt skadeligt eller voldeligt indhold. Nogle indlæg er åbenlyst skadelige eller voldelige, mens andre kan virke skadelige eller farlige for nogle brugere (eller moderatorer), men ikke andre.

Mange platforme har også regler mod andre aktiviteter som salg af produkter eller tjenester. Dette kan være et endnu vanskeligere område at navigere i, især i betragtning af størrelsen og omfanget af nogle websteder.

Overveje hvad Reddit community moderatorer gør. Når brugere tilslutter sig et nyt fællesskab, får de straks tilsendt reglerne for det pågældende fællesskab. Disse regler er også offentliggjort på siden af ​​hver fællesskabsside. Dette gør det muligt for hvert fællesskab at have et undersæt af regler skræddersyet til det i stedet for generelle regler for hele webstedet.

Ideen med subreddits hjælper også Reddit med at bruge community-moderatorer i stor skala. Moderatorer har til opgave at moderere deres subreddit i stedet for at forsøge at patruljere hele webstedet.

Endelig bevæger de sociale medier sig virkelig hurtigt. Når du hører om et problematisk indlæg, kan det være godt efter, at den originale plakat har taget det ned. I tilfælde af at indlægget ikke blev rapporteret, mens det var live, kan det være vanskeligt at reagere på det efter kendsgerningen.

I et tilfælde i 2015 blev et opslag på det sociale medie YikYak politianmeldt ved hjælp af en ændret version af det originale opslag, som allerede var blevet fjernet. Hvad der kunne være blevet løst internt af onlineindholdsmoderatorer, blev et længerevarende juridisk drama, der forstyrrede et helt samfund.

Mange sociale medier, herunder Facebook, har politikker for at bevare mistænkelige indlæg i tilfælde af, at de skal refereres i udviklingssituationer, herunder af retshåndhævelse.

Men funktioner som livestreaming betyder, at indholdet stiger, efterhånden som det sker, hvilket algoritmer kan gå glip af, indtil det er for sent.

Kast en mønt til din moderator

Hvis du ser noget online, der bekymrer dig, skal du gå gennem de medfølgende kanaler for at rapportere det. Prøv at undgå at blive ked af det eller mistænkeliggøre, fordi det er svært at moderere sociale medier. Det samme gælder, hvis du eller et opslag bliver anmeldt. Det er sandsynligvis et velment træk for at holde brugere af sociale medier sikre.