Youtube verwijdert jaarlijks 32,9 miljoen video’s om allerlei verschillende redenen: gewelddadige of seksuele content, aanzetten tot haat, complottheorieën, noem maar op. Sommige video’s gaan duidelijk over de grenzen van alle richtlijnen en regelgeving, maar hoe ingewikkeld is het om de grensgevallen (edge cases) te beoordelen? Pointer geeft je de mogelijkheid om zelf elf van zulke Youtube-video’s te modereren.

Het imago van Youtube heeft de afgelopen maanden een paar flinke deuken opgelopen. Pedofielen gebruiken de comments om elkaar op geniepige wijze naar fragmenten te wijzen waar kinderen in compromitterende houdingen worden weergegeven. Youtube zou racistische en haatdragende video’s aanbevelen. Sterker nog, de leidinggevenden van de videowebsite zouden daar allang van weten. En dan komt daar ook nog eens de aanslag in Christchurch bovenop, waar het moderatieteam van Youtube eveneens de handen vol aan had.

In het begin van dit jaar hebben wij ruim driehonderd Youtube-video’s gevonden met extreem gewelddadige en haatdragende inhoud. Beelden waar je niet vrolijk van wordt. Waar je misschien van vindt dat ze nooit online hadden mogen staan. Maar is die keuze wel zo zwart-wit?

Wil je weten hoe we dit onderzocht hebben? Lees hier onze onderzoeksmethode.

Content modereren, het inhoudelijk beoordelen en keuren van informatie, kan enorme geestelijke belasting zijn. De afgelopen jaren zijn verschillende interviews, reportages en documentaires over de moderatoren van Youtube, Facebook, Reddit en Twitter gemaakt. Ze worden dagelijks geconfronteerd met schokkende en confronterende beelden. Volgens Google-woordvoerder Rachid Finge worden diverse maatregelen genomen om het geestelijk welzijn van de medewerkers te ondersteunen.

"Moderatoren werken bijvoorbeeld vijf in plaats van acht uur per dag, en mogen pauze nemen wanneer ze willen. Verder is er een vertrouwenspersoon beschikbaar voor een-op-eengesprekken, zijn er groepsgesprekken en is er een stilteruimte. Ook zijn er teamuitjes, sportevenementen en mindfulness-sessies. Er is ook een ondersteuningsgroep voor oud-medewerkers."

In plaats van een artikel waarin we zelf de conclusies trekken, willen we jou in de schoenen van een Youtube-moderator plaatsen. Wat zou jij beslissen over deze video's?

Waarschijnlijk heb je bij de schattige hondenvideo besloten om geen actie te ondernemen. Daar is namelijk ook niets vreemds aan de hand. Maar bij het tweede voorbeeld begint het al te wringen. De uploader heeft namelijk geen copyright over het materiaal dat hij/zij online heeft gezet.

Grote kans dat de algoritmen van Youtube deze video's er automatisch hebben uitgepikt. Hoewel die systemen ook niet alles honderd procent betrouwbaar kunnen checken. Dat werd vorige maand nog pijnlijk duidelijk bij de brand van de Notre Dame. Het algoritme herkende de vlammenzee en suggereerde vervolgens video's van 9/11. En allerlei schimmige figuren proberen de detectiemogelijkheden te omzeilen door slimme trucs in hun video’s toe te passen. Youtube is daardoor met kwaadwillenden in een constant en eeuwigdurend kat-en-muisspel verwikkeld.

Zoals gezegd wordt een aanzienlijk deel door menselijke moderatoren beoordeeld. De laatste video is daar een goed voorbeeld van. Het beeldmateriaal lijkt onschuldig, maar ondertussen legt een Noorse Youtuber uit dat witte mensen superieur zijn aan anderen.

Wat gebeurt er na rapportage?

Vlak nadat we op de driehonderd schokkende video's zijn gestuit, wilden we van Youtube weten hoe moderatie in zijn werk gaat. En uit die antwoorden blijkt dat moderatie allesbehalve een simpele keuze tussen ja en nee is.

Even een kleine stap terug. Hoe gaat zo'n beslissing in zijn werk? Youtube kreeg vorig jaar maar liefst 44 miljoen meldingen van video’s die beoordeeld moesten worden. Een moderator legt daar de richtlijnen naast en geeft een oordeel. Wordt het copyright geschonden? Is er sprake van pornografisch of seksueel materiaal? Zie je extreem geweld? Kunstmatige intelligentie helpt daar voor een groot deel bij, maar alsnog moet een aanzienlijk deel van de video's door mensen worden beoordeeld.

"Het is geen exacte wetenschap", verzekert Google-woordvoerder Finge ons. "Als het goed is, neemt elke moderator dezelfde beslissing in dezelfde situatie. Maar dat is in het ideale geval. Daarom bieden wij de mogelijkheid om als uploader in beroep te gaan tegen een beslissing."

Na de 44 miljoen meldingen van vorig jaar blijven ongeveer elf miljoen video's over die wel online mogen blijven. Daar komt wel vaak een melding bij te staan. Youtube hanteert grofweg de volgende vier maatregelen zodra een video wordt beoordeeld.

  • Goedkeuren. Niets aan de hand, deze video mag online blijven zonder enige aanvullende maatregelen.

  • Leeftijdsrestrictie. De video mag online blijven, maar de kijker moet zijn leeftijd verifiëren.

  • Video afschermen (restricted content). De video mag online blijven, maar hij wordt niet meer in zoekresultaten weergegeven, komt niet in suggesties voor, en je mag geen comments achterlaten. Ook kun je geen advertenties op deze video's draaien.

  • Offline halen. De video wordt verwijderd en de eigenaar van het kanaal krijgt een waarschuwing. Bij drie waarschuwingen binnen negentig dagen wordt het kanaal verwijderd.

Volgens Finge modereren rond de tienduizend personen - zowel in vaste dienst als ingehuurd - alle content die op Youtube en andere Google-diensten wordt aangeboden. Dat resulteerde vorig jaar in 32,9 miljoen verwijderde video's, waarvan 7,7 handmatig door moderatoren wordt gedaan. Een hels karwei, maar dat persoonlijke oordeel is hard nodig. Zeker in het geval van edge cases: video's die net wel of net niet over het randje gaan. Probeer het maar eens met de volgende vier video's.

Dit zijn al ingewikkeldere keuzes, hè? Je persoonlijke mening, wetgeving en de vrijheid (of beperking) van meningsuiting zijn hier allemaal van invloed op jouw beoordeling. Youtube herkent dit dilemma uiteraard ook.

"We laten sommige video’s omwille van vrijheid van meningsuiting op Youtube staan, maar we beperken de functionaliteit", aldus Google-woordvoerder Finge. De tweede video waarin een Joods typetje wordt nagedaan en waarin de holocaust indirect in twijfel wordt getrokken, is daar een voorbeeld van.

"Als je goed kijkt, zie je geen suggesties voor andere video’s na het afspelen, geen advertenties en mogelijkheid om reacties achter te laten. We zoeken altijd naar de juiste balans tussen vrijheid van meningsuiting en het verminderd beschikbaar maken van controversiële content."

Daarnaast speelt lokale wetgeving ook een rol. De video van de Islam-cartoons van Wilders is in twee landen niet af te spelen, namelijk Turkije en Indonesië. Maar voordat je denkt dat video's voornamelijk buiten Europa worden geblokkeerd: we hebben een verzameling van 304 gewelddadige en aanstootgevende video’s gemaakt, en daarvan zijn 97 video's alleen buiten de EU zichtbaar.

Je kunt hier lezen hoe wij deze video’s hebben verzameld.

Voor de beoordeling van dit soort video’s is het dus belangrijk om alle aspecten mee te wegen. Deze laatste vier video's zijn een stuk lastiger dan degenen die je hiervoor hebt beoordeeld.

Youtube zat afgelopen tijd in de maag met de video's van Christchurch. De schutter livestreamde zijn schietpartij op Facebook. Een aantal gebruikers plukten die beelden direct van Facebook en uploadden het op Youtube. Het gevolg: Youtube moest tienduizenden video's binnen 24 uur verwijderen.

Belangrijk is wie de video uploadt, en wat er wordt getoond. "Christchurch was daar een heel naar voorbeeld van. Mensen die een livestream van Facebook een-op-een overzetten naar YouTube. En zelfs trucs toepassen om onze controlesystemen te foppen. Dat is natuurlijk helemaal anders als bijvoorbeeld RTL Nieuws een fragment van zo’n video op Youtube zet. In dat scenario treedt een moderator anders op."

"We zullen nooit zeggen dat we alle video's van de aanslagen bij Charlie Hebdo of in Christchurch zullen verwijderen", belooft Finge. "Wat gebeurt er in die video? Zie je de volledige aanslag? Zie je dingen die op zichzelf angstaanjagend zijn? Op zulk detailniveau wordt door moderators gekeken naar elke video." Context is cruciaal bij moderatie.

Ondanks de hulp van kunstmatige intelligentie bij het analyseren, beoordelen en verwijderen van tienduizenden Youtube-video's per dag, blijft moderatie een taak waar we het menselijke beoordelingsvermogen hard bij nodig hebben. En het blijkt hoe moeilijk dat kan zijn.

knd-app

Illustratie door Wendy van der Waal

Makers

Dataprogrammeur
Designer