Bevisar 'Elsagate' att YouTube är för stort för att kontrollera?
Skandal med våldsamma och sexuella videor riktade mot barn avslöjar svårigheten att förlita sig på algoritmer

Catrinus Van Der Veen / AFP / Getty Images
I februari, YouTube meddelat det hade nått en häpnadsväckande milstolpe: besökare konsumerade nu motsvarande en miljard timmars video varje dag.
Själva storleken på plattformens användarbas är lika häpnadsväckande. Mer än 1,5 miljarder människor använder YouTube, säger Väktaren Roger McNamee, vilket ger den en global räckvidd jämförbar med islam.
Men, som det sägs, med stor makt kommer ett stort ansvar och den senaste tidens ElsaGate, en skandal som involverar störande videor riktade mot barn, har fått en del att undra om YouTube har blivit ett Frankensteins monster, utanför dess skapares kontroll.
Vad är ElsaGate?
Några av YouTubes mest populära kanaler riktar sig till barn, med kreatörer som specialiserar sig på barnvisor, färgglada tecknade serier och de mäktiga leksaksvideorna som får miljontals prenumeranter och miljarder visningar.
Men det är ett problem. YouTube är helt översvämmat av extremt våldsamma, olämpliga, sexuellt suggestiva videor riktade mot barn, säger Inquistr , och dessa videor hittar sin väg till autospellistor tillsammans med åldersanpassade klipp.
Journalisten James Bridle grävde ner sig i detta oroande fenomen, kallat Elsagate efter den populära Frozen-karaktären som förekommer i många av videorna, för en artikel med titeln Something is Wrong på Internet på Medium den här månaden.
Han fann att när innehållsskapare jagar tittare, upprepas framgångsrika - och ursprungligen ofarliga - formler för att samla visningar i oändlighet över hela nätverket i allt mer besynnerliga och förvrängda rekombinationer.
När de är mest extrema inkluderar dessa en legion av oroande videor som verkar produceras, eller i vissa fall automatiskt genererade, som svar på populära sökord. De har ofta störande teman och sexuellt eller våldsamt innehåll.
Till exempel returnerar en sökning efter Peppa Pig-tandläkare ett hemgjort klipp där den populära barnkaraktären torteras, innan den förvandlas till en serie Iron Man-robotar och utför dansen Learn Colors.
ElsaGate har genererat en flod av respons från oroliga föräldrar, media och internetfackmän som är dedikerade till att ta reda på vem eller vad som gör dessa störande videor och varför.
Har YouTube blivit för stort för att kontrollera?
Kärnan i ElsaGate och andra kontroverser om YouTubes innehåll, som videor som främjar terrorism eller våld, är allmakten i plattformens algoritmer.
I motsats till vad vissa föräldrar kanske tror är innehållet i YouTubes dedikerade Kids-app inte kurerat eller ens förhandsgranskat av människor. Istället visas föreslagna videor i dess autospellista automatiskt baserat på delade sökord eller liknande målgrupper.
Den stora storleken på YouTubes katalog går utöver förmågan för mänsklig tillsyn. Innehåll laddas upp till plattformen motsvarande 400 timmar video varje minut, enligt Statista .
Den otroliga spridningen av videor som tydligt har producerats som svar på vanliga söktermer visar i vilken utsträckning YouTube i huvudsak drivs av maskiner, säger Medium’s Bridle.
På en plattform där innehållets synlighet – och därmed potentialen för annonsintäkter – styrs av algoritmer, även om du är en människa, måste du utge dig för att vara maskinen.
ElsaGate har avslöjat en långvarig sanning om YouTube som inte längre kan ignoreras, säger Polygon : filtren som är utformade för att skydda användare i alla åldrar från störande, våldsamt eller olagligt innehåll är inte upp till jobbet.
Algoritmerna rivs isär, analyseras och misshandlas av innehållsskapare, mänskliga eller automatiserade, som har blivit skickliga på att spela systemet för att se till att deras resultat syns.
I ett särskilt beryktat exempel lyckades skojare på 4chans anslagstavla splittra pornografi i barnprogram och spela algoritmen för att säkerställa att videorna tjänade pengar på och sågs, säger Polygon.
Kan problemet åtgärdas?
YouTube har lovat att slå ner på plågan av olämpliga barnvideor som glider förbi filtren på sin Kids-app.
Juniper Downs, chef för policy, sa att ett nytt system som föregår ElsaGate-avslöjandena kommer att klassificera videor som flaggats av användare som åldersbegränsade, vilket automatiskt kommer att hålla dem borta från YouTube Kids-appen.
På ett bredare plan finns det tecken på att YouTube ändrar sin attityd till innehållskuratering mot ett mer praktiskt tillvägagångssätt, föranledd av påtryckningar från regeringar som är oroade över extremism på nätet.
Flera terroristattacker i Europa och USA har utförts av individer som tros ha blivit självradikaliserade delvis genom att titta på YouTube-propagandafilmer gjorda av grupper som Islamiska staten och deras sympatisörer.
Politiker har hotat att vidta åtgärder mot teknikföretag som inte stärker åtgärderna för att ta bort videor som innehåller extremistiskt innehåll. Alphabet, YouTubes moderbolag, verkar ta hoten på allvar.
Tidigare var inflammatoriska religiösa eller politiska videor tillåtna på YouTube om de inte bröt mot webbplatsens regler om grafiskt innehåll eller främjande av våld, även om de inte var berättigade till annonsintäkter.
Det bekräftade en talesman för YouTube Reuters deras policy har ändrats för att förbjuda alla videor som visar personer eller grupper som klassificeras som terrorister, inklusive material som föreläsningar av al-Qaida-rekryteraren Anwar al-Awlaki.
Men även om YouTube utvecklar nya strategier för att åtgärda kryphålen, förblir konsekvenserna av ElsaGate störande på en mer djupgående nivå, säger TechCrunch Natasha Lomas.
YouTube-mediet uppmuntrar innehållsfabriker att producera klickfoder, skriver Lomas, och utsätter en generation för en flodvåg av popkulturslam baserad på nyckelord snarare än koherens. Det är svårt att föreställa sig att något positivt kommer från något så avsiktligt bas- och bottenmatande som systematiskt skjuts framför barns ögonglober.