Datajournalistik

Radikaliserad på Youtube

Vid högerradikala terrordåd har sajter som 4chan och 8chan hamnat i blickfånget som forum där unga män radikaliseras. Men rekommendationsalgoritmen hos streamingjätten Youtube bidrar i mycket högre utsträckning till radikalisering åt höger, visar en undersökning gjord av nederländska reportrar. Här redovisar de sin metod.

Dimitri Tokmetzis

Text

Daniel Wiklander

Översättning

Margot är inte någon vanlig etnonationalist. Hon är runt 50, varmt troende kristen från en välmående del av Nederländerna, och hon gillar opera. Cirka 2015 började hon kommentera Youtube-klipp om flyktingkrisen. Hon var orolig för en kommande våg av hundratusentals flyktingar och invandrare från främst muslimska länder.

Hennes oro delades förvisso av många vid den här tiden, men Margots beteende på Youtube blev allt mer extremt. Efter att Donald Trump valts till USA:s president 2016 började hon följa alt-rightkanaler som den kanadensiska videobloggaren Stefan Molyneux, (omkring 1 miljon prenumeranter), The Rebel Media och Sargon of Akkad.

Margot började också uttrycka sig annorlunda. Hon blev mer aggressiv mot feminister, utlänningar och så kallade social justice warriors (nedsättande uttryck för identitetspolitisk vänster, red anm). Hennes kommentarer kryddades med begrepp och fraser man vanligen återfinner på alt-rightforum. 

Exempelvis talade Margot om hur hon ”tagit det röda pillret”, en term som refererar till en scen i filmen The Matrix. Väljer du det blå pillret förblir du en slav och ett levande batteri för maskinen som styr världen i The Matrix. Men tar du det röda pillret uppenbarar sig sanningen – och för Margot var sanningen att världen styrs av vänsterliberaler.

Vid den tidpunkt vi började vår undersökning, tidigt 2018, hade Margot glidit ytterligare högerut. Hon tittade fortfarande på alt-rightkanaler, men intresserade sig också för etnonationalistiska och antisemitiska klipp. ”Vit kultur”, deklarerade hon i en kommentar på holländska, undermineras av vänsterns ”rövhål” och feminister. Hon gav också judarna skulden för många samhällsproblem.

Margot är bara en av tusentals användare vi stött på i vår undersökning om radikalisering på Youtube. Undersökningen är ett samarbete mellan den nederländska nyhetssajten De Correspondent, där jag håller i datadesken, och två reportrar från den nederländska dagstidningen De Volkskrant, Hassan Bahara och Annieke Kranenberg.

Vi började med att titta på hur alt-rightrörelsen vuxit fram på mer obskyra forum som 4chan och 8chan, och på den populära chatt-appen Discord. Vi slogs av hur ofta extremister refererade till Youtube-klipp, och beslöt oss för att studera den plattformen. 

Mängden högerextremt material som var tillgängligt via Youtube visade sig vara överväldigande: rasism, antisemitism, antifeminism,vit rasnationalism, och konspirationsteorier om ”kulturmarxism”, ”folkmord på vita” och ”det stora folkutbytet” (idén att den vita befolkningen långsamt håller på att bytas ut mot icke-vita genom födelsetal och invandring).

Vid samma tid hade farhågor väckts att Youtubes algoritmer för rekommenderade videoklipp bidrog till spridningen av extremt innehåll genom att sakta men säkert dra ner tittarna i en värld av hat. Rekommendationerna som mötte tittarna blev allt mer extrema: Från en vänstervinklad video om rasism kunde resan via olika rekommendationer sluta i exponering för högerextremt material.  

Att undersöka en plattform av Youtubes omfattning innebär stora utmaningar. Varje minut laddas omkring 400 timmar material upp till Youtube. Algoritmen som styr rekommendationerna är inget enkelt recept som går att följa baklänges: Det är ett mycket komplext system, ett djupt neuronnät som använder sig av en lång rad variabler för att skräddarsy en unik upplevelse för varje användare.

Vi började med att försöka kartlägga förekomsten av högermaterial på Youtube, för att sedan fokusera på hur detta material rekommenderades och konsumerades av tittarna.

Vi gjorde upp listor på kända högerorganisationer, som benämns som det i akademiska publikationer, i rapporter av antifascistiska grupper som Hope not Hate, och i några andra källor, som Reddit. Vi försökte hitta gruppernas sociala medie-konton inklusive deras Youtubekanal om de hade en. Vi tittade också på några högerextrema forum, där vi extraherade alla länkar till Youtube och samlade in namnen på kanalerna.  

Vi bestämde oss på ett tidigt stadium för att upprepa detta med vänsterkanaler så att vi senare skulle kunna göra en jämförelse. Vi använde denna data för att få ett grepp om den relativa storleken hos Youtubes högermediebubbla, som framstår som mycket större och populärare än vänstermediebubblan. 

Ett av de första större problemen vi stötte på var definitioner. Vad gör en kanal extrem (höger eller vänster)? Vem avgör? Olika länder har olika definitioner. Och kanaler förändras över tid. Vissa börjar någonstans i mitten, men utvecklas högerut, medan andra tappar sin politiska skärpa över tid. 

Vår lösning var enkel och effektiv: Vi inkluderade brett, från strax till höger eller vänster om mitten, ut till extremerna. På det viset kunde vi studera ett politiskt spektrum där vi kunde iaktta människors rörelse över tid från mitten ut mot ytterkanterna.

Till slut hade vi fått ihop en lista på 1 500 kanaler, någorlunda jämnt fördelade över höger-vänsterskalan. Youtube har ett mycket generöst API med hjälp av vilket man kan söka fram mycket metadata. Vi skrev omfattande kod (förpackad i ett återanvändbart Python-bibliotek) för att analysera:

•    600 000 videoklipp

•    450 000 avskrifter av dessa videoklipp (med hjälp av Youtubes automatiska texttjänst, som  inte är tillgänglig för alla klipp)

•    120 miljoner kommentarer till videoklippen

•    20 miljoner automatgenererade rekommendationer via videoklippen

Det är mycket data – ungefär 100 gigabyte. Vad skulle vi göra med den?

För att se till att få så bra resultat som möjligt organiserade vi två hackathon, och bjöd in läsare till redaktionen för att arbeta med vår data under en dag. Syftet var att pröva några metoder. 

”De intervjuade bekräftade hur betydelsefull rekommendationsalgoritmen varit för resan mot nytt innehåll och nya gemenskaper.”

En av insikterna det gav var att vi borde söka ledtrådar till radikaliseringen i kommentarerna. Alla användare har ett unikt ID, så vi kunde spåra alla kommentarer som en person hade fällt. Vi tittade på vilka som kommenterade uppskattande om de mest extrema klippen (vit rasnationalism, antisemitism och så vidare) och tittade på var de varit aktiva tidigare.

Det urvalet bestod av över 50 000 unika Youtube-användare som vi kunde anta hade ganska extrema åsikter. Vi beslöt oss för att plocka ut nederländarna på listan – folk vi enkelt skulle kunna söka upp och göra längre intervjuer med.

För att hitta dem tittade vi helt enkelt på vilka som var aktiva i kommentarsfälten på nederländska kanaler. Vi använde också Google Translates API för att hitta alla kommentarer skrivna på nederländska. På det viset kunde vi sammanställa en lista med cirka 200 personer som vi var säkra på var nederländare.

Vi kunde följa vilka kanaler de kommenterade på över tid, och vi såg stora förändringar. Många i den här gruppen började med att kommentera vänsterklipp från The Young Turks, en populär progressiv kanal, men gled sakta men säkert över till alt-right och öppet etnonationalistiska kanaler.

När vi analyserade kommentarerna slogs vi av deras allt grövre antisemitiska innehåll. Till en början sades i stort sett ingenting om judar. Många arga inlägg handlade om islam, invandring, feminism och social justice warriors. Men under 2017 och 2018 blir det allt vanligare med antisemitiska uttalanden i den här gruppen.

Till slut valde vi ut sex personer och träffade dem för djupintervjuer. Hur använde de Youtube? Hur blev de radikaliserade? De invände ofta mot begreppet ”radikalisering” och föredrog att se det som ett ”uppvaknande”. Hur förklarade de sin förflyttning från vänster till radikal höger på så kort tid? 

De intervjuade bekräftade hur betydelsefull rekommendationsalgoritmen varit för resan mot nytt innehåll och nya gemenskaper. De beskrev hur de ofta började på vänsterkanaler, men fick upp ögonen för högerinnehåll genom rekommendationerna. Och rekommendationerna blev allt mer extrema. 

Deras personliga berättelser var mycket värdefulla. Dock lyckades vi inte att på automatiserad väg komma fram till hur det här systemet faktiskt fungerar. 

Vi skrev ett litet program som frivilliga testpersoner kunde köra på sina datorer. Programmet gjorde sökningar på tio söktermer – laddade begrepp som ”feminism”, ”invandring” och så vidare – och loggade vilka rekommendationer det fick. 

Problemet var att de rekommendationerna bara var till hälften individanpassade. De frivilliga var inte inloggade, eftersom det visade sig vara för komplicerat och kostsamt att skriva kod som spårade inloggade användare och samtidigt skydda deras data och integritet. Därför speglar inte resultaten naturligt och personaliserat Youtube-användande på ett tillfredsställande vis. Vi bestämde oss för att inte använda resultaten, utan nöjde oss med ett par dussin intervjuer med de frivilliga testpersonerna om hur de upplevt rekommendationerna, samt viss akademisk litteratur i ämnet.

Sammanlagt arbetade vi med storyn i sju månader, men det var det värt. Vi kunde visa att Youtube är näthatets moderskepp, som ställer obskyra forum som 4chan och 8chan helt i skuggan beträffande storlek och inflytande. Mängden extremistiskt innehåll på plattformen är överväldigande. Men det är inte förvånande, eftersom Youtube under lång tid haft en låt gå-attityd till den här sortens innehåll: Så länge det inte blir kraftiga reaktioner i medierna är de okej med det mesta. 

Och trots att Youtube bestämt förnekade att rekommendationsalgoritmen hade det minsta att göra med användarnas radikalisering ändrades systemet nyligen helt och hållet. I dag rekommenderar det mycket mer oförargligt innehåll. 

Vi har bara skrapat på ytan angående vad som pågår på denna enorma videoplattform. Vi hoppas att vår insats och vår kod, som är tillgänglig publikt, kommer att inspirera andra journalister och forskare att gräva vidare. Det är svårt, men det både kan och bör göras. 

Denna artikel publicerades för första gången i Scoop nr 4 2019.

Senaste Numret

Prenumerera eller beställ lösnummer

omslag nr 4

Global Investigative Journalism Conference i Göteborg får stor plats även i detta nummer, med bland annat en matig genomgång av de bästa handfasta tipsen som lärdes ut på konferensen.

Läs även om SvD:s Spotifygräv, oligarken som äger en av Sundsvalls största fabriker och journalisterna som jagar en hundplågare i Malmö.

Ute vid lucia.

Beställ här