Humans at Center of Effective Digital Defense - Executive Summary

Humans at Center of Effective Digital Defense - Executive Summary

Björn Olofsson - 04.18.2023

Humans at Center of Effective Digital Defense

Rapporten berör den viktiga aspekten om människans roll i en värld som blir alltmer digital där företag står inför nya utmaningar. Dessa utmaningar har att göra med olika former av cybersäkerhet men också hur content på olika digitala plattformar skall bemötas och hanteras. ”Content moderation” som på svenska handlar om att granska och moderera användargenererat material på webben, är ett viktigt arbete som kräver noggrannhet.

Vad är då egentligen syftet med content moderation? I media rapporteras det ofta om att det har blivit alltmer vanligt, men för mig är det också viktigt att lyfta hur viktigt det är. Vi lever i en värld där användargenererat innehåll flödar fritt på sociala medier och andra digitala plattformar och vikten av att just granska, bedöma och ta bort olämpligt eller stötande innehåll som postas av användare fyller flera funktioner vilket också tas upp i rapporten ”Humans at the center of effective digital defense” från MIT.

Content moderation är en nödvändig del av en digital plattforms livscykel för att upprätthålla legala åtaganden och förtroende. Det är däremot en uppgift som kan vara svår, utmanande och ibland traumatisk för de som arbetar med den. Även om det finns verktyg och system som automatiserar delar av granskningsprocessen, kan endast människor göra en fullständig och korrekt bedömning av allt innehåll. Därför är detta ett område där människor spelar en viktig roll och där företag har ett stort ansvar för att se till att de som är yrkesverksamma inom området mår bra.

 

Människan som den viktiga beståndsdelen i framgångsrik content moderation

Människor som jobbar med content moderation, dvs. som ”content moderatorer”, visar hur viktig sysselsättningen kommit att bli eftersom de ansvarar för att granska tusentals inlägg per dag, vilket inkluderar text, bild och video. Det kan handla om allt från hatfulla kommentarer och trakasserier till pornografi och våldsamt innehåll. Det är en uppgift som kräver stor noggrannhet, etiskt tänkande och empati. På Teleperformance så erbjuder vi content moderation som tjänst och hanterar många av de ledande plattformarna. Med tanke på hur viktigt det är för oss att människan alltid är i fokus så blev det även viktigt att försöka summera rapporten från MIT. I nedanstående citat ser Ni meningen som triggade mitt intresse,

”Because content moderation is primarily a social, rather than a technological, problem, its solutions must ultimately center around human judgment and expertise. ”

Eftersom människan i stort och i synnerhet våra medarbetare spelar en så viktig roll i detta arbete är det också viktigt att notera att content moderation kan vara traumatiskt för dem som arbetar med det. Att titta på våldsamt eller stötande innehåll under längre tid kan ha en negativ inverkan på en persons mentala hälsa och välbefinnande. På Teleperformance är vi därför noga med att se till att de som jobbar med content moderation har adekvat utbildning och stöd för att hantera denna aspekt av arbetet.

 

Det stora behovet av content moderation

Behovet av att granska och moderera användargenererat material på webben är som störst på sociala medier och därefter på chat- och diskussionsforum. Detta görs som sagt med hjälp av både digitala verktyg som AI och de människor som är yrkesaktiva inom området. Till exempel noterar Facebooks rapport ”Community Standards Enforcement Report för Q3 2022 att AI-delen möjliggjorde att 99,1% av terroristinnehåll, 99,1% av våldsamt innehåll, samt 98,9% av innehåll som utsätter barn för fara, upptäcktes och togs bort på ett proaktivt sätt. Och med tanke på områdena som listats så förstår ni varför människan här spelar en viktig roll för att hantera den sista procenten. På samma sätt pekar Teleperformances interna data på en automatiskt proaktiv borttagningsfrekvens på upp till 99,7% för falska konton och 98,9% för olämpliga kommentarer.

En viktig take-away har slutligen också varit att få en bättre förståelse för hur människan har en utvecklande roll i content moderation. Eftersom stora delar av content moderationen görs med hjälp av AI-system och andra digitala verktyg, är det just de kunskaper som människan samlar på sig i detta arbete som också utvecklar dessa system. På daglig basis försöker content moderatorer som sagt att minimera fördomar så mycket som möjligt så att datan som matas till AI-modellen är robust. De är insikterna från våra content moderatorer sätter människan i centrum för allt digitalt försvar (digital defence).

 

För att ta del av hela rapporten från MIT, klicka här!