AI arbetar, människan granskar

När organisationer implementerar AI för att öka hastighet och effektivitet uppstår en paradox: Granskning av AI-genererat innehåll kräver djupare kompetens än själva skapandet. Utan systematisk mänsklig validering skalas inte bara produktiviteten utan även risken för fabricerade fakta, felaktiga slutsatser och reputationsskador.

När granskningen saknades

Sommaren 2025 använde sig en svensk politiker av ett citat i ett offentligt tal. Citatet var AI-genererat, och ingen människa hade verifierat det innan det lästes upp.

SVT rapporterade i oktober 2025 att AI-tjänster som sammanfattar nyheter regelbundet producerar påhittade citat, felaktiga sammanfattningar och länkar till källor som inte existerar. EBU:s internationella studie visade omfattande problem när AI återger nyhetsinnehåll utan mänsklig validering.

Liknande exempel finns internationellt: Advokater har citerat icke-existerande rättsfall från ChatGPT i amerikanska domstolar. Sports Illustrated publicerade artiklar med AI-skapade författarbiografier. Forskare har refererat till fabricerade studier i peer-reviewed papers.

Mönstret: AI producerar hallucinationer som del av sin design (pattern completion, inte fact retrieval). Organisationer som saknar systematisk granskning exponerar sig för risker som skalas med AI:s hastighet.


Content-processen med human-in-the-loop

En modern kommunikationsprocess där AI används med systematisk mänsklig granskning:

1. AI analyserar trending topics i branschen → Human bedömer: Är detta relevant för våra kunder och kontext?

2. AI skriver artikelutkast
→ Human granskar: Stämmer fakta? Rätt ton? Vår röst? Inga fabricerade citat?

3. AI föreslår publiceringstidpunkt och kanaler
→ Human godkänner: Passar detta vår strategi just nu?

4. AI mäter engagement
→ Human tolkar: Vad betyder dessa siffror egentligen för verksamheten?

Varje steg har två lager: AI-lagret (automatisering, hastighet, skala) och human-lagret (bedömning, kontext, ansvar). Processen avancerar först efter mänskligt godkännande vid varje kritisk punkt. Quality gates, inte slutkontroll.


Granskning kräver djupkompetens

Här uppstår paradoxen: Granskning kräver samma djupkompetens som skapande, ofta mer.

Att bedöma om ett AI-genererat citat är korrekt kräver kunskap om vad personen faktiskt har sagt. Att validera en AI-analys kräver djup förståelse av ämnet. Att granska ett strategiförslag kräver domänkunskap för att upptäcka felaktigheter.

Microsoft Work Trend Index undersökte 31 000 kunskapsarbetare i 31 länder 2024. Resultat: 75% använder AI i arbetet, medan 60% av ledare oroar sig för att deras organisation saknar vision och plan för AI-implementering. HP:s undersökning från september 2025 visade att 77% av svenskar som använder AI i arbetet saknar utbildning eller tydliga riktlinjer.

Organisationer implementerar AI för efficiency gains men investerar mindre i att bibehålla den kognitiva kapacitet som krävs för att granska AI:s output.


Arbetets förändrade natur

Skiftet i arbetets karaktär:

  • Från "jag skriver rapporter" till "jag bedömer rapportkvalitet"
  • Från "jag analyserar data" till "jag validerar analysresultat"
  • Från "jag skapar innehåll" till "jag ansvarar för innehållets korrekthet"

Detta representerar en mer senior roll som kräver medveten design för att bibehålla underliggande kompetens.

Om AI skriver alla rapporter i två år, kan medarbetarna fortfarande bedöma rapportkvalitet år tre? Om AI analyserar all data kontinuerligt, behåller analytikern förmågan att se när analysen är fel? Om AI genererar allt innehåll, kan kommunikatören fortfarande känna igen när tonen är off?


Tid och identitet

AI-kommissionens färdplan (november 2024) konstaterade att människors arbetsuppgifter kommer att förändras, ofta med mer intressant innehåll och färre repetitiva inslag.

När AI hanterar repetitivt skapande, frigörs tid. Frågan: tid till vad?

Organisationer måste designa för bibehållen granskningskapacitet:

  • Hur säkerställer vi att medarbetare som granskar AI-output behåller den djupkompetens som krävs?
  • Vilka arbetsuppgifter behöver människor fortfarande utföra själva för att inte förlora förmågan att bedöma kvalitet?
  • Hur balanserar vi efficiency gains med kognitiv utveckling?

Vi har länge identifierat oss med våra arbetsuppgifter och titlar. När arbetets natur skiftar från skapande till granskning, vad är vi då?

Svar: Vi blir mer mänskliga. Granskning, bedömning, kontextualisering, ansvarstagande, detta är mänskliga förmågor där människan har komparativ fördel. Organisationer måste medvetet skapa utrymme för detta skifte.

Den tid som frigörs kan användas till:

  • Djupare förståelse av den domän vi arbetar i
  • Strategiskt tänkande som kräver bred kontext
  • Relationsskapande och samarbete
  • Kreativt arbete som kräver mänsklig intuition
  • Lärande och kompetensutveckling

Regulatoriskt ramverk för human-in-the-loop

NIST AI Risk Management Framework betonar human oversight som central princip för trustworthy AI. Ramverket specificerar att organisationer måste etablera tydliga granskningspunkter genom hela AI-livscykeln.

NICE (National Institute for Health and Care Excellence) guidelines identifierar tre pelare för ansvarsfull AI-användning: (1) Human-in-the-loop expert oversight ("Any use of AI methods should be based on the principle of augmentation, not replacement, of human involvement"), (2) Metodologisk transparens, (3) Replikerbara metoder.

EU AI Act klassificerar AI-system baserat på risk och kräver human oversight särskilt för högrisk-tillämpningar. Generativ AI måste uppfylla transparenskrav och märka AI-genererat innehåll.

Dessa ramverk behandlar human-in-the-loop som grundförutsättning för ansvarsfull AI-deployment, inte som valfri best practice.


Praktisk implementation

Human-in-the-loop kräver att:

  1. Organisationer identifierar kritiska beslutspunkter där mänsklig granskning krävs
  2. Medarbetare har kompetens att faktiskt granska (inte bara godkänna)
  3. System designas för att göra granskningsbehovet synligt
  4. Tid och resurser avsätts för kvalificerad granskning

SVT:s nyhets- och sportdirektör Anna Careborg och mediedirektör Naja Nielsen betonade behovet av aktivt samarbete mellan mediebranschen och AI-företag. Samtidigt måste organisationer internt bygga in granskningskapacitet.


GEO och innehållskvalitet

När organisationer optimerar innehåll för Generative Engine Optimization (GEO), det vill säga för att AI-motorer ska upptäcka och sammanfatta deras innehåll, måste de samtidigt säkerställa att innehållet faktiskt är korrekt.

Om en AI sammanfattar företagets kompetensinnehåll felaktigt, och ingen människa granskar innan det sprids vidare, blir följderna påtagliga. För utbildningsorganisationer: Innehållet ni producerar måste vara korrekt nog att överleva AI-genererad sammanfattning.


Vägen framåt

Svenska företag ligger efter i AI-användning jämfört med globalt genomsnitt. Detta kan vara en fördel: möjlighet att lära av andras misstag.

Men framgång med human-in-the-loop kräver mer än processer. Det kräver grundläggande kompetens om hur stora språkmodeller faktiskt fungerar.


Förstå tekniken

Att granska AI-output effektivt kräver förståelse för LLM:ers arkitektur och begränsningar. Modellerna tränas på mönster i text, inte på sanningar. De optimerar för språklig koherens, inte faktakorrekthet. De bär med sig biases från träningsdata som systematiskt påverkar output.

Dessa biaser är inte tekniska buggar utan inbyggda viktningar som formar hur modellen ser världen. Som vi diskuterat i Bias i AI: viktningar som formar vår världsbild, påverkar detta allt från rekrytering till kreditbedömningar. En granskare måste känna igen när AI:s output speglar träningsdatas systematiska snedvridningar snarare än objektiv analys.


Kvalitet som systemansvar

Varje gång organisationer publicerar AI-genererat innehåll utan tillräcklig granskning, blir det del av nästa generations träningsdata. När nästa modell tränas, blir dåligt granskad output från dagens AI morgondagens input.

Kvalitet som systemansvar

Varje gång organisationer publicerar AI-genererat innehåll utan tillräcklig granskning, blir det del av nästa generations träningsdata. När nästa modell tränas, blir dåligt granskad output från dagens AI morgondagens input.

Detta skapar en förstärkningsloop där kvalitetsproblem på mikronivå eskalerar till systemrisker. Som vi analyserat i AI och kvalitet: från mikronivå till systemrisk, kan enskilda granskningsfel i enskilda organisationer aggregeras till strukturella problem i nästa generation AI-modeller.

När nästa modell tränas på denna data uppstår model collapse, som vi undersökt i När AI skriver världen: riskerna med att nästa generation modeller tränas på sin egen spegelbild, där AI-system gradvis tappar kontakt med verkligheten och istället förstärker sina egna artefakter.

Kvaliteten på det innehåll vi publicerar idag är därmed inte bara ett ansvar gentemot våra läsare, kunder eller intressenter. Det är ett systemansvar för hur framtidens AI-system kommer att förstå världen.

Kvaliteten på det innehåll vi publicerar idag är därmed inte bara ett ansvar gentemot våra läsare, kunder eller intressenter. Det är ett systemansvar för hur framtidens AI-system kommer att förstå världen.


Konkreta steg

Organisationer som lyckas med AI:

  • Investerar i grundläggande AI-literacy för alla som granskar AI-output
  • Dokumenterar kända biaser i de specifika modeller de använder
  • Etablerar granskningsprotokoll som explicit söker efter vanliga hallucinationsmönster
  • Identifierar var human-in-the-loop är kritiskt för verksamhetens integritet
  • Designar processer som gör kvalitetsgater synliga
  • Avsätter tid för kvalificerad validering
  • Ser granskning som en senior kompetens värd att investera i
  • Behandlar publicerat innehåll som bidrag till framtidens träningsdata

AI förändrar vad det innebär att arbeta. Människan behöver granska arbetet, mer systematiskt och med djupare kompetens än någonsin tidigare. Det är ingen teknisk utmaning, det är en kompetensfråga.


Källor:

  • SVT (2025): "Grova fel presenteras som sanningar när AI sammanfattar nyheter"
  • Microsoft Work Trend Index (2024): 31 000 kunskapsarbetare i 31 länder
  • HP Undersökning (2025): Svenska företag saknar AI-riktlinjer
  • AI-kommissionens Färdplan för Sverige (2024)
  • NIST AI Risk Management Framework
  • NICE Guidelines for Responsible AI Use
  • Erigo: Bias i AI: viktningar som formar vår världsbild
  • Erigo: När AI skriver världen