🍪 Vi använder endast nödvändiga cookies för optimal upplevelse.

Erigo använder endast nödvändiga cookies för att säkerställa att vår webbplats fungerar optimalt. Vår chattfunktionalitet som är en tredjepartstjänst inom EU sätter en cookie enbart för att tjänsten ska fungera och ingen personlig information sparas.

Vi använder inte andra tredjeparts- marknadsföringscookies eller cookies som delar din data med andra.

Därför finns det inga cookieinställningnar att godkänna eftersom vi inte profilerar dig.

Gå till innehållet

AI utan tolkningsförmåga

Risker med användning utan förståelse

Detta är andra delen i en serie på fyra artiklar på Erigo om kognitiv integritet. Läs gärna även del 1: "Mental belastning som systemfråga: Kognitiv uthållighet i arbetslivet".

Vad AI genererar, och varför det spelar roll

Generativa AI-system som ChatGPT och Gemini producerar innehåll som upplevs relevant, korrekt och tillgängligt. Modellerna genererar inte sanning, utan statistiskt sannolika formuleringar baserade på mönster i tidigare data. Denna metod kallas probabilistisk språkmodellering, och innebär att varje ord är valt utifrån sannolikheten att följa på det föregående, inte utifrån verifierad kunskap.

Utan förståelse för denna logik riskerar användaren att överskatta innehållets validitet. När AI används för beslutsstöd, textproduktion eller kunskapsinhämtning krävs därför en kognitiv motkraft. Det handlar om att kunna granska, omformulera och förstå de underliggande antagandena i AI-output.

Automationsbias och tolkningsbrist

Människan tenderar att tillskriva tekniska system högre tillförlitlighet än de förtjänar, särskilt när systemen uttrycker sig med auktoritet. Detta fenomen, kallat automationsbias, har dokumenterats i flera sektorer där digitalt beslutsstöd används 1.

Ett exempel är när AI-verktyg genererar förslag till anställningsbeslut, där användaren väljer att godta texten utan att själv kontrollera innehållets rimlighet. När sådana mönster etableras i vardagliga arbetsflöden förstärks beroendet, och den individuella tolkningsförmågan försvagas.

Gapet mellan output och ansvar

De flesta AI-verktyg saknar insyn i hur viktning, dataval och urval sker. Detta skapar ett tolkningsglapp mellan input och output. När användaren inte förstår hur svaren genereras blir det svårt att avgöra om systemet är lämpligt för uppgiften.

EU:s AI Act adresserar detta genom krav på transparens, dokumentation och riskanalys för hög-risk-system. Generativa AI-system omfattas också delvis, framför allt via krav på ursprungsmarkering, modellöversikt och användarinformation i Artikel 52 2.

På organisationsnivå saknas ofta strukturer för att inkludera användarförståelse som en komponent i AI-governance, trots att den påverkar både beslutsfattande och ansvarsfördelning 3.

Struktur för AI-litteracitet med tolkningsfokus

För att möta detta krävs ett skifte från verktygsträning till begreppslig beredskap. Det innebär att medarbetare förstår hur AI fungerar och samtidigt kan tolka, omformulera och kritiskt granska dess innehåll. En sådan litteracitet kan innehålla:

  • Förståelse för språkmodellers funktionssätt och begränsningar 4
  • Förmåga att identifiera antaganden och bias i AI-output
  • Grundläggande kännedom om träningsdata, promptstruktur och modellens syfte
  • Reflekterande arbete med omformuleringar, alternativa prompts och resultatjämförelser

Begreppslig beredskap bygger alltså inte bara på teknisk förståelse, utan även på analytisk motståndskraft.

Från användning till reflektion

I organisationer som snabbt rullar ut AI-verktyg utan stödjande utbildning riskerar beroendet av AI att förstärka invanda mönster. Det kan leda till att intern kunskapsbas, innovationsförmåga och kvalitet i beslut försvagas.

Genom att bygga in tolkningsförmåga i kompetensutvecklingen stärks inte bara kvaliteten i arbetsflöden, utan också förmågan att navigera i en miljö där AI utgör en integrerad del av beslutslogiken.


Nästa steg: Fyra perspektiv på vad som formar vår kognitiva förmåga

Detta är den andra delen i en artikelserie på Erigo om hur AI, arbetsflöden och beslutslogik påverkar vår tolkningsförmåga. Läs också:


Källor

1 Parasuraman & Riley (1997): Humans and Automation: Use, Misuse, Disuse, Abuse
2 European Commission (2024): Regulation of the European Parliament and of the Council laying down harmonised rules on Artificial Intelligence (AI Act)
3 AI Now Institute (2023): Regulating the AI Supply Chain
4 Stanford HAI (2024): Understanding Language Model Transparency

Följ Erigo på LinkedIn

En del av Sveriges infrastruktur för kompetensutveckling.
Följ oss på LinkedIn