🍪 Vi använder endast nödvändiga cookies för optimal upplevelse.

Erigo använder endast nödvändiga cookies för att säkerställa att vår webbplats fungerar optimalt. Vår chattfunktionalitet som är en tredjepartstjänst inom EU sätter en cookie enbart för att tjänsten ska fungera och ingen personlig information sparas.

Vi använder inte andra tredjeparts- marknadsföringscookies eller cookies som delar din data med andra.

Därför finns det inga cookieinställningnar att godkänna eftersom vi inte profilerar dig.

Gå till innehållet

Bias i AI

Viktningar som formar vår världsbild

Vi galopperar i takt med tekniken. Fascinationen bär oss framåt. Men det finns frågor vi sällan stannar upp vid.
Bias i AI diskuteras ofta som ett tekniskt problem. Något som kan justeras, kodas bort, trimmas till. Men bias handlar inte bara om data. Det handlar om vilka tolkningar vi ger förtur. Vilken världssyn som förstärks. Vilka värden som viktas upp, och vilka som kapas bort.

Vi vet att träningsdata bär historikens mönster. Vi vet att modellerna redan visar tecken på snedfördelad output, även i användningsledet. Så vem avgör vad som är relevant? Vem avgör vad som är tillräckligt sant?

Den som kontrollerar AI-modellens viktning kontrollerar i förlängningen vilken information som formar våra beslut. Våra antaganden. Våra perceptioner.

Här behöver vi tala om kognitiv integritet.
Vi behöver kunna förstå hur AI:s output uppstår, för att bemöta den med urskiljning. Det kräver ny kompetens. Det kräver att bias förstås som en strukturell dimension av teknologin i sig.

Vad är bias i AI och varför uppstår det?

Bias inom AI uppstår när en modell ger systematiskt skeva eller oproportionerliga resultat. Det handlar inte om felaktig kod utan om vilken data modellen tränats på, hur den är konstruerad och hur den tillämpas i praktiken.

Data bär på värderingar, historik och mönster. AI-system som tränas på denna data kommer att återspegla det de lärt sig, med bibehållna och ofta förstärkta skevheter.

Bias uppstår inte vid sidan av tekniken. Den är inbyggd i hur tekniken tolkar världen.


Tre nivåer av bias

1. Databias

Modellen lär sig från material som redan speglar ojämlikheter eller exkludering. Det den producerar följer samma linjer.

2. Designbias

Modellens konstruktion styr vilka samband som prioriteras. De tekniska valen påverkar vilken information som får genomslag.

3. Användningsbias

Även en vältränad modell påverkas av hur den används. Den kan svara olika beroende på formuleringar, kontext och användarens bakgrund.

Om ramverket

Den tredelade struktur som beskrivs ovan är en sammanhållen modell baserad på etablerad forskning inom AI och etik. Liknande kategoriseringar återfinns i arbeten av bland andra Barocas, Hardt och Narayanan, Suresh & Guttag samt Mehrabi et al.

Benämningarna kan variera, exempelvis används även begrepp som measurement bias, deployment bias eller representation bias, men den principiella uppdelningen i datakällor, modellkonstruktion och användningskontext är en återkommande analysram.

Denna sammanställning syftar till att ge en tillgänglig struktur för att förstå hur snedvridning i AI-system kan uppstå och förstärkas i praktisk tillämpning.


Klassiska biaser att känna till

I AI-system syns ofta samma typer av bias som inom psykologi och beslutsfattande, men de förstärks genom automatisering och skala. Nedan följer fem vanliga biaser som ofta återfinns i träningsdata, modellbeteende eller tolkning av resultat.

Scrolla sidled för att se hela tabellen

Bias Beskrivning Exempel i AI
Confirmation bias Modellen förstärker befintliga antaganden eller förväntningar Sökmotorer visar information som bekräftar användarens tidigare beteende
Representation bias Datan speglar inte verklighetens variation nsiktsigenkänning fungerar sämre för mörkhyade personer
Selection bias Valet av träningsdata är inte representativt för det verkliga tillämpningsområdet Rekryteringssystem tränade på tidigare anställningar reproducerar historisk snedfördelning
Anchoring bias Första input påverkar efterföljande beslut oproportionerligt AI-assistent ger olika svar beroende på initial formulering
Survivorship bias Endast synliga eller framgångsrika exempel finns med i datan System tränas på framgångsberättelser och bortser från de som inte syns i utfallet

Det finns fler former av bias som påverkar AI-system, exempelvis label bias, hindsight bias och framing bias. Urvalet ovan fokuserar på några av de mest genomgripande och ofta återkommande, särskilt i AI-tillämpningar som språkmodeller och beslutsstödssystem, där output påverkar människors uppfattning, val och tolkningar i realtid.

Detta gäller till exempel:

  • Språkmodeller (LLM:er) som ChatGPT, Claude och Gemini
    Används för att svara på frågor, generera texter och ge rekommendationer.

  • Rekommendationssystem i sociala medier, e-handel och sökmotorer
    Påverkar vilka inlägg, produkter eller resultat användaren ser.

  • Beslutsstödssystem inom HR, sjukvård, utbildning och offentlig förvaltning
    Föreslår åtgärder, prioriteringar eller tolkningar av data för mänskliga beslut.

Språkmodeller är särskilt relevanta i detta sammanhang eftersom:

  • De används ofta av icke-experter utan insyn i hur modellen är uppbyggd.
  • De formulerar sig med övertygelse, vilket skapar en känsla av auktoritet.
  • De fungerar ofta som det första kognitiva förslaget i en tankeprocess, vilket gör dem särskilt mottagliga för att förstärka anchoring bias, confirmation bias och framing.

Från teknik till arbetsflöde, vad händer när AI integreras?

AI har blivit en integrerad del av arbetsflöden i många verksamheter. Inte som en extern enhet, utan som ett systematiskt verktyg i varje led, från indata till beslut.

Där AI kan bidra till effektivitet kommer den också att användas. Den vävs in i strukturer, produktionsflöden, beslutsunderlag och dokumentation. Många använder redan AI dagligen. Andra tvekar. Oro över att bli ersatt är vanlig, men i praktiken sker en förskjutning snarare än ett utbyte. Människan är fortsatt bärande i beslutsprocessen. AI fungerar som struktur, analysmotor och verktyg för förstärkning.

För att detta samspel ska bli hållbart krävs insyn. Inte enbart i vilken data som använts, utan i hur tolkningen sker, vilka faktorer som ges vikt och vilka perspektiv som osynliggörs. När arbetsflöden vilar på AI-beslut utan förståelse för modellens inre logik försvagas vår yrkesmässiga urskiljning. Det påverkar kvalitet, ansvarsfördelning och i förlängningen hela organisationens beslutsförmåga.

Vad är kognitiv integritet och varför spelar det roll?

När AI integreras i arbetsflöden som tidigare hanterats av människor, förändras förutsättningarna för hur information tolkas och används. I takt med att AI:s output påverkar beslut, dokumentation och kommunikation, behöver vi utveckla förmågan att förstå hur information formas och vilka strukturer som påverkar dess innehåll.

Kognitiv integritet innebär att kunna bearbeta information med medvetenhet om ursprung, tolkning och tyngdpunkter. Det handlar om att se vilka antaganden som styr modellen, vilka perspektiv som får genomslag och hur svar struktureras.

AI genererar sannolikhetsbaserade tolkningar. Därför behöver vi en förmåga att läsa resultatet med distans och systemförståelse. Det räcker inte med teknisk läskunnighet, vi behöver också kognitiv urskiljning, som en del av vår professionella kompetens.

Detta kräver en kultur där förståelsen för hur AI formar innehåll ses som en självklar del av arbetet. Begreppet kognitiv integritet utvecklas vidare i andra texter, med tillämpningar inom utbildning, beslutsfattande och kognitiv uthållighet.


Kompetensen vi behöver nu

  • Förmågan att läsa AI-output som viktad information
  • Insikt i modellers uppbyggnad, datagrund och tolkningar
  • Stärkt metakognitiv kapacitet i arbetslivet
  • Transparens som förutsättning för tillit

När AI påverkar både informationsflöden och beslutskedjor, behöver vi kombinera teknisk förståelse med kognitiv urskiljning. Det handlar om att se samband mellan systemlogik, sannolikhetsbaserad output och modellens underliggande struktur.

För den som vill gå djupare i frågan om tolkning, uppmärksamhet och mental strukturering i AI-påverkade miljöer finns en vidare artikel om kognitiv integritet som systemvillkor.


Källor

  • Bender, Gebru, McMillan-Major, Shmitchell (2021): On the Dangers of Stochastic Parrots
  • EU: GPAI Code of Practice
  • Barocas, Hardt & Narayanan: Fairness and Machine Learning
  • Stanford HAI: Foundation Model Transparency Index
  • MIT Technology Review: Bias in Large Language Models (2023)

Följ Erigo på LinkedIn

En del av Sveriges infrastruktur för kompetensutveckling.
Följ oss på LinkedIn