🍪 Vi använder endast nödvändiga cookies för optimal upplevelse.

Erigo använder endast nödvändiga cookies för att säkerställa att vår webbplats fungerar optimalt. Vår chattfunktionalitet som är en tredjepartstjänst inom EU sätter en cookie enbart för att tjänsten ska fungera och ingen personlig information sparas.

Vi använder inte andra tredjeparts- marknadsföringscookies eller cookies som delar din data med andra.

Därför finns det inga cookieinställningnar att godkänna eftersom vi inte profilerar dig.

Gå till innehållet

När stöd blir styrning

Och vad det gör med vår förmåga att se

Vi skapar system för att hjälpa oss tänka, men i samma rörelse förändrar systemen hur vi tänker. AI är inget undantag. Det som börjar som ett stöd i analys och beslutsfattande kan över tid bli en styrande faktor, inte för att tekniken tar över, utan för att våra egna referensramar gradvis flyttar sig.

När AI förändrar referensramarna

Studier visar att AI-assistans kan höja träffsäkerheten i stunden men samtidigt minska vår förmåga när stödet inte finns. I en multinationell studie publicerad i The Lancet Gastroenterology & Hepatology sjönk adenoma-detektionen hos erfarna koloskopister från 28 % till 22 % när AI-stödet togs bort. MIT-forskning pekar på en liknande trend inom vetenskaplig kommunikation: språkmodeller tenderar att generalisera på ett sätt som subtilt ändrar hur vi tolkar och prioriterar information.

Det handlar inte om en plötslig förlust av kompetens. Förändringen är tyst och ackumulerande, en gradvis anpassning där vårt eget arbete anpassas till systemets logik.

Förändringen är tyst och ackumulerande, en gradvis anpassning där vårt eget arbete anpassas till systemets logik.

Från aktör till observatör

Automation bias är en av de mest väldokumenterade mekanismerna bakom denna förskjutning. När systemet föreslår ett svar, minskar benägenheten att ifrågasätta även om förslaget är fel. Detta gäller inte bara inom medicin eller vetenskap, utan i alla arbetsmiljöer där AI fungerar som filter, vägvisare eller beslutsunderlag.

Resultatet blir deskilling över tid. Fallet med koloskopister är inte ett undantag, utan en tidig indikator. Om förmågan försämras i ett område med så höga krav på precision, är sannolikheten stor att vi ser samma mönster i fler sektorer. Vi kommer sannolikt att få fler rapporter och studier som bekräftar detta, och behovet av att införa kognitiv riskhantering kommer bara att växa. Ju tidigare vi styr in på det spåret, desto större är chansen att vi bevarar och utvecklar våra färdigheter snarare än att gradvis förlora dem.

"När vi låter system fatta våra beslut, tränar vi bort vår egen förmåga. Frågan är: vad händer sen?"
Katri Lindgren

Kognitiv integritet i praktiken

Kognitiv integritet är förmågan att bevara och använda sin tolkningskapacitet även när externa system levererar färdiga slutsatser. Det handlar om att behålla en egen inre struktur för hur information värderas, verifieras och sätts i kontext.

I praktiken betyder det att aktivt skapa friktion mot den passiva bekräftelselogiken. Att ibland läsa långsammare. Att medvetet välja källor som inte är förprocessade. Att ställa följdfrågor som systemet inte själv föreslår. Det är små handlingar som tillsammans utgör ett motstånd mot en utveckling där stöd riskerar att bli styrning.

Kognitiv integritet är förmågan att bevara och använda sin tolkningskapacitet även när externa system levererar färdiga slutsatser.

Perspektivet som saknas, systemnivån

Frågan om deskilling och automation bias reduceras ofta till individens förmåga eller ansvar. Men de största konsekvenserna uppstår på systemnivå: när organisationers kompetensförsörjning, beslutsvägar och strategier formas av verktyg vars logik är optimerad för snabb leverans, inte nödvändigtvis för djup förståelse (synthetic safety).

Att hantera detta kräver mer än individuella strategier. Det kräver att AI-integrationen designas med redundans, manuella kontrollpunkter och möjlighet till oberoende verifiering, och att dessa ses som långsiktiga investeringar, inte som hinder.

Nästa steg i diskussionen

AI har accelererat vårat arbete. Frågan är hur vi kan använda tekniken som en katalysator för mänsklig skicklighet, inte som en ersättning för den. Den tysta förskjutningen från aktör till observatör är svår att upptäcka i realtid, men lättare att förebygga om vi redan från början bygger system och kulturer som värnar om kognitiv uthållighet.

Det är där nästa diskussion behöver börja. Inte i frågan om vi kan använda AI, utan hur vi kan använda det utan att förlora förmågan att tänka själva.


Vidare läsning samt källor till siffror och påståenden

Utforska fler perspektiv i Metakognitiva reflektioner, en artikelserie av Katri Lindgren.

Följ Erigo på LinkedIn

En del av Sveriges infrastruktur för kompetensutveckling.
Följ oss på LinkedIn