Vi följer varje nytt modellsläpp. Vi benchmarkar, jämför, implementerar. Det finns en hel industri byggd kring att mäta vad AI kan. Det jag följt är en annan fråga: vad händer med vår egen förmåga när vi gör det? Jag har arbetat med beteendedata i digitala miljöer i nästan två decennier. Sedan språkmodellerna inträdde på marknaden har jag kontinuerligt följt hur detta nya lager påverkar det vi redan visste om algoritmiska flöden, koncentration och tolkningsförmåga.

Det jag skriver om kognitiv integritet och syntetisk trygghet bygger på den grunden. Nu börjar forskningen bekräfta det vi anade. Fynden är subtila, och just därför hamnar de sällan i fokus: den aggregerade effekten på mänsklig kapacitet kommer ta tid att bli synlig i den data vi mäter på samhällsnivå. Det är den typen av förändring som kräver att vi tittar aktivt, innan den syns tydligt.


Vi pratar mycket om vad AI kan göra. Vi pratar lite om vad AI gör med oss.

Under 2025 och tidigt 2026 har ett antal rapporter publicerats som handlar om vad som händer med människans kapacitet när AI integreras i vardagen. Fynden är subtila, och just därför svårare att ta på allvar. Men de pekar alla i samma riktning.

Diagnosen: Vi outsourcar mer än vi tror

NBER-rapporten How People Use ChatGPT (2025) följde 700 miljoner användare. Ett av de mest slående fynden var förskjutningen i användningsmönster, snarare än skalan i sig. På ett år ökade icke-arbetsrelaterade samtal från 53 till 73 procent av alla interaktioner. Människor använder LLM:er för att tänka, resonera, processa och fatta beslut i sina privata liv.

Det är en kvalitativ förändring, mer än en kvantitativ.

Gerlich (2025) undersökte 666 deltagare i Storbritannien och mätte relationen mellan AI-användning och kritiskt tänkande. Korrelationen mellan frekvent AI-användning och kognitiv avlastning var r = 0,72. Korrelationen mellan kognitiv avlastning och kritiskt tänkande var r = -0,75. Sambandet gällde i synnerhet yngre deltagare (17–25 år), som uppvisade både högre AI-beroende och lägre kapacitet för kritisk analys jämfört med äldre. Den enda skyddande faktorn som identifierades var utbildningsnivå, och mer specifikt: träning i att granska snarare än konsumera.

Det handlar om huruvida du aktivt övar förmågan att resonera. Det är det som avgör.


Katri Lindgren - Vi jagar AIs förmåga: Vad den gör med oss förtjänar lika mycket uppmärksamhet.

Konsekvensen: Deskilling pågår redan

Begreppet deskilling, gradvis försvagning av färdigheter genom bristande träning, används traditionellt om manuellt arbete. Det som nu dokumenteras rör kognitiva förmågor av ett annat slag.

En studie publicerad i The Lancet Gastroenterology & Hepatology (Budzyń et al., 2025) följde erfarna läkare som använde AI-stöd för adenomdetektion vid koloskopi. Specialister med över 2 000 genomförda koloskopier var uppnådde 28,4 procent detektionsgrad innan AI introducerades. Efter att ha vant sig vid AI-assistansen sjönk deras detektionsgrad till 22,4 procent när de arbetade utan systemet. Det rörde sig om erfarna kliniker. Förmågan hade eroderat under en period av stöd.

Mekanismen är begriplig. Hjärnan är evolutionärt designad för energibesparing. När ett system erbjuder svar är incitamentet att resonera fram det själv lägre. Varje gång vi hoppar över det steget minskar vi träningen av den förmågan. Det är en långsam utmaning av neuroplasticitetens grundlogik: använd det eller förlora det.

Deskilling manifesterar sig på minst tre nivåer:

Språklig. När AI genererar text förlorar vi gradvis förmågan att söka rätt ord, väga formuleringar och hålla vår egen röst. Det statistiskt sannolika ersätter det personligt exakta.

Analytisk. AI-sammanfattningar gör att vi hoppar över stegen att läsa hela texter, hålla perspektiv i huvudet och syntetisera slutsatser. Arbetsminnesträning och syntesförmåga atrofierar.

Logisk. Precis som GPS försvagade spatial navigation och kalkylatorn försvagade mental aritmetik, riskerar AI-resonemang att försvaga vår förmåga att bygga egna argumentationskedjor. Det som var kompetens blir beroende.


Det systemiska: Vem pratar om detta?

År 2024 genererade bottar mer internettrafik än människor, för första gången på över ett decennium. Europols rapport samma år indikerade att 90 procent av internetinnehållet kan vara syntetiskt genererat till 2026. Vi rör oss mot en informationsmiljö där majoriteten av det vi möter online producerades av ett system.

Det som avgör konsekvensen är vad vi gör med det.

Problemet uppstår när vi slutar skilja, när vi saknar förmågan att bedöma ursprung, tolka kontext och hålla perspektiv levande under trycket av informationsflödet. Den förmågan, kognitiv integritet, är precis den som riskerar att tunnas ut utan medvetet underhåll.

Andrew Yang beskriver 2026 som "the Fuckening" för tjänstemannayrken, ett massivt skifte vars konsekvenser ännu rullar ut under ytan av statistiken. Hans framtidsbeskrivning innehåller överdrifter, men grundobservationen håller: vi befinner oss i ett strukturellt skifte. Kontors- och kunskapsarbetets infrastruktur håller på att skrivas om, och det är oklart vad som ersätter de kognitiva träningslooparna som den strukturen oavsiktligt skapade.


Det som krävs av oss: Arkitektur, medveten och byggd

Kognitiv integritet är ett argument för att förstå vad AI-verktygen gör, och för att bygga strukturer som kompenserar för det de tar.

Det kräver tre saker på olika nivåer:

Individen behöver medveten träning i de förmågor som outsourcas snabbast: kritisk läsning, eget skrivande, resonemang utan stöd, tolerans för öppna frågor. Underhåll av den kognitiva infrastrukturen, lika självklart som fysisk träning.

Organisationen behöver skilja mellan AI som produktivitetsverktyg och AI som beslutsunderlag. Syntetisk trygghet, känslan av säkerhet som ett AI-system ger utan att grunden för den säkerheten granskats, är en operativ risk. Beslut på sannolikhetslogik är mer förutsägbara och mindre innovativa än beslut grundade i verkligt resonemang.

Samhället behöver kompetensinfrastruktur som mäter och underhåller kognitiv kapacitet, parallellt med produktivitetsmått. Vad vi presterar med AI-stöd är en annan fråga än vad vi bär på som förmåga. Det är den distinktionen vi ännu saknar språk och mätverktyg för.


Rapporterna visar att vi håller på att anpassa oss till AI på ett sätt vi ännu inte reflekterat tillräckligt över. Och att den anpassningen har ett pris som är svårt att se i realtid, just för att det sker gradvis, tyst och utan tydlig brytpunkt.

Det är just den typen av förändring som kräver att vi tittar aktivt.


Källor

De empiriska påståendena i denna artikel bygger på följande rapporter och studier:

Gerlich, M. (2025). AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking. Societies, 15(1), 6. En enkätstudie med 666 deltagare i Storbritannien som mäter sambandet mellan frekvent AI-användning, kognitiv avlastning och kritiskt tänkande. Studien identifierar utbildningsnivå som den enda skyddande faktorn mot försämrad analysförmåga.

Budzyń, M. et al. (2025). The Lancet Gastroenterology & Hepatology. En klinisk studie som följde erfarna kolonoskopispecialister före och efter introduktion av AI-assisterad adenomdetektion. Visar att detektionsförmågan försämrades hos erfarna läkare efter tillvänjning till AI-stöd, ett empiriskt belägg för deskilling inom professionell medicinsk praktik.

Toner-Rodgers, A. et al. (2025). How People Use ChatGPT. NBER Working Paper 34255. En storskalig kartläggning av 700 miljoner användare som dokumenterar det kvalitativa skiftet från arbetsrelaterad till privat användning av LLM:er under 2024–2025.

Europol (2024). Tech Watch Flash: ChatGPT: The Impact of Large Language Models on Law Enforcement. Europols rapport om AI-genererat innehåll och dess konsekvenser för informationsmiljön, med projektionen att 90 procent av internetinnehållet kan vara syntetiskt genererat till 2026.


Vidare läsning

Detta är ett ämne jag följt kontinuerligt sedan språkmodellerna inträdde på marknaden, med bakgrund i nästan två decenniers arbete med beteendedata i digitala miljöer. Artiklarna nedan fördjupar de teman som introduceras här, varje länk beskriver vad du faktiskt hittar om du klickar vidare.

När tankarna flyttar in i språkmodeller: En analys av NBER-rapporten och vad det privata användningsskiftet betyder för vår kognitiva självständighet. Läs denna om du vill förstå vad det innebär att tre fjärdedelar av alla LLM-samtal nu sker utanför arbetslivet, och varför det är en kognitiv fråga lika mycket som en teknisk.

Språkmodeller som externa minnen: Vad händer med vår interna kapacitet?: En genomgång av forskningen om kognitiv offloading, från Sparrow et al:s Google-effekt till MIT Media Labs EEG-data på hjärnaktivitet vid LLM-assisterat skrivande. Läs denna om du vill ha det empiriska underlaget för vad som händer neurologiskt när vi låter systemen minnas och resonera åt oss.

När hjärnan formas av systemet, och vad som förändras snabbare än vi tror: En artikel om neuroplasticitet och hur systemdesign, algoritmisk rytm och LLM-interaktion formar hjärnans strukturer på sätt vi sällan märker i stunden. Läs denna om du vill förstå mekanismen bakom deskilling på biologisk nivå.

Kognitiv integritet: ett systemvillkor i informationsåldern: En introduktion till begreppet kognitiv integritet som ramverk för att förstå och motverka kapacitetserosion i AI-täta miljöer. Läs denna om du vill ha det konceptuella språket för vad denna artikel pekar mot, och varför kognitiv kapacitet behöver behandlas som en systemfråga snarare än ett individuellt ansvar.

Vi jagar AIs förmåga: Vad den gör med oss förtjänar lika mycket uppmärksamhet.
Innehållsförteckning
ELSA
Erigo Learning Support Agent

Fråga ELSA om artikeln

Sammanfatta, översätt eller ställ frågor

ELSA drivs av Erigo RAG