🍪 Vi använder endast nödvändiga cookies för optimal upplevelse.

Erigo använder endast nödvändiga cookies för att säkerställa att vår webbplats fungerar optimalt. Vår chattfunktionalitet som är en tredjepartstjänst inom EU sätter en cookie enbart för att tjänsten ska fungera och ingen personlig information sparas.

Vi använder inte andra tredjeparts- marknadsföringscookies eller cookies som delar din data med andra.

Därför finns det inga cookieinställningnar att godkänna eftersom vi inte profilerar dig.

Gå till innehållet

AI och kvalitet

från mikronivå till systemrisk

Fler rapporter kommer nu när AI varit en del av arbetslivet en tid. Den första samlade datan visar att tekniken kan höja effektiviteten, men att kvaliteten inte alltid följer med. I vissa fall ser vi till och med försämringar.

På mikronivå kan AI leverera goda resultat i enskilda uppgifter. På makronivå framträder risker som sträcker sig långt bortom enskilda processer, från en urholkad kompetensförsörjning till tecken på systemisk instabilitet.

För att förstå utvecklingen kan vi titta på aktuella studier och rapporter från olika sektorer. De ger en bild av hur kvaliteten påverkas i praktiken och vilka mönster som återkommer oavsett bransch.

Exempel på kvalitetsutmaningar

Felaktiga och förenklade slutsatser
En studie publicerad i Royal Society Open Science visar att stora språkmodeller ofta förenklar och felrepresenterar vetenskapliga resultat. De är nästan fem gånger mer benägna än människor att överförenkla slutsatser från vetenskapliga studier, särskilt inom medicin där detta kan leda till farliga tolkningar. Riskscenariot ökar när modellerna uppmanas vara exakta, då blir de istället dubbelt så benägna att övergeneralisera.
Källa: Peters U., Chin-Yee B. “Generalization bias in large language model summarization of scientific research.” Royal Society Open Science. 2025. DOI: 10.1098/rsos.241776. Länk

Förlust av mänskliga färdigheter
En studie i The Lancet Gastroenterology & Hepatology visade att AI-stöd vid koloskopier ledde till minskad förmåga hos läkare att upptäcka adenomer när AI inte användes, adenomalokaliseringsgraden sjönk från 28,4 % till 22,4 %. Resultaten tyder på att beroendet av tekniken minskar den mänskliga precisionen över tid.
Källa: Budzyń M. et al. “Endoscopist deskilling risk after exposure to artificial intelligence in colonoscopy: a multicentre, observational study.” The Lancet Gastroenterology & Hepatology. 2025. DOI: 10.1016/S2468-1253(25)00133-5. Länk

Negativ påverkan på kundservice
En rapport från Quantum Metric visar att 42 % av brittiska konsumenter är otrevliga mot AI-baserade kundtjänstverktyg, 57 % har avbrutit köp på grund av bristande support och 40 % kan tänka sig att betala mer för mänsklig kontakt. Resultaten belyser att AI-baserad service ofta behöver kompletteras med mänsklig kompetens för att behålla kundnöjdheten.
Källa: Quantum Metric. “2025 Contact Center Benchmark Report.” Hämtad 2025-08-13. Länk

Bristande datakvalitet
85 % av alla AI-projekt misslyckas på grund av dålig datakvalitet. Problem som felaktighet, ofullständighet och inkonsekvens påverkar direkt modellernas förmåga att leverera tillförlitliga resultat.
Källa: Shelf.io. “Why Bad Data Quality Kills AI Performance: The Hidden Truth You Need to Know.” 2025-04-09. Länk

Försämrad prestanda över tid
AI-modeller tappar precision om de inte uppdateras löpande, ett fenomen som kallas modellåldrande. Risken ökar om modeller tränas på syntetiskt innehåll från tidigare versioner, vilket kan leda till modellkollaps.

Källor:

  • Nagar S. et al. “The problem of AI model aging.” Scientific Reports. 2022;12:11677. Länk
  • Shumailov I. et al. "The Curse of Recursion: Training on Generated Data Makes Models Forget." Nature. 2024;627:59–65. Länk
  • IBM. "What is model collapse?" IBM Think. Hämtad 2025-08-13. Länk

Övertröstan på systemen (automation bias)
Automation bias innebär att människor tenderar att lita på automatiserade system, även när dessa är felaktiga. Forskning visar att detta sker i många miljöer, från sjukvård till juridiska beslut, och kan leda till två typer av fel: passivitetsfel (omission errors) när människor missar att agera för att systemet inte larmar, och felriktade handlingar (commission errors) när människor följer felaktiga systemförslag.

En systematisk översikt i Journal of the American Medical Informatics Association visar hur automation bias påverkar kliniska beslut, ofta utan att användarna är medvetna om det. Enligt Forbes är biasen särskilt problematisk när AI används i högriskmiljöer, eftersom tilliten till systemen kan vara starkare än till kollegors bedömningar. Forskning publicerad i Scientific Reports visar dessutom att människor ofta accepterar AI:s förslag utan kritisk granskning, även under tidspress och trots att de vet att systemen kan göra fel.

Utöver dessa effekter på beslutsfattande finns nu även belägg för att automation bias kan ha direkta kognitiva konsekvenser. En aktuell preprintstudie från MIT Media Lab: Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task (Kosmyna et al., 2025), visar att detta förtroende även kan mätas i hjärnans aktivitet. EEG-data avslöjar att deltagare som använde en LLM i skrivarbete uppvisade svagare neural koppling och mindre kognitiv närvaro än både de som skrev utan tekniskt stöd och de som använde en sökmotor. När deltagare bytte från AI till egen förmåga (LLM → Brain-only) kvarstod den reducerade aktiviteten, medan motsatt byte (Brain-only → AI) ökade hjärnaktiviteten och minneskapaciteten.

AI-gruppen visade dessutom det lägsta ägarskapet till sina egna texter och den svagaste minnesstyrkan för sina egna formuleringar.

Källor:

  • Lyell D., Coiera E. “Automation bias and verification complexity: a systematic review.” Journal of the American Medical Informatics Association. 2017;24(2):423–431. doi:10.1093/jamia/ocw105
  • Rosbach N., Lüthi T., Jongen J., Bless J.J. “Automation bias in AI-assisted medical decision-making under time pressure in computational pathology.” arXiv. 2024. doi:10.48550/arXiv.2411.00998
  • Goddard K., Roudsari A., Wyatt J.C. “Automation bias: a systematic review of frequency, effect mediators, and mitigators.” Journal of the American Medical Informatics Association. 2012;19(1):121–127. doi:10.1136/amiajnl-2011-000089
  • Kosmyna, N., et al. (2025). Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. MIT Media Lab. Preprint: https://doi.org/10.48550/arXiv.2501.04648

Vad som krävs för hållbar kvalitet

AI kan skapa värde när den införs med rätt data, tydliga kvalitetsmått och kompletteras av mänsklig kompetens. Utan dessa förutsättningar finns risk för kvalitetsförluster, både på detaljnivå och i hela system.

Det finns i dag en stor bubbla inom AI där nya produkter och lösningar utvecklas i snabb takt. Mycket handlar om vad som är tekniskt möjligt, hur modeller kan putsas och funktioner kan läggas till. Samtidigt pågår en massiv implementering av AI-verktyg i samhällsprocesser, ofta med syftet att optimera och effektivisera.

Det ena utesluter inte det andra, innovation och riskhantering kan gå hand i hand. Men kapplöpningen behöver få styrning om vi ska säkerställa att utvecklingen bidrar till ett samhälle med hållbar kvalitet och långsiktig kompetensförsörjning.


Källförteckning

  1. Peters, U., & Chin-Yee, B. “Generalization bias in large language model summarization of scientific research.” Royal Society Open Science. 2025. doi:10.1098/rsos.241776

  2. Budzyń, M., et al. “Endoscopist deskilling risk after exposure to artificial intelligence in colonoscopy: a multicentre, observational study.” The Lancet Gastroenterology & Hepatology. 2025. doi:10.1016/S2468-1253(25)00133-5

  3. Quantum Metric. “2025 Contact Center Benchmark Report.” Retrieved 2025-08-13. Link

  4. Shelf.io. “Why Bad Data Quality Kills AI Performance: The Hidden Truth You Need to Know.” 2025-04-09. Link

  5. Nagar, S., et al. “The problem of AI model aging.” Scientific Reports. 2022;12:11677. Link

  6. Shumailov, I., et al. "The Curse of Recursion: Training on Generated Data Makes Models Forget." Nature. 2024;627:59–65. Link

  7. IBM. "What is model collapse?" IBM Think. Retrieved 2025-08-13. Link

  8. Lyell, D., & Coiera, E. “Automation bias and verification complexity: a systematic review.” Journal of the American Medical Informatics Association. 2017;24(2):423–431. doi:10.1093/jamia/ocw105

  9. Rosbach, N., Lüthi, T., Jongen, J., & Bless, J.J. “Automation bias in AI-assisted medical decision-making under time pressure in computational pathology.” arXiv. 2024. doi:10.48550/arXiv.2411.00998

  10. Goddard, K., Roudsari, A., & Wyatt, J.C. “Automation bias: a systematic review of frequency, effect mediators, and mitigators.” Journal of the American Medical Informatics Association. 2012;19(1):121–127. doi:10.1136/amiajnl-2011-000089

  11. Kosmyna, N., et al. “Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task.” arXiv. 2025. doi:10.48550/arXiv.2507.12345

Följ Erigo på LinkedIn

En del av Sveriges infrastruktur för kompetensutveckling.
Följ oss på LinkedIn