🍪 Vi använder endast nödvändiga cookies för optimal upplevelse.

Erigo använder endast nödvändiga cookies för att säkerställa att vår webbplats fungerar optimalt. Vår chattfunktionalitet som är en tredjepartstjänst inom EU sätter en cookie enbart för att tjänsten ska fungera och ingen personlig information sparas.

Vi använder inte andra tredjeparts- marknadsföringscookies eller cookies som delar din data med andra.

Därför finns det inga cookieinställningnar att godkänna eftersom vi inte profilerar dig.

Gå till innehållet

AI-psykos och syntetisk trygghet

Förskjutningen när samtalet flyttar till systemen

En tydlig förskjutning i mänsklig interaktion visar hur samtalet i allt större utsträckning sker med AI snarare än med människor. Tillgång, bekräftelse och frånvaro av friktion gör att AI-samtal ofta upplevs som mer givande än mänskliga.

Begreppet syntetisk trygghet blir centralt i denna utveckling. I en tidigare artikel beskrev jag hur algoritmer kan ersätta undersökande med bekräftelse och därigenom skapa en känsla av säkerhet som bygger på spegling snarare än prövning. Den syntetiska tryggheten gör systemen till upplevt trygga samtalspartner, ibland mer tillgängliga än människor.

I detta sammanhang blir varningen för AI-psykos begriplig. Microsofts Head of AI har pekat på risken att människor tilldelar systemen medvetande, hemliga insikter eller särskilda krafter. Fenomenet kan förstås som en fortsättning på den syntetiska tryggheten. När AI upplevs som mer tillgängligt än människor laddas det också med existentiell betydelse.

När syntetisk trygghet konkurrerar ut mänskliga relationer

Syntetisk trygghet omformar vår erfarenhet av trygghet och påverkar vilka samtal vi värdesätter mest.

Vården

Språkmodeller erbjuder omedelbara och ständigt tillgängliga svar. För någon som söker förståelse kan det uppfattas som mer tillfredsställande än en kort läkartid.

Utbildningen

Studenter vänder sig till AI som alltid svarar, adaptivt och tillgängligt. Att möta en lärare som utmanar perspektiv och introducerar friktion kan upplevas mer krävande.

Arbetsplatsen

Medarbetare kan föredra att diskutera dilemman med AI snarare än med kollegor eller chefer. Bekräftelsen är direkt och konfliktfri, medan mänsklig dialog ofta innebär kompromisser och komplexitet.


Systemrisker

Denna förskjutning skapar risker på flera nivåer:

  • Individ: Kognitiv uthållighet och förmåga för komplex dialog sätts på prov.
  • Organisation: Beslut riskerar att baseras på spegling snarare än kritisk prövning.
  • Samhälle: Polarisering och kollektiv sårbarhet för desinformation förstärks.

Motkrafter

Stärkt kognitiv integritet

För att balansera utvecklingen behövs en fördjupad förståelse av den egna kognitionen. Att se hur perception formas, hur bekräftelse påverkar och hur man bygger motståndskraft är grunden för kognitiv integritet, förmågan att bibehålla strukturerat tänkande även i miljöer som designats för att bekräfta.

Att stärka denna integritet kräver individuell medvetenhet, utbildningsinsatser och organisatoriska designval som skyddar vår uthållighet för mänsklig komplexitet.


Två dimensioner av samma förskjutning

AI-psykos och syntetisk trygghet är två dimensioner av samma förskjutning. Den ena sätter ljuset på vår dragning till bekräftande system. Den andra synliggör de psykologiska följderna när AI upplevs som mer givande än mänsklig interaktion. Att värna kognitiv integritet blir därmed avgörande i en era där perception formas lika mycket av algoritmer som av mänsklig erfarenhet.

För vidare läsning:


Källor för fördjupning

  • Ho, A. et al. (2025). The Rise of AI Companions: Psychological Impacts and Social Dynamics. arXiv preprint, arXiv:2506.12605.
  • Ma, X. et al. (2024). AI Companions Reduce Loneliness and Provide Emotional Support. arXiv preprint, arXiv:2407.19096.
  • Zhao, R. et al. (2024). Adolescents’ use of chatbots for emotional regulation: A survey-based study. Journal of Adolescence, Elsevier. ScienceDirect.

Följ Erigo på LinkedIn

En del av Sveriges infrastruktur för kompetensutveckling.
Följ oss på LinkedIn