En tydlig förskjutning i mänsklig interaktion visar hur samtalet i allt större utsträckning sker med AI snarare än med människor. Tillgång, bekräftelse och frånvaro av friktion gör att AI-samtal ofta upplevs som mer givande än mänskliga.
Begreppet syntetisk trygghet blir centralt i denna utveckling. I en tidigare artikel beskrev jag hur algoritmer kan ersätta undersökande med bekräftelse och därigenom skapa en känsla av säkerhet som bygger på spegling snarare än prövning. Den syntetiska tryggheten gör systemen till upplevt trygga samtalspartner, ibland mer tillgängliga än människor.
I detta sammanhang blir varningen för AI-psykos begriplig. Microsofts Head of AI har pekat på risken att människor tilldelar systemen medvetande, hemliga insikter eller särskilda krafter. Fenomenet kan förstås som en fortsättning på den syntetiska tryggheten. När AI upplevs som mer tillgängligt än människor laddas det också med existentiell betydelse.
När syntetisk trygghet konkurrerar ut mänskliga relationer
Syntetisk trygghet omformar vår erfarenhet av trygghet och påverkar vilka samtal vi värdesätter mest.
Vården
Språkmodeller erbjuder omedelbara och ständigt tillgängliga svar. För någon som söker förståelse kan det uppfattas som mer tillfredsställande än en kort läkartid.
Utbildningen
Studenter vänder sig till AI som alltid svarar, adaptivt och tillgängligt. Att möta en lärare som utmanar perspektiv och introducerar friktion kan upplevas mer krävande.
Arbetsplatsen
Medarbetare kan föredra att diskutera dilemman med AI snarare än med kollegor eller chefer. Bekräftelsen är direkt och konfliktfri, medan mänsklig dialog ofta innebär kompromisser och komplexitet.
Systemrisker
Denna förskjutning skapar risker på flera nivåer:
- Individ: Kognitiv uthållighet och förmåga för komplex dialog sätts på prov.
- Organisation: Beslut riskerar att baseras på spegling snarare än kritisk prövning.
- Samhälle: Polarisering och kollektiv sårbarhet för desinformation förstärks.
Motkrafter
Stärkt kognitiv integritet
För att balansera utvecklingen behövs en fördjupad förståelse av den egna kognitionen. Att se hur perception formas, hur bekräftelse påverkar och hur man bygger motståndskraft är grunden för kognitiv integritet, förmågan att bibehålla strukturerat tänkande även i miljöer som designats för att bekräfta.
Att stärka denna integritet kräver individuell medvetenhet, utbildningsinsatser och organisatoriska designval som skyddar vår uthållighet för mänsklig komplexitet.
Två dimensioner av samma förskjutning
AI-psykos och syntetisk trygghet är två dimensioner av samma förskjutning. Den ena sätter ljuset på vår dragning till bekräftande system. Den andra synliggör de psykologiska följderna när AI upplevs som mer givande än mänsklig interaktion. Att värna kognitiv integritet blir därmed avgörande i en era där perception formas lika mycket av algoritmer som av mänsklig erfarenhet.
För vidare läsning:
Källor för fördjupning
- Ho, A. et al. (2025). The Rise of AI Companions: Psychological Impacts and Social Dynamics. arXiv preprint, arXiv:2506.12605.
- Ma, X. et al. (2024). AI Companions Reduce Loneliness and Provide Emotional Support. arXiv preprint, arXiv:2407.19096.
- Zhao, R. et al. (2024). Adolescents’ use of chatbots for emotional regulation: A survey-based study. Journal of Adolescence, Elsevier. ScienceDirect.