🍪 Vi använder endast nödvändiga cookies för optimal upplevelse.

Erigo använder endast nödvändiga cookies för att säkerställa att vår webbplats fungerar optimalt. Vår chattfunktionalitet som är en tredjepartstjänst inom EU sätter en cookie enbart för att tjänsten ska fungera och ingen personlig information sparas.

Vi använder inte andra tredjeparts- marknadsföringscookies eller cookies som delar din data med andra.

Därför finns det inga cookieinställningnar att godkänna eftersom vi inte profilerar dig.

Gå till innehållet

Syntetisk trygghet

När bekräftelselogik i AI påverkar vår kognition

Språkgenerativ AI ger oss svar snabbt, artigt och ofta med hög igenkänningsfaktor. Men vad händer när vår hjärna tolkar detta som bekräftelse, och när bekräftelse börjar ersätta prövning? I takt med att fler väljer AI före mänsklig dialog förändras villkoren för hur vi tränar empati, utvecklar omdöme och bygger kunskap. Den trygghet som uppstår är inte nödvändigtvis felaktig, men den är syntetisk.

Om begreppet syntetisk trygghet

Vad menas med syntetisk trygghet?

Jag använder begreppet syntetisk trygghet för att beskriva den känsla av kognitiv stabilitet som uppstår när vi får igenkännande eller bekräftelse från AI-genererat språk, utan att ha genomgått någon egentlig prövning.

Tryggheten upplevs som äkta eftersom den triggar hjärnans belöningssystem, men den är inte ett resultat av bearbetning, dialog eller kritisk återkoppling.

Det är en trygghet som formas i relation till sannolikhet, artighet och igenkänning, snarare än sanning, motstånd och mänsklig tolkning.

(Begreppet introduceras här som en analytisk ram för att förstå en ny typ av kognitiv upplevelse i AI-miljöer.)

Människans hjärna är biologiskt inställd på att söka bekräftelse. Dopaminsystemet aktiveras vid igenkänning, uppskattning och respons som stärker den egna uppfattningen. Det är inte resultatet som triggar systemet, utan signalen om att belöning är nära.

“Dopamine does not signal pleasure directly. Instead, it amplifies the motivational significance of cues that predict reward.”
(Berridge & Robinson, 1998)

Denna mekanism förklarar varför en språklig bekräftelse från en AI-modell kan upplevas som tillfredsställande, trots att ingen människa är inblandad. När språkmodeller formulerar sig på ett sätt som signalerar samförstånd, triggas belöningssystemet och känslan av att ha rätt förstärks, oavsett om innehållet är korrekt.

Det skapar en syntetisk trygghet. Den uppstår inte ur kunskap eller prövning, utan ur en igenkänningssignal som systemet tolkar som belöning. I längden påverkar detta vår kognitiva orientering: vi söker efter svar som känns rätt, snarare än svar som kräver bearbetning.

Empati som förmåga tränas i mänsklig interaktion

Empati utvecklas i realtidssituationer där vi behöver läsa av osäkerhet, nyanser och social återkoppling. Mänsklig interaktion erbjuder variation, motstånd och förhandling, vilket skapar en dynamisk träningsyta för både emotionell och kognitiv empati.

När fler väljer att interagera med AI-modeller i situationer som tidigare krävt mänsklig kontakt, förändras villkoren för denna träning. AI ger snabba, tydliga svar utan emotionell friktion. Modellen kräver ingen återkoppling, inget emotionellt arbete och inget gemensamt tolkningsutrymme.

“Empathy is not fixed. It develops through repeated engagement with complex emotional and social information.”
(Zaki & Ochsner, 2012)

Empatin urholkas när vi utsätts för färre situationer där den tränas. I takt med att interaktionen förenklas, förenklas också våra sätt att uppfatta andra.

Friktion är en förutsättning för kunskapsutveckling

Kunskap utvecklas när idéer testas, förkastas och omformuleras. Den typen av friktion är central för både vetenskaplig metod och mänsklig utveckling. I mänskliga samtal är friktionen inbyggd, i form av invändningar, efterfrågade förtydliganden eller förändrad kontext. Det tvingar fram metakognition.

Språkmodeller är inte tränade för att skapa friktion. De är optimerade för att producera sannolika, användaranpassade svar. Resultatet är en miljö där påståenden sällan ifrågasätts och där användaren i stället för att bli utmanad, ofta får sin tanke speglad med ny ordalydelse.

“We expect more from technology and less from each other.”
(Turkle, 2011)

När förväntningen på människan sänks, och teknikens tillgänglighet ökar, förändras vår förståelse av kunskap. Det vi behöver i form av kognitiv prövning ersätts av det vi föredrar i form av bekräftelse.

När trygghet ersätter prövning förändras vår relation till tänkande

Om språkmodeller blir vår främsta samtalspartner sker en förskjutning i hur vi bygger kunskap, tränar empati och utvärderar resonemang. Bekräftelselogiken skapar en upplevelse av att vara på rätt väg, även när det saknas motstånd, komplexitet eller mänsklig återkoppling.

Det förändrar inte bara hur vi tänker, utan också hur vi uppfattar vår egen tankeförmåga. När varje inmatad idé genererar ett välformulerat svar, lär vi oss att vårt bidrag är färdigt redan vid formuleringen. Vi slutar revidera, ifrågasätta och bygga vidare.

Ett samhälle som vill stärka kognitiv motståndskraft behöver strukturer som inte bara ger svar, utan hjälper oss att omformulera våra frågor.

"Om syntetisk trygghet blir en ny konstant, behöver vi samtidigt skydda det som tränar vår empatiska förmåga. Ansvar handlar om att handhålla båda." (Katri Lindgren, 2025)

Relaterat perspektiv

För en analys av hur språkmodeller påverkar sin egen träning och vad det betyder för kunskapsproduktionen i stort:
När AI skriver världen – riskerna med att nästa generation modeller tränas på sin egen spegelbild


Källor

1. Berridge, K. C., & Robinson, T. E. (1998).
The Role of Dopamine in Reward: From Aversive to Appetitive Learning and Motivation.
Förklarar hur dopamin aktiveras vid förväntan om belöning, vilket stärker förståelsen för varför bekräftelse från AI påverkar vår kognition.

2. Zaki, J., & Ochsner, K. N. (2012).
The neuroscience of empathy: progress, pitfalls and promise.
Genomgång av hur empati utvecklas och varför interaktion är central i processen.

3. Turkle, S. (2011).
Alone Together: Why We Expect More from Technology and Less from Each Other.
Analys av hur teknik ersätter mänskliga relationer och vilka psykologiska effekter detta har.

Bilden är AI-genererad, baserad på ett fotografi av mig själv. Den visualiserar tröskeln mellan människa och system som utforskas i texten.

Följ Erigo på LinkedIn

En del av Sveriges infrastruktur för kompetensutveckling.
Följ oss på LinkedIn