🍪 Vi använder endast nödvändiga cookies för optimal upplevelse.

Erigo använder endast nödvändiga cookies för att säkerställa att vår webbplats fungerar optimalt. Vår chattfunktionalitet som är en tredjepartstjänst inom EU sätter en cookie enbart för att tjänsten ska fungera och ingen personlig information sparas.

Vi använder inte andra tredjeparts- marknadsföringscookies eller cookies som delar din data med andra.

Därför finns det inga cookieinställningnar att godkänna eftersom vi inte profilerar dig.

Gå till innehållet

När AI skriver världen

Riskerna med att nästa generation modeller tränas på sin egen spegelbild

Den tekniska utvecklingen inom generativ AI har lett till en punkt där stora språkmodeller inte längre enbart konsumerar information, de producerar majoriteten av all ny text på internet. Dessa system är samtidigt beroende av träningsdata för att utveckla sin språkförmåga. Det skapar en strukturell spänning:

När språkmodeller tränas på sin egen output riskerar de att förlora förmågan att tillföra ny information till det kognitiva ekosystemet.

Mode collapse och homogenisering

Stora språkmodeller är optimerade för att gissa nästa mest sannolika ord. Detta leder till att modeller tenderar att generera standardiserade, förutsägbara och språkligt korrekta texter, men utan djup variation. När dessa texter sedan används som träningsdata i nästa generations modeller uppstår ett fenomen kallat mode collapse:

Nyanser försvinner. Resonemang blir likartade. Uttryck homogeniseras.

Kognitivt sett är det en form av självreferens som försvagar systemets förmåga till förnyelse.

Epistemisk loop och sanning som frekvens

Generativ AI har ingen åtkomst till sanning i sig, utan bygger sina svar på vad som förekommer ofta i träningsdatan. Om AI-genererad text börjar dominera webben blir ”det som AI ofta säger” = ”det AI tror är sant”.

Detta skapar en epistemisk slutenhet där:

  • bias befästs
  • minoritetsperspektiv marginaliseras
  • innovation i uttryck tolkas som felaktighet

Sanningsbegreppet reduceras till statistisk tyngd.

Vetenskapens uttryck klyvs från vetenskapens process

Stora språkmodeller kan imitera tonfall, struktur och logik i vetenskapliga texter. Men de deltar inte i:

  • hypotesprövning
  • metodisk osäkerhet
  • peer review eller epistemisk motstånd

Det ser ut som vetenskap.
Det känns som vetenskap.
Men det är bara syntax av epistemisk auktoritet.

Detta är särskilt riskfyllt när AI-skapade texter börjar användas som underlag i utbildning, policy och forskning.

Vad krävs för att bryta loopen?

  1. Spårbarhet
    Systematisk metadata om ursprung, metod och om texten är AI-genererad

  2. Datakurering för kognitiv bredd
    Inkludera flerformer av kunskap: etnografi, fältdata, tvärvetenskapliga resonemang

  3. Särskilda modeller för osäkerhet och hypotesgenerering
    AI som inte bara ger svar, utan vågar formulera frågor

  4. Mänskligt tolkningsansvar
    Kunskapsproduktion får inte automatiseras bort från ansvar och reflexivitet

Det krävs ett medvetet designskifte i hur vi bygger, använder och förstår AI-system. Annars riskerar vi att bygga intelligenta speglar som bara bekräftar vårt senaste eko.

Vidare frågor: vad lär sig AI egentligen?

Här handlar det inte längre om språk, utan om hur system lär sig att anpassa sitt eget lärande utifrån belöning, straff och mönster i mänskligt beteende. Samtidigt som språkmodeller formar vår informationsmiljö, utvecklas också självlärande AI-system inom reinforcement learning (RL) och meta-reinforcement learning (Meta-RL).

Men vad händer när dessa belöningsstrukturer formas av snabba klick, oreflekterade interaktioner eller sociala medieplattformars dopaminlogik?

Vilken typ av "kunskap" tränas då in, och vilka långsiktiga effekter får det om både språk och lärandemönster börjar kretsa kring samma begränsade logik?

Samtidigt finns ett ytterligare skikt som ofta förbises:

Eftersom språkmodeller bygger sina svar utifrån sannolikhet, tenderar de att filtrera bort perspektiv som inte följer etablerade mönster. Nytänkande resonemang, originella kopplingar eller hypoteser som ännu inte synts i stora mängder text riskerar att sorteras bort, inte för att de är felaktiga, utan för att de är osannolika.

När det osannolika filtreras bort ur språkmodeller, filtreras också det potentiellt nya bort ur kunskapsproduktionen.

Denna artikel har bara rispat på ytan. De djupare frågorna ligger fortfarande öppna.


Källor och vidare läsning

Akademisk forskning och tekniska perspektiv

  • Weidinger, L., Mellor, J., Rauh, M. et al. (2021). Ethical and social risks of harm from Language Models.
    En strukturerad analys av riskområden knutna till storskaliga språkmodeller, inklusive informationsfällor och sociala skador, som ligger i linje med artikeln om epistemisk loop och homogenisering.

Filosofiska och kognitiva resonemang

  • Brinkmann, S. (2023). AI hotar inte vår plats i världen, utan vår förmåga att existera i den. Altinget.
    Belyser det mänskliga ansvarstagandet i hur vi förstår och existerar i en AI-drivna värld.

Relaterade artiklar på Erigo.se

När AI skriver världen: Riskerna med att nästa generation modeller tränas på sin egen spegelbild

Följ Erigo på LinkedIn

En del av Sveriges infrastruktur för kompetensutveckling.
Följ oss på LinkedIn