Tio markörer, sex mekanismer, sju tips för att skriva mänskligt igen

För några år sedan fick jag ett mejl som var uppenbart skrivet av en LLM. Det fick mig att fundera kring vilken kommunikation jag skulle återkoppla med. Om personen i fråga inte tar sig tiden att skriva själv, vad har jag för ansvar att svara genom att avsätta egen tid på det? Jag laddade upp det i min egen modell och svarade tillbaka. Så här ser mången kommunikation ut idag. Nu är det mer en norm, men vilken norm är det vi vill ha?

Det jag har märkt på senare tid är att jag börjat uppskatta det andra. Texter med stavfel. Meningar som tar en omväg. Formuleringar som är oslipade. Det som syns när någon faktiskt skrivit själv. Det är en estetik som tappar mot AI-text i ett LinkedIn-flöde, och det är den jag fastnar för.

I När sannolikheten tar ton beskrev jag mekanismen bakom: språkmodeller producerar text genom statistisk sannolikhet, och resultatet är en språklig monokultur. Den här texten är den praktiska följdfrågan, i tre delar. Först tio markörer du kan känna igen. Sedan sex mekanismer som förklarar varför markörerna ser ut som de gör. Och sist sju tips för att sålla bort det generiska i din egen text.

För att värna om sin egen ton är det värdefullt att bearbeta sin output och titta efter dessa AI-generiska kontexter. Listan kommer därför först. Den fungerar som en spegel mot din egen text. När du ser modellens spår i det du just skrev kan du välja om de ska stanna eller försvinna.


Tio markörer

1. Tankstrecket överallt

Em-strecket har blivit modellens favoritskiljetecken. Förut såg vi det i skönlitteratur och journalistik. Idag dyker det upp i en mötesinbjudan eller en kort uppdatering. Tecknet var ovanligt i vardaglig engelska också, det hörde hemma i bokprosa. Modellen lär sig av engelskspråkiga texter där tecknet är vanligare. Resultatet är en svensk text som rytmiskt är översatt, även när den är skriven på svenska.

2. Den banala negationen

Det är min starkaste signal. "Det handlar inte om X, utan om Y." "Det är inte att säga X, det är att säga Y." Konstruktionen ger en illusion av djup genom att avfärda en enklare tolkning som ingen läsare ändå hade. Texten påstår en motsättning som aldrig fanns. Använd negationen ibland och den arbetar. Använd den i varannan mening och den blir signatur, och dessutom innehållslös.

3. Vikten utan vikten

"Det är avgörande." "Det är viktigt att notera." "Värt att uppmärksamma." Modellen markerar att något är tungt utan att förklara varför. Den intensifierar för att låta omsorgsfull, inte för att förmedla mening. Om du stryker frasen och meningen blir lika stark, var den tom från början.

4. Den uppmuntrande inramningen

Bekräftande öppningar ("Det här är en bra fråga"), valideringar mitt i texten ("du har en poäng där"), och pepp i avslutningen ("lycka till med ditt nästa steg"). Modellen är tränad att vara hjälpsam, vilket producerar emotionell servering oavsett om läsaren behöver den. Det här hänger nära ihop med syntetisk trygghet: känslan av att bli sedd när ingen sett.

5. Den retoriska annonseringen

"Här är grejen." "Det är värt att stanna här ett ögonblick." "Tänk på det så här." Frasen markerar att något viktigt kommer, men gör inget arbete utöver det. I mänsklig text vävs övergångar in. I modellens text annonseras de.

6. Den trefaldiga uppställningen

Tre led, stigande tyngd, ofta med två avfärdade alternativ före det som ska bära. Listor med tre punkter. Argument i tre led. Exempel i tretal. Människor använder mönstret också. Modellen använder det nästan alltid. Om din egen text plötsligt strukturerar sig själv i grupper om tre, fråga vem som valde antalet.

7. Hedging som standard

"Ofta." "Kan." "Tenderar att." "I många fall." "I viss mån." Modellen är tränad att inte ta ställning, vilket producerar konstanta inskott av modalitet. Texten andas osäkerhet även när observationen är säker. Hedging är användbar när osäkerhet är reell, och blir manér när den är default.

8. Sammanfattningen som upprepar

"Sammanfattningsvis." "Det vi gått igenom är." "För att knyta ihop det." Modellen stänger med att repetera vad du just läst. I mänsklig text avslutas resonemang med en ny insikt, en öppen fråga, eller en konkret konsekvens. I modellens text avslutas det med en kopia.

9. Resemetaforen

"Navigera landskapet." "På din resa." "Väva in i vardagen." "Steg på vägen." Bilder från självhjälps- och affärsrådgivningsspråket dyker upp i texter som inte alls handlar om resor eller väv. De är högfrekventa i träningsdatan, vilket gör dem till modellens reflexbild för förändring och lärande.

10. Den jämna pulsen

Den svåraste markören att sätta fingret på, och samtidigt den mest avslöjande. Mänsklig text varierar meningslängd oregelbundet. En kort mening. En lång som bygger upp resonemang och tar läsaren genom flera led av tanke. En medellång igen. Modellen producerar en jämnare rytm. Meningarna är ungefär lika långa, ungefär lika tungt strukturerade. Texten andas i samma takt hela vägen.


Varför det är så här

Markörerna är symptom. För att förstå varför just dessa drag återkommer behöver vi titta på vad som faktiskt sker när en språkmodell producerar text. Sex underliggande mekanismer driver utfallet.

Den första är att hög sannolikhet vinner. Modellen väljer den mest sannolika nästa token givet kontexten. Ovanliga ord, oväntade konstruktioner och idiosynkratiska val har låg sannolikhet och plockas sällan. Resultatet är en glidande regression mot mitten i varje val. Det är därför AI-text känns välbekant. Den är, statistiskt sett, det vi har skrivit förr.

Den andra är RLHF-belöning för hjälpsamhet. Modellen är finjusterad genom mänsklig feedback mot ett mönster där svar ska kännas omsorgsfulla, utförliga och uppmuntrande. Det producerar systematiskt bekräftande inledningar, valideringar mitt i texten, och uppmuntrande avslut. Hjälpsamheten är inbyggd i belöningssignalen, vilket gör den svår att be modellen lämna ifrån sig.

Den tredje är jämn tyngd i alla led. Modellen behandlar varje punkt i en uppställning med ungefär lika mycket text. Människor vet att en av fem punkter är viktigast och ger den mer plats. Modellen ger alla samma omfång eftersom den inte värderar. Det är en av de tydligaste skillnaderna mellan en text som tänkts och en text som genererats.

Den fjärde är hedging by default. Träningen belönar svar som inte tar ställning på områden där det kan finnas oenighet. Eftersom modellen inte kan avgöra var den linjen går applicerar den hedging överallt. Det skyddar mot misstag och producerar samtidigt en text som låter osäker även när författaren är säker.

Den femte är strukturpaket. När en lista ska skapas plockar modellen färdiga retoriska former ur sin distribution: introduktion, tre eller fem punkter, sammanfattning, slutkläm. Strukturen kommer före innehållet, vilket är motsatsen till hur människor skriver. Vi formar struktur efter vad vi har att säga. Modellen formar innehåll efter vilken struktur som är vanligast.

Den sjätte är värdeladdning som default. Adjektiv som "viktig", "avgörande", "kritisk", "kraftfull", "fascinerande" är högfrekventa i positiv text och plockas reflexmässigt. De fungerar som social signal i träningsdatan, vilket modellen reproducerar utan att veta om signalen är förtjänt. Om allt är avgörande är inget avgörande.

För djupare läsning om hur språk genereras tekniskt, se Vad är sanning i LLM-eran. För hur träningsdatan formar svaren, se Bias i AI.


Sju tips för att sålla bort det generiska

Att höra modellen är första steget. Att skriva förbi den är nästa. Här är sju operativa tips.

1. Börja i din egen tanke. Skriv två eller tre meningar själv om vad du faktiskt tycker innan du öppnar modellen. Ge dem till modellen som premiss och be om utveckling. Modellens första utkast bär dina spår om du sätter premissen. Om du börjar med en blank prompt är det modellens default som bär texten.

2. Skriv din egen öppning. Modellens första mening är nästan alltid en bred orientering eller en bekräftelse. Byt ut den mot en konkret iakttagelse, en anekdot, eller en rak påståendesats. Det första intrycket sätter hela texten. En generisk öppning gör resten generisk i läsarens öra.

3. Stryk varje vikt-utan-vikt. Sök efter "det är avgörande", "viktigt att notera", "värt att uppmärksamma", "kraftfull", "genomgripande". Ta bort dem som inte följs av en konkret förklaring. Om något är avgörande ska texten visa det, inte påstå det.

4. Be modellen att inte hedga. Lägg in i prompten: "ta ställning, undvik 'ofta', 'kan', 'tenderar att', 'i många fall'." Modellens default är osäkerhet. Du behöver instruera bort den specifikt. Vag instruktion ger generisk text.

5. Bryt rytmen manuellt. Läs texten högt. Om alla meningar låter ungefär lika långa, skriv om hälften. Stryk en bisats. Lägg till en mening på fyra ord. Mänsklig text andas oregelbundet, och den enda korrigeringen är manuell. Modellen rättar inte sin egen rytm åt dig.

6. Stryk sammanfattningen. Om texten avslutas med "sammanfattningsvis" eller "för att knyta ihop det", ta bort hela det stycket. Läsaren har just läst texten. En bra avslutning lämnar något öppet, pekar framåt, eller landar i en konsekvens.

7. Be om en sista städningsrunda med specifika instruktioner. "Skriv om utan tankstreck. Stryk alla 'det handlar inte om X, utan om Y'-konstruktioner. Variera meningslängden. Ta bort uppmuntrande inramningar och avslutande pepp." Modellen klarar att rensa sin egen output, men du måste be specifikt. Generella instruktioner ("skriv mer mänskligt") ger generisk text tillbaka.


Det är så texten rensas. Det här är vad rensningen är till för. Vid bearbetningen kan du också tillföra din egen ton, ändra tonalitet, sätta din markör för vad du faktiskt ville säga. Tipsen är ett sätt att hitta tillbaka till sin egen röst i en text som modellen format ett första utkast av.

Det ena utesluter inte det andra. Språkmodeller har också gett fler människor möjlighet att uttrycka sig, att sätta ord på tankar som annars hade förblivit tysta. Den som tidigare kämpat med dyslexi, med ett andraspråk, med ovana vid skriftlig form, har idag verktyg som öppnar dörrar. Den frågan tog jag upp i När sannolikheten tar ton. Med AI i rummet finns många perspektiv. Låt oss bejaka vår egen ton.


Tillbaka till mejlet, och vidare

Många uppskattar optimeringen av tiden, och lägger kanske inte någon eftertanke i det. Det är med all rätt. Vi måste inte idag vara sändebud av vår egen tanke, när en LLM kan formulera det åt oss.

Men vårt eget språk och ton går förlorad i utbytet. Det är det vi ser idag, i artiklar, i LinkedIn-poster. Vi låter monotona, likadana, alla har ett sammanflätat språk som lyfter vad det inte är, framför vad det är. Vem bad om att vi skulle lyfta vad det inte är?

Det här är inte unikt för språket. Illustratörer såg det först, sedan musiker, och nu är det skribenter och rådgivare. Skillnaden är att språket är vävt in i allt vi gör, professionellt och privat. Du beställer inte en bild varje dag. Du skriver mejl varje dag. Det gör att språkets monokultur smyger sig in i fler vrår än bildgenereringen någonsin gjorde.

Det finns nog inget rätt eller fel i detta. Flera perspektiv spelar samman, flera sanningar finns sida vid sida, och diskussionen blir därför olika beroende på vilket rum en befinner sig i. Min förhoppning är att den kreativa delen, det som ger oss vår unika röst, får utrymme att stanna kvar i den snabba förändring vi står inför.

När språk produceras utan att någon bär konsekvenserna av det som sägs, vad är det vi förmedlar till varandra? Vad signerar vi, och vad signerar modellen? Det är temat i Språkhandlingar utan ansvar, och det förutsätter kognitiv integritet som ramverk.

Och en sista fråga att lämna kvar: när vi agerar copy paste till våra språkmodeller, vilka är det egentligen som kommunicerar med varandra, och varför?


Vidare läsning på Erigo