🍪 Vi använder endast nödvändiga cookies för optimal upplevelse.

Erigo använder endast nödvändiga cookies för att säkerställa att vår webbplats fungerar optimalt. Vår chattfunktionalitet som är en tredjepartstjänst inom EU sätter en cookie enbart för att tjänsten ska fungera och ingen personlig information sparas.

Vi använder inte andra tredjeparts- marknadsföringscookies eller cookies som delar din data med andra.

Därför finns det inga cookieinställningnar att godkänna eftersom vi inte profilerar dig.

Gå till innehållet

Systemrisk och säkerhet i GPAI

Vad AI-leverantörer behöver förhålla sig till

EU:s AI-förordning kräver att leverantörer av GPAI-modeller analyserar och hanterar risker kopplade till användning i stor skala. GPAI Code of Practice ger vägledning i hur detta kan ske, särskilt vid systemrisk.

Denna artikel förklarar vad det innebär i praktiken.

Vad är systemrisk i AI?

Enligt AI-förordningen (AI Act) uppstår systemrisk (systemic risk) när en GPAI-modell kan påverka samhället på bred nivå genom:

  • Utbredd användning i flera sektorer
  • Möjlighet att förstärka desinformation eller bias
  • Oförutsedda effekter som sprider sig snabbt

Systemrisk behöver inte vara avsiktlig. Det handlar om spridningspotential och kapacitet att forma beteenden, processer eller beslutsunderlag i stor skala.

Säkerhetskrav enligt GPAI-koden

Koden beskriver fyra nyckelområden för säkerhet:

1. Riskmodellering

Leverantörer bör genomföra systematisk analys av:

  • Sannolika felutfall och deras konsekvenser
  • Sårbarheter vid olika typer av användning
  • Interaktion med andra tekniska system

2. Red-teaming

Red-teaming innebär att modellen testas av interna eller externa team som försöker:

  • Identifiera oönskade utfall (t.ex. felaktiga rekommendationer, skadligt innehåll)
  • Provocera fram gränssituationer
  • Dokumentera riskbeteenden

Resultaten används för att kalibrera, justera och begränsa modellen.

3. Adversarial testing

I denna typ av testning exponeras modellen för:

  • Medvetet manipulerade inputs
  • Försök till prompt injection eller jailbreak
  • Scenarier där modellen kan kringgå säkerhetsfilter

Adversarial testing dokumenteras och följs upp som del av modellens utvecklingscykel.

4. Preventiva skyddsåtgärder

Koden rekommenderar att säkerhetsåtgärder integreras i:

  • Modellarkitekturen (ex. inbyggda spärrar)
  • Inferensgränssnitt (ex. promptfilter, begränsningar i API)
  • Versionshantering (dokumentation av förändringar, rollback-rutiner)

Tillämpning vid GPAI-modeller med hög spridningsgrad

Modeller med många användningsområden, till exempel foundation models som används i arbetsflöden, beslutsstöd eller utbildning, behöver särskild uppföljning.

Exempel på tillämpningar med potentiell systemrisk:

  • Automatiserad textgenerering i nyhetsflöden
  • Generativ kod i kritisk mjukvara
  • AI-assistenter i myndighetskontakter

I dessa fall behöver leverantörer dokumentera hur riskerna kartlagts och vilka åtgärder som vidtagits.

Ansvarsfördelning

För att säkerhetsarbetet ska vara systematiskt bör ansvar fördelas mellan:

  • Utvecklingsteam: design av riskhanteringsmetoder och verktyg
  • Produktägare: beslut om säkerhetsnivåer och externa granskningar
  • Ledning: etablering av styrning, etikpolicy och process för ansvarsfördelning

Relevans vid offentlig upphandling

GPAI-modeller som används i offentlig sektor behöver visa att de genomgått strukturerad säkerhetsanalys. Red-teaming och dokumentation av hantering av oönskade utfall kan bli centrala krav i framtida upphandlingar eller certifieringssystem.

Sammanfattning

Systemrisk i AI handlar inte om fel i sig, utan om skalbarhet och genomslag. GPAI Code of Practice rekommenderar att leverantörer etablerar:

  • Riskmodellering
  • Red-teaming
  • Adversarial testing
  • Inbyggda skyddsåtgärder

…och dokumenterar detta för att kunna visa efterlevnad av AI-förordningens säkerhetskrav.


Nyckelbegrepp för vidare läsning:

  • Systemic risk in AI
  • AI red-teaming best practices
  • GPAI safety documentation
  • Adversarial testing foundation models
  • AI security compliance EU
  • Responsible AI deployment
  • AI Act risk assessment

Relaterade artiklar i klustret

Denna artikel är en del av ett innehållskluster om GPAI och AI-förordningen. Läs även:

Frågor om systemrisk och AI-säkerhet

Frågor och svar om riskmodellering, red-teaming och styrning

Vad innebär systemrisk enligt AI-förordningen och hur ska leverantörer av GPAI hantera säkerhetsfrågor? Här besvaras vanliga frågor om GPAI Code of Practice och riskhantering.

Vad är systemrisk i generativa AI-modeller?

Systemrisk uppstår när en AI-modell har potential att påverka flera sektorer samtidigt, förstärka desinformation eller orsaka oavsiktliga skador i stor skala.

Hur hanterar man systemrisk enligt GPAI-koden?

GPAI-leverantörer bör genomföra riskmodellering, red-teaming, adversarial testing och dokumentera vilka skyddsåtgärder som finns i modellen och dess gränssnitt.

Vad är red-teaming i AI-sammanhang?

Red-teaming innebär att en modell testas av oberoende interna eller externa team som försöker provocera fram felbeteenden, sårbarheter eller oönskade resultat.

Vad är adversarial testing?

En testmetod där modellen utsätts för manipulerade inputs eller promptförsök som kan kringgå filter, för att identifiera svagheter i säkerhetslogiken.

Måste alla GPAI-modeller genomgå dessa tester?

Det rekommenderas särskilt för modeller som används brett eller i offentliga tillämpningar. AI-förordningen pekar ut detta som en central del av ansvarsfull AI-utveckling.

em ansvarar för riskhantering i AI-projekt?

Ansvar bör delas:

  • Teknikteam utvecklar testmetoder

  • Produktägare fastställer säkerhetsnivåer

  • Ledning ansvarar för policy, styrning och godkännande

Är kraven bindande idag?

Inte ännu. GPAI Code of Practice är en frivillig vägledning, men ses som grund för framtida tillsyn och upphandlingskrav inom EU.

Följ Erigo på LinkedIn

En del av Sveriges infrastruktur för kompetensutveckling.
Följ oss på LinkedIn