Go to main content

Vi använder endast nödvändiga cookies

Erigo använder absolut nödvändiga cookies för att säkerställa att vår webbplats fungerar smidigt och säkert.

Vi använder inte tredjepartscookies, marknadsföringscookies eller spårningscookies, och vi delar inte heller dina uppgifter.

Eftersom vi inte profilerar dig finns det inget att acceptera, bara njut av ditt besök.

Läs vår cookiepolicy

Vårt förhållningssätt

AI-filosofi

Hur vi tänker kring artificiell intelligens, varför vi bygger som vi gör och vad vi anser att ansvarsfull AI inom lärande bör innebära.

AI förändrar hur vi lär oss, arbetar och tänker. På Erigo ser vi denna förändring som en möjlighet att bygga system som genuint stödjer mänsklig utveckling. Vi ser också risker som förtjänar seriös uppmärksamhet.

Vår filosofi utgår från en enkel princip: AI ska stärka mänsklig förmåga, aldrig ersätta den. Varje funktion vi bygger, varje algoritm vi driftsätter, utvärderas mot denna princip.

Kognitiv integritet är viktigt

Vi tror på att skydda den mänskliga förmågan till självständigt tänkande, kritiskt resonemang och autentiskt lärande. AI ska förstärka dessa förmågor, inte urholka dem.

Transparens först
När AI är involverat säger vi det. Användare vet alltid när de interagerar med automatiserade system och vilken data som påverkar resultatet.
Människan i loopen
AI assisterar, människor beslutar. Kritiska bedömningar, intyg och lärandevägar involverar alltid mänskligt omdöme. Automatisering hanterar det rutinmässiga så att människor kan fokusera på det som betyder något.
Ingen manipulation
Vi avvisar mörka mönster, beroendeskapande mekanismer och uppmärksamhetsfångande tekniker. Vår AI är utformad för att tjäna den lärandes mål, inte för att maximera engagemangsmått.
Dataminimalism
Vi samlar bara in det som är nödvändigt. Personuppgifter stannar inom EU, krypterade i vila och under överföring. Vi säljer aldrig användardata eller använder den för ändamål utanför plattformen.
Förklarbara resultat
När vår AI ger rekommendationer eller bedömningar kan användare förstå varför. Inga svarta lådor där tydlighet behövs.
Kontinuerlig granskning
AI-system glider. Vi övervakar bias, träffsäkerhet och oavsiktliga effekter. När något inte fungerar som avsett åtgärdar vi det eller tar bort det.

Hur vi tänker kring AI-risker

Tre begrepp vägleder vår bedömning av AI:s påverkan på lärande och kognition.

Kognitiv integritet
Bevarandet av mänsklig förmåga till självständigt tänkande, kritisk analys och autentiskt beslutsfattande i närvaro av AI-system.
Dopaminlogik
Designmönster som utnyttjar neurologiska belöningssystem för engagemang snarare än genuint värde. Vi undviker aktivt dessa i våra produkter.
Syntetisk säkerhet
Försäkran om att AI-genererat innehåll och interaktioner tydligt identifieras och begränsas av etiska ramar.

Vad vi vägrar bygga

Vissa tillämpningar av AI har ingen plats i lärandemiljöer. Vi drar tydliga gränser.

Övervakningsbaserad bedömning
Vi använder inte AI för att övervaka tangenttryckningar, ögonrörelser eller beteendemönster för att dra slutsatser om engagemang eller fusk. Förtroende och integritet kommer först.
Känsloigenkänning
Att dra slutsatser om känslotillstånd utifrån ansiktsuttryck eller röst är opålitligt och integritetskränkande. Vi gör det inte.
Prediktiv poängsättning av potential
AI bör bedöma visad kompetens, inte förutsäga framtida förmåga baserat på demografi eller beteende.
Engagemangsmaximering
Vårt framgångsmått är läranderesultat, inte tid på plattformen. Vi optimerar inte för beroende.

Möt ELSA

Vår AI-lärandeassistent, byggd för att förkroppsliga dessa principer.

ELSA är vår AI-lärandeassistent, byggd för att förkroppsliga principerna på denna sida. Hon hjälper lärande att navigera innehåll, besvarar frågor och ger feedback på uppgifter.

Tydligt identifierad
ELSA presenterar sig alltid som en AI-assistent.
Förklarar resonemang
Hon ger förklaringar till sina förslag och erkänner när hon är osäker.
Uppmuntrar självständighet
ELSA uppmanar lärande att tänka kritiskt och utforska ämnen på egen hand.
Lämnar över till människor
När komplext omdöme behövs hänvisar ELSA lärande till mänskliga instruktörer.
Ingen datalagring
ELSA behåller inte personuppgifter efter sessionen.

Vårt åtagande

Vi uppfyller kraven i EU:s AI-förordning och går längre. Det här är inte bara regulatoriska kryssrutor. De speglar vad vi anser att ansvarsfull AI-utveckling innebär.

Förenlig med EU:s AI-förordning
Vi följer alla relevanta regelverk och säkerställer att våra AI-system uppfyller strikta säkerhets- och transparenskrav.
Transparent AI-märkning
Användare informeras alltid när de interagerar med AI, tillsammans med tydlig information om dess kapacitet och begränsningar.
Regelbundna biasgranskningar
Vi genomför löpande granskningar för att identifiera och minska bias i våra AI-system och säkerställa rättvis och jämlik behandling för alla användare.
Data stannar inom EU
All användardata lagras och bearbetas inom Europeiska unionen, i enlighet med GDPR och med prioritering av användarnas integritet.

Försäkran om överensstämmelse

Vi har utfärdat en frivillig försäkran om överensstämmelse för våra AI-moduler i enlighet med EU:s förordning om artificiell intelligens.

Försäkran beskriver hur vi arbetar med teknisk dokumentation, riskklassificering och transparens.

Fullständig teknisk dokumentation finns tillgänglig på begäran för offentliga myndigheter, tillsynsorgan och kunder.

Håll dig uppdaterad

Få nyheter, artiklar och inspiration direkt i din inkorg.