Lagen om artificiell intelligens (AI-lagen) är EU:s första övergripande lagstiftning för AI, som fastställer hur AI får utvecklas, släppas ut på marknaden och användas. Den omfattar leverantörer, importörer, distributörer och användare, oavsett om deras AI-system används inom EU eller bara ger resultat som påverkar människor där. Målet är att minska riskerna för hälsa, säkerhet och grundläggande rättigheter samtidigt som man håller dörren öppen för pålitlig innovation.
En viktig skillnad jämfört med de flesta regelverk för regelefterlevnad är att AI-lagen inte i första hand handlar om risker för din organisation. Den reglerar de risker som AI-system medför för enskilda personer, grupper och samhället i stort. Ett rekryteringsverktyg som diskriminerar, en kreditmodell som utestänger på ett orättvist sätt, en chattbot som vilseleder: det är dessa skador som lagen riktar in sig på. Detta utåtriktade riskperspektiv präglar allt från klassificering till tillsyn.
Lagen bygger på en riskbaserad strategi: ju större skaderisk, desto strängare kontroller. Vissa former av AI-användning är helt förbjudna, medan högrisk-system endast tillåts under strikta styrnings- och tekniska krav. För användningsområden med lägre risk är kraven mindre omfattande och innebär endast grundläggande skyldigheter avseende öppenhet, snarare än fullständiga efterlevnadssystem.
Olika risknivåer
System med hög risk omfattar sådana som används inom känsliga områden som brottsbekämpning, arbetsmarknaden och kritisk infrastruktur. Dessa system måste uppfylla omfattande krav som rör riskhantering, mänsklig övervakning, datastyrning och teknisk robusthet.
System med begränsad risk omfattar chattbottar, bild- eller textgeneratorer samt enkla rekommendationssystem. För dessa gäller endast krav på öppenhet, vilket i huvudsak innebär att det måste framgå att användarna interagerar med AI.
System med minimal risk, såsom skräppostfilter, omfattas inte alls av lagen, även om frivilliga uppförandekoder uppmuntras.
Eftersom lagen bygger vidare på befintlig EU-lagstiftning snarare än att ersätta den, har organisationer som redan arbetar med GDPR, produktsäkerhetsregler eller ramverk för konsumentskydd ett försprång. En stor del av den styrning som krävs kan byggas vidare på det som redan finns på plats, även om kraven på dokumentation och ansvarsskyldighet skärps under hela AI-livscykeln.
Gratis bedömning av efterlevnaden: Kontrollera din efterlevnadsstatus enligt AI-lagen
Vad AI-lagen kräver
Lagen är uppbyggd kring risknivåer, rollbaserade skyldigheter och kontroller under hela livscykeln. Den inför även särskilda regler för AI-modeller för allmänt bruk samt riktade öppenhetskrav för vardagliga AI-interaktioner. Dessa mål omsätts i konkreta verktyg: förbud och kontroller av högriskområden skyddar de grundläggande rättigheterna, CE-märkning och harmoniserade standarder skapar rättssäkerhet, och regleringssandlådor tillsammans med uppförandekoder främjar innovation.
Det är värt att notera att lagens definition av ett AI-system är medvetet teknikneutral. Den omfattar all programvara som utifrån indata drar slutsatser och genererar utdata i form av prognoser, rekommendationer eller beslut, oavsett om den bygger på maskininlärning, logikbaserade metoder eller statistiska tillvägagångssätt. Många verktyg som teamen för närvarande inte betecknar som AI kan ändå omfattas av definitionen, vilket gör en grundlig inventering till ett viktigt första steg.
Leverantörer, implementerare och värdekedjan
AI-lagen fördelar skyldigheter utifrån var man befinner sig i värdekedjan; den viktigaste distinktionen görs mellan leverantörer av högrisk-AI och användare av högrisk-AI-system. Leverantörer är de organisationer som utvecklar ett AI-system eller släpper ut det på marknaden i eget namn. De bär den tyngsta regleringsbördan: teknisk dokumentation, riskhantering, kvalitetsledning, bedömning av överensstämmelse, CE-märkning och övervakning efter marknadsintroduktion åligger alla leverantören.
Användare är de organisationer som använder ett AI-system i sin egen verksamhet. Deras skyldigheter är mindre omfattande men ändå betydande, särskilt när det gäller högrisk-AI-system. Användare av högrisk-AI måste säkerställa mänsklig övervakning, använda systemet i enlighet med leverantörens anvisningar och övervaka risker i sitt specifika sammanhang. De är också skyldiga att genomföra en konsekvensbedömning avseende grundläggande rättigheter innan de tar ett högrisk-system i bruk, vilken definierar de potentiella effekter som användningen av AI-systemet kan ha på individer, grupper och samhället. Importörer och distributörer har sina egna skyldigheter kring verifiering och spårbarhet, men för de flesta läsare är det distinktionen mellan leverantör och användare som är viktig.
Att förstå vilken roll man har i varje AI-system är utgångspunkten för att uppfylla kraven. En organisation kan vara leverantör till ett system och användare av ett annat, och skyldigheterna skiljer sig väsentligt åt.
Riskbaserade nivåer och förbjudna metoder
I lagen definieras fyra risknivåer: förbjudna metoder, högrisk-system, användning med begränsad risk (öppenhet) och användning med minimal risk. Den administrativa bördan ökar i direkt proportion till riskklassificeringen.
System med hög risk kräver ett omfattande program för regelefterlevnad som täcker hela livscykeln.
System med begränsad risk kräver endast åtgärder för informationsgivning och öppenhet.
System med minimal risk omfattas inte av några särskilda skyldigheter, men frivilliga uppförandekoder uppmuntras.
Det innebär att det är lika viktigt att fastställa risknivån för varje system som att fastställa din roll, eftersom dessa två faktorer tillsammans avgör hur mycket arbete som krävs för att uppfylla kraven.
De förbjudna metoderna är få men strikta. De omfattar:
- AI som påverkar beteendet på ett sätt som kan orsaka allvarlig skada
- Sociala betygsättningar från myndigheter som leder till orättvis eller skadlig behandling
- Biometrisk identifiering i realtid på distans i offentliga utrymmen, begränsad till noggrant definierade undantag för brottsbekämpning
- Flera tillämpningar av biometrisk klassificering som avslöjar känsliga egenskaper
Klassificering som högriskföretag och skyldigheter
Lagens centrala del handlar om regleringen av AI-system med hög risk, och lagen delar in dessa användningsområden i två grupper. Den första gruppen omfattar AI som används som säkerhetskomponent i EU-reglerade produkter, såsom medicintekniska produkter, maskiner och fordon. Den andra gruppen omfattar fristående AI som används vid känsliga beslut, bland annat när det gäller tillgång till utbildning, rekrytering och personalhantering, kreditbedömning, samhällsviktiga tjänster, brottsbekämpning, migration och rättsväsendet.
Regelverksbördan för högrisk-system är betydande. Leverantörerna måste:
- Använda ett riskhanteringssystem
- Införa ett kvalitetsledningssystem
- Införa datastyrning för datamängder avsedda för träning, validering och testning
- Säkerställa dokumentation, loggning, noggrannhet, stabilitet, cybersäkerhet och mänsklig övervakning
- Driva ett system för övervakning efter marknadsintroduktion och rapportering av incidenter
De som inför högrisk-system har färre, men ändå betydande skyldigheter. De måste använda systemet enligt leverantörens anvisningar, säkerställa mänsklig övervakning, bevaka kontextspecifika risker och genomföra en konsekvensbedömning avseende de grundläggande rättigheterna innan systemet tas i bruk.
Öppenhet i vardagliga interaktioner med AI
Även AI-användning som inte faller inom högriskkategorin kan kräva skyddsåtgärder. Lagen föreskriver tydlig information när människor interagerar med AI, till exempel chattbottar, och kräver märkning av syntetiska eller manipulerade medier som kan misstas för äkta. Tillsammans minskar dessa åtgärder risken för vilseledning och hjälper användarna att bedöma hur mycket de kan lita på innehållet.
I praktiken måste leverantörer och implementerare anpassa gränssnitt, innehållsflöden och användarinformation därefter. Personal måste förstå när information om AI-interaktioner och märkning av syntetiskt innehåll ska användas, särskilt när dessa uppgifter överlappar plattformspolicyer, marknadsföringsprocesser och extern kommunikation.
Allmänna AI-modeller och systemrisk
Allmänna AI-modeller har funktionalitet som spänner över flera områden, vilket innebär att leverantörerna måste upprätthålla teknisk dokumentation, offentliggöra information om funktioner och begränsningar samt förse slutanvändarna med de riskrelevanta uppgifter de behöver. Skyddsåtgärder för upphovsrätt och sammanfattningar av träningsdata ingår i denna skyldighet att säkerställa öppenhet.
Modeller som klassificeras som högriskmodeller ställs inför strängare krav på grund av den systemrisk de kan medföra, bland annat modellutvärderingar, adversarial testing, cybersäkerhetskontroller, incidentrapportering samt insyn i resursanvändningen, inklusive databehandlings- och energiförbrukning. Leverantörer av dessa modeller måste samarbeta med tillsynsmyndigheter och stödja utvecklingen av harmoniserade standarder och riktlinjer.
Förmedlare som finjusterar eller ompaketerar allmänna modeller övertar dokumentationsskyldigheterna från den ursprungliga leverantören, medan användare längre ner i kedjan måste göra en egen bedömning av sina användningsfall och uppfylla de skyldigheter avseende högrisk eller öppenhet som gäller i det aktuella sammanhanget.
Bedömning av överensstämmelse och CE-märkning
Innan ett högrisk-system får släppas ut på marknaden eller tas i bruk måste det genomgå en bedömning av överensstämmelse. Vissa bedömningar bygger på intern kontroll som stöds av teknisk dokumentation, medan andra kräver granskning av ett anmält organ. När ett system har befunnits överensstämma med kraven ska leverantören anbringa CE-märkningen och registrera det i EU:s AI-databas.
Lagen möjliggör även harmoniserade standarder och gemensamma specifikationer, vilka erbjuder praktiska sätt att visa att produkterna förmodas uppfylla kraven. Leverantörerna måste upprätthålla omfattande tekniska dokumentationer och se till att dessa hålls uppdaterade genom olika versioner och omskolningscykler.
Styrning, tillsyn och påföljder
Varje medlemsstat ska utse en nationell tillsynsmyndighet, och anmälda organ samt marknadsövervakningsmyndigheter ska övervaka högrisk-system som omfattas av produktreglerna. På EU-nivå ska en samordningsstruktur styra utarbetandet av standarder, utfärda riktlinjer och hantera gränsöverskridande ärenden.
Påföljderna vid bristande efterlevnad är betydande. Användning av förbjudna metoder eller överträdelse av centrala krav kan leda till böter på upp till det högre av ett fast belopp eller en procentandel av den globala årsomsättningen. Lagen anpassar dessa tak efter organisationens storlek och överträdelsens allvar. Att föra korrekta register och omedelbart rapportera incidenter kan avsevärt minska risken för påföljder.
Så här tillämpar du AI-lagen i din organisation
Det fungerar bäst att genomföra projektet i praktiken om det kopplas till befintliga styrningsstrukturer, och små team kan dela upp arbetet så att det följer tidsplanen för den stegvisa implementeringen, istället för att försöka ta itu med allt på en gång.
De två frågorna som avgör allt annat är: vilken roll har du för varje AI-system (leverantör eller användare), och vilken riskklass har systemet? Börja med att göra en inventering av AI-system och funktioner inom hela organisationen, och koppla sedan varje system till en roll och en risknivå. En användare som använder en chatbot med begränsad risk har informationsskyldigheter. En användare som använder ett rekryteringsverktyg med hög risk behöver rutiner för mänsklig övervakning och en konsekvensbedömning avseende grundläggande rättigheter. En leverantör av samma verktyg måste följa hela efterlevnadsprogrammet. Att få denna kartläggning rätt från början förhindrar både överdimensionering och farliga luckor.
Utgå därifrån och genomför strukturerade riskbedömningar för högriskprodukter som omfattar säkerhet, partiskhet, robusthet, datahärkomst och påverkan på rättigheter. Inrätta ett kvalitetsledningssystem, uppdatera upphandlingsavtal så att de omfattar skyldigheterna enligt AI-lagen och samordna befintliga konsekvensbedömningar avseende personuppgifter (DPIA) eller säkerhetstester med AI-riskbedömningarna för att undvika dubbelarbete. Efterlevnaden upphör inte vid lanseringen: modeller förändras och sammanhangen skiftar, så övervakning efter marknadsintroduktionen och regelbundna omprövningar måste ingå i den löpande verksamheten.
För säkerhetsteam kommer mycket av detta att kännas bekant. Hotmodellering kan utvidgas till att omfatta risker kopplade till fientlig maskininlärning, säker utveckling kan innefatta datahärkomst och utvärderingsprotokoll, och incidenthantering kan breddas till att omfatta AI-specifika händelser och anmälningar till tillsynsmyndigheter. För ansvariga för regelefterlevnad finns det en konkret möjlighet till samordning: datastyrning enligt GDPR passar naturligt ihop med kontroller av AI-datauppsättningar, och en enda väl utformad kontroll kan ge underlag för flera regelverk.
Cyberday hjälpa dig att samla din AI-inventering på ett ställe, koppla kontrollåtgärder till AI-lagen och anpassa dem till ISO 27001, NIS2 och GDPR. Kontrollpanelerna visar kontrolltäckningen över olika regelverk, håller koll på leverantörers status och incidenter samt tillhandahåller exportfiler som är redo för revision, så att du kan fokusera dina insatser där riskerna är som störst.
Kom igång med Cyberday
Cyberday team att implementera AI-lagen tillsammans med ISO 27001, NIS2 och GDPR. Ni kan upprätthålla en förteckning över AI-tillgångar, koppla skyldigheter till kontrollåtgärder och samla in dokumentation en gång för flera regelverk. Översiktspaneler visar efterlevnad, leverantörsstatus och incidenter så att ni kan rikta in er på de områden där risken är som störst.
Kontrollera din status enligt AI-lagen nu: Bedömning enligt AI-lagen


















