Målet med Europeiska unionens förordning om artificiell intelligens (AIA, Artificial Intelligence Act) är att främja en tillförlitlig användning av artificiell intelligens i Europa. Syftet med den är att säkerställa att AI-system som släpps ut på marknaden och tas i bruk inom EU inte äventyrar människors hälsa, säkerhet eller grundläggande rättigheter.
Därför ålägger den skyldigheter för leverantörer av AI-system och andra centrala operatörer såsom distributörer, importörer och tillhandahållare. Skyldigheterna varierar beroende på risknivån i AI-systemen.
Vem är operatör enligt förordningen om artificiell intelligens?
Med operatör avses en leverantör, en produkttillverkare, en tillhandahållare, ett ombud, en importör eller en distributör.
Med leverantör avses en fysisk eller juridisk person, en offentlig myndighet, en byrå eller ett annat organ som utvecklar ett AI-system eller en AI-modell för allmänna ändamål eller som har ett AI-system eller en AI-modell för allmänna ändamål och släpper ut det eller den på marknaden eller tar AI-systemet i bruk i eget namn eller under eget varumärke.
Med ombud avses en fysisk eller juridisk person som befinner sig eller är etablerad i unionen och som har fått och godtagit en skriftlig fullmakt från en leverantör av ett AI-system eller av en AI-modell för allmänna ändamål för att för dennes räkning fullgöra respektive genomföra de skyldigheter och förfaranden som fastställs i denna förordning.
Med importör avses en fysisk eller juridisk person som befinner sig eller är etablerad i unionen och som släpper ut ett AI-system på marknaden som bär namnet på eller varumärket för en fysisk eller juridisk person som är etablerad i ett tredjeland.
Med distributör avses en annan fysisk eller juridisk person i leveranskedjan än leverantören eller importören, som tillhandahåller ett AI-system på unionsmarknaden.
Med tillhandahållare avses en fysisk eller juridisk person, offentlig myndighet, en byrå eller annat organ som under eget överinseende använder ett AI-system, utom när AI-systemet används inom ramen för en personlig icke-yrkesmässig verksamhet.
Skyldigheter enligt AI-systemets risknivå
Förbjudna AI-användningsområden
Förbjuden praxis som anknyter till AI-system är praxis som anses strida mot EU:s värderingar och grundläggande rättigheter. Att erbjuda, använda eller släppa ut dessa AI-system på marknaden är helt förbjudet, såvida det inte finns någon särskild rättslig grund för detta. Även i mycket begränsade undantagsfall, såsom för att säkerställa den nationella säkerheten, kan det vara tillåtet att använda sådana system.
Förbjuden praxis i anslutning till artificiell intelligens är till exempel:
- Manipulerande eller vilseledande tekniker
- Tekniker som utnyttjar sårbarheter hos personer, väsentligt påverkar beteendet och orsakar betydande skada
- Social poängsättning i vissa användningsfall
- Prognostisering av brottslighet på grundval av profilering
- Skrapning av uppgifter från internet eller övervakningskameror i syfte att skapa databaser för ansiktsigenkänning
- Uttydande av känslor på arbetsplatser och i utbildningsmiljöer
- Biometrisk kategorisering av personer för att härleda ras, politisk åsikt, medlemskap i fackförbund, religiösa eller politiska övertygelser, sexualliv eller sexuell läggning
AI-system med hög risk
Ett AI-system med hög risk är ett sådant system där AI-system används som en säkerhetskomponent i vissa produkter som definieras i förordningen om artificiell intelligens, såsom hissar, radioutrustning eller motorfordon, eller där AI-systemet i sig är en produkt som definieras i förordningen om artificiell intelligens. Dessutom omfattar klassificeringen av ett AI-system med hög risk att produkten kontrolleras av en tredje part innan den kan säljas eller tas i bruk inom EU.
Även AI-system som används för vissa särskilda ändamål som definieras i förordningen, såsom rekrytering och hantering av kritisk digital infrastruktur, är i regel högrisksystem.
När ett system uppfyller kriterierna för ett AI-system med hög risk, ska det uppfylla kraven i förordningen innan det används eller släpps ut på marknaden. AI-system med hög risk är till exempel kritiska digitala infrastrukturer som utnyttjar artificiell intelligens, system i anslutning till utbildning, arbete, sociala tjänster eller rättsliga beslut där AI-systemet utnyttjas eller används som en säkerhetskomponent.
Även om ett AI-system inte klassificeras som ett högrisksystem måste det ändå uppfylla de övriga kraven och skyldigheterna i förordningen om artificiell intelligens, såsom transparensskyldigheterna. De olika operatörernas skyldigheter bestäms enligt typ av operatör.
AI-modeller för allmänna ändamål (GPAI)
AI-modeller för allmänna ändamål är modeller för artificiell intelligens som kan användas för många olika ändamål. Exempel på sådana AI-modeller för allmänna ändamål är stora språkmodeller, såsom ChatGPT och Microsoft Copilot. Vissa AI-modeller har klassificerats som modeller med systemrisk. Detta gäller modeller vars påverkan är mycket omfattande och som har tränats med mycket stor beräkningsmängd.
Vissa krav gäller även för modeller för allmänna ändamål (t.ex. stora språkmodeller), även om de inte direkt hör till klassen med hög risk och därmed inte är klassificerade som AI-system med hög risk. Å andra sidan kan en AI-modell för allmänna ändamål också klassificeras som ett AI-system med hög risk. I sådana fall omfattas också dess leverantör av samma krav som gäller för AI-system med hög risk.
För AI-modeller som tillhandahålls med avgiftsfria licenser med öppen källkod tillämpas kraven i förordningen om artificiell intelligens i mer begränsad omfattning, till exempel vad gäller skyldigheten att utarbeta teknisk dokumentation.