Artikkel
Gjelder KI-loven også ChatGPT og Copilot?
Ja — kompetansekravet i artikkel 4 gjelder uavhengig av risikonivå. Det betyr at ChatGPT, Copilot, Gemini og andre lavrisiko-verktøy også er omfattet. Her er hva det betyr i praksis.
Gjelder KI-loven også ChatGPT og Copilot?
Kort svar: Ja. Kompetansekravet i KI-forordningen artikkel 4 gjelder uavhengig av risikonivå. Det betyr at virksomheter som bruker ChatGPT, Copilot, Gemini, Midjourney eller andre verktøy som normalt klassifiseres som lavrisiko, likevel har plikter under KI-loven.
Artikkel 4 skiller ikke på risikonivå
Mange antar at KI-forordningen bare gjelder høyrisiko-systemer. Det stemmer for de tyngste pliktene i artikkel 9 (risikostyring), artikkel 14 (menneskelig tilsyn) og artikkel 26 (idriftsetteres plikter). Men artikkel 4 om KI-kompetanse har et bredere virkeområde.
Vanebo (Lov & Data 2025 nr. 2 s. 24) er tydelig: «Ordlyden i forordningen tilsier at leverandører og alle brukere av KI-systemer, uavhengig av risikonivå, er omfattet av KI-kompetanse-plikten. Det er også nesten unisont antatt i juridisk teori at KI-systemer som normalt er uregulerte av KI-forordningen omfattes.»
Hva betyr det i praksis?
Det betyr at en virksomhet som bruker ChatGPT eller Copilot til daglige oppgaver — e-postskriving, møtenotater, tekstutkast, koding, analyse — har plikt til å sørge for at de ansatte som bruker disse verktøyene har tilstrekkelig KI-kompetanse.
I praksis innebærer det:
- Ansatte må forstå hva verktøyet gjør og ikke gjør
- Ansatte må kunne tolke og kvalitetssikre resultater
- Ansatte må vite hvilke data de kan og ikke kan mate inn
- Ansatte må kjenne organisasjonens retningslinjer for KI-bruk
EU-kommisjonen, sitert av Vanebo (s. 25–26), anbefaler at virksomheter spør seg: «Hva slags type KI brukes i vår organisasjon?» og «Hva trenger ansatte å vite når de håndterer et slikt KI-system?»
Men ikke alle plikter gjelder
Det er viktig å skille: Artikkel 4 (kompetanse) gjelder bredt. Men artikkel 26 (idriftsetteres plikter), artikkel 27 (FRIA) og artikkel 14 (menneskelig tilsyn) gjelder primært for høyrisiko-KI-systemer.
ChatGPT brukt til e-postskriving er neppe høyrisiko. Men ChatGPT brukt til å vurdere jobbsøkere, evaluere elever eller tildele offentlige tjenester kan falle inn under Annex III og utløse strengere krav.
Det avgjørende er ikke verktøyet i seg selv, men bruksformålet. Samme verktøy kan være lavrisiko i én kontekst og høyrisiko i en annen.
Må virksomheten kartlegge Copilot-bruk?
Ja — og det gjelder allerede i dag, uavhengig av KI-forordningen. GDPR artikkel 24, 30 og 32 krever at behandlingsansvarlig har egnede tiltak, protokoll over behandlingsaktiviteter og sikkerhetstiltak. Dere kan ikke oppfylle dette uten å vite at Copilot brukes, av hvem, og med hvilke data.
Digitaliseringsrundskrivet D-2025-2 sier at offentlige virksomheter «bør forberede seg på hvilken virkning ikrafttredelse av KI-forordningen i Norge har for virksomheten» (pkt. 1.3).
Rettskilder brukt i denne artikkelen
- Forordning (EU) 2024/1689 artikkel 4 (KI-kompetanse), Annex III (høyrisiko-bruksformål)
- GDPR artikkel 24, 30, 32
- Digitaliseringsrundskrivet D-2025-2 pkt. 1.3
- Vanebo, Ove André: Lov & Data 2025 nr. 2 s. 22–25 (LoD-2025-162-22)
Kilder: EU AI Act (EUR-Lex 2024/1689) · HK-dir Rapport nr. 04/2026 (CC-BY 4.0) · Regjeringen.no · Nkom.no