EUs AI-forordning og samtykke til informasjonskapsler i 2026: Hvordan profilering, anbefalingssystemer og målrettet annonsering passer inn i den nye reguleringsstrukturen

EUs AI Act (forordning 2024/1689) trådte i kraft i august 2024, med bestemmelsene innfaset over en flerårig utrulling. Reglene om forbudte praksiser trådte i kraft i februar 2025, forpliktelsene for generell AI i august 2025, og hoveddelen av forpliktelsene for høyrisikosystemer trer i kraft i løpet av 2026 og inn i 2027. Ved inngangen til 2026 er AI Act ikke lenger en fremtidig bekymring — det er en operativ forordning som legger seg oppå GDPR for ethvert system som bruker AI til å profilere, score eller rangere EU-brukere. For utgivere som kjører anbefalingssystemer, annonsører som kjører personaliseringsmotorer og ad-tech-leverandører som kjører automatisert publikumsscoring, legger AI Act til en ny samsvarsdimensjon som GDPR alene aldri dekket: ikke bare om brukeren samtykket til databehandlingen, men om selve AI-systemet oppfyller kravene i forordningen til design, åpenhet, tilsyn og ansvarlighet. Denne guiden går gjennom strukturen i AI Act, hvordan den samvirker med samtykke til informasjonskapsler og GDPR-profileringsregler, hva 2026-forpliktelsene faktisk krever, og hvordan utgivere og annonsører bør tenke på den kombinerte GDPR-pluss-AI-Act-samsvarsflaten.

Strukturen i AI Act i 2026

AI Act er verdens første helhetlige horisontale regulering av kunstig intelligens. Dens risikobaserte arkitektur er nøkkelen til å forstå hvilke forpliktelser som gjelder for hvilke systemer.

Risikonivåene

Forordningen deler AI-systemer inn i fire nivåer basert på risikoen de utgjør:

Hvor annonsering og anbefalingssystemer plasseres

Mesteparten av AI rettet mot annonsering — publikumsscoring, optimalisering av programmatisk budgivning, innholdsanbefalere, personaliseringsmotorer — ligger i nivået med begrenset risiko snarere enn i høyrisikonivået. Dette høres ut som en lettelse, men nivået med begrenset risiko medfører fortsatt betydelige åpenhetsforpliktelser, og flere grensetilfeller skyver spesifikke systemer opp i høyere nivåer. Kritisk nok kan reglene om forbudte praksiser nå annonseringssystemer hvis de krysser over i manipulasjons- eller utnyttelsesterritorium, og EDPB har signalisert vilje til å tolke disse bestemmelsene bredt.

Innfasingen

2026-kalenderen betyr noe: høyrisikoforpliktelsene for nye systemer trer i kraft i august 2026, høyrisikoforpliktelsene for systemer som allerede er på markedet trer i kraft i 2027, og forpliktelsene for leverandører av generell AI er allerede i kraft. Utgivere og annonsører bør kartlegge sitt AI-inventar mot denne kalenderen for å vite hvilke forpliktelser som gjelder når.

Hvordan AI Act legger seg oppå GDPR

AI Act erstatter ikke GDPR. Den legger seg oppå den. Et system som behandler personopplysninger for å produsere AI-drevne utdata må oppfylle begge regimer, og forpliktelsene er additive snarere enn alternative.

GDPR-laget

GDPR fortsetter å regulere lovligheten av behandling av personopplysninger. Samtykke for annonseprofilering, rettslig grunnlag for måling, klyngen av den registrertes rettigheter, forpliktelsene ved overføringer over landegrensene — alt dette fortsetter å gjelde uendret.

AI Act-laget

På toppen av GDPR legger AI Act til forpliktelser spesifikt om selve AI-systemet: hvordan det ble trent, hvilke data som gikk inn i treningen, hvordan utdataene er dokumentert, hvilke tilsynsmekanismer som eksisterer, hvilken åpenhet brukeren mottar. Disse forpliktelsene fester seg til AI-systemet uavhengig av om den underliggende databehandlingen er samtykkebasert, kontraktsbasert eller har et annet rettslig grunnlag.

Den praktiske implikasjonen

En utgiver som kjører en innholdsanbefaler på personopplysninger trenger både et gyldig rettslig grunnlag etter GDPR for databehandlingen og en samsvarlig åpenhetsopplysning under AI Act. Ingen av delene alene er tilstrekkelig. Samsvarsflaten er nå genuint todimensjonal, og dokumentasjonskjeden må dekke begge aksene.

Forbudte praksiser og annonsering

Forordningens liste over forbudte praksiser er kort, men viktig, og flere punkter har implikasjoner for annonsedesign.

Manipulative teknikker

Forordningen forbyr AI-systemer som bruker underbevisste teknikker, manipulative praksiser eller utnytter sårbarheter til spesifikke grupper på måter som sannsynligvis vil forårsake betydelig skade. De fleste annonsedesign nærmer seg ikke denne grensen — men annonsering som retter seg mot identifiserte sårbarheter (økonomiske vansker, psykisk helsetilstand, avhengighetsmønstre) ved hjelp av AI-drevet profilering kan krysse den. EDPB har flagget dette i tidlig veiledning.

Biometrisk kategorisering

Forordningen forbyr biometrisk kategorisering som utleder sensitive egenskaper som rase, politisk oppfatning, fagforeningsmedlemskap, religiøs tro, seksualliv eller seksuell orientering. Publikumssegmenter bygget fra biometriske data som utleder disse egenskapene er nå i forbudt territorium.

Emosjonsgjenkjenning i spesifikke kontekster

Emosjonsgjenkjenning er forbudt i arbeidsplass- og utdanningskontekster. Bruksområder for emosjonsdeteksjon i annonsering utenfor disse kontekstene kan fortsatt være tillatt, men møter skjerpet granskning.

Åpenhetsforpliktelser for begrenset risiko

Det er her hoveddelen av samsvarsarbeidet for utgivere og annonsører under AI Act ligger i 2026.

Opplysningen om anbefalingssystem

Innholdsanbefalere som personaliserer det brukere ser — enten på en utgivers hjemmeside, i en in-app-feed eller i en programmatisk annonseplassering — faller inn under nivået med begrenset risiko. Brukere må informeres om at de samhandler med et AI-system, og systemet må være utformet slik at AI-naturen av interaksjonen er tydelig.

Chatbot-opplysningen

Ethvert AI-system som samhandler direkte med brukere i samtaleform må opplyse om sin AI-natur. Utgivere og annonsører som kjører AI-chat-grensesnitt — for kundestøtte, innholdsoppdagelse eller andre formål — må oppfylle denne grunnstandarden.

Opplysningen om syntetisk innhold

AI-generert bilde-, lyd-, video- og tekstinnhold må merkes som sådan. Utgivere som bruker AI-generert visuelt materiale eller tekst i redaksjonelt innhold, annonsekreativ eller produktbilder må anvende merkeforpliktelsene. Implementeringsveiledningen for 2026 har klargjort de tekniske spesifikasjonene for merking, inkludert standarder for vannmerking av visuelt innhold.

Den kombinerte samtykkeflaten i 2026

CMP-en og personvernerklæringen må nå gjøre arbeid for begge regimene. Utgiver-CMP-en i 2026 ser betydelig mer omfattende ut enn forgjengeren fra 2024.

Granulære samtykkeformål

CMP-en eksponerer samtykkeformål som skiller mellom generell annonsering, profilering for annonsering, automatisert beslutningstaking og anbefalingspersonalisering. Hver enkelt samsvarer med en spesifikk AI Act- og GDPR-grense, og hver krever sitt eget bekreftende samtykke.

Opplysninger om AI-systemer

Personvernerklæringen eller et medfølgende AI-opplysningsdokument beskriver AI-systemene som er i bruk, deres formål, kategoriene av inndata, den overordnede logikken i utdataene og de menneskelige tilsynsmekanismene som er på plass. Dette er mer enn GDPR artikkel 22-opplysningen om automatisert beslutningstaking — det er en mer komplett AI-åpenhetshistorie.

Retten til å protestere

GDPRs rett til å protestere mot profilering fortsetter å gjelde, og AI Act legger til ytterligere brukerrettigheter rundt AI-drevet anbefalingspersonalisering. Brukere kan velge bort anbefalingspersonalisering uten å miste tilgang til den underliggende tjenesten, og avmeldingen må være minst like enkel som påmeldingen.

Operasjonelle mønstre som fungerer i 2026

Utgivere og annonsører som kjører modne 2026-programmer konvergerer mot noen få operasjonelle mønstre.

AI-inventaret

Vedlikehold et levende inventar over hvert AI-system som er i bruk på tvers av utgiver- eller annonsørstakken: systemet, dets risikonivå under forordningen, personopplysningene det behandler, dets rettslige grunnlag under GDPR, åpenhetsopplysningene som anvendes på det, og det menneskelige tilsynet på plass. Dette er det grunnleggende samsvarsartefaktet og er hva tilsynsmyndighetene vil be om å se først.

Den kombinerte personvernerklæringen>

En enkelt kombinert personvern- og AI-åpenhetserklæring — portugisisk, tysk, fransk eller hvilket som helst språk som er passende for publikum — som tar for seg både GDPR- og AI Act-forpliktelsene i en sammenhengende fortelling. Å forsøke å opprettholde to separate opplysninger inviterer til motsigelser og leserforvirring.

Leverandørens AI-revisjon

For hver annonse- eller analyseleverandør som behandler AI-drevne utdata på utgiverens vegne, må kontrakten ta for seg AI Act-fordeling av forpliktelser, tilgang til teknisk dokumentasjon og varsling om hendelser. Standard databehandleravtaler fra 2023 tar ikke for seg AI Act og må oppdateres.

Sanksjoner og håndhevelsesposisjon

AI Act innfører et trinndelt sanksjonsregime med administrative bøter som kan overstige GDPRs maksimumsbeløp.

Sanksjonsnivåene

Håndhevelsesarkitekturen

Hver medlemsstat utpeker nasjonale kompetente myndigheter for håndhevelse av AI Act, og det europeiske AI-kontoret koordinerer tilsynet med generelle AI-modeller. Håndhevelse mot utgivere og annonsører vil primært gå gjennom de nasjonale myndighetene, ofte i nært samarbeid med de eksisterende datatilsynsmyndighetene. De første betydelige håndhevelsestiltakene under AI Act forventes gjennom 2026 etter hvert som høyrisikoforpliktelsene trer fullt i kraft.

Revisjonssjekkliste for AI-drevet annonsering i 2026

Utsiktene for 2026

AI Act erstatter ikke GDPR — den stables oppå den, og den kombinerte flaten er betydelig mer omfattende enn hvert av regimene alene. For utgivere og annonsører som kjører AI-drevet personalisering, profilering, anbefalingssystemer eller generativt innhold, er 2026 året da samsvarsarkitekturen må modnes utover en ren GDPR-posisjon. De som behandler AI Act som en fremtidig bekymring vil oppdage at fremtiden kommer raskere enn forventet, med nasjonale myndigheter som utsteder sine første håndhevelsestiltak gjennom 2026 og inn i 2027. De som bygger kombinert samsvar fra starten vil oppdage at arkitekturen lønner seg: AI Acts åpenhetsforpliktelser, godt implementert, styrker også GDPR-samtykke- og tillitshistorien, og den operasjonelle disiplinen med å opprettholde et levende AI-inventar viser seg å være nyttig langt utover regulatorisk samsvar.

← Blogg Les alt →