EU AI Act och cookiesamtycke 2026: Hur profilering, rekommendationssystem och riktad annonsering passar in i det nya regelverket

The EU AI Act (Regulation 2024/1689) trädde i kraft i augusti 2024, med dess bestämmelser infasade under en flerårig utrullning. Reglerna om förbjudna metoder trädde i kraft i februari 2025, skyldigheterna för allmänt ändamålsenlig AI i augusti 2025, och merparten av skyldigheterna för högrisk-system träder i kraft under 2026 och in i 2027. Vid ingången av 2026 är AI Act inte längre ett framtida bekymmer — det är en operativ förordning som lägger sig ovanpå GDPR för alla system som använder AI för att profilera, poängsätta eller rangordna EU-användare. För utgivare som driver rekommendationssystem, annonsörer som driver personaliseringsmotorer och ad-tech-leverantörer som driver automatisk målgruppsbedömning, tillför AI Act en ny efterlevnadsdimension som GDPR ensamt aldrig täckte: inte bara om användaren samtyckte till databehandlingen, utan om AI-systemet självt uppfyller Aktens design-, transparens-, tillsyns- och ansvarskrav. Den här guiden går igenom AI Aktens struktur, hur den skär mot regler om cookiesamtycke och GDPR-profilering, vad 2026 års skyldigheter faktiskt kräver, och hur utgivare och annonsörer bör tänka på den kombinerade GDPR-plus-AI-Act-efterlevnadsytan.

AI Aktens struktur 2026

AI Act är världens första övergripande horisontella reglering av artificiell intelligens. Dess riskskiktade arkitektur är nyckeln till att förstå vilka skyldigheter som gäller för vilka system.

Risknivåerna

Akten sorterar AI-system i fyra nivåer baserat på den risk de utgör:

Var annonsering och rekommendationssystem befinner sig

De flesta annonserings-inriktade AI — målgruppsbedömning, programmatisk budoptimering, innehållsrekommendatörer, personaliseringsmotorer — befinner sig i begränsad risk-nivån snarare än högrisk-nivån. Det låter som en lättnad, men begränsad risk-nivån bär fortfarande meningsfulla transparensskyldigheter, och flera gränsfall driver specifika system till högre nivåer. Kritiskt nog kan reglerna om förbjudna metoder nå annonssystem om de korsar in på manipulations- eller utnyttjandeområdet, och EDPB har signalerat vilja att tolka dessa bestämmelser brett.

Infasningen

2026 års kalender spelar roll: högrisk-skyldigheterna för nya system träder i kraft i augusti 2026, högrisk-skyldigheterna för system som redan är på marknaden träder i kraft 2027, och skyldigheterna för leverantörer av allmänt ändamålsenlig AI är redan i kraft. Utgivare och annonsörer bör kartlägga sitt AI-lager mot denna kalender för att veta vilka skyldigheter som gäller när.

Hur AI Act lägger sig ovanpå GDPR

AI Act ersätter inte GDPR. Den lägger sig ovanpå den. Ett system som behandlar personuppgifter för att producera AI-drivna utdata måste uppfylla båda regelverken, och skyldigheterna är additiva snarare än alternativa.

GDPR-lagret

GDPR fortsätter att styra lagligheten av personuppgiftsbehandling. Samtycke för reklamprofilering, rättslig grund för mätning, klustret av den registrerades rättigheter, skyldigheterna för gränsöverskridande överföring — allt detta fortsätter att tillämpas oförändrat.

AI Act-lagret

Ovanpå GDPR tillfogar AI Act skyldigheter specifikt om AI-systemet självt: hur det tränades, vilka data som gick in i träningen, hur dess utdata dokumenteras, vilka tillsynsmekanismer som finns, vilken transparens användaren får. Dessa skyldigheter kopplas till AI-systemet oavsett om den underliggande databehandlingen är samtyckesbaserad, kontraktsbaserad eller någon annan rättslig grund.

Den praktiska implikationen

En utgivare som driver en innehållsrekommendatör på personuppgifter behöver både en giltig GDPR-rättslig grund för databehandlingen och en efterlevnadsmässig transparensupplysning under AI Act. Endera ensamt är otillräckligt. Efterlevnadsytan är nu genuint tvådimensionell, och dokumentationskedjan måste täcka båda axlarna.

Förbjudna metoder och annonsering

Aktens lista över förbjudna metoder är kort men konsekvensrik, och flera poster har implikationer för annonsdesign.

Manipulativa tekniker

Akten förbjuder AI-system som driftsätter sublimina tekniker, manipulativa metoder eller utnyttjar sårbarheter hos specifika grupper på sätt som sannolikt orsakar betydande skada. De flesta annonseringsdesigner närmar sig inte denna gräns — men annonsering som riktar in sig på identifierade sårbarheter (ekonomisk nöd, psykiska hälsotillstånd, beroendemönster) med hjälp av AI-driven profilering kan korsa den. EDPB har flaggat detta i tidig vägledning.

Biometrisk kategorisering

Akten förbjuder biometrisk kategorisering som härled känsliga attribut såsom ras, politisk åsikt, fackligt medlemskap, religiös övertygelse, sexualliv eller sexuell läggning. Målgruppssegment byggda från biometriska data som härleder dessa attribut befinner sig nu i förbjudet territorium.

Emotionsigenkänning i specifika sammanhang

Emotionsigenkänning är förbjuden på arbetsplatsen och i utbildningssammanhang. Annonserings- och emotionsdetekteringsanvändningsfall utanför dessa sammanhang kan fortfarande vara tillåtna men möter ökad granskning.

Transparensskyldigheter för begränsad risk

Det är här merparten av utgivarens och annonsörens AI Act-efterlevnadsarbete befinner sig 2026.

Upplysning om rekommendationssystem

Innehållsrekommendatörer som personaliserar vad användare ser — oavsett om det är på en utgivares hemsida, i en in-app-feed eller i en programmatisk annonsplacering — faller under begränsad risk-nivån. Användare måste informeras om att de interagerar med ett AI-system, och systemet måste vara utformat så att AI-karaktären av interaktionen är tydlig.

Chatbot-upplysning

Varje AI-system som interagerar direkt med användare i konversationsform måste avslöja sin AI-karaktär. Utgivare och annonsörer som driver AI-chattgränssnitt — för kundtjänst, innehållsupptäckt eller något annat syfte — måste uppfylla denna baslinje.

Upplysning om syntetiskt innehåll

AI-genererade bilder, ljud, video och textinnehåll måste märkas som sådana. Utgivare som använder AI-genererade visuella element eller text i redaktionellt innehåll, annonskreativt material eller produktbilder behöver tillämpa märkningsskyldigheterna. Implementeringsvägledningen för 2026 har klargjort de tekniska specifikationerna för märkning, inklusive vattenstämplingsstandarder för visuellt innehåll.

Den kombinerade samtyckes-ytan 2026

CMP och integritetsmedelandet måste nu arbeta för båda regelverken. 2026 års utgivar-CMP ser meningsfullt mer utarbetad ut än sin föregångare från 2024.

Detaljerade samtyckessyften

CMP exponerar samtyckessyften som skiljer mellan allmän annonsering, profilering för annonsering, automatiserat beslutsfattande och rekommendationspersonalisering. Varje kartläggs till en specifik AI Act- och GDPR-gräns, och varje kräver sitt eget bekräftande samtycke.

AI-system-upplysningar

Integritetsmedelandet eller ett tillhörande AI-upplysningsdokument beskriver de AI-system som används, deras syften, kategorierna av indata, den breda logiken i utdata och de mänskliga tillsynsmekanismer som finns på plats. Det är mer än den automatiserade besluts-upplysningen i GDPR Artikel 22 — det är en mer fullständig AI-transparensberättelse.

Rätten att invända

GDPR:s rätt att invända mot profilering fortsätter att tillämpas, och AI Act tillfogar ytterligare användarrättigheter kring AI-driven rekommendationspersonalisering. Användare kan välja bort rekommendationspersonalisering utan att förlora tillgång till den underliggande tjänsten, och avanmälan måste vara minst lika lätt som anmälan.

Operativa mönster som fungerar 2026

Utgivare och annonsörer som driver mogna 2026-program konvergerar mot några operativa mönster.

AI-lagret

Underhåll ett levande lager av varje AI-system i bruk i utgivarens eller annonsörens stack: systemet, dess risknivå under Akten, de personuppgifter det behandlar, dess rättsliga grund under GDPR, de transparensupplysningar som tillämpas på det och den mänskliga tillsynen på plats. Detta är det grundläggande efterlevnadsartefaktet och är vad regulatorer kommer att be om att se först.

Det kombinerade integritetsmeddelandet

Ett enda kombinerat integritets- och AI-transparensmeddelande — portugisiska, tyska, franska eller vilket språk som är lämpligt för målgruppen — som behandlar både GDPR- och AI Act-skyldigheterna i en sammanhängande berättelse. Att försöka upprätthålla två separata upplysningar bjuder in till motsägelser och läsarförvirring.

Leverantörens AI-revision

För varje annonserings- eller analysleverantör som behandlar AI-drivna utdata på utgivarens vägnar måste kontraktet adressera AI Act-fördelning av skyldigheter, tillgång till teknisk dokumentation och incidentmeddelande. Standarddatabehandlingsavtal från 2023 adresserar inte AI Act och måste uppdateras.

Påföljder och tillsynsposition

AI Act introducerar ett nivåindelat påföljdssystem med administrativa böter som kan överstiga GDPR:s maxbelopp.

Påföljdsnivåerna

Tillsynsarkitekturen

Varje medlemsstat utser nationella behöriga myndigheter för AI Act-tillsyn, och Europeiska AI-kontoret koordinerar tillsynen av allmänt ändamålsenliga AI-modeller. Tillsyn mot utgivare och annonsörer kommer primärt att gå via de nationella myndigheterna, ofta i nära samordning med de befintliga dataskyddsmyndigheterna. De första betydelsefulla AI Act-tillsynsåtgärderna förväntas under 2026 när högrisk-skyldigheterna träder fullt i kraft.

Revisionschecklista för AI-driven annonsering 2026

2026 års utsikt

AI Act ersätter inte GDPR — den lägger sig ovanpå den, och den kombinerade ytan är meningsfullt mer utarbetad än endera regelverket ensamt. För utgivare och annonsörer som driver AI-driven personalisering, profilering, rekommendationssystem eller generativt innehåll är 2026 det år då efterlevnadsarkitekturen måste mogna bortom en ren GDPR-position. De som behandlar AI Act som ett framtida bekymmer kommer att märka att framtiden anländer snabbare än förväntat, med nationella myndigheter som utfärdar sina första tillsynsåtgärder under 2026 och in i 2027. De som bygger kombinerad efterlevnad från start kommer att märka att arkitekturen betalar tillbaka: AI Aktens transparensskyldigheter, väl implementerade, stärker också GDPR samtyckes- och förtroendeberättelsen, och den operativa disciplinen att upprätthålla ett levande AI-lager visar sig vara användbar långt bortom regelefterlevnad.

← Blogg Läs allt →