EU AI Act och cookiesamtycke 2026: Hur profilering, rekommendationssystem och riktad annonsering passar in i det nya regelverket
The EU AI Act (Regulation 2024/1689) trädde i kraft i augusti 2024, med dess bestämmelser infasade under en flerårig utrullning. Reglerna om förbjudna metoder trädde i kraft i februari 2025, skyldigheterna för allmänt ändamålsenlig AI i augusti 2025, och merparten av skyldigheterna för högrisk-system träder i kraft under 2026 och in i 2027. Vid ingången av 2026 är AI Act inte längre ett framtida bekymmer — det är en operativ förordning som lägger sig ovanpå GDPR för alla system som använder AI för att profilera, poängsätta eller rangordna EU-användare. För utgivare som driver rekommendationssystem, annonsörer som driver personaliseringsmotorer och ad-tech-leverantörer som driver automatisk målgruppsbedömning, tillför AI Act en ny efterlevnadsdimension som GDPR ensamt aldrig täckte: inte bara om användaren samtyckte till databehandlingen, utan om AI-systemet självt uppfyller Aktens design-, transparens-, tillsyns- och ansvarskrav. Den här guiden går igenom AI Aktens struktur, hur den skär mot regler om cookiesamtycke och GDPR-profilering, vad 2026 års skyldigheter faktiskt kräver, och hur utgivare och annonsörer bör tänka på den kombinerade GDPR-plus-AI-Act-efterlevnadsytan.
AI Aktens struktur 2026
AI Act är världens första övergripande horisontella reglering av artificiell intelligens. Dess riskskiktade arkitektur är nyckeln till att förstå vilka skyldigheter som gäller för vilka system.
Risknivåerna
Akten sorterar AI-system i fyra nivåer baserat på den risk de utgör:
- Förbjudna system — metoder som är helt förbjudna, inklusive manipulativa subliminal tekniker, utnyttjande av sårbarheter, social poängsättning av offentliga myndigheter och vissa former av biometrisk kategorisering och emotionsigenkänning
- Högrisk-system — system som används i specificerade högrisk-sammanhang, föremål för merparten av Aktens materiella skyldigheter inklusive riskhantering, datastyrning, transparens, mänsklig tillsyn och noggrannhetskrav
- Begränsad risk-system — system med specifika transparensskyldigheter, inklusive de flesta AI-drivna innehållsrekommendatörer och chatbotar som interagerar direkt med användare
- Minimal risk-system — allt annat, föremål endast för allmänna frivilliga uppförandekoder
Var annonsering och rekommendationssystem befinner sig
De flesta annonserings-inriktade AI — målgruppsbedömning, programmatisk budoptimering, innehållsrekommendatörer, personaliseringsmotorer — befinner sig i begränsad risk-nivån snarare än högrisk-nivån. Det låter som en lättnad, men begränsad risk-nivån bär fortfarande meningsfulla transparensskyldigheter, och flera gränsfall driver specifika system till högre nivåer. Kritiskt nog kan reglerna om förbjudna metoder nå annonssystem om de korsar in på manipulations- eller utnyttjandeområdet, och EDPB har signalerat vilja att tolka dessa bestämmelser brett.
Infasningen
2026 års kalender spelar roll: högrisk-skyldigheterna för nya system träder i kraft i augusti 2026, högrisk-skyldigheterna för system som redan är på marknaden träder i kraft 2027, och skyldigheterna för leverantörer av allmänt ändamålsenlig AI är redan i kraft. Utgivare och annonsörer bör kartlägga sitt AI-lager mot denna kalender för att veta vilka skyldigheter som gäller när.
Hur AI Act lägger sig ovanpå GDPR
AI Act ersätter inte GDPR. Den lägger sig ovanpå den. Ett system som behandlar personuppgifter för att producera AI-drivna utdata måste uppfylla båda regelverken, och skyldigheterna är additiva snarare än alternativa.
GDPR-lagret
GDPR fortsätter att styra lagligheten av personuppgiftsbehandling. Samtycke för reklamprofilering, rättslig grund för mätning, klustret av den registrerades rättigheter, skyldigheterna för gränsöverskridande överföring — allt detta fortsätter att tillämpas oförändrat.
AI Act-lagret
Ovanpå GDPR tillfogar AI Act skyldigheter specifikt om AI-systemet självt: hur det tränades, vilka data som gick in i träningen, hur dess utdata dokumenteras, vilka tillsynsmekanismer som finns, vilken transparens användaren får. Dessa skyldigheter kopplas till AI-systemet oavsett om den underliggande databehandlingen är samtyckesbaserad, kontraktsbaserad eller någon annan rättslig grund.
Den praktiska implikationen
En utgivare som driver en innehållsrekommendatör på personuppgifter behöver både en giltig GDPR-rättslig grund för databehandlingen och en efterlevnadsmässig transparensupplysning under AI Act. Endera ensamt är otillräckligt. Efterlevnadsytan är nu genuint tvådimensionell, och dokumentationskedjan måste täcka båda axlarna.
Förbjudna metoder och annonsering
Aktens lista över förbjudna metoder är kort men konsekvensrik, och flera poster har implikationer för annonsdesign.
Manipulativa tekniker
Akten förbjuder AI-system som driftsätter sublimina tekniker, manipulativa metoder eller utnyttjar sårbarheter hos specifika grupper på sätt som sannolikt orsakar betydande skada. De flesta annonseringsdesigner närmar sig inte denna gräns — men annonsering som riktar in sig på identifierade sårbarheter (ekonomisk nöd, psykiska hälsotillstånd, beroendemönster) med hjälp av AI-driven profilering kan korsa den. EDPB har flaggat detta i tidig vägledning.
Biometrisk kategorisering
Akten förbjuder biometrisk kategorisering som härled känsliga attribut såsom ras, politisk åsikt, fackligt medlemskap, religiös övertygelse, sexualliv eller sexuell läggning. Målgruppssegment byggda från biometriska data som härleder dessa attribut befinner sig nu i förbjudet territorium.
Emotionsigenkänning i specifika sammanhang
Emotionsigenkänning är förbjuden på arbetsplatsen och i utbildningssammanhang. Annonserings- och emotionsdetekteringsanvändningsfall utanför dessa sammanhang kan fortfarande vara tillåtna men möter ökad granskning.
Transparensskyldigheter för begränsad risk
Det är här merparten av utgivarens och annonsörens AI Act-efterlevnadsarbete befinner sig 2026.
Upplysning om rekommendationssystem
Innehållsrekommendatörer som personaliserar vad användare ser — oavsett om det är på en utgivares hemsida, i en in-app-feed eller i en programmatisk annonsplacering — faller under begränsad risk-nivån. Användare måste informeras om att de interagerar med ett AI-system, och systemet måste vara utformat så att AI-karaktären av interaktionen är tydlig.
Chatbot-upplysning
Varje AI-system som interagerar direkt med användare i konversationsform måste avslöja sin AI-karaktär. Utgivare och annonsörer som driver AI-chattgränssnitt — för kundtjänst, innehållsupptäckt eller något annat syfte — måste uppfylla denna baslinje.
Upplysning om syntetiskt innehåll
AI-genererade bilder, ljud, video och textinnehåll måste märkas som sådana. Utgivare som använder AI-genererade visuella element eller text i redaktionellt innehåll, annonskreativt material eller produktbilder behöver tillämpa märkningsskyldigheterna. Implementeringsvägledningen för 2026 har klargjort de tekniska specifikationerna för märkning, inklusive vattenstämplingsstandarder för visuellt innehåll.
Den kombinerade samtyckes-ytan 2026
CMP och integritetsmedelandet måste nu arbeta för båda regelverken. 2026 års utgivar-CMP ser meningsfullt mer utarbetad ut än sin föregångare från 2024.
Detaljerade samtyckessyften
CMP exponerar samtyckessyften som skiljer mellan allmän annonsering, profilering för annonsering, automatiserat beslutsfattande och rekommendationspersonalisering. Varje kartläggs till en specifik AI Act- och GDPR-gräns, och varje kräver sitt eget bekräftande samtycke.
AI-system-upplysningar
Integritetsmedelandet eller ett tillhörande AI-upplysningsdokument beskriver de AI-system som används, deras syften, kategorierna av indata, den breda logiken i utdata och de mänskliga tillsynsmekanismer som finns på plats. Det är mer än den automatiserade besluts-upplysningen i GDPR Artikel 22 — det är en mer fullständig AI-transparensberättelse.
Rätten att invända
GDPR:s rätt att invända mot profilering fortsätter att tillämpas, och AI Act tillfogar ytterligare användarrättigheter kring AI-driven rekommendationspersonalisering. Användare kan välja bort rekommendationspersonalisering utan att förlora tillgång till den underliggande tjänsten, och avanmälan måste vara minst lika lätt som anmälan.
Operativa mönster som fungerar 2026
Utgivare och annonsörer som driver mogna 2026-program konvergerar mot några operativa mönster.
AI-lagret
Underhåll ett levande lager av varje AI-system i bruk i utgivarens eller annonsörens stack: systemet, dess risknivå under Akten, de personuppgifter det behandlar, dess rättsliga grund under GDPR, de transparensupplysningar som tillämpas på det och den mänskliga tillsynen på plats. Detta är det grundläggande efterlevnadsartefaktet och är vad regulatorer kommer att be om att se först.
Det kombinerade integritetsmeddelandet
Ett enda kombinerat integritets- och AI-transparensmeddelande — portugisiska, tyska, franska eller vilket språk som är lämpligt för målgruppen — som behandlar både GDPR- och AI Act-skyldigheterna i en sammanhängande berättelse. Att försöka upprätthålla två separata upplysningar bjuder in till motsägelser och läsarförvirring.
Leverantörens AI-revision
För varje annonserings- eller analysleverantör som behandlar AI-drivna utdata på utgivarens vägnar måste kontraktet adressera AI Act-fördelning av skyldigheter, tillgång till teknisk dokumentation och incidentmeddelande. Standarddatabehandlingsavtal från 2023 adresserar inte AI Act och måste uppdateras.
Påföljder och tillsynsposition
AI Act introducerar ett nivåindelat påföljdssystem med administrativa böter som kan överstiga GDPR:s maxbelopp.
Påföljdsnivåerna
- Upp till EUR 35 miljoner eller 7 procent av global årsomsättning för överträdelser av förbjudna metoder
- Upp till EUR 15 miljoner eller 3 procent för de flesta andra materiella överträdelser
- Upp till EUR 7,5 miljoner eller 1 procent för tillhandahållande av felaktig information
Tillsynsarkitekturen
Varje medlemsstat utser nationella behöriga myndigheter för AI Act-tillsyn, och Europeiska AI-kontoret koordinerar tillsynen av allmänt ändamålsenliga AI-modeller. Tillsyn mot utgivare och annonsörer kommer primärt att gå via de nationella myndigheterna, ofta i nära samordning med de befintliga dataskyddsmyndigheterna. De första betydelsefulla AI Act-tillsynsåtgärderna förväntas under 2026 när högrisk-skyldigheterna träder fullt i kraft.
Revisionschecklista för AI-driven annonsering 2026
- Levande lager av varje AI-system i stacken med risknivåklassificering
- GDPR rättslig grund dokumenterad för varje AI-system som behandlar personuppgifter
- AI Act transparensupplysningar tillämpade på varje begränsad risk-system, inklusive rekommendationspersonalisering och chatbotar
- Märkning av syntetiskt innehåll tillämpat på AI-genererat kreativt material, bilder, ljud och video
- Kombinerat integritets- och AI-transparensmeddelande på det relevanta lokala språket
- CMP exponerar profilering, automatiserat beslutsfattande och rekommendationspersonalisering som separat samtycksbara syften
- Målgruppssegment granskas mot den förbjudna listan för biometrisk kategorisering
- Leverantörskontrakt uppdaterade för att adressera AI Act-fördelning av skyldigheter
- Mänskliga tillsynsmekanismer dokumenterade för alla system som närmar sig högrisk-gränsen
- Rättighetsarbetsflödet för registrerade och AI Act-användare kan svara på begäranden om avanmälan, förklaring och mänsklig granskning inom tillämpliga svarstider
2026 års utsikt
AI Act ersätter inte GDPR — den lägger sig ovanpå den, och den kombinerade ytan är meningsfullt mer utarbetad än endera regelverket ensamt. För utgivare och annonsörer som driver AI-driven personalisering, profilering, rekommendationssystem eller generativt innehåll är 2026 det år då efterlevnadsarkitekturen måste mogna bortom en ren GDPR-position. De som behandlar AI Act som ett framtida bekymmer kommer att märka att framtiden anländer snabbare än förväntat, med nationella myndigheter som utfärdar sina första tillsynsåtgärder under 2026 och in i 2027. De som bygger kombinerad efterlevnad från start kommer att märka att arkitekturen betalar tillbaka: AI Aktens transparensskyldigheter, väl implementerade, stärker också GDPR samtyckes- och förtroendeberättelsen, och den operativa disciplinen att upprätthålla ett levande AI-lager visar sig vara användbar långt bortom regelefterlevnad.