قانون الذكاء الاصطناعي الأوروبي وموافقة ملفات تعريف الارتباط في عام 2026: كيف تتموضع التنميط وأنظمة التوصية والإعلانات المستهدفة في المنظومة التنظيمية الجديدة
دخل قانون الذكاء الاصطناعي الأوروبي (AI Act - Regulation 2024/1689) حيز التنفيذ في أغسطس 2024، مع تطبيق أحكامه تدريجياً على مدى سنوات. سرت قواعد الممارسات المحظورة في فبراير 2025، وسرت التزامات الذكاء الاصطناعي للأغراض العامة في أغسطس 2025، وتدخل جُلّ التزامات الأنظمة عالية الخطورة حيز التنفيذ خلال 2026 وحتى 2027. مع مطلع 2026، لم يعد AI Act مصدر قلق مستقبلي — بل هو لائحة تشغيلية تتراكم فوق GDPR لأي نظام يستخدم الذكاء الاصطناعي في تنميط أو تصنيف أو ترتيب المستخدمين في الاتحاد الأوروبي. بالنسبة للناشرين الذين يُشغّلون أنظمة توصية، والمعلنين الذين يُشغّلون محركات تخصيص، وموردي تقنيات الإعلان الذين يُجرون تصنيف الجماهير آلياً، يُضيف AI Act بُعداً جديداً للامتثال لم تغطِه GDPR وحدها: ليس فقط هل وافق المستخدم على معالجة البيانات، بل هل يستوفي نظام الذكاء الاصطناعي نفسه متطلبات التصميم والشفافية والرقابة والمساءلة المنصوص عليها في القانون. يستعرض هذا الدليل بنية AI Act وكيفية تقاطعه مع قواعد موافقة ملفات تعريف الارتباط وتنميط GDPR، والتزامات 2026 الفعلية، وكيف ينبغي للناشرين والمعلنين التفكير في سطح الامتثال المشترك بين GDPR وAI Act.
بنية قانون الذكاء الاصطناعي في 2026
AI Act هو أول لائحة أفقية شاملة للذكاء الاصطناعي في العالم. بنيته القائمة على المخاطر المتدرجة هي مفتاح فهم الالتزامات المنطبقة على كل نظام.
مستويات المخاطر
يُصنّف القانون أنظمة الذكاء الاصطناعي في أربعة مستويات بحسب المخاطر التي تطرحها:
- الأنظمة المحظورة — الممارسات المحظورة كلياً، بما فيها الأساليب التلاعبية دون العتبة الواعية، واستغلال نقاط الضعف، والتصنيف الاجتماعي من قِبل السلطات العامة، وأشكال معينة من التصنيف البيومتري والتعرف على المشاعر
- الأنظمة عالية الخطورة — الأنظمة المستخدمة في سياقات حساسة محددة، وتخضع لجُلّ الالتزامات الجوهرية في القانون بما فيها إدارة المخاطر وحوكمة البيانات والشفافية والرقابة البشرية ومتطلبات الدقة
- الأنظمة محدودة الخطورة — أنظمة تخضع لالتزامات شفافية محددة، من بينها معظم أنظمة التوصية المدفوعة بالذكاء الاصطناعي وروبوتات المحادثة التي تتفاعل مباشرة مع المستخدمين
- الأنظمة محدودة الخطورة للغاية — كل ما عدا ذلك، ويخضع فقط لمدونات سلوك طوعية عامة
موقع الإعلانات وأنظمة التوصية
يقع معظم الذكاء الاصطناعي الموجه للإعلانات — تصنيف الجماهير وتحسين عروض الأسعار الآلية وموصيات المحتوى ومحركات التخصيص — في المستوى محدود الخطورة لا المستوى عالي الخطورة. يبدو هذا مريحاً، غير أن المستوى محدود الخطورة لا يزال يحمل التزامات شفافية ذات معنى، وثمة حالات حافة تدفع أنظمة بعينها إلى مستويات أعلى. والأهم من ذلك أن قواعد الممارسات المحظورة يمكن أن تطال أنظمة الإعلانات إذا تجاوزت حدود التلاعب أو الاستغلال، وقد أشار EDPB إلى استعداده لتفسير هذه الأحكام تفسيراً واسعاً.
مراحل التطبيق
يهم تقويم 2026: التزامات الأنظمة عالية الخطورة للأنظمة الجديدة تسري في أغسطس 2026، والتزامات الأنظمة الموجودة في السوق تسري في 2027، والتزامات موفري الذكاء الاصطناعي للأغراض العامة سارية بالفعل. ينبغي للناشرين والمعلنين رسم خريطة لمخزونهم من الذكاء الاصطناعي على هذا التقويم لمعرفة الالتزامات المنطبقة وتوقيتها.
كيف يتراكم قانون الذكاء الاصطناعي فوق GDPR
لا يحل AI Act محل GDPR. إنه يتراكم فوقه. أي نظام يعالج البيانات الشخصية لإنتاج مخرجات مدفوعة بالذكاء الاصطناعي يجب أن يستوفي كلا النظامين، والالتزامات تراكمية لا بديلة.
طبقة GDPR
يستمر GDPR في تنظيم مشروعية معالجة البيانات الشخصية. تظل الموافقة على تنميط الإعلانات والأساس القانوني للقياس وحزمة حقوق أصحاب البيانات والتزامات النقل عبر الحدود سارية دون تغيير.
طبقة AI Act
فوق GDPR، يُضيف AI Act التزامات تتعلق تحديداً بنظام الذكاء الاصطناعي نفسه: كيفية تدريبه، والبيانات التي استُخدمت في التدريب، وكيفية توثيق مخرجاته، وآليات الرقابة القائمة، والشفافية التي يحصل عليها المستخدم. تنطبق هذه الالتزامات على نظام الذكاء الاصطناعي بصرف النظر عن كون معالجة البيانات الأساسية قائمة على الموافقة أو العقد أو أي أساس قانوني آخر.
الانعكاس العملي
الناشر الذي يُشغّل موصي محتوى على بيانات شخصية يحتاج إلى أساس قانوني صالح لـ GDPR لمعالجة البيانات وإفصاح شفافية ممتثل لـ AI Act. كل منهما وحده غير كافٍ. سطح الامتثال ذو بُعدين فعلاً، وسلسلة التوثيق يجب أن تغطي المحورين.
الممارسات المحظورة والإعلانات
قائمة الممارسات المحظورة في القانون قصيرة لكنها ذات أثر بالغ، وبعض بنودها تنعكس على تصميم الإعلانات.
الأساليب التلاعبية
يحظر القانون أنظمة الذكاء الاصطناعي التي تستخدم أساليب دون العتبة الواعية أو ممارسات تلاعبية أو تستغل نقاط ضعف فئات بعينها بطرق يُرجَّح أن تسبب ضرراً جسيماً. معظم تصاميم الإعلانات لا تقترب من هذا الحد — لكن الإعلانات التي تستهدف نقاط ضعف محددة (ضائقة مالية، أحوال الصحة النفسية، أنماط الإدمان) عبر التنميط المدفوع بالذكاء الاصطناعي قد تتجاوزه. وقد أشار EDPB إلى ذلك في إرشاداته المبكرة.
التصنيف البيومتري
يحظر القانون التصنيف البيومتري الذي يستنتج سمات حساسة كالعرق والرأي السياسي والانتماء النقابي والمعتقد الديني والحياة الجنسية أو التوجه الجنسي. شرائح الجمهور المبنية على بيانات بيومترية تستنتج هذه السمات باتت في منطقة محظورة.
التعرف على المشاعر في سياقات بعينها
يُحظر التعرف على المشاعر في بيئات العمل والتعليم. حالات استخدام التعرف على المشاعر في الإعلانات خارج هذه السياقات قد تظل مسموحاً بها لكنها تخضع لتدقيق مشدد.
التزامات الشفافية للأنظمة محدودة الخطورة
هنا يتمركز جُل عمل الامتثال لـ AI Act للناشر والمعلن في 2026.
إفصاح نظام التوصية
موصيات المحتوى التي تُخصّص ما يراه المستخدمون — سواء في الصفحة الرئيسية للناشر أو في خلاصة داخل التطبيق أو في موضع إعلان آلي — تقع ضمن المستوى محدود الخطورة. يجب إعلام المستخدمين بأنهم يتفاعلون مع نظام ذكاء اصطناعي، ويجب تصميم النظام بحيث تكون طبيعته الذكاء الاصطناعي واضحة.
إفصاح روبوت المحادثة
أي نظام ذكاء اصطناعي يتفاعل مباشرة مع المستخدمين بشكل محادثي يجب أن يُفصح عن طبيعته كذكاء اصطناعي. الناشرون والمعلنون الذين يُشغّلون واجهات محادثة بالذكاء الاصطناعي — لدعم العملاء أو اكتشاف المحتوى أو أي غرض آخر — بحاجة لتلبية هذا الحد الأدنى.
إفصاح المحتوى الاصطناعي
يجب تمييز الصور والصوت والفيديو والنصوص المولّدة بالذكاء الاصطناعي على أنها كذلك. الناشرون الذين يستخدمون مرئيات أو نصوصاً مولّدة بالذكاء الاصطناعي في المحتوى التحريري أو الإعلانات أو صور المنتجات بحاجة لتطبيق التزامات التمييز. وقد أوضحت إرشادات تنفيذ 2026 المواصفات التقنية للتمييز، بما فيها معايير العلامات المائية للمحتوى المرئي.
سطح الموافقة المشترك في 2026
على نظام إدارة الموافقة CMP وإشعار الخصوصية الآن أداء دور لكلا النظامين. يبدو CMP الناشر لعام 2026 أكثر تفصيلاً بشكل ملحوظ من سلفه في 2024.
أغراض الموافقة الدقيقة
يكشف CMP عن أغراض موافقة تميّز بين الإعلانات العامة والتنميط للإعلانات واتخاذ القرار الآلي وتخصيص التوصيات. يرتبط كل منها بحد محدد من AI Act وGDPR، ويستلزم موافقة إيجابية منفصلة.
إفصاحات نظام الذكاء الاصطناعي
يصف إشعار الخصوصية أو وثيقة إفصاح الذكاء الاصطناعي المصاحبة أنظمة الذكاء الاصطناعي المستخدمة وأغراضها وفئات بيانات المدخلات والمنطق العام للمخرجات وآليات الرقابة البشرية القائمة. هذا أكثر من إفصاح اتخاذ القرار الآلي بموجب المادة 22 من GDPR — إنه سرد شفافية أكمل للذكاء الاصطناعي.
حق الاعتراض
يستمر حق الاعتراض على التنميط بموجب GDPR، ويُضيف AI Act حقوقاً أخرى للمستخدمين بشأن تخصيص موصيات الذكاء الاصطناعي. يمكن للمستخدمين إلغاء الاشتراك في تخصيص التوصيات دون فقدان الوصول إلى الخدمة الأساسية، ويجب أن يكون إلغاء الاشتراك بنفس سهولة الاشتراك على الأقل.
الأنماط التشغيلية الناجحة في 2026
يتقارب الناشرون والمعلنون الذين يُشغّلون برامج ناضجة في 2026 نحو بضعة أنماط تشغيلية.
مخزون الذكاء الاصطناعي
الحفاظ على مخزون حي لكل نظام ذكاء اصطناعي مستخدم عبر منظومة الناشر أو المعلن: النظام ومستواه من الخطورة بموجب القانون والبيانات الشخصية التي يعالجها وأساسه القانوني بموجب GDPR وإفصاحات الشفافية المطبقة عليه والرقابة البشرية القائمة. هذا هو الأداة الأساسية للامتثال وهو ما ستطلب رؤيته الجهات التنظيمية أولاً.
إشعار الخصوصية المشترك
إشعار خصوصية وشفافية ذكاء اصطناعي مشترك واحد — بالبرتغالية أو الألمانية أو الفرنسية أو أي لغة مناسبة للجمهور — يتناول التزامات GDPR وAI Act في سرد متماسك. محاولة الحفاظ على إفصاحين منفصلين تُفضي إلى تناقضات وارتباك للقراء.
تدقيق الذكاء الاصطناعي للبائع
لكل بائع إعلانات أو تحليلات يعالج مخرجات مدفوعة بالذكاء الاصطناعي نيابة عن الناشر، يجب أن يتناول العقد توزيع التزامات AI Act والوصول إلى الوثائق التقنية وإخطار الحوادث. اتفاقيات معالجة البيانات القياسية من عام 2023 لا تتناول AI Act وتحتاج إلى تحديث.
العقوبات وموقف التطبيق
يُدخل AI Act نظام عقوبات متدرج بغرامات إدارية قد تتجاوز حدود GDPR القصوى.
مستويات العقوبات
- حتى EUR 35 مليون أو 7 بالمئة من المبيعات العالمية السنوية لمخالفات الممارسات المحظورة
- حتى EUR 15 مليون أو 3 بالمئة لمعظم المخالفات الجوهرية الأخرى
- حتى EUR 7.5 مليون أو 1 بالمئة لتقديم معلومات غير صحيحة
هيكل التطبيق
تُعيّن كل دولة عضو سلطات وطنية مختصة لتطبيق AI Act، ويُنسّق مكتب الذكاء الاصطناعي الأوروبي الإشراف على نماذج الذكاء الاصطناعي للأغراض العامة. سيسري التطبيق بحق الناشرين والمعلنين بصفة رئيسية عبر السلطات الوطنية، وكثيراً ما يتم بالتنسيق الوثيق مع سلطات حماية البيانات القائمة. يُتوقع صدور أولى إجراءات تطبيق AI Act الكبرى خلال 2026 مع الدخول الكامل للالتزامات عالية الخطورة حيز التنفيذ.
قائمة مراجعة التدقيق للإعلانات المدفوعة بالذكاء الاصطناعي في 2026
- مخزون حي لكل نظام ذكاء اصطناعي في المنظومة مع تصنيف مستوى الخطورة
- الأساس القانوني بموجب GDPR موثق لكل نظام ذكاء اصطناعي يعالج بيانات شخصية
- إفصاحات شفافية AI Act مطبقة على كل نظام محدود الخطورة، بما فيها تخصيص التوصيات وروبوتات المحادثة
- تمييز المحتوى الاصطناعي مطبق على المواد الإبداعية والصور والصوت والفيديو المولّدة بالذكاء الاصطناعي
- إشعار خصوصية وشفافية ذكاء اصطناعي مشترك باللغة المحلية ذات الصلة
- يكشف CMP عن التنميط واتخاذ القرار الآلي وتخصيص التوصيات كأغراض موافقة منفصلة
- مراجعة شرائح الجمهور مقابل قائمة التصنيف البيومتري المحظور
- تحديث عقود الموردين لتناول توزيع التزامات AI Act
- توثيق آليات الرقابة البشرية لأي نظام يقترب من حد الأنظمة عالية الخطورة
- سير عمل حقوق أصحاب البيانات ومستخدمي AI Act قادر على الرد على طلبات إلغاء الاشتراك والتفسير والمراجعة البشرية ضمن نوافذ الاستجابة المنطبقة
توقعات 2026
لا يحل AI Act محل GDPR — إنه يتراكم فوقه، والسطح المشترك أكثر تفصيلاً بشكل ملحوظ من أي من النظامين منفرداً. بالنسبة للناشرين والمعلنين الذين يُشغّلون تخصيصاً مدفوعاً بالذكاء الاصطناعي أو تنميطاً أو أنظمة توصية أو محتوى توليدياً، فإن 2026 هو العام الذي يجب فيه أن ينضج هيكل الامتثال ليتجاوز موقف GDPR الخالص. الذين يتعاملون مع AI Act باعتباره مصدر قلق مستقبلي سيجدون المستقبل يصل أسرع مما توقعوا، مع إصدار السلطات الوطنية أولى إجراءات التطبيق خلال 2026 وحتى 2027. الذين يبنون الامتثال المشترك من البداية سيجدون أن الهيكل يؤتي ثماره: التزامات الشفافية في AI Act، حين تُنفَّذ جيداً، تعزز أيضاً قصة موافقة GDPR والثقة، والانضباط التشغيلي للحفاظ على مخزون حي للذكاء الاصطناعي يثبت فائدته بعيداً عن الامتثال التنظيمي.