قانون الاتحاد الأوروبي منظمة العفو الدولية: أحدث رمز لصناع طراز الذكاء الاصطناعى Tiptoes نحو إرشادات ألطف من الذكاء الاصطناعي الكبير

قبل الموعد النهائي لقفل التوجيهات لمقدمي الخدمات في نماذج الأهداف العامة AI (GPAI) حول الامتثال لأحكام قانون AI للاتحاد الأوروبي التي تنطبق على Big AI ، تم نشر مسودة ثالثة من مدونة الممارسة يوم الثلاثاء. كان المدونة في الصياغة منذ العام الماضي ، ومن المتوقع أن تكون هذه المسودة هي آخر جولة مراجعة قبل الانتهاء من الإرشادات في الأشهر المقبلة.
تم إطلاق موقع ويب أيضًا بهدف تعزيز إمكانية وصول الرمز. يجب تقديم ملاحظات مكتوبة على أحدث مسودة بحلول 30 مارس 2025.
يتضمن كتاب القواعد القائم على المخاطر للكتلة لمجموعة فرعية من الالتزامات التي تنطبق فقط على أقوى صانعي النماذج من الذكاء الاصطناعي-تغطي مناطق مثل الشفافية وحقوق النشر وتخفيف المخاطر. يهدف القانون إلى مساعدة صانعي نموذج GPAI على فهم كيفية تلبية الالتزامات القانونية وتجنب مخاطر العقوبات على عدم الامتثال. عقوبات قانون الذكاء الاصطناعى لانتهاكات متطلبات GPAI ، على وجه التحديد ، يمكن أن تصل إلى 3 ٪ من دوران سنوي عالمي.
تبسيط
يتم وصف المراجعة الأخيرة للرمز بأنها “هيكل أكثر تبسيطًا مع التزامات وتدابير مكررة” مقارنة بالتكرارات السابقة ، بناءً على ردود الفعل على المسودة الثانية التي تم نشرها في ديسمبر.
سوف تتغذى مزيد من التعليقات ومناقشات مجموعة العمل وورش العمل في عملية تحويل المسودة الثالثة إلى إرشادات نهائية. ويقول الخبراء إنهم يأملون في تحقيق “الوضوح والتماسك” في النسخة النهائية المعتمدة من الكود.
يتم تقسيم المسودة إلى حفنة من الأقسام التي تغطي التزامات GPAIs ، إلى جانب إرشادات مفصلة لتدابير الشفافية وخطوط حقوق الطبع والنشر. يوجد أيضًا قسم حول التزامات السلامة والأمان التي تنطبق على النماذج الأقوى (مع ما يسمى بالمخاطر النظامية ، أو GPAISR).
على الشفافية ، يتضمن التوجيه مثالًا على نموذج توثيق النموذج ، من المتوقع أن تملأ GPAIs من أجل ضمان أن يتمتع النشرون في مجرى النهر في تقنيتهم بالوصول إلى المعلومات الرئيسية للمساعدة في امتثالهم.
في مكان آخر ، من المحتمل أن يظل قسم حقوق الطبع والنشر هو المجال الأكثر إثارة للجدل على الفور لمنظمة العفو الدولية الكبيرة.
إن المسودة الحالية مليئة بمصطلحات مثل “أفضل الجهود” ، و “التدابير المعقولة” و “التدابير المناسبة” عندما يتعلق الأمر بالامتثال للالتزامات مثل احترام متطلبات الحقوق عند تزحف الويب للحصول على بيانات للتدريب النموذجي ، أو تخفيف مخاطر النماذج التي تنفصل عن مخرجات حقوق الطبع والنشر.
إن استخدام هذه اللغة بوساطة يشير إلى أن عمالقة تعدين البيانات قد يشعرون أن لديهم الكثير من المساحات للمناورة للاستمرار في الحصول على معلومات محمية لتدريب نماذجهم وطلب المغفرة لاحقًا-ولكن يبقى أن نرى ما إذا كانت اللغة تشدد في المسودة النهائية للرمز.
اللغة المستخدمة في التكرار السابق للرمز – قائلاً إن GPAIs يجب أن توفر نقطة اتصال واحدة ومعالجة الشكاوى لتسهيل على أصحاب الحقوق التوصيل المظالم “بشكل مباشر وسريع” – قد انتهى. الآن ، هناك مجرد سطر يوضح: “ستعرض الموقعون نقطة اتصال للتواصل مع أصحاب الحقوق المتأثرة وتوفير معلومات يمكن الوصول إليها بسهولة حولها.”
يشير النص الحالي أيضًا إلى أن GPAIs قد تكون قادرة على رفض التصرف بناءً على شكاوى حقوق الطبع والنشر من قبل أصحاب الحقوق إذا كانت “لا أساس لها من الصحة أو مفرطة ، على وجه الخصوص بسبب طابعها المتكرر”. إنه يقترح محاولات من المبدعين لقلب المقاييس من خلال الاستفادة من أدوات الذكاء الاصطناعى لمحاولة اكتشاف مشكلات حقوق الطبع والنشر وأتمتة تقديم الشكاوى ضد الذكاء الاصطناعى الكبير قد يؤدي إلى تجاهلها.
عندما يتعلق الأمر بالسلامة والأمن ، فإن متطلبات قانون الاتحاد الأوروبي لتقييم وتخفيف المخاطر النظامية تنطبق بالفعل على مجموعة فرعية من أقوى النماذج (تلك المدربة باستخدامها قوة حوسبة إجمالية لأكثر من 10^25 تتخبط) – لكن هذه المسودة الأخيرة ترى بعض التدابير الموصى بها مسبقًا تضييقها استجابةً للتعليقات.
ضغوط الولايات المتحدة
غير مؤهلة في البيان الصحفي للاتحاد الأوروبي حول أحدث مسودة هي الهجمات القوية على القوانين الأوروبية بشكل عام ، وقواعد الكتلة لمنظمة العفو الدولية على وجه التحديد ، والتي تخرج من الإدارة الأمريكية بقيادة الرئيس دونالد ترامب.
في قمة عمل باريس AI الشهر الماضي ، رفض نائب الرئيس الأمريكي JD Vance الحاجة إلى تنظيم لضمان تطبيق الذكاء الاصطناعي على السلامة – بدلاً من ذلك ، تميل إدارة ترامب إلى “فرصة منظمة العفو الدولية”. وحذر أوروبا من أن التنظيم المفرط يمكن أن يقتل أوزة الذهبية.
منذ ذلك الحين ، انتقلت الكتلة لقتل مبادرة سلامة منظمة العفو الدولية – وضع توجيه مسؤولية الذكاء الاصطناعي على كتلة التقطيع. لقد تأخر المشرعون في الاتحاد الأوروبي أيضًا حزمة “Omnibus” واردة من تبسيط الإصلاحات على القواعد الحالية التي يقولون إنها تهدف إلى الحد من الشريط الأحمر والبيروقراطية للأعمال التجارية ، مع التركيز على مجالات مثل الإبلاغ عن الاستدامة. ولكن مع استمرار قانون الذكاء الاصطناعي في عملية تنفيذها ، من الواضح أن هناك ضغطًا يتم تطبيقه على متطلبات التخفيف.
في المعرض التجاري للمؤتمرات العالمية المتنقلة في برشلونة في وقت سابق من هذا الشهر ، صانع نموذج GPAI الفرنسي Mistral – وهو خصم بصوت عالٍ بشكل خاص لقانون الاتحاد الأوروبي AI خلال المفاوضات لإبرام التشريع في عام 2023 – حيث ادعى مؤسس آرثر مينش أنه يواجه صعوبات في العثور على حلول تكنولوجية لتوافق بعض القواعد. وأضاف أن الشركة “تعمل مع المنظمين للتأكد من حل هذا”.
بينما يتم وضع رمز GPAI هذا من قبل خبراء مستقلين ، فإن المفوضية الأوروبية – عبر مكتب الذكاء الاصطناعى الذي يشرف على إنفاذ القانون وغيره من النشاط المتعلق بالقانون – هو ، بالتوازي ، إنتاج بعض التوجيهات “التوضيحية” التي ستشكل أيضًا كيفية تطبيق القانون. بما في ذلك تعريفات GPAIs ومسؤولياتهم.
لذا ابحث عن مزيد من التوجيهات ، “في الوقت المناسب” ، من مكتب الذكاء الاصطناعى-والتي تقول اللجنة “سوف توضح … نطاق القواعد”-لأن هذا يمكن أن يوفر طريقًا للمشرعين الذين يخسرون الأعصاب للرد على الولايات المتحدة للضغط على إلغاء تنظيم الذكاء الاصطناعي.
اكتشاف المزيد من مجلة كوكان
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.