كاليفورنيا تضعف مشروع قانون لمنع كوارث الذكاء الاصطناعي قبل التصويت النهائي، مع الأخذ بنصيحة الأنثروبيك
واجه مشروع قانون كاليفورنيا لمنع كوارث الذكاء الاصطناعي، SB 1047، معارضة كبيرة من العديد من الأحزاب في وادي السيليكون. اليوم، انحنى المشرعون في ولاية كاليفورنيا قليلاً لهذا الضغط، مضيفين العديد من التعديلات التي اقترحتها شركة الذكاء الاصطناعي Anthropic ومعارضون آخرون.
يوم الخميس، تمت الموافقة على مشروع القانون من خلال لجنة المخصصات في كاليفورنيا، وهي خطوة كبيرة نحو أن تصبح قانونًا، مع العديد من التغييرات الرئيسية، حسبما أخبر مكتب السيناتور وينر موقع TechCrunch.
لا يزال SB 1047 يهدف إلى منع أنظمة الذكاء الاصطناعي الكبيرة من قتل الكثير من الأشخاص، أو التسبب في أحداث الأمن السيبراني التي تكلف أكثر من 500 مليون دولار، من خلال تحميل المطورين المسؤولية. ومع ذلك، فإن مشروع القانون يمنح حكومة كاليفورنيا الآن سلطة أقل لمحاسبة مختبرات الذكاء الاصطناعي.
ماذا يفعل SB 1047 الآن؟
والجدير بالذكر أن مشروع القانون لم يعد يسمح للمدعي العام في كاليفورنيا بمقاضاة شركات الذكاء الاصطناعي بسبب ممارسات السلامة المهملة قبل وقوع حدث كارثي. كان هذا اقتراحًا من الأنثروبيك.
وبدلا من ذلك، يمكن للمدعي العام في كاليفورنيا أن يسعى للحصول على تعويض قضائي، ويطلب من الشركة وقف عملية معينة تجدها خطيرة، ولا يزال بإمكانه مقاضاة مطور الذكاء الاصطناعي إذا تسبب نموذجه في حدوث حدث كارثي.
علاوة على ذلك، لم يعد SB 1047 ينشئ قسم الحدود النموذجية (FMD)، وهي وكالة حكومية جديدة كانت مدرجة سابقًا في مشروع القانون. ومع ذلك، فإن مشروع القانون ما زال ينشئ مجلس النماذج الحدودية ــ جوهر إدارة الحمى القلاعية ــ ويضعهم داخل وكالة العمليات الحكومية القائمة. في الواقع، أصبح مجلس الإدارة أكبر الآن، حيث يضم تسعة أشخاص بدلاً من خمسة. سيستمر مجلس النماذج الحدودية في وضع الحدود الحسابية للنماذج المغطاة، وإصدار إرشادات السلامة، وإصدار اللوائح للمراجعين.
قام السيناتور وينر أيضًا بتعديل SB 1047 بحيث لم تعد مختبرات الذكاء الاصطناعي بحاجة إلى تقديم شهادات نتائج اختبارات السلامة “تحت عقوبة الحنث باليمين”. الآن، يُطلب من مختبرات الذكاء الاصطناعي هذه ببساطة تقديم “بيانات” عامة توضح ممارسات السلامة الخاصة بها، لكن مشروع القانون لم يعد يفرض أي مسؤولية جنائية.
يتضمن SB 1047 الآن أيضًا لغة أكثر تساهلاً حول كيفية ضمان المطورين أن نماذج الذكاء الاصطناعي آمنة. الآن، يتطلب مشروع القانون من المطورين تقديم “رعاية معقولة” لأن نماذج الذكاء الاصطناعي لا تشكل خطرًا كبيرًا للتسبب في كارثة، بدلاً من “الضمان المعقول” الذي طلبه مشروع القانون من قبل.
علاوة على ذلك، أضاف المشرعون حماية للنماذج مفتوحة المصدر المضبوطة. إذا أنفق شخص ما أقل من 10 ملايين دولار لضبط النموذج المغطى، فمن الواضح أنه لا يعتبر مطورًا بموجب SB 1047. وستظل المسؤولية تقع على عاتق المطور الأصلي الأكبر للنموذج.
لماذا كل التغييرات الآن؟
وفي حين واجه مشروع القانون معارضة كبيرة من أعضاء الكونجرس الأمريكي، والباحثين المشهورين في مجال الذكاء الاصطناعي، وشركات التكنولوجيا الكبرى، وأصحاب رؤوس الأموال الاستثمارية، فقد تم تمرير مشروع القانون عبر الهيئة التشريعية في كاليفورنيا بسهولة نسبية. من المرجح أن تسترضي هذه التعديلات معارضي SB 1047 وتقدم للحاكم نيوسوم مشروع قانون أقل إثارة للجدل يمكنه التوقيع عليه ليصبح قانونًا دون فقدان الدعم من صناعة الذكاء الاصطناعي.
في حين أن نيوسوم لم يعلق علنًا على SB 1047، فقد أشار سابقًا إلى التزامه بابتكار الذكاء الاصطناعي في كاليفورنيا.
ومع ذلك، من غير المرجح أن ترضي هذه التغييرات المنتقدين الأقوياء لـ SB 1047. في حين أن مشروع القانون أضعف بشكل ملحوظ مما كان عليه قبل هذه التعديلات، فإن SB 1047 لا يزال يحمل المطورين المسؤولية عن مخاطر نماذج الذكاء الاصطناعي الخاصة بهم. هذه الحقيقة الأساسية حول SB 1047 غير مدعومة عالميًا، وهذه التعديلات لا تفعل الكثير لمعالجتها.
ما هي الخطوة التالية؟
يتجه SB 1047 الآن إلى قاعة الجمعية في كاليفورنيا للتصويت النهائي. إذا تم تمريره هناك، فسوف يلزم إحالته مرة أخرى إلى مجلس الشيوخ في كاليفورنيا للتصويت عليه بسبب هذه التعديلات الأخيرة. إذا تم إقراره على حد سواء، فسوف يتوجه إلى مكتب الحاكم نيوسوم، حيث يمكن الاعتراض عليه أو التوقيع عليه ليصبح قانونًا.
اكتشاف المزيد من مجلة كوكان
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.