تكنلوجيا الويب

يقول الرائد في منظمة العفو الدولية Fei-Fei Li إن سياسة الذكاء الاصطناعي يجب أن تستند إلى “العلم وليس الخيال العلمي”


حددت Fei-Fei Li ، عالم الكمبيوتر في ستانفورد ومؤسس بدء التشغيل المعروف أحيانًا باسم “عرابة الذكاء الاصطناعي” ، “ثلاثة مبادئ أساسية لمستقبل صنع سياسات الذكاء الاصطناعى” قبل قمة AI Action الأسبوع المقبل في باريس.

أولاً ، قال لي إن السياسة يجب أن تستند إلى “العلم ، وليس الخيال العلمي”. وبعبارة أخرى ، يجب أن يركز صناع السياسة على الواقع الحالي لمنظمة العفو الدولية ، وليس على السيناريوهات المستقبلية العظيمة ، “سواء كان يوتوبيا أو نهاية العالم”.

على وجه الخصوص ، قال لي إنه من الأهمية بمكان أن يفهم صناع السياسة أن برامج chatbots وبرامج الطيار المشترك “ليست أشكالًا من الذكاء ذي النوايا والإرادة الحرة أو الوعي” ، حتى يتمكنوا من تجنب “إلهاء السيناريوهات بعيدة المنال” والتركيز بدلاً من ذلك على “التحديات الحيوية”.

ثانياً ، قالت إن السياسة “يجب أن تكون براغماتية ، وليس أيديولوجية” ، والتي تعني من خلالها كتابة “إلى الحد الأدنى من العواقب غير المقصودة مع تحفيز الابتكار”.

أخيرًا ، قال لي إن هذه السياسة يجب أن تمكن “النظام البيئي بأكمله من الذكاء الاصطناعي-بما في ذلك المجتمعات المفتوحة والمصادر الأوساط الأكاديمية”.

وقالت: “الوصول المفتوح إلى نماذج الذكاء الاصطناعى والأدوات الحسابية أمر بالغ الأهمية للتقدم”. “إن الحد من ذلك سيخلق حواجز وابتكار بطيء ، خاصة بالنسبة للمؤسسات الأكاديمية والباحثين الذين لديهم موارد أقل من نظرائهم في القطاع الخاص.”

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى