النساء في الذكاء الاصطناعي: إيرين سليمان، رئيسة السياسة العالمية في Hugging Face
لمنح الأكاديميات اللاتي يركزن على الذكاء الاصطناعي وغيرهن من الوقت المستحق – والمتأخر – في دائرة الضوء، تطلق TechCrunch سلسلة من المقابلات التي تركز على النساء المتميزات اللاتي ساهمن في ثورة الذكاء الاصطناعي. سنقوم بنشر العديد من المقالات على مدار العام مع استمرار ازدهار الذكاء الاصطناعي، مع تسليط الضوء على الأعمال الرئيسية التي غالبًا ما لا يتم التعرف عليها. اقرأ المزيد من الملفات الشخصية هنا.
بدأت إيرين سليمان حياتها المهنية في مجال الذكاء الاصطناعي كباحثة ومديرة للسياسة العامة في OpenAI، حيث قادت نهجًا جديدًا لإصدار GPT-2، وهو سلف ChatGPT. بعد أن عملت كمديرة لسياسة الذكاء الاصطناعي في Zillow لمدة عام تقريبًا، انضمت إلى Hugging Face كرئيسة للسياسة العالمية. وتتراوح مسؤولياتها هناك من بناء وقيادة سياسة الذكاء الاصطناعي للشركة على مستوى العالم إلى إجراء البحوث الاجتماعية التقنية.
كما يقدم سليمان المشورة لمعهد مهندسي الكهرباء والإلكترونيات (IEEE)، الجمعية المهنية لهندسة الإلكترونيات، فيما يتعلق بقضايا الذكاء الاصطناعي، وهو خبير معترف به في الذكاء الاصطناعي في المنظمة الحكومية الدولية للتعاون الاقتصادي والتنمية (OECD).
إيرين سليمان، رئيسة قسم السياسة العالمية في Hugging Face
باختصار، كيف كانت بدايتك في مجال الذكاء الاصطناعي؟ ما الذي جذبك للميدان؟
يعد المسار الوظيفي غير الخطي أمرًا شائعًا في الذكاء الاصطناعي. بدأ اهتمامي الناشئ بنفس الطريقة التي يجد بها العديد من المراهقين ذوي المهارات الاجتماعية الصعبة شغفهم: من خلال وسائط الخيال العلمي. لقد درست في البداية سياسة حقوق الإنسان ثم أخذت دورات في علوم الكمبيوتر، حيث كنت أنظر إلى الذكاء الاصطناعي كوسيلة للعمل في مجال حقوق الإنسان وبناء مستقبل أفضل. إن القدرة على إجراء بحث تقني وقيادة السياسات في مجال به الكثير من الأسئلة التي لم تتم الإجابة عليها والمسارات غير المدروسة تجعل عملي مثيرًا.
ما هو العمل الذي تفتخر به أكثر (في مجال الذكاء الاصطناعي)؟
أنا فخور جدًا عندما تجد خبرتي صدى لدى الأشخاص في مجال الذكاء الاصطناعي، وخاصة كتابتي حول اعتبارات الإصدار في المشهد المعقد لإصدارات نظام الذكاء الاصطناعي والانفتاح. إن رؤية ورقتي حول النشر الفني لإطار AI Release Gradient تحث على إجراء مناقشات سريعة بين العلماء واستخدامها في التقارير الحكومية، وهو أمر مؤكد – وعلامة جيدة على أنني أعمل في الاتجاه الصحيح! شخصيًا، بعض الأعمال التي تحفزني أكثر هي مواءمة القيمة الثقافية، والتي يتم تخصيصها لضمان عمل الأنظمة بشكل أفضل للثقافات التي يتم نشرها فيها. مع مؤلفتي المشاركة المذهلة وصديقتي العزيزة الآن، كريستي دينيسون، كان العمل على عملية تكييف نماذج اللغة مع المجتمع مشروعًا مخلصًا (والعديد من ساعات تصحيح الأخطاء) الذي شكل عمل السلامة والمواءمة اليوم.
كيف يمكنك التغلب على تحديات صناعة التكنولوجيا التي يهيمن عليها الذكور، وبالتالي، صناعة الذكاء الاصطناعي التي يهيمن عليها الذكور؟
لقد وجدت، وما زلت أجد، الأشخاص الذين أتعامل معهم – بدءًا من العمل مع قادة شركة رائعين يهتمون بشدة بنفس القضايا التي أعطيها الأولوية إلى المؤلفين المشاركين في الأبحاث العظماء الذين يمكنني أن أبدأ معهم كل جلسة عمل بجلسة علاجية مصغرة. تعد مجموعات التقارب مفيدة للغاية في بناء المجتمع ومشاركة النصائح. من المهم تسليط الضوء هنا على التقاطعية؛ مجتمعاتي من الباحثين المسلمين وBIPOC ملهمة باستمرار.
ما هي النصيحة التي تقدمها للنساء الراغبات في دخول مجال الذكاء الاصطناعي؟
لديك مجموعة دعم يكون نجاحها هو نجاحك. ومن حيث الشباب، أعتقد أن هذه هي “الفتاة الفتاة”. نفس النساء والحلفاء الذين دخلت معهم هذا المجال هم مواعيد القهوة المفضلة لدي والمكالمات المذعورة في وقت متأخر من الليل قبل الموعد النهائي. واحدة من أفضل النصائح المهنية التي قرأتها كانت من Arvind Narayan على المنصة المعروفة سابقًا باسم Twitter، حيث أسس “مبدأ Liam Neeson” المتمثل في ألا تكون الأذكى بينهم جميعًا، ولكن أن تمتلك مجموعة معينة من المهارات.
ما هي بعض القضايا الأكثر إلحاحًا التي تواجه الذكاء الاصطناعي أثناء تطوره؟
إن القضايا الأكثر إلحاحًا في حد ذاتها تتطور، وبالتالي فإن الإجابة الشاملة هي: التنسيق الدولي من أجل أنظمة أكثر أمانًا لجميع الشعوب. الأشخاص الذين يستخدمون الأنظمة ويتأثرون بها، حتى في نفس البلد، لديهم تفضيلات وأفكار مختلفة حول ما هو أكثر أمانًا لأنفسهم. ولن تعتمد المشكلات التي تنشأ على كيفية تطور الذكاء الاصطناعي فحسب، بل على البيئة التي يتم نشره فيها؛ تختلف أولويات السلامة وتعريفاتنا للقدرات على المستوى الإقليمي، مثل التهديد الأكبر للهجمات الإلكترونية على البنية التحتية الحيوية في الاقتصادات الأكثر رقمنة.
ما هي بعض المشكلات التي يجب على مستخدمي الذكاء الاصطناعي معرفتها؟
نادراً ما تعالج الحلول التقنية المخاطر والأضرار بشكل كلي. على الرغم من وجود خطوات يمكن للمستخدمين اتخاذها لزيادة معرفتهم بالذكاء الاصطناعي، فمن المهم الاستثمار في العديد من الإجراءات الوقائية لمواجهة المخاطر أثناء تطورها. على سبيل المثال، أنا متحمس لإجراء المزيد من الأبحاث حول العلامات المائية كأداة تقنية، ونحتاج أيضًا إلى إرشادات منسقة لصانعي السياسات بشأن توزيع المحتوى الذي يتم إنشاؤه، خاصة على منصات الوسائط الاجتماعية.
ما هي أفضل طريقة لبناء الذكاء الاصطناعي بشكل مسؤول؟
مع الشعوب المتضررة وإعادة تقييم أساليبنا باستمرار لتقييم وتنفيذ تقنيات السلامة. تتطور كل من التطبيقات المفيدة والأضرار المحتملة باستمرار وتتطلب ردود فعل متكررة. ينبغي فحص الوسائل التي يمكننا من خلالها تحسين سلامة الذكاء الاصطناعي بشكل جماعي كمجال. تعد التقييمات الأكثر شيوعًا للنماذج في عام 2024 أكثر قوة بكثير من تلك التي كنت أجريها في عام 2019. واليوم، أنا أكثر تفاؤلاً بشأن التقييمات الفنية مما أنا عليه بشأن الفريق الأحمر. أجد أن التقييمات البشرية ذات فائدة عالية للغاية، ولكن مع ظهور المزيد من الأدلة على العبء العقلي والتكاليف المتباينة للتعليقات البشرية، فأنا متفائل بشكل متزايد بشأن توحيد التقييمات.
كيف يمكن للمستثمرين الدفع بشكل أفضل نحو الذكاء الاصطناعي المسؤول؟
إنهم كذلك بالفعل! يسعدني أن أرى العديد من المستثمرين وشركات رأس المال الاستثماري يشاركون بنشاط في محادثات السلامة والسياسة، بما في ذلك عبر الرسائل المفتوحة وشهادات الكونجرس. أنا متحمس لسماع المزيد من خبرات المستثمرين حول ما يحفز الشركات الصغيرة عبر القطاعات، خاصة وأننا نشهد المزيد من استخدام الذكاء الاصطناعي في مجالات خارج الصناعات التقنية الأساسية.
اكتشاف المزيد من مجلة كوكان
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.