Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تكنلوجيا الويب

المرأة في الذكاء الاصطناعي: تؤكد ميريام فوجل على الحاجة إلى الذكاء الاصطناعي المسؤول


لمنح الأكاديميات اللاتي يركزن على الذكاء الاصطناعي وغيرهن من الوقت المستحق – والمتأخر – في دائرة الضوء، نشرت TechCrunch سلسلة من المقابلات التي تركز على النساء المتميزات اللاتي ساهمن في ثورة الذكاء الاصطناعي. نحن ننشر هذه المقالات على مدار العام مع استمرار ازدهار الذكاء الاصطناعي، مع تسليط الضوء على الأعمال الرئيسية التي غالبًا ما لا يتم التعرف عليها. اقرأ المزيد من الملفات الشخصية هنا.

ميريام فوجل هي الرئيس التنفيذي لشركة EqualAI، وهي منظمة غير ربحية تم إنشاؤها للحد من التحيز اللاواعي في الذكاء الاصطناعي وتعزيز الإدارة المسؤولة للذكاء الاصطناعي. وهي تعمل أيضًا كرئيسة للجنة الاستشارية الوطنية للذكاء الاصطناعي التي تم إطلاقها مؤخرًا، والتي كلفها الكونجرس بتقديم المشورة للرئيس جو بايدن والبيت الأبيض بشأن سياسة الذكاء الاصطناعي، وتقوم بتدريس قانون وسياسة التكنولوجيا في مركز القانون بجامعة جورج تاون.

شغل فوجل سابقًا منصب نائب المدعي العام المساعد في وزارة العدل، حيث كان يقدم المشورة للمدعي العام ونائب المدعي العام بشأن مجموعة واسعة من القضايا القانونية والسياسية والتشغيلية. بصفتها عضوًا في مجلس إدارة معهد الذكاء الاصطناعي المسؤول ومستشارًا كبيرًا لمركز الديمقراطية والتكنولوجيا، قدمت فوجل المشورة لقيادة البيت الأبيض بشأن مبادرات تتراوح بين السياسات المتعلقة بالمرأة والاقتصاد والتنظيم والسلامة الغذائية ومسائل العدالة الجنائية.

باختصار، كيف كانت بدايتك في مجال الذكاء الاصطناعي؟ ما الذي جذبك للميدان؟

بدأت مسيرتي المهنية بالعمل في الحكومة، في البداية كمتدربة في مجلس الشيوخ، في الصيف الذي سبق الصف الحادي عشر. لقد أصبت بخلل في السياسة وقضيت فصول الصيف العديدة التالية في العمل في هيل ثم في البيت الأبيض. كان تركيزي في تلك المرحلة على الحقوق المدنية، وهو ليس المسار التقليدي للذكاء الاصطناعي، ولكن إذا نظرنا إلى الوراء، فهو منطقي تمامًا.

بعد التخرج من كلية الحقوق، تقدمت مسيرتي المهنية من محامية ترفيه متخصصة في الملكية الفكرية إلى المشاركة في الحقوق المدنية والتأثير الاجتماعي في السلطة التنفيذية. كان لي شرف قيادة فريق عمل المساواة في الأجور أثناء خدمتي في البيت الأبيض، وأثناء خدمتي كنائب مساعد للمدعي العام في عهد نائب المدعي العام السابق سالي ييتس، قمت بقيادة إنشاء وتطوير تدريب على التحيز الضمني لإنفاذ القانون الفيدرالي .

لقد طُلب مني قيادة EqualAI بناءً على خبرتي كمحامية في مجال التكنولوجيا وخلفيتي في السياسات التي تعالج التحيز والأضرار المنهجية. لقد انجذبت إلى هذه المنظمة لأنني أدركت أن الذكاء الاصطناعي يمثل الحدود التالية للحقوق المدنية. وبدون اليقظة، يمكن التراجع عن عقود من التقدم في سطور من التعليمات البرمجية.

لقد كنت دائمًا متحمسًا للإمكانيات التي يخلقها الابتكار، وما زلت أعتقد أن الذكاء الاصطناعي يمكن أن يقدم فرصًا جديدة مذهلة لمزيد من السكان لتحقيق الازدهار – ولكن فقط إذا كنا حريصين في هذا المنعطف الحرج لضمان قدرة المزيد من الناس على المشاركة بشكل هادف في هذا الابتكار. الخلق والتنمية.

كيف يمكنك التغلب على تحديات صناعة التكنولوجيا التي يهيمن عليها الذكور، وبالتالي، صناعة الذكاء الاصطناعي التي يهيمن عليها الذكور؟

أعتقد بشكل أساسي أن لدينا جميعًا دورًا نلعبه في ضمان أن يكون الذكاء الاصطناعي لدينا فعالًا وفعالًا ومفيدًا قدر الإمكان. وهذا يعني التأكد من أننا نفعل المزيد لدعم أصوات النساء في تطويرها (اللواتي، بالمناسبة، يمثلن أكثر من 85٪ من المشتريات في الولايات المتحدة، وبالتالي فإن ضمان مراعاة مصالحهن وسلامتهن يعد خطوة تجارية ذكية). فضلاً عن أصوات الفئات السكانية الأخرى الممثلة تمثيلاً ناقصاً من مختلف الأعمار والمناطق والأعراق والجنسيات الذين لا يشاركون بشكل كافٍ.

وبينما نعمل على تحقيق المساواة بين الجنسين، يجب علينا ضمان مراعاة المزيد من الأصوات ووجهات النظر من أجل تطوير الذكاء الاصطناعي الذي يناسب جميع المستهلكين – وليس فقط الذكاء الاصطناعي الذي يناسب المطورين.

ما هي النصيحة التي تقدمها للنساء الراغبات في دخول مجال الذكاء الاصطناعي؟

أولاً، لم يفت الأوان بعد للبدء. أبداً. أنا أشجع جميع الأجداد على تجربة استخدام ChatGPT من OpenAI، أو Copilot من Microsoft، أو Gemini من Google. سنحتاج جميعًا إلى أن نصبح متعلمين بالذكاء الاصطناعي حتى نزدهر في ما سيصبح اقتصادًا مدعومًا بالذكاء الاصطناعي. وهذا مثير! لدينا جميعا دور للعب. سواء كنت تبدأ مهنة في مجال الذكاء الاصطناعي أو تستخدم الذكاء الاصطناعي لدعم عملك، يجب على النساء تجربة أدوات الذكاء الاصطناعي، ورؤية ما يمكن أن تفعله هذه الأدوات وما لا يمكنها فعله، ومعرفة ما إذا كانت تعمل من أجلهن وتصبح بشكل عام ماهرة في الذكاء الاصطناعي.

ثانيا، يتطلب تطوير الذكاء الاصطناعي المسؤول أكثر من مجرد علماء كمبيوتر أخلاقيين. يعتقد الكثير من الناس أن مجال الذكاء الاصطناعي يتطلب علوم الكمبيوتر أو أي درجة أخرى في العلوم والتكنولوجيا والهندسة والرياضيات، في حين أن الذكاء الاصطناعي يحتاج في الواقع إلى وجهات نظر وخبرات من النساء والرجال من جميع الخلفيات. أقفز للداخل! هناك حاجة إلى صوتك ومنظورك. مشاركتك أمر بالغ الأهمية.

ما هي بعض القضايا الأكثر إلحاحًا التي تواجه الذكاء الاصطناعي أثناء تطوره؟

أولاً، نحن بحاجة إلى قدر أكبر من المعرفة بالذكاء الاصطناعي. نحن “متفائلون بشأن الذكاء الاصطناعي” في EqualAI، مما يعني أننا نعتقد أن الذكاء الاصطناعي سيوفر فرصًا غير مسبوقة لاقتصادنا ويحسن حياتنا اليومية – ولكن فقط إذا كانت هذه الفرص متاحة بشكل متساوٍ ومفيدة لقطاع أكبر من سكاننا. نحن بحاجة إلى القوى العاملة الحالية لدينا، والجيل القادم، وأجدادنا – كلنا – أن يكون مجهزًا بالمعرفة والمهارات اللازمة للاستفادة من الذكاء الاصطناعي.

ثانيا، يتعين علينا أن نعمل على تطوير مقاييس ومقاييس موحدة لتقييم أنظمة الذكاء الاصطناعي. ستكون التقييمات الموحدة حاسمة لبناء الثقة في أنظمة الذكاء الاصطناعي لدينا والسماح للمستهلكين والمنظمين والمستخدمين النهائيين بفهم حدود أنظمة الذكاء الاصطناعي التي يتعاملون معها وتحديد ما إذا كان هذا النظام يستحق ثقتنا. إن فهم النظام الذي تم تصميمه لخدمته وحالات الاستخدام المتوخاة سيساعدنا في الإجابة على السؤال الرئيسي: لمن يمكن أن يفشل هذا؟

ما هي بعض المشكلات التي يجب على مستخدمي الذكاء الاصطناعي معرفتها؟

الذكاء الاصطناعي هو فقط: صناعي. تم بناؤه من قبل البشر “لتقليد” الإدراك البشري وتمكين البشر في مساعيهم. يجب أن نحافظ على القدر المناسب من الشك ونبذل العناية الواجبة عند استخدام هذه التكنولوجيا للتأكد من أننا نضع ثقتنا في الأنظمة التي تستحق ثقتنا. يمكن للذكاء الاصطناعي أن يعزز الإنسانية، لكنه لا يحل محلها.

يتعين علينا أن ندرك بوضوح حقيقة مفادها أن الذكاء الاصطناعي يتكون من مكونين رئيسيين: الخوارزميات (التي أنشأها البشر) والبيانات (التي تعكس المحادثات والتفاعلات البشرية). ونتيجة لذلك، يعكس الذكاء الاصطناعي عيوبنا البشرية ويتكيف معها. يمكن أن يكون التحيز والأضرار متأصلًا في جميع أنحاء دورة حياة الذكاء الاصطناعي، سواء من خلال الخوارزميات التي يكتبها البشر أو من خلال البيانات التي تمثل لقطة من حياة البشر. ومع ذلك، فإن كل نقطة اتصال بشرية تمثل فرصة لتحديد الضرر المحتمل وتخفيفه.

نظرًا لأنه لا يمكن للمرء أن يتخيل إلا على نطاق واسع بقدر ما تسمح به خبرته الخاصة ولأن برامج الذكاء الاصطناعي مقيدة بالبنيات التي بنيت بموجبها، فكلما زاد عدد الأشخاص ذوي وجهات النظر والخبرات المتنوعة في الفريق، زاد احتمال اكتشافهم للتحيزات والمخاوف الأخرى المتعلقة بالسلامة. جزءا لا يتجزأ من الذكاء الاصطناعي الخاص بهم.

ما هي أفضل طريقة لبناء الذكاء الاصطناعي بشكل مسؤول؟

إن بناء الذكاء الاصطناعي الذي يستحق ثقتنا هو مسؤوليتنا جميعًا. لا يمكننا أن نتوقع من شخص آخر أن يفعل ذلك نيابة عنا. يجب أن نبدأ بطرح ثلاثة أسئلة أساسية: (1) لمن تم بناء نظام الذكاء الاصطناعي هذا (2)، ما هي حالات الاستخدام المتصورة و (3) لمن يمكن أن يفشل هذا؟ وحتى مع وضع هذه الأسئلة في الاعتبار، ستكون هناك حتماً مزالق. ومن أجل التخفيف من هذه المخاطر، يجب على المصممين والمطورين والناشرين اتباع أفضل الممارسات.

في EqualAI، نقوم بتعزيز “نظافة الذكاء الاصطناعي” الجيدة، والتي تتضمن تخطيط إطار العمل الخاص بك وضمان المساءلة وتوحيد الاختبارات والتوثيق والتدقيق الروتيني. لقد قمنا أيضًا بنشر دليل مؤخرًا لتصميم وتفعيل إطار عمل مسؤول لحوكمة الذكاء الاصطناعي، والذي يحدد القيم والمبادئ وإطار العمل لتنفيذ الذكاء الاصطناعي بشكل مسؤول في المؤسسة. تعمل هذه الورقة كمورد للمؤسسات من أي حجم أو قطاع أو نضج في خضم اعتماد وتطوير واستخدام وتنفيذ أنظمة الذكاء الاصطناعي مع التزام داخلي وعام للقيام بذلك بشكل مسؤول.

كيف يمكن للمستثمرين الدفع بشكل أفضل نحو الذكاء الاصطناعي المسؤول؟

يلعب المستثمرون دورًا كبيرًا في ضمان أن يكون الذكاء الاصطناعي لدينا آمنًا وفعالًا ومسؤولًا. يمكن للمستثمرين التأكد من أن الشركات التي تسعى للحصول على التمويل على دراية بالأضرار والمسؤوليات المحتملة في أنظمة الذكاء الاصطناعي الخاصة بها وتفكر في تخفيفها. وحتى طرح السؤال التالي: “كيف قمت بتأسيس ممارسات حوكمة الذكاء الاصطناعي؟” هي خطوة أولى ذات مغزى في ضمان نتائج أفضل.

إن هذا الجهد لا يخدم الصالح العام فحسب؛ كما أنه يصب في مصلحة المستثمرين الذين يرغبون في التأكد من أن الشركات التي يستثمرون فيها وينتسبون إليها لا ترتبط بعناوين سيئة أو مثقلة بالدعاوى القضائية. الثقة هي واحدة من الأشياء القليلة غير القابلة للتفاوض لنجاح الشركة، والالتزام بالحوكمة المسؤولة للذكاء الاصطناعي هو أفضل طريقة لبناء ثقة الجمهور والحفاظ عليها. يعد الذكاء الاصطناعي القوي والجدير بالثقة منطقيًا من الناحية التجارية.


اكتشاف المزيد من مجلة كوكان

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى