×

المرأة في الذكاء الاصطناعي: كلير ليبوفيتش، خبيرة الذكاء الاصطناعي والنزاهة الإعلامية في PAI

المرأة في الذكاء الاصطناعي: كلير ليبوفيتش، خبيرة الذكاء الاصطناعي والنزاهة الإعلامية في PAI

[ad_1]

لمنح الأكاديميات اللاتي يركزن على الذكاء الاصطناعي وغيرهن من الوقت المستحق – والمتأخر – في دائرة الضوء، تطلق TechCrunch سلسلة من المقابلات التي تركز على النساء المتميزات اللاتي ساهمن في ثورة الذكاء الاصطناعي. سنقوم بنشر العديد من المقالات على مدار العام مع استمرار ازدهار الذكاء الاصطناعي، مع تسليط الضوء على الأعمال الرئيسية التي غالبًا ما لا يتم التعرف عليها. اقرأ المزيد من الملفات الشخصية هنا.

كلير ليبوفيتش هي رئيسة برنامج الذكاء الاصطناعي ونزاهة الوسائط في الشراكة من أجل الذكاء الاصطناعي (PAI)، وهي مجموعة الصناعة المدعومة من أمازون، وميتا، وجوجل، ومايكروسوفت وغيرها الملتزمة بالنشر “المسؤول” لتكنولوجيا الذكاء الاصطناعي. كما أنها تشرف أيضًا على اللجنة التوجيهية للذكاء الاصطناعي ونزاهة وسائل الإعلام التابعة لـ PAI.

في عام 2021، كانت ليبوفيتش زميلة صحفية في مجلة Tablet Magazine، وفي عام 2022، كانت زميلة في مركز بيلاجيو التابع لمؤسسة روكفلر والذي يركز على حوكمة الذكاء الاصطناعي. وقد قدم ليبوفيتش – الحاصل على درجة البكالوريوس في علم النفس وعلوم الكمبيوتر من جامعة هارفارد ودرجة الماجستير من أكسفورد – استشارات للشركات والحكومات والمنظمات غير الربحية بشأن حوكمة الذكاء الاصطناعي والوسائط التوليدية والمعلومات الرقمية.

سؤال وجواب

باختصار، كيف كانت بدايتك في مجال الذكاء الاصطناعي؟ ما الذي جذبك للميدان؟

قد يبدو الأمر متناقضًا، لكنني جئت إلى مجال الذكاء الاصطناعي بسبب اهتمامي بالسلوك البشري. لقد نشأت في نيويورك، وكنت مفتونًا دائمًا بالطرق العديدة التي يتفاعل بها الناس هناك وكيف يتشكل هذا المجتمع المتنوع. كان لدي فضول بشأن الأسئلة الكبيرة التي تؤثر على الحقيقة والعدالة، مثل كيف نختار أن نثق بالآخرين؟ ما الذي يثير الصراع بين المجموعات؟ لماذا يعتقد الناس أن بعض الأشياء صحيحة وليس غيرها؟ لقد بدأت استكشاف هذه الأسئلة في حياتي الأكاديمية من خلال أبحاث العلوم المعرفية، وسرعان ما أدركت أن التكنولوجيا كانت تؤثر على إجابات هذه الأسئلة. لقد وجدت أيضًا أنه من المثير للاهتمام كيف يمكن للذكاء الاصطناعي أن يكون كناية عن الذكاء البشري.

وقد قادني ذلك إلى الفصول الدراسية لعلوم الكمبيوتر حيث أكد أعضاء هيئة التدريس – ويجب أن أشيد بالبروفيسور باربرا جروسز، الرائدة في معالجة اللغات الطبيعية، والبروفيسور جيم والدو، الذي مزج بين فلسفته وخلفيته في علوم الكمبيوتر – على أهمية ملء فصولهم الدراسية بـ التخصصات غير المتعلقة بعلوم الكمبيوتر والهندسة للتركيز على التأثير الاجتماعي للتكنولوجيات، بما في ذلك الذكاء الاصطناعي. وكان هذا قبل أن تصبح “أخلاقيات الذكاء الاصطناعي” مجالًا متميزًا وشعبيًا. لقد أوضحوا أنه على الرغم من أن الفهم التقني مفيد، إلا أن التكنولوجيا تؤثر على مجالات واسعة بما في ذلك الجغرافيا السياسية والاقتصاد والمشاركة الاجتماعية وغير ذلك، مما يتطلب من الأشخاص من خلفيات تخصصية عديدة إبداء رأيهم في المسائل التي تبدو تكنولوجية.

سواء كنت معلمًا يفكر في كيفية تأثير أدوات الذكاء الاصطناعي التوليدية على أصول التدريس، أو أمين متحف يقوم بتجربة مسار تنبؤي لمعرض ما، أو طبيبًا يبحث في طرق جديدة لاكتشاف الصور لقراءة التقارير المعملية، فإن الذكاء الاصطناعي يمكن أن يؤثر على مجال عملك. هذا الواقع، وهو أن الذكاء الاصطناعي يمس العديد من المجالات، أثار اهتمامي: كان هناك تنوع فكري متأصل في العمل في مجال الذكاء الاصطناعي، وهذا جلب معه فرصة للتأثير على العديد من جوانب المجتمع.

ما هو العمل الذي تفتخر به أكثر (في مجال الذكاء الاصطناعي)؟

أنا فخور بالعمل في مجال الذكاء الاصطناعي الذي يجمع وجهات نظر متباينة معًا بطريقة مدهشة وموجهة نحو العمل – والتي لا تستوعب الخلاف فحسب، بل تشجعه أيضًا. لقد انضممت إلى PAI باعتباري الموظف الثاني في المنظمة منذ ستة أعوام، وشعرت على الفور أن المنظمة كانت رائدة في التزامها بوجهات النظر المتنوعة. رأت PAI أن مثل هذا العمل شرط أساسي حيوي لحوكمة الذكاء الاصطناعي التي تخفف الضرر وتؤدي إلى التبني العملي والتأثير في مجال الذكاء الاصطناعي. لقد ثبت أن هذا صحيح، وقد سعدت بالمساعدة في تشكيل احتضان PAI لتعدد التخصصات ومشاهدة المؤسسة تنمو جنبًا إلى جنب مع مجال الذكاء الاصطناعي.

بدأ عملنا في مجال الوسائط الاصطناعية على مدى السنوات الست الماضية قبل أن يصبح الذكاء الاصطناعي التوليدي جزءًا من الوعي العام، ويجسد إمكانيات حوكمة الذكاء الاصطناعي لأصحاب المصلحة المتعددين. في عام 2020، عملنا مع تسع منظمات مختلفة من المجتمع المدني والصناعة والإعلام لتشكيل تحدي اكتشاف التزييف العميق على فيسبوك، وهو عبارة عن مسابقة للتعلم الآلي لبناء نماذج لاكتشاف الوسائط التي ينشئها الذكاء الاصطناعي. ساعدت وجهات النظر الخارجية هذه في تشكيل عدالة النماذج الفائزة وأهدافها، حيث أظهرت كيف يمكن لخبراء حقوق الإنسان والصحفيين المساهمة في مسألة تبدو تقنية مثل الكشف عن التزييف العميق. في العام الماضي، نشرنا مجموعة من الإرشادات المعيارية بشأن وسائل الإعلام الاصطناعية المسؤولة – الممارسات المسؤولة لوسائل الإعلام الاصطناعية التابعة لـ PAI – والتي تضم الآن 18 مؤيدًا من خلفيات مختلفة تمامًا، بدءًا من OpenAI إلى TikTok إلى Code for Africa وBumble وBBC وWITNESS. إن القدرة على وضع القلم على الورق بشأن إرشادات قابلة للتنفيذ مستنيرًا بالحقائق التقنية والاجتماعية هو شيء واحد، ولكن الحصول على الدعم المؤسسي فعليًا شيء آخر. في هذه الحالة، تلتزم المؤسسات بتقديم تقارير الشفافية حول كيفية تعاملها مع مجال الوسائط الاصطناعية. تعد مشاريع الذكاء الاصطناعي التي تتميز بتوجيهات ملموسة، وتظهر كيفية تنفيذ هذا التوجيه عبر المؤسسات، من أكثر المشاريع أهمية بالنسبة لي.

كيف يمكنك التغلب على تحديات صناعة التكنولوجيا التي يهيمن عليها الذكور، وبالتالي، صناعة الذكاء الاصطناعي التي يهيمن عليها الذكور؟

لقد كان لدي مرشدين رائعين من الذكور والإناث طوال مسيرتي المهنية. إن العثور على الأشخاص الذين يدعمونني ويتحدونني في نفس الوقت هو مفتاح أي نمو شهدته. أجد أن التركيز على الاهتمامات المشتركة ومناقشة الأسئلة التي تحرك مجال الذكاء الاصطناعي يمكن أن يجمع الأشخاص من خلفيات ووجهات نظر مختلفة معًا. ومن المثير للاهتمام أن فريق PAI يتكون من أكثر من نصف النساء، والعديد من المنظمات التي تعمل في مجال الذكاء الاصطناعي والمجتمع أو المسائل المسؤولة في مجال الذكاء الاصطناعي لديها العديد من النساء في طاقم العمل. وهذا غالبًا ما يتناقض مع أولئك الذين يعملون في فرق أبحاث الهندسة والذكاء الاصطناعي، وهو خطوة في الاتجاه الصحيح للتمثيل في النظام البيئي للذكاء الاصطناعي.

ما هي النصيحة التي تقدمها للنساء الراغبات في دخول مجال الذكاء الاصطناعي؟

كما تطرقت في السؤال السابق، فإن بعض المجالات التي يهيمن عليها الذكور بشكل أساسي في مجال الذكاء الاصطناعي والتي واجهتها كانت أيضًا تلك الأكثر تقنية. وفي حين لا ينبغي لنا أن نعطي الأولوية للفطنة التقنية على الأشكال الأخرى لمحو الأمية في مجال الذكاء الاصطناعي، فقد وجدت أن الحصول على التدريب الفني كان بمثابة نعمة لثقتي وفعاليتي في مثل هذه المجالات. نحن بحاجة إلى تمثيل متساوٍ في الأدوار الفنية والانفتاح على خبرات الأشخاص الخبراء في مجالات أخرى مثل الحقوق المدنية والسياسة التي تتمتع بتمثيل أكثر توازناً. وفي الوقت نفسه، يعد تزويد المزيد من النساء بالثقافة التقنية أمرًا أساسيًا لتحقيق التوازن في التمثيل في مجال الذكاء الاصطناعي.

لقد وجدت أيضًا أنه من المفيد جدًا التواصل مع النساء في مجال الذكاء الاصطناعي اللاتي نجحن في تحقيق التوازن بين الحياة الأسرية والمهنية. إن العثور على نماذج يحتذى بها للتحدث معها حول الأسئلة الكبيرة المتعلقة بالمهنة والأبوة – وبعض التحديات الفريدة التي لا تزال النساء تواجهها في العمل – جعلني أشعر بأنني أفضل استعدادًا للتعامل مع بعض هذه التحديات عند ظهورها.

ما هي بعض القضايا الأكثر إلحاحًا التي تواجه الذكاء الاصطناعي أثناء تطوره؟

أصبحت أسئلة الحقيقة والثقة عبر الإنترنت – وخارجها – صعبة بشكل متزايد مع تطور الذكاء الاصطناعي. نظرًا لأن المحتوى الذي يتراوح من الصور إلى مقاطع الفيديو إلى النص يمكن إنشاؤه أو تعديله بواسطة الذكاء الاصطناعي، فهل ما زالت الرؤية تصدق؟ كيف يمكننا الاعتماد على الأدلة إذا كان من الممكن التلاعب بالوثائق بسهولة وواقعية؟ هل يمكن أن يكون لدينا مساحات مخصصة للإنسان فقط على الإنترنت إذا كان من السهل للغاية تقليد شخص حقيقي؟ كيف يمكننا التنقل بين المفاضلات التي يقدمها الذكاء الاصطناعي بين حرية التعبير واحتمال أن تسبب أنظمة الذكاء الاصطناعي الضرر؟ وعلى نطاق أوسع، كيف نضمن أن بيئة المعلومات لا تتشكل فقط من قبل عدد قليل من الشركات المختارة والعاملين فيها، بل تتضمن وجهات نظر أصحاب المصلحة من جميع أنحاء العالم، بما في ذلك الجمهور؟

إلى جانب هذه الأسئلة المحددة، شاركت PAI في جوانب أخرى من الذكاء الاصطناعي والمجتمع، بما في ذلك كيفية نظرنا إلى العدالة والتحيز في عصر صنع القرار الخوارزمي، وكيف تؤثر العمالة على الذكاء الاصطناعي وتتأثر به، وكيفية التنقل في النشر المسؤول لأنظمة الذكاء الاصطناعي و وحتى كيفية جعل أنظمة الذكاء الاصطناعي أكثر انعكاسًا لوجهات نظر لا تعد ولا تحصى. وعلى المستوى الهيكلي، يتعين علينا أن ننظر في الكيفية التي يمكن بها لحوكمة الذكاء الاصطناعي أن تتنقل بين مقايضات واسعة النطاق من خلال دمج وجهات نظر متنوعة.

ما هي بعض المشكلات التي يجب على مستخدمي الذكاء الاصطناعي معرفتها؟

أولاً، يجب أن يعلم مستخدمو الذكاء الاصطناعي أنه إذا كان هناك شيء يبدو جيدًا لدرجة يصعب تصديقه، فمن المحتمل أن يكون كذلك.

بطبيعة الحال، عكست طفرة الذكاء الاصطناعي التوليدية على مدى العام الماضي قدرا هائلا من البراعة والابتكار، ولكنها أدت أيضا إلى ظهور رسائل عامة حول الذكاء الاصطناعي غالبا ما تكون مبالغة وغير دقيقة.

ويجب على مستخدمي الذكاء الاصطناعي أيضًا أن يفهموا أن الذكاء الاصطناعي ليس ثوريًا، ولكنه يؤدي إلى تفاقم وزيادة المشاكل والفرص القائمة. هذا لا يعني أنهم يجب أن يأخذوا الذكاء الاصطناعي على محمل الجد، بل يستخدمون هذه المعرفة كأساس مفيد للتنقل في عالم يتزايد فيه الذكاء الاصطناعي. على سبيل المثال، إذا كنت قلقًا بشأن حقيقة أن الأشخاص قد يسيئون صياغة سياق مقطع فيديو قبل الانتخابات عن طريق تغيير التسمية التوضيحية، فيجب أن تقلق بشأن السرعة والنطاق الذي يمكنهم من خلاله التضليل باستخدام تقنية التزييف العميق. إذا كنت قلقًا بشأن استخدام المراقبة في مكان العمل، فيجب عليك أيضًا التفكير في كيفية قيام الذكاء الاصطناعي بجعل هذه المراقبة أسهل وأكثر انتشارًا. إن الحفاظ على شكوك صحية حول حداثة مشاكل الذكاء الاصطناعي، مع الصدق أيضًا بشأن ما هو مميز في اللحظة الحالية، يعد إطارًا مفيدًا للمستخدمين لتسليط الضوء على مواجهاتهم مع الذكاء الاصطناعي.

ما هي أفضل طريقة لبناء الذكاء الاصطناعي بشكل مسؤول؟

إن بناء الذكاء الاصطناعي بشكل مسؤول يتطلب منا توسيع مفهومنا حول من يلعب دورًا في “بناء” الذكاء الاصطناعي. وبطبيعة الحال، يعد التأثير على شركات التكنولوجيا ومنصات التواصل الاجتماعي وسيلة رئيسية للتأثير على تأثير أنظمة الذكاء الاصطناعي، وهذه المؤسسات حيوية لبناء التكنولوجيا بشكل مسؤول. وفي الوقت نفسه، يجب علينا أن نعترف بكيفية استمرار مشاركة المؤسسات المتنوعة من مختلف أنحاء المجتمع المدني والصناعة ووسائل الإعلام والأوساط الأكاديمية والجمهور في بناء ذكاء اصطناعي مسؤول يخدم المصلحة العامة.

لنأخذ على سبيل المثال التطوير والنشر المسؤول للوسائط الاصطناعية.

في حين أن شركات التكنولوجيا قد تشعر بالقلق بشأن مسؤوليتها عند التعامل مع كيفية تأثير مقطع فيديو اصطناعي على المستخدمين قبل الانتخابات، فقد يشعر الصحفيون بالقلق من إنشاء المحتالين لمقاطع فيديو اصطناعية تدعي أنها تأتي من علامتهم التجارية الإخبارية الموثوقة. قد ينظر المدافعون عن حقوق الإنسان إلى المسؤولية المتعلقة بكيفية تقليل الوسائط التي ينتجها الذكاء الاصطناعي من تأثير مقاطع الفيديو كدليل على الانتهاكات. وقد يكون الفنانون متحمسين لفرصة التعبير عن أنفسهم من خلال الوسائط التوليدية، في حين يشعرون بالقلق أيضًا بشأن كيفية الاستفادة من إبداعاتهم دون موافقتهم لتدريب نماذج الذكاء الاصطناعي التي تنتج وسائط جديدة. تُظهر هذه الاعتبارات المتنوعة مدى أهمية إشراك مختلف أصحاب المصلحة في المبادرات والجهود الرامية إلى بناء الذكاء الاصطناعي بشكل مسؤول، وكيف تتأثر وتؤثر على عدد لا يحصى من المؤسسات بالطريقة التي يتم بها دمج الذكاء الاصطناعي في المجتمع.

كيف يمكن للمستثمرين الدفع بشكل أفضل نحو الذكاء الاصطناعي المسؤول؟

قبل سنوات، سمعت دي جي باتيل، كبير علماء البيانات السابق في البيت الأبيض، يصف مراجعة لشعار “تحرك بسرعة وكسر الأشياء” السائد في عصر وسائل التواصل الاجتماعي المبكر والذي ظل عالقا في ذهني. واقترح أن “يتحرك الميدان بشكل هادف ويصلح الأمور”.

لقد أحببت هذا لأنه لم يكن يعني ضمناً الركود أو التخلي عن الابتكار، بل كان يعني النية وإمكانية أن يتمكن المرء من الابتكار مع تحمل المسؤولية. وينبغي للمستثمرين المساعدة في تحفيز هذه العقلية، من خلال إتاحة المزيد من الوقت والمساحة لشركات محفظتهم الاستثمارية لتبني ممارسات مسؤولة في مجال الذكاء الاصطناعي دون خنق التقدم. في كثير من الأحيان، تصف المؤسسات الوقت المحدود والمواعيد النهائية الضيقة كعامل مقيد لفعل الشيء “الصحيح”، ويمكن للمستثمرين أن يكونوا حافزا رئيسيا لتغيير هذه الديناميكية.

كلما عملت أكثر في مجال الذكاء الاصطناعي، وجدت نفسي أتصارع مع أسئلة إنسانية عميقة. وهذه الأسئلة تتطلب منا جميعا الإجابة عليها.

[ad_2]

إرسال التعليق

You May Have Missed