Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تكنلوجيا الويب

النساء في الذكاء الاصطناعي: تقول سارة مايرز ويست إنه ينبغي علينا أن نتساءل: “لماذا نبني الذكاء الاصطناعي على الإطلاق؟”


لمنح الأكاديميات اللاتي يركزن على الذكاء الاصطناعي وغيرهن من الوقت المستحق – والمتأخر – في دائرة الضوء، نشرت TechCrunch سلسلة من المقابلات التي تركز على النساء المتميزات اللاتي ساهمن في ثورة الذكاء الاصطناعي. نحن ننشر هذه المقالات على مدار العام مع استمرار ازدهار الذكاء الاصطناعي، مع تسليط الضوء على الأعمال الرئيسية التي غالبًا ما لا يتم التعرف عليها. اقرأ المزيد من الملفات الشخصية هنا.

سارة مايرز ويست هي المديرة الإدارية لمعهد الذكاء الاصطناعي الآن، وهو معهد أبحاث أمريكي يدرس الآثار الاجتماعية للذكاء الاصطناعي وأبحاث السياسات التي تعالج تركز السلطة في صناعة التكنولوجيا. عملت سابقًا كمستشار أول في مجال الذكاء الاصطناعي في لجنة التجارة الفيدرالية الأمريكية، وهي عالمة أبحاث زائرة في جامعة نورث إيسترن، بالإضافة إلى مساهم بحثي في ​​مختبر كورنيل للمواطنين والتكنولوجيا.

باختصار، كيف كانت بدايتك في مجال الذكاء الاصطناعي؟ ما الذي جذبك للميدان؟

لقد أمضيت السنوات الخمس عشرة الماضية في استجواب الدور الذي تلعبه شركات التكنولوجيا باعتبارها جهات فاعلة سياسية قوية عندما ظهرت على الخطوط الأمامية للحوكمة الدولية. في وقت مبكر من مسيرتي المهنية، جلست في الصف الأمامي أراقب كيف ظهرت شركات التكنولوجيا الأمريكية في جميع أنحاء العالم بطرق غيرت المشهد السياسي – في جنوب شرق آسيا، والصين، والشرق الأوسط وأماكن أخرى – وكتبت كتابًا يتعمق في كيفية ظهور الصناعة. شكلت الضغوط والتنظيم أصول نموذج أعمال المراقبة للإنترنت على الرغم من التقنيات التي قدمت البدائل في نظرية الذي – التي في يمارس فشل في أن يتحقق.

في مراحل عديدة من مسيرتي المهنية، تساءلت: “لماذا نحن منحصرون في هذه الرؤية البائسة للمستقبل؟” الجواب لا علاقة له بالتكنولوجيا نفسها، بل يتعلق كثيرًا بالسياسة العامة والتسويق.

لقد كان هذا هو مشروعي إلى حد كبير منذ ذلك الحين، سواء في مسيرتي البحثية أو الآن في عملي السياسي كمدير مشارك لـ AI Now. إذا كان الذكاء الاصطناعي جزءًا من البنية التحتية لحياتنا اليومية، فنحن بحاجة إلى إجراء فحص نقدي للمؤسسات التي تنتجه، والتأكد من وجود احتكاك كاف كمجتمع – سواء من خلال التنظيم أو من خلال التنظيم – لضمان تلبية احتياجات الجمهور. التي يتم تقديمها في نهاية اليوم، وليس تلك التي تقدمها شركات التكنولوجيا.

ما هو العمل الذي تفتخر به أكثر في مجال الذكاء الاصطناعي؟

أنا فخور حقًا بالعمل الذي قمنا به أثناء وجودنا في لجنة التجارة الفيدرالية، وهي الوكالة الحكومية الأمريكية التي تقع، من بين أمور أخرى، في الخطوط الأمامية للإنفاذ التنظيمي للذكاء الاصطناعي. لقد أحببت أن أشمّر عن سواعدي وأعمل على القضايا. لقد تمكنت من استخدام التدريب على أساليبي كباحث للمشاركة في العمل الاستقصائي، نظرًا لأن مجموعة الأدوات هي نفسها في الأساس. كان من دواعي السرور استخدام هذه الأدوات لمحاسبة السلطة بشكل مباشر، ورؤية هذا العمل له تأثير فوري على الجمهور، سواء كان ذلك لمعالجة كيفية استخدام الذكاء الاصطناعي لخفض قيمة العمال ورفع الأسعار أو مكافحة السلوك المناهض للمنافسة. من شركات التكنولوجيا الكبرى.

لقد تمكنا من ضم فريق رائع من التقنيين الذين يعملون في مكتب البيت الأبيض لسياسة العلوم والتكنولوجيا، وكان من المثير أن نرى الأساس الذي وضعناه هناك له صلة مباشرة بظهور الذكاء الاصطناعي التوليدي وأهمية البنية التحتية السحابية .

ما هي بعض القضايا الأكثر إلحاحًا التي تواجه الذكاء الاصطناعي أثناء تطوره؟

أولا وقبل كل شيء، تُستخدم تقنيات الذكاء الاصطناعي على نطاق واسع في سياقات شديدة الحساسية – في المستشفيات، والمدارس، وعلى الحدود، وما إلى ذلك – ولكنها تظل غير خاضعة للاختبار والتحقق من صحتها بشكل كاف. هذه تقنية معرضة للأخطاء، ونحن نعلم من الأبحاث المستقلة أن تلك الأخطاء لا يتم توزيعها بالتساوي؛ فهي تلحق الضرر بشكل غير متناسب بالمجتمعات التي تحملت وطأة التمييز لفترة طويلة. يجب أن نضع حدًا أعلى بكثير. ولكن ما يقلقني هو مدى استخدام المؤسسات القوية للذكاء الاصطناعي – سواء كان يعمل أم لا – لتبرير أفعالها، بدءًا من استخدام الأسلحة ضد المدنيين في غزة إلى حرمان العمال من حقوقهم. هذه مشكلة ليست في التكنولوجيا، ولكن في الخطاب: كيف نوجه ثقافتنا حول التكنولوجيا وفكرة أنه إذا تم استخدام الذكاء الاصطناعي، فإن بعض الاختيارات أو السلوكيات تصبح أكثر “موضوعية” أو يتم تجاهلها بطريقة أو بأخرى.

ما هي أفضل طريقة لبناء الذكاء الاصطناعي بشكل مسؤول؟

علينا أن نبدأ دائمًا من السؤال: لماذا نبني الذكاء الاصطناعي من الأساس؟ ما الذي يستلزم استخدام الذكاء الاصطناعي، وهل تكنولوجيا الذكاء الاصطناعي مناسبة لهذا الغرض؟ في بعض الأحيان يكون الجواب هو البناء أحسنوفي هذه الحالة، يجب على المطورين ضمان الامتثال للقانون، وتوثيق أنظمتهم والتحقق من صحتها بقوة، وجعل ما في وسعهم مفتوحًا وشفافًا، حتى يتمكن الباحثون المستقلون من فعل الشيء نفسه. ولكن في أحيان أخرى يكون الجواب هو عدم البناء على الإطلاق: فنحن لا نحتاج إلى المزيد من الأسلحة “المصممة بشكل مسؤول” أو تكنولوجيا المراقبة. الاستخدام النهائي مهم بالنسبة لهذا السؤال، ومن هنا يجب أن نبدأ.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى