×

المرأة في الذكاء الاصطناعي: هايدي خلف، مديرة هندسة السلامة في Trail of Bits

المرأة في الذكاء الاصطناعي: هايدي خلف، مديرة هندسة السلامة في Trail of Bits

[ad_1]

لمنح الأكاديميات اللاتي يركزن على الذكاء الاصطناعي وغيرهن من الوقت المستحق – والمتأخر – في دائرة الضوء، تطلق TechCrunch سلسلة من المقابلات التي تركز على النساء المتميزات اللاتي ساهمن في ثورة الذكاء الاصطناعي. سنقوم بنشر العديد من المقالات على مدار العام مع استمرار ازدهار الذكاء الاصطناعي، مع تسليط الضوء على الأعمال الرئيسية التي غالبًا ما لا يتم التعرف عليها. اقرأ المزيد من الملفات الشخصية هنا.

هايدي خلف هي مديرة هندسية في شركة الأمن السيبراني Trail of Bits. وهي متخصصة في تقييم تطبيقات البرمجيات والذكاء الاصطناعي ضمن الأنظمة “الحرجة للسلامة”، مثل محطات الطاقة النووية والمركبات ذاتية القيادة.

حصلت خلف على درجة الدكتوراه في علوم الكمبيوتر. حصلت على درجة البكالوريوس من كلية لندن الجامعية ودرجة البكالوريوس في علوم الكمبيوتر والفلسفة من جامعة ولاية فلوريدا. لقد قادت عمليات تدقيق السلامة والأمن، وقدمت الاستشارات والمراجعات لحالات الضمان وساهمت في إنشاء معايير وإرشادات للتطبيقات المتعلقة بالسلامة والأمن وتطويرها.

سؤال وجواب

باختصار، كيف كانت بدايتك في مجال الذكاء الاصطناعي؟ ما الذي جذبك للميدان؟

لقد انجذبت إلى الروبوتات في سن مبكرة جدًا، وبدأت البرمجة في سن 15 عامًا حيث كنت منبهرًا باحتمالات استخدام الروبوتات والذكاء الاصطناعي (لأنهما مرتبطان بشكل غير مفهوم) لأتمتة أعباء العمل حيث تشتد الحاجة إليها. كما هو الحال في التصنيع، رأيت الروبوتات تستخدم لمساعدة كبار السن – وأتمتة العمل اليدوي الخطير في مجتمعنا. ومع ذلك، فقد حصلت على درجة الدكتوراه. في مجال فرعي مختلف من علوم الكمبيوتر، لأنني أعتقد أن وجود أساس نظري قوي في علوم الكمبيوتر يسمح لك باتخاذ قرارات مدروسة وعلمية بشأن المجالات التي قد يكون فيها الذكاء الاصطناعي مناسبًا أو غير مناسب، وأين قد تكون المخاطر.

ما هو العمل الذي تفتخر به أكثر (في مجال الذكاء الاصطناعي)؟

استخدام خبرتي وخلفيتي القوية في هندسة السلامة والأنظمة الحيوية للسلامة لتوفير السياق والنقد عند الحاجة في مجال “سلامة” الذكاء الاصطناعي الجديد. على الرغم من أن مجال سلامة الذكاء الاصطناعي قد حاول التكيف والاستشهاد بتقنيات السلامة والأمن الراسخة، إلا أن المصطلحات المختلفة قد أسيء فهمها في استخدامها ومعناها. هناك نقص في التعريفات المتسقة أو المتعمدة التي تهدد سلامة تقنيات السلامة التي يستخدمها مجتمع الذكاء الاصطناعي حاليًا. أنا فخور بشكل خاص بـ “نحو تقييمات شاملة للمخاطر وضمان الأنظمة القائمة على الذكاء الاصطناعي” و”إطار تحليل المخاطر لنماذج اللغات الكبيرة لتوليف التعليمات البرمجية” حيث أقوم بتفكيك الروايات الكاذبة حول تقييمات السلامة والذكاء الاصطناعي، وتقديم خطوات ملموسة بشأن سد الفجوة فجوة الأمان داخل الذكاء الاصطناعي.

كيف يمكنك التغلب على تحديات صناعة التكنولوجيا التي يهيمن عليها الذكور، وبالتالي، صناعة الذكاء الاصطناعي التي يهيمن عليها الذكور؟

إن الاعتراف بمدى ضآلة تغير الوضع الراهن ليس شيئًا نناقشه كثيرًا، ولكن أعتقد أنه من المهم بالنسبة لي وللنساء التقنيات الأخريات فهم موقفنا داخل الصناعة والحصول على رؤية واقعية حول التغييرات المطلوبة. ظلت معدلات الاستبقاء ونسبة النساء اللاتي يشغلن مناصب قيادية على حالها إلى حد كبير منذ انضمامي إلى هذا المجال، وكان ذلك منذ أكثر من عقد من الزمن. وكما أشار موقع TechCrunch على نحو مناسب، على الرغم من الإنجازات والمساهمات الهائلة التي تقدمها النساء في مجال الذكاء الاصطناعي، فإننا نظل مهمشين من المحادثات التي حددناها بأنفسنا. لقد ساعدني إدراك هذا النقص في التقدم على فهم أن بناء مجتمع شخصي قوي هو أكثر قيمة كمصدر للدعم بدلاً من الاعتماد على مبادرات DEI التي لسوء الحظ لم تحرك البوصلة، نظرًا لأن التحيز والتشكيك تجاه النساء التقنيات لا يزال منتشرًا تمامًا في تقنية.

ما هي النصيحة التي تقدمها للنساء الراغبات في دخول مجال الذكاء الاصطناعي؟

عدم اللجوء إلى السلطة وإيجاد مجال عمل تؤمن به حقًا، حتى لو كان يتعارض مع الروايات الشعبية. نظرًا للقوة التي تتمتع بها مختبرات الذكاء الاصطناعي سياسيًا واقتصاديًا في الوقت الحالي، هناك غريزة لأخذ أي شيء يقوله “قادة الفكر” في مجال الذكاء الاصطناعي كحقيقة، في حين أن العديد من ادعاءات الذكاء الاصطناعي هي في كثير من الأحيان كلام تسويقي يبالغ في تقدير قدرات الذكاء الاصطناعي على الاستفادة خلاصة القول. ومع ذلك، فإنني أرى ترددًا كبيرًا، خاصة بين النساء المبتدئات في هذا المجال، في التعبير عن الشكوك ضد ادعاءات أقرانهن الذكور التي لا يمكن إثباتها. تتمتع متلازمة الدجال بقبضة قوية على النساء في مجال التكنولوجيا، وتؤدي بالكثيرات إلى الشك في نزاهتهن العلمية. ولكن من المهم أكثر من أي وقت مضى أن نتحدى الادعاءات التي تبالغ في تقدير قدرات الذكاء الاصطناعي، وخاصة تلك التي لا يمكن دحضها بموجب المنهج العلمي.

ما هي بعض القضايا الأكثر إلحاحًا التي تواجه الذكاء الاصطناعي أثناء تطوره؟

وبغض النظر عن التطورات التي سنلاحظها في مجال الذكاء الاصطناعي، فإنها لن تكون أبدًا الحل الوحيد لقضايانا، سواء من الناحية التكنولوجية أو الاجتماعية. يوجد حاليًا اتجاه لدمج الذكاء الاصطناعي في كل نظام ممكن، بغض النظر عن فعاليته (أو عدمه) عبر العديد من المجالات. ينبغي للذكاء الاصطناعي أن يعمل على تعزيز القدرات البشرية بدلا من أن يحل محلها، ونحن نشهد تجاهلا تاما لمزالق الذكاء الاصطناعي وأساليب الفشل التي تؤدي إلى ضرر ملموس حقيقي. في الآونة الأخيرة، أدى نظام الذكاء الاصطناعي ShotSpotter مؤخرًا إلى قيام ضابط بإطلاق النار على طفل.

ما هي بعض المشكلات التي يجب على مستخدمي الذكاء الاصطناعي معرفتها؟

ما مدى عدم موثوقية الذكاء الاصطناعي حقًا. من المعروف أن خوارزميات الذكاء الاصطناعي معيبة مع ارتفاع معدلات الخطأ التي يتم ملاحظتها عبر التطبيقات التي تتطلب الدقة والدقة وأهمية السلامة. إن الطريقة التي يتم بها تدريب أنظمة الذكاء الاصطناعي تدمج التحيز البشري والتمييز في مخرجاتها التي تصبح “فعلية” ومؤتمتة. وذلك لأن طبيعة أنظمة الذكاء الاصطناعي هي تقديم نتائج بناءً على الاستدلالات الإحصائية والاحتمالية والعلاقات المتبادلة من البيانات التاريخية، وليس أي نوع من الاستدلال أو الأدلة الواقعية أو “السببية”.

ما هي أفضل طريقة لبناء الذكاء الاصطناعي بشكل مسؤول؟

التأكد من تطوير الذكاء الاصطناعي بطريقة تحمي حقوق الأشخاص وسلامتهم من خلال بناء مطالبات يمكن التحقق منها ومحاسبة مطوري الذكاء الاصطناعي أمامهم. ويجب أن تشمل هذه الادعاءات أيضًا تطبيقًا تنظيميًا أو يتعلق بالسلامة أو الأخلاق أو التقنية، ويجب ألا تكون قابلة للتزوير. وبخلاف ذلك، هناك نقص كبير في النزاهة العلمية لتقييم هذه الأنظمة بشكل مناسب. ويجب على الهيئات التنظيمية المستقلة أيضًا تقييم أنظمة الذكاء الاصطناعي في ضوء هذه الادعاءات كما هو مطلوب حاليًا للعديد من المنتجات والأنظمة في الصناعات الأخرى – على سبيل المثال، تلك التي يتم تقييمها من قبل إدارة الغذاء والدواء. ولا ينبغي أن تُعفى أنظمة الذكاء الاصطناعي من عمليات التدقيق القياسية الراسخة لضمان حماية الجمهور والمستهلك.

كيف يمكن للمستثمرين الدفع بشكل أفضل نحو الذكاء الاصطناعي المسؤول؟

يجب على المستثمرين التعامل مع المنظمات التي تسعى إلى إنشاء وتطوير ممارسات التدقيق الخاصة بالذكاء الاصطناعي وتمويلها. يتم استثمار معظم التمويل حاليًا في مختبرات الذكاء الاصطناعي نفسها، مع الاعتقاد بأن فرق السلامة لديها كافية لتطوير تقييمات الذكاء الاصطناعي. ومع ذلك، فإن المدققين والهيئات التنظيمية المستقلة هم مفتاح ثقة الجمهور. تسمح الاستقلالية للجمهور بالثقة في دقة ونزاهة التقييمات ونزاهة النتائج التنظيمية.

[ad_2]

إرسال التعليق

You May Have Missed