[ad_1]

لمنح الأكاديميات اللاتي يركزن على الذكاء الاصطناعي وغيرهن من الوقت المستحق – والمتأخر – في دائرة الضوء، تطلق TechCrunch سلسلة من المقابلات التي تركز على النساء المتميزات اللاتي ساهمن في ثورة الذكاء الاصطناعي. سنقوم بنشر العديد من المقالات على مدار العام مع استمرار ازدهار الذكاء الاصطناعي، مع تسليط الضوء على الأعمال الرئيسية التي غالبًا ما لا يتم التعرف عليها. اقرأ المزيد من الملفات الشخصية هنا.

سارة كريبس هي عالمة سياسية ومخضرمة في القوات الجوية الأمريكية ومحللة تركز على السياسة الخارجية والدفاعية الأمريكية. وهي أستاذة في الحكومة في جامعة كورنيل، وأستاذة مساعدة للقانون في كلية الحقوق بجامعة كورنيل، وباحثة مساعدة في معهد الحرب الحديثة في ويست بوينت.

تستكشف الأبحاث التي أجراها كريبس مؤخرًا إمكانات ومخاطر تكنولوجيا الذكاء الاصطناعي مثل OpenAI’s GPT-4، وتحديدًا في المجال السياسي. في عمود رأي لصحيفة الغارديان العام الماضي، كتبت أنه مع تدفق المزيد من الأموال على الذكاء الاصطناعي، فإن سباق التسلح في الذكاء الاصطناعي لن يقتصر على الشركات فحسب، بل سيشتد أيضًا بين الدول – في حين أن تحدي سياسة الذكاء الاصطناعي سيصبح أكثر صعوبة.

سؤال وجواب

باختصار، كيف كانت بدايتك في مجال الذكاء الاصطناعي؟ ما الذي جذبك للميدان؟

كانت بدايتي في مجال التقنيات الناشئة ذات الآثار الأمنية الوطنية. لقد كنت ضابطًا في القوات الجوية في الوقت الذي تم فيه نشر طائرة بريداتور بدون طيار، وشاركت في أنظمة الرادار والأقمار الصناعية المتقدمة. لقد أمضيت أربع سنوات في العمل في هذا المجال، لذلك كان من الطبيعي، كدكتوراه، أن أكون مهتمًا بدراسة الآثار المترتبة على الأمن القومي للتكنولوجيات الناشئة. كتبت لأول مرة عن الطائرات بدون طيار، وكان النقاش حول الطائرات بدون طيار يتجه نحو مسائل الاستقلالية، والتي تنطوي بالطبع على الذكاء الاصطناعي.

في عام 2018، كنت في ورشة عمل حول الذكاء الاصطناعي في أحد مراكز الأبحاث في العاصمة وقدمت شركة OpenAI عرضًا تقديميًا حول قدرة GPT-2 الجديدة التي قاموا بتطويرها. لقد مررنا للتو بانتخابات عام 2016 والتدخل في الانتخابات الأجنبية، والذي كان من السهل نسبيًا اكتشافه بسبب أشياء صغيرة مثل الأخطاء النحوية للمتحدثين باللغة الإنجليزية غير الأصليين – وهو نوع الأخطاء التي لم تكن مفاجئة نظرًا لأن التدخل جاء من وكالة أبحاث الإنترنت المدعومة من روسيا. عندما قدمت OpenAI هذا العرض، كنت منشغلًا على الفور بإمكانية توليد معلومات مضللة ذات مصداقية على نطاق واسع، ومن ثم، من خلال الاستهداف الدقيق، التلاعب بسيكولوجية الناخبين الأمريكيين بطرق أكثر فعالية بكثير مما كان ممكنًا عندما كان هؤلاء الأفراد يحاولون كتابة المحتوى يدويًا ، حيث سيكون الحجم دائمًا مشكلة.

لقد تواصلت مع OpenAI وأصبحت أحد المتعاونين الأكاديميين الأوائل في استراتيجية الإصدار المرحلي الخاصة بهم. كان بحثي الخاص يهدف إلى التحقيق في حالة سوء الاستخدام المحتملة – ما إذا كان GPT-2 وGPT-3 لاحقًا يتمتعان بالمصداقية كمولدات للمحتوى السياسي. في سلسلة من التجارب، قمت بتقييم ما إذا كان الجمهور سيرى هذا المحتوى على أنه ذو مصداقية، ولكن بعد ذلك أجريت أيضًا تجربة ميدانية كبيرة حيث قمت بإنشاء “رسائل للدوائر الانتخابية” قمت بتوزيعها بشكل عشوائي مع رسائل الدوائر الانتخابية الفعلية لمعرفة ما إذا كان المشرعون سيستجيبون بنفس المعدلات لرسائل الدوائر الانتخابية. ومعرفة ما إذا كان من الممكن خداعهم ــ وما إذا كانت الجهات الفاعلة الخبيثة قادرة على تشكيل الأجندة التشريعية من خلال حملة كتابة رسائل واسعة النطاق.

لقد ضربت هذه الأسئلة جوهر ما يعنيه أن تكون ديمقراطية ذات سيادة، وخلصت بشكل لا لبس فيه إلى أن هذه التقنيات الجديدة تمثل تهديدات جديدة لديمقراطيتنا.

ما هو العمل الذي تفتخر به أكثر (في مجال الذكاء الاصطناعي)؟

أنا فخور جدًا بالتجربة الميدانية التي أجريتها. لم يقم أحد بأي شيء مماثل ولو عن بعد وكنا أول من أظهر الإمكانات التخريبية في سياق جدول الأعمال التشريعي.

لكنني فخور أيضًا بالأدوات التي للأسف لم أحضرها إلى السوق مطلقًا. لقد عملت مع العديد من طلاب علوم الكمبيوتر في جامعة كورنيل لتطوير تطبيق من شأنه معالجة رسائل البريد الإلكتروني الواردة من الهيئات التشريعية ومساعدتهم على الاستجابة للناخبين بطرق مفيدة. لقد كنا نعمل على هذا قبل ChatGPT ونستخدم الذكاء الاصطناعي لاستيعاب الحجم الكبير من رسائل البريد الإلكتروني وتقديم مساعدة الذكاء الاصطناعي للموظفين الذين يعانون من ضغط الوقت للتواصل مع الأشخاص في منطقتهم أو ولايتهم. اعتقدت أن هذه الأدوات كانت مهمة بسبب سخط الناخبين من السياسة ولكن أيضًا بسبب الطلب المتزايد على وقت المشرعين. بدا تطوير الذكاء الاصطناعي بهذه الطرق التي تحظى باهتمام الجمهور بمثابة مساهمة قيمة وعمل مثير للاهتمام متعدد التخصصات لعلماء السياسة وعلماء الكمبيوتر. لقد أجرينا عددًا من التجارب لتقييم الأسئلة السلوكية المتعلقة بكيفية شعور الناس تجاه مساعدة الذكاء الاصطناعي في الاستجابة لهم، وخلصنا إلى أنه ربما لم يكن المجتمع مستعدًا لشيء كهذا. ولكن بعد بضعة أشهر من إيقافنا، ظهر ChatGPT على الساحة وأصبح الذكاء الاصطناعي منتشرًا في كل مكان لدرجة أنني أتساءل تقريبًا كيف شعرنا بالقلق بشأن ما إذا كان هذا الأمر مشكوكًا فيه من الناحية الأخلاقية أو مشروعًا. لكنني ما زلت أشعر أنه من الصواب أن نطرح الأسئلة الأخلاقية الصعبة حول حالة الاستخدام المشروع.

كيف يمكنك التغلب على تحديات صناعة التكنولوجيا التي يهيمن عليها الذكور، وبالتالي، صناعة الذكاء الاصطناعي التي يهيمن عليها الذكور؟

كباحثة، لم أشعر بهذه التحديات بشكل حاد. لقد كنت للتو في منطقة الخليج وكان جميع الرجال يقدمون حرفيًا عروضهم في مصعد الفندق، وهي عبارة مبتذلة رأيتها مخيفة. أوصي بالعثور على مرشدين (ذكورًا وإناثًا)، وتطوير المهارات والسماح لهذه المهارات بالتحدث عن نفسها، ومواجهة التحديات والبقاء صامدين.

ما هي النصيحة التي تقدمها للنساء الراغبات في دخول مجال الذكاء الاصطناعي؟

أعتقد أن هناك الكثير من الفرص المتاحة للنساء – فهم بحاجة إلى تطوير المهارات والثقة وسوف يزدهرون.

ما هي بعض القضايا الأكثر إلحاحًا التي تواجه الذكاء الاصطناعي أثناء تطوره؟

أشعر بالقلق من أن مجتمع الذكاء الاصطناعي قد طور العديد من المبادرات البحثية التي تركز على أشياء مثل “الاصطفاف الفائق” الذي يحجب الأسئلة الأعمق – أو الصحيحة في الواقع – حول قيم من أو ما هي القيم التي نحاول مواءمة الذكاء الاصطناعي معها. أظهر طرح Google Gemini الإشكالي الصورة الكاريكاتورية التي يمكن أن تنشأ من التوافق مع مجموعة ضيقة من قيم المطورين بطرق أدت في الواقع (تقريبًا) إلى أخطاء تاريخية مثيرة للضحك في مخرجاتهم. أعتقد أن قيم هؤلاء المطورين كانت حسنة النية، لكنها كشفت حقيقة أن نماذج اللغات الكبيرة هذه تمت برمجتها بمجموعة معينة من القيم التي ستشكل طريقة تفكير الناس في السياسة والعلاقات الاجتماعية ومجموعة متنوعة من المواضيع الحساسة. هذه القضايا ليست من نوع المخاطر الوجودية ولكنها تخلق نسيج المجتمع وتمنح قوة كبيرة للشركات الكبرى (مثل OpenAI وGoogle وMeta وما إلى ذلك) المسؤولة عن تلك النماذج.

ما هي بعض المشكلات التي يجب على مستخدمي الذكاء الاصطناعي معرفتها؟

مع انتشار الذكاء الاصطناعي في كل مكان، أعتقد أننا دخلنا عالم “الثقة ولكن التحقق”. من العدمية عدم تصديق أي شيء، ولكن هناك الكثير من المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي ويحتاج المستخدمون حقًا إلى توخي الحذر فيما يتعلق بما يثقون به بشكل غريزي. من الجيد البحث عن مصادر بديلة للتحقق من صحة المعلومات قبل افتراض أن كل شيء دقيق. لكنني أعتقد أننا تعلمنا ذلك بالفعل من خلال وسائل التواصل الاجتماعي والمعلومات المضللة.

ما هي أفضل طريقة لبناء الذكاء الاصطناعي بشكل مسؤول؟

لقد كتبت مؤخرا مقالا لنشرة علماء الذرة، التي بدأت تغطي الأسلحة النووية ولكنها تكيفت لمعالجة التكنولوجيات المدمرة مثل الذكاء الاصطناعي. لقد كنت أفكر في كيف يمكن للعلماء أن يكونوا مشرفين عامين أفضل وأردت ربط بعض الحالات التاريخية التي كنت أبحث عنها في مشروع كتاب. أنا لا ألخص فقط مجموعة من الخطوات التي أؤيدها من أجل التطوير المسؤول، بل أتحدث أيضًا عن سبب كون بعض الأسئلة التي يطرحها مطورو الذكاء الاصطناعي خاطئة أو غير كاملة أو مضللة.

[ad_2]

من kokn

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *