Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تكنلوجيا الويب

يناقش وادي السيليكون ما إذا كان ينبغي السماح لأسلحة الذكاء الاصطناعي باتخاذ قرار القتل


في أواخر سبتمبر/أيلول، أقسم براندون تسينج، المؤسس المشارك لشركة Shield AI، أن الأسلحة في الولايات المتحدة لن تكون مستقلة بالكامل أبدًا – مما يعني أن خوارزمية الذكاء الاصطناعي ستتخذ القرار النهائي بقتل شخص ما. وقال مؤسس تكنولوجيا الدفاع لـ TechCrunch: “الكونغرس لا يريد ذلك”. “لا أحد يريد ذلك.”

لكن تسنغ تحدث مبكرًا جدًا. وبعد خمسة أيام، أعرب بالمر لوكي، أحد مؤسسي شركة أندوريل، عن انفتاحه على الأسلحة المستقلة – أو على الأقل عن تشككه الشديد في الحجج ضدها. إن خصوم الولايات المتحدة “يستخدمون عبارات تبدو جيدة حقا في لقمة سليمة: حسنا، ألا توافقون على أن الروبوت لا ينبغي له أبدا أن يكون قادرا على تحديد من يعيش ومن يموت؟” قال لوكي خلال محاضرة في وقت سابق من هذا الشهر في جامعة بيبردين. “ووجهتي لهم هي، أين هي الأرضية الأخلاقية العالية في لغم أرضي لا يستطيع التمييز بين حافلة مدرسية مليئة بالأطفال ودبابة روسية؟”

وعندما طُلب منه المزيد من التعليق، قال شانون بريور، المتحدث باسم أندوريل، إن لوكي لا يعني أنه ينبغي برمجة الروبوتات لقتل الناس بمفردهم، بل كان فقط يشعر بالقلق بشأن “الأشخاص السيئين الذين يستخدمون الذكاء الاصطناعي السيئ”.

في الماضي، أخطأ وادي السليكون في توخي الحذر. خذها من أحد مؤسسي Luckey، تراي ستيفنز. وقال لكارا سويشر العام الماضي: “أعتقد أن التقنيات التي نبنيها تتيح للبشر اتخاذ القرارات الصحيحة بشأن هذه الأشياء”. “حتى يكون هناك طرف مسؤول وخاضع للمساءلة عن جميع القرارات التي يمكن أن تنطوي على فتك، بالطبع”.

نفى المتحدث باسم أندوريل وجود أي تنافر بين وجهة نظر لوكي (في الصورة أعلاه) ووجهة نظر ستيفنز، وقال إن ستيفنس لم يقصد أن الإنسان يجب أن يتخذ القرار دائمًا، ولكن فقط أن شخصًا ما هو المسؤول.

ولكي نكون منصفين فإن موقف حكومة الولايات المتحدة نفسها غامض على نحو مماثل. لا يشتري الجيش الأمريكي حاليًا أسلحة ذاتية التشغيل بالكامل؛ لكنه لا يمنع الشركات من صنعها ولا يحظرها صراحةً بيع مثل هذه الأشياء إلى دول أجنبية. في العام الماضي، أصدرت الولايات المتحدة مبادئ توجيهية محدثة لسلامة الذكاء الاصطناعي في المؤسسة العسكرية، والتي أقرها العديد من حلفاء الولايات المتحدة، وتتطلب موافقة كبار المسؤولين العسكريين على أي سلاح مستقل جديد؛ ومع ذلك، فإن المبادئ التوجيهية طوعية (قالت أندوريل إنها ملتزمة باتباع المبادئ التوجيهية)، وكان المسؤولون الأمريكيون يقولون باستمرار إن هذا “ليس الوقت المناسب” للنظر في أي حظر ملزم على الأسلحة المستقلة.

وفي الشهر الماضي، أظهر جو لونسديل، المؤسس المشارك لشركة Palantir والمستثمر في Anduril، أيضًا استعداده للنظر في الأسلحة المستقلة بالكامل. وفي حدث استضافه معهد هدسون للأبحاث، أعرب لونسديل عن إحباطه من صياغة هذا السؤال على أنه نعم أو لا على الإطلاق. وبدلاً من ذلك، قدم فرضية مفادها أن الصين تبنت أسلحة الذكاء الاصطناعي، ولكن يتعين على الولايات المتحدة “الضغط على الزر في كل مرة تطلق فيها النار”. وشجع صناع السياسات على تبني نهج أكثر مرونة فيما يتعلق بحجم الذكاء الاصطناعي في الأسلحة.

قال: “ستدرك بسرعة كبيرة أن افتراضاتي كانت خاطئة إذا وضعت قاعدة غبية من أعلى إلى أسفل، لأنني موظف لم يلعب هذه اللعبة من قبل”. “يمكنني تدميرنا في المعركة.”

عندما طلب TC من لونسديل المزيد من التعليقات، أكد أن شركات تكنولوجيا الدفاع لا ينبغي أن تكون هي التي تحدد جدول أعمال الذكاء الاصطناعي القاتل. وقال: “السياق الرئيسي لما كنت أقوله هو أن شركاتنا لا تصنع السياسة، ولا تريد أن تصنع السياسة: إنها مهمة المسؤولين المنتخبين أن يصنعوا السياسة”. “لكنهم بحاجة إلى تثقيف أنفسهم حول الفروق الدقيقة للقيام بعمل جيد.”

كما أكد مجددا استعداده للنظر في مزيد من الاستقلالية في مجال الأسلحة. “إنها ليست ثنائية كما تقترح – “الاستقلال التام أم لا” ليس سؤال السياسة الصحيح. هناك اتصال متطور على طول بضعة أبعاد مختلفة لما يمكن أن يفعله جندي وما يفعله نظام الأسلحة الخاص بك. “قبل أن يضع صناع السياسات هذه القواعد موضع التنفيذ ويقرروا أين يجب ضبط الأمور وفي أي ظرف من الظروف، فإنهم بحاجة إلى تعلم اللعبة ومعرفة ما قد يفعله الأشرار، وما هو ضروري للفوز بحياة الأمريكيين على المحك”.

لقد حاول النشطاء وجماعات حقوق الإنسان منذ فترة طويلة فرض حظر دولي على الأسلحة الفتاكة المستقلة، وفشلوا في ذلك، وهو الحظر الذي قاومت الولايات المتحدة التوقيع عليه. لكن ربما تكون الحرب في أوكرانيا قد حولت دفة الأمور ضد الناشطين، مما وفر كنزًا من البيانات القتالية وساحة معركة لمؤسسي تكنولوجيا الدفاع لاختبارها. في الوقت الحالي، تقوم الشركات بدمج الذكاء الاصطناعي في أنظمة الأسلحة، على الرغم من أنها لا تزال بحاجة إلى إنسان لاتخاذ القرار النهائي بالقتل.

وفي الوقت نفسه، طالب المسؤولون الأوكرانيون بمزيد من الأتمتة في الأسلحة، على أمل أن يمنحهم ذلك التفوق على روسيا. وقال ميخايلو فيدوروف، وزير التحول الرقمي الأوكراني، في مقابلة مع صحيفة نيويورك تايمز: “نحن بحاجة إلى أقصى قدر من الأتمتة”. “هذه التقنيات أساسية لانتصارنا.”

بالنسبة للكثيرين في وادي السيليكون والعاصمة واشنطن، فإن الخوف الأكبر هو أن تطرح الصين أو روسيا أسلحة ذاتية التشغيل بالكامل أولا، مما يجبر الولايات المتحدة على ذلك. وفي مناقشة أجرتها الأمم المتحدة حول أسلحة الذكاء الاصطناعي في العام الماضي، كان الدبلوماسي الروسي خجولاً بشكل ملحوظ. وقال: “نحن نفهم أن الأولوية بالنسبة للعديد من الوفود هي السيطرة البشرية”. “بالنسبة للاتحاد الروسي، الأولويات مختلفة بعض الشيء.”

وفي حدث معهد هدسون، قال لونسديل إن قطاع التكنولوجيا يحتاج إلى أن يأخذ على عاتقه “تعليم البحرية، وتعليم وزارة الدفاع، وتعليم الكونجرس” حول إمكانات الذكاء الاصطناعي “لجعلنا نتقدم على الصين”.

تعمل الشركات التابعة لـ Lonsdale’s وLuckey على جعل الكونجرس يستمع إليهم. أنفق أندوريل وبالانتير بشكل تراكمي أكثر من 4 ملايين دولار في ممارسة الضغط هذا العام، وفقًا لـ OpenSecrets.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى