Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تكنلوجيا الويب

يتكون مجلس الذكاء الاصطناعي الجديد في ميتا بالكامل من الرجال البيض


أعلن ميتا يوم الأربعاء عن إنشاء مجلس استشاري للذكاء الاصطناعي يضم الرجال البيض فقط. ماذا نتوقع؟ لقد تحدثت النساء والأشخاص الملونون منذ عقود عن تجاهلهم واستبعادهم من عالم الذكاء الاصطناعي على الرغم من تأهيلهم ولعبهم دورًا رئيسيًا في تطور هذا الفضاء.

لم تستجب ميتا على الفور لطلبنا للتعليق على تنوع المجلس الاستشاري.

ويختلف هذا المجلس الاستشاري الجديد عن مجلس إدارة ميتا الفعلي ومجلس الرقابة التابع له، والذي يتميز بتنوع أكبر في التمثيل الجنسي والعرقي. لم ينتخب المساهمون مجلس إدارة الذكاء الاصطناعي هذا، والذي ليس لديه أيضًا أي واجب ائتماني. وقال ميتا لبلومبرج إن مجلس الإدارة سيقدم “رؤى وتوصيات بشأن التقدم التكنولوجي والابتكار وفرص النمو الاستراتيجي”. وسوف يجتمع “بشكل دوري”.

ومن الجدير بالذكر أن المجلس الاستشاري للذكاء الاصطناعي يتكون بالكامل من رجال الأعمال ورجال الأعمال، وليس علماء الأخلاق أو أي شخص لديه خلفية أكاديمية أو بحثية عميقة. في حين يمكن للمرء أن يجادل بأن المسؤولين التنفيذيين الحاليين والسابقين في Stripe وShopify وMicrosoft في وضع جيد للإشراف على خارطة طريق منتجات الذكاء الاصطناعي الخاصة بـ Meta نظرًا للعدد الهائل من المنتجات التي جلبوها إلى السوق فيما بينهم، فقد ثبت مرارًا وتكرارًا أن الذكاء الاصطناعي ليس كذلك. مثل المنتجات الأخرى. إنه عمل محفوف بالمخاطر، والعواقب المترتبة على ارتكابه بشكل خاطئ يمكن أن تكون بعيدة المدى، وخاصة بالنسبة للفئات المهمشة.

في مقابلة حديثة مع موقع TechCrunch، قالت سارة مايرز ويست، المدير الإداري في معهد AI Now، وهي منظمة غير ربحية تدرس الآثار الاجتماعية للذكاء الاصطناعي، إنه من الضروري إجراء “فحص نقدي” للمؤسسات التي تنتج الذكاء الاصطناعي “للتأكد من احتياجات الجمهور”. [are] خدم.”

وقالت: “هذه تكنولوجيا معرضة للخطأ، ونحن نعلم من بحث مستقل أن هذه الأخطاء لا يتم توزيعها بالتساوي، فهي تضر بشكل غير متناسب بالمجتمعات التي تحملت وطأة التمييز منذ فترة طويلة”. “يجب أن نضع حدًا أعلى بكثير.”

النساء أكثر عرضة من الرجال لتجربة الجانب المظلم من الذكاء الاصطناعي. وجدت شركة Sensity AI في عام 2019 أن 96% من مقاطع الفيديو المزيفة بالذكاء الاصطناعي عبر الإنترنت كانت عبارة عن مقاطع فيديو جنسية صريحة وغير رضائية. لقد أصبح الذكاء الاصطناعي التوليدي أكثر انتشارًا منذ ذلك الحين، ولا تزال النساء هدفًا لهذا السلوك المخالف.

في إحدى الحوادث البارزة التي وقعت في يناير/كانون الثاني، انتشرت التزييفات العميقة الإباحية غير التوافقية لتايلور سويفت على موقع X، حيث تلقت واحدة من أكثر المنشورات انتشارًا مئات الآلاف من الإعجابات، و45 مليون مشاهدة. لقد فشلت منصات التواصل الاجتماعي مثل X تاريخيًا في حماية النساء من هذه الظروف – ولكن بما أن تايلور سويفت هي واحدة من أقوى النساء في العالم، فقد تدخلت X من خلال حظر مصطلحات البحث مثل “taylor Swift ai” وtaylor Swift Deepfake.

ولكن إذا حدث هذا لك ولم تكن من نجوم البوب ​​العالميين، فقد لا يحالفك الحظ. هناك العديد من التقارير عن طلاب في المدارس المتوسطة والثانوية يقومون بتزييف عميق واضح لزملائهم في الفصل. على الرغم من أن هذه التكنولوجيا موجودة منذ فترة، إلا أن الوصول إليها لم يكن أسهل من أي وقت مضى – ليس من الضروري أن تكون ماهرًا من الناحية التكنولوجية لتنزيل التطبيقات التي يتم الإعلان عنها خصيصًا لـ “خلع ملابس” صور النساء أو تبديل وجوههن بالمواد الإباحية. في الواقع، وفقًا لتقارير كات تينبارج من NBC، استضاف Facebook وInstagram إعلانات لتطبيق يسمى Perky AI، والذي وصف نفسه بأنه أداة لإنشاء صور صريحة.

أظهر اثنان من الإعلانات، التي زُعم أنها أفلتت من اكتشاف ميتا حتى نبهت تينبارج الشركة بالمشكلة، صور المشاهير سابرينا كاربنتر وجينا أورتيجا مع تعتيم أجسادهما، وحث العملاء على مطالبة التطبيق بإزالة ملابسهم. استخدمت الإعلانات صورة لأورتيجا عندما كانت في السادسة عشرة من عمرها فقط.

لم يكن خطأ السماح لـ Perky AI بالإعلان حادثة معزولة. فتح مجلس الرقابة التابع لشركة Meta مؤخرًا تحقيقات في فشل الشركة في التعامل مع التقارير المتعلقة بالمحتوى الجنسي الصريح الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.

ومن الضروري أن يتم تضمين أصوات النساء والأشخاص الملونين في ابتكار منتجات الذكاء الاصطناعي. لفترة طويلة، تم استبعاد هذه الفئات المهمشة من تطوير التقنيات والأبحاث التي تغير العالم، وكانت النتائج كارثية.

ومن الأمثلة السهلة على ذلك حقيقة أنه حتى سبعينيات القرن العشرين، كانت النساء مستبعدات من التجارب السريرية، مما يعني تطوير مجالات بحثية كاملة دون فهم كيفية تأثير ذلك على النساء. يرى السود، على وجه الخصوص، تأثيرات التكنولوجيا التي تم إنشاؤها دون أخذهم في الاعتبار – على سبيل المثال، من المرجح أن تصطدم بهم السيارات ذاتية القيادة لأن أجهزة الاستشعار الخاصة بهم قد تجد صعوبة في اكتشاف الجلد الأسود، وفقًا لدراسة أجريت عام 2019 بواسطة معهد جورجيا للتكنولوجيا.

إن الخوارزميات التي يتم تدريبها على بيانات تمييزية بالفعل لا تؤدي إلا إلى اجترار نفس التحيزات التي دربها البشر على تبنيها. على نطاق واسع، نرى بالفعل أن أنظمة الذكاء الاصطناعي تعمل على إدامة وتضخم التمييز العنصري في التوظيف والإسكان والعدالة الجنائية. يكافح المساعدون الصوتيون لفهم اللهجات المتنوعة وغالبًا ما يشيرون إلى أن العمل الذي يقوم به متحدثون غير أصليين باللغة الإنجليزية تم إنشاؤه بواسطة الذكاء الاصطناعي، نظرًا لأن اللغة الإنجليزية، كما أشار موقع Axios، هي اللغة الأم للذكاء الاصطناعي. تحدد أنظمة التعرف على الوجه الأشخاص السود على أنهم مطابقون محتملون للمشتبه بهم جنائيًا في كثير من الأحيان أكثر من الأشخاص البيض.

يجسد التطور الحالي للذكاء الاصطناعي نفس هياكل السلطة القائمة فيما يتعلق بالطبقة والعرق والجنس والمركزية الأوروبية التي نراها في أماكن أخرى، ويبدو أنه لا يوجد عدد كافٍ من القادة الذين يعالجونها. وبدلا من ذلك، يقومون بتعزيزها. يركز المستثمرون والمؤسسون وقادة التكنولوجيا بشكل كبير على التحرك بسرعة وكسر الأشياء لدرجة أنهم لا يستطيعون فهم أن الذكاء الاصطناعي التوليدي – تكنولوجيا الذكاء الاصطناعي الرائجة في الوقت الحالي – يمكن أن يجعل المشاكل أسوأ، وليس أفضل. وفقا لتقرير صادر عن شركة ماكينزي، يمكن للذكاء الاصطناعي أتمتة ما يقرب من نصف جميع الوظائف التي لا تتطلب شهادة جامعية لمدة أربع سنوات وتدفع أكثر من 42 ألف دولار سنويا، وهي الوظائف التي يكون فيها عمال الأقليات ممثلين بشكل زائد.

هناك ما يدعو للقلق حول كيف يمكن لفريق من الرجال البيض في واحدة من أبرز شركات التكنولوجيا في العالم، المنخرطين في هذا السباق لإنقاذ العالم باستخدام الذكاء الاصطناعي، أن يقدموا المشورة بشأن المنتجات لجميع الناس عندما تكون مجموعة سكانية واحدة ضيقة فقط. يتمثل. سوف يتطلب الأمر جهدًا هائلاً لبناء التكنولوجيا التي يمكن للجميع، بل الجميع حقًا، استخدامها. في الواقع، فإن الطبقات اللازمة لبناء ذكاء اصطناعي آمن وشامل فعليًا – بدءًا من البحث وحتى الفهم على المستوى المجتمعي المتعدد الجوانب – معقدة للغاية لدرجة أنه من الواضح تقريبًا أن هذا المجلس الاستشاري لن يساعد ميتا على تحقيق ذلك بشكل صحيح. على الأقل عندما تفشل Meta، يمكن أن تنشأ شركة ناشئة أخرى.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى