Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تكنلوجيا الويب

توقف Meta مؤقتًا عن خطط تدريب الذكاء الاصطناعي باستخدام بيانات المستخدمين الأوروبيين، رضوخًا للضغوط التنظيمية


أكدت شركة Meta أنها ستوقف مؤقتًا خططها لبدء تدريب أنظمة الذكاء الاصطناعي الخاصة بها باستخدام بيانات من مستخدميها في الاتحاد الأوروبي والمملكة المتحدة

وتأتي هذه الخطوة في أعقاب معارضة من لجنة حماية البيانات الأيرلندية (DPC)، الجهة التنظيمية الرئيسية لشركة Meta في الاتحاد الأوروبي، والتي تعمل نيابة عن العديد من سلطات حماية البيانات في جميع أنحاء الكتلة. كما طلب مكتب مفوض المعلومات في المملكة المتحدة (ICO) من شركة Meta إيقاف خططها مؤقتًا حتى تتمكن من تلبية المخاوف التي أثارتها.

وقالت DPC في بيان يوم الجمعة: “ترحب DPC بقرار Meta بإيقاف خططها مؤقتًا لتدريب نموذجها اللغوي الكبير باستخدام المحتوى العام الذي يشاركه البالغين على Facebook وInstagram عبر الاتحاد الأوروبي/المنطقة الاقتصادية الأوروبية”. “لقد جاء هذا القرار بعد مشاركة مكثفة بين DPC وMeta. ستواصل لجنة حماية البيانات (DPC)، بالتعاون مع سلطات حماية البيانات في الاتحاد الأوروبي، التعامل مع Meta بشأن هذه المشكلة.

في حين أن شركة Meta تستغل بالفعل المحتوى الذي ينشئه المستخدمون لتدريب الذكاء الاصطناعي الخاص بها في أسواق مثل الولايات المتحدة، فإن لوائح اللائحة العامة لحماية البيانات (GDPR) الصارمة في أوروبا قد خلقت عقبات أمام شركة Meta – وغيرها من الشركات – التي تتطلع إلى تحسين أنظمة الذكاء الاصطناعي الخاصة بها، بما في ذلك نماذج اللغات الكبيرة مع التدريب الذي ينشئه المستخدم. مادة.

ومع ذلك، بدأت Meta الشهر الماضي في إخطار المستخدمين بالتغيير القادم في سياسة الخصوصية الخاصة بها، وهو التغيير الذي قالت إنه سيمنحها الحق في استخدام المحتوى العام على Facebook وInstagram لتدريب الذكاء الاصطناعي الخاص بها، بما في ذلك المحتوى من التعليقات والتفاعلات مع الشركات وتحديثات الحالة. والصور والتعليقات المرتبطة بها. وقالت الشركة إنها بحاجة إلى القيام بذلك ليعكس “اللغات والجغرافيا والمراجع الثقافية المتنوعة للشعب في أوروبا”.

وكان من المقرر أن تدخل هذه التغييرات حيز التنفيذ في 26 يونيو – بعد 12 يومًا من الآن. لكن الخطط دفعت منظمة ناشطة الخصوصية غير الهادفة للربح NOYB (“ليس من شأنك”) إلى تقديم 11 شكوى إلى الدول الأعضاء في الاتحاد الأوروبي، بحجة أن Meta تنتهك جوانب مختلفة من اللائحة العامة لحماية البيانات. يتعلق أحدها بمسألة الاشتراك في الاشتراك مقابل إلغاء الاشتراك، في مقابل عندما تتم معالجة البيانات الشخصية، يجب أن يُطلب من المستخدمين الحصول على إذنهم أولاً بدلاً من المطالبة باتخاذ إجراء للرفض.

من جانبها، كانت ميتا تعتمد على بند في القانون العام لحماية البيانات يسمى “المصالح المشروعة” للتأكيد على أن تصرفاتها كانت متوافقة مع اللوائح. ليست هذه هي المرة الأولى التي تستخدم فيها Meta هذا الأساس القانوني في الدفاع، بعد أن فعلت ذلك سابقًا لتبرير معالجة المستخدمين الأوروبيين للإعلانات المستهدفة.

لقد بدا من المحتمل دائمًا أن يقوم المنظمون على الأقل بوقف تنفيذ التغييرات المخطط لها من قبل شركة ميتا، لا سيما في ضوء مدى الصعوبة التي جعلتها الشركة للمستخدمين “لإلغاء الاشتراك” في استخدام بياناتهم. وقالت الشركة إنها أرسلت أكثر من 2 مليار إشعار لإبلاغ المستخدمين بالتغييرات القادمة، ولكن على عكس الرسائل العامة المهمة الأخرى التي يتم لصقها في الجزء العلوي من خلاصات المستخدمين، مثل المطالبات بالخروج والتصويت، ظهرت هذه الإشعارات جنبًا إلى جنب مع المستخدمين الإشعارات القياسية: أعياد ميلاد الأصدقاء، وتنبيهات علامات الصور، وإعلانات المجموعات، والمزيد. لذا، إذا لم يتحقق شخص ما من إشعاراته بانتظام، فمن السهل جدًا تفويت ذلك.

وأولئك الذين شاهدوا الإشعار لن يعرفوا تلقائيًا أن هناك طريقة للاعتراض أو إلغاء الاشتراك، لأنه ببساطة يدعو المستخدمين للنقر لمعرفة كيف ستستخدم Meta معلوماتهم. لم يكن هناك ما يشير إلى وجود خيار هنا.

التعريف: إشعار الذكاء الاصطناعي
اعتمادات الصورة: ميتا

علاوة على ذلك، لم يتمكن المستخدمون من الناحية الفنية من “إلغاء الاشتراك” في استخدام بياناتهم. بدلاً من ذلك، كان عليهم إكمال نموذج اعتراض حيث يقدمون حججهم حول سبب عدم رغبتهم في معالجة بياناتهم – كان الأمر متروكًا لتقدير شركة Meta تمامًا فيما يتعلق بما إذا كان هذا الطلب قد تم احترامه، على الرغم من أن الشركة قالت إنها ستحترم كل منهما. طلب.

فيسبوك "اعتراض" استمارة
نموذج “الاعتراض” على فيسبوك
اعتمادات الصورة: ميتا / لقطة الشاشة

على الرغم من أن نموذج الاعتراض تم ربطه من الإشعار نفسه، إلا أن أي شخص يبحث بشكل استباقي عن نموذج الاعتراض في إعدادات حسابه قد توقف عن العمل.

وعلى موقع فيسبوك، كان عليهم أولاً النقر فوق صورة الملف الشخصي في أعلى اليمين؛ يضرب الإعدادات والخصوصية; مقبض مركز الخصوصية; قم بالتمرير لأسفل وانقر فوق الذكاء الاصطناعي التوليدي في ميتا قسم؛ قم بالتمرير لأسفل مرة أخرى بعد مجموعة من الروابط إلى قسم بعنوان المزيد من الموارد. الرابط الأول ضمن هذا القسم يسمى “كيف تستخدم Meta المعلومات لنماذج الذكاء الاصطناعي التوليدي”، وكانوا بحاجة إلى قراءة حوالي 1100 كلمة قبل الوصول إلى رابط منفصل لنموذج “الحق في الاعتراض” الخاص بالشركة. وكانت قصة مماثلة في تطبيق الفيسبوك للهاتف المحمول.

رابط ل "الحق في الاعتراض" استمارة
رابط إلى نموذج “الحق في الاعتراض”.
اعتمادات الصورة: ميتا / لقطة الشاشة

في وقت سابق من هذا الأسبوع، عندما سئل لماذا تتطلب هذه العملية من المستخدم تقديم اعتراض بدلاً من الاشتراك، أشار مات بولارد، مدير اتصالات السياسة في Meta، إلى TechCrunch إلى منشور مدونته الحالي، والذي يقول: “نحن نؤمن بهذا الأساس القانوني”. [“legitimate interests”] “هو التوازن الأنسب لمعالجة البيانات العامة على النطاق اللازم لتدريب نماذج الذكاء الاصطناعي، مع احترام حقوق الناس.”

ولترجمة ذلك، فإن جعل هذا الاختيار على الأرجح لن يولد “نطاقًا” كافيًا من حيث الأشخاص الراغبين في تقديم بياناتهم. لذا فإن أفضل طريقة للتغلب على ذلك هي إصدار إشعار فردي بين إشعارات المستخدمين الأخرى؛ إخفاء نموذج الاعتراض خلف ست نقرات لأولئك الذين يسعون إلى “إلغاء الاشتراك” بشكل مستقل؛ ثم اجعلهم يبررون اعتراضهم، بدلاً من منحهم خيار عدم المشاركة بشكل مباشر.

وفي تدوينة محدثة يوم الجمعة، قال مدير المشاركة العالمية لسياسة الخصوصية في Meta، ستيفانو فراتا، إنه “يشعر بخيبة أمل” بسبب الطلب الذي تلقته من DPC.

وكتب فراتا: “هذه خطوة إلى الوراء بالنسبة للابتكار الأوروبي، والمنافسة في تطوير الذكاء الاصطناعي، ومزيد من التأخير في جلب فوائد الذكاء الاصطناعي للناس في أوروبا”. “نحن واثقون جدًا من أن نهجنا يتوافق مع القوانين واللوائح الأوروبية. إن التدريب على الذكاء الاصطناعي لا يقتصر على خدماتنا، ونحن أكثر شفافية من العديد من نظرائنا في الصناعة.

سباق التسلح بالذكاء الاصطناعي

لا شيء من هذا جديد، وميتا في سباق تسلح للذكاء الاصطناعي سلط ضوءًا كبيرًا على الترسانة الهائلة من البيانات التي تحتفظ بها شركات التكنولوجيا الكبرى لنا جميعًا.

في وقت سابق من هذا العام، كشفت Reddit أنها تعاقدت على جني ما يصل إلى 200 مليون دولار في السنوات المقبلة لترخيص بياناتها لشركات مثل OpenAI وGoogle، صانع ChatGPT. وتواجه هذه الشركات بالفعل غرامات ضخمة بسبب اعتمادها على محتوى إخباري محمي بحقوق الطبع والنشر لتدريب نماذج الذكاء الاصطناعي التوليدية الخاصة بها.

ولكن هذه الجهود تسلط الضوء أيضا على المدى الذي ستذهب إليه الشركات لضمان قدرتها على الاستفادة من هذه البيانات ضمن القيود التي تفرضها التشريعات القائمة؛ نادراً ما يكون “الاختيار” مدرجاً على جدول الأعمال، وغالباً ما تكون عملية إلغاء الاشتراك شاقة بلا داع. في الشهر الماضي فقط، اكتشف شخص ما بعض الصياغة المشكوك فيها في سياسة خصوصية Slack الحالية التي تشير إلى أنها ستكون قادرة على الاستفادة من بيانات المستخدم لتدريب أنظمة الذكاء الاصطناعي الخاصة بها، مع عدم تمكن المستخدمين من إلغاء الاشتراك إلا عن طريق إرسال بريد إلكتروني إلى الشركة.

وفي العام الماضي، أعطت جوجل أخيرًا للناشرين عبر الإنترنت طريقة لاختيار مواقعهم الإلكترونية من تدريب نماذجها من خلال تمكينهم من حقن جزء من التعليمات البرمجية في مواقعهم. تقوم OpenAI، من جانبها، ببناء أداة مخصصة للسماح لمنشئي المحتوى بإلغاء الاشتراك في تدريب ذكاء الذكاء الاصطناعي التوليدي الخاص بها؛ يجب أن يكون هذا جاهزًا بحلول عام 2025.

في حين أن محاولات Meta لتدريب الذكاء الاصطناعي الخاص بها على المحتوى العام للمستخدمين في أوروبا متوقفة في الوقت الحالي، فمن المحتمل أن ترفع رأسها مرة أخرى في شكل آخر بعد التشاور مع DPC وICO – ونأمل أن يتم ذلك من خلال عملية مختلفة للحصول على إذن المستخدم.

وقال ستيفن ألموند، المدير التنفيذي للمخاطر التنظيمية في ICO: “من أجل تحقيق أقصى استفادة من الذكاء الاصطناعي المنتج والفرص التي يوفرها، من المهم أن يثق الجمهور في أن حقوق الخصوصية الخاصة بهم سيتم احترامها منذ البداية”. بيان الجمعة. “سنواصل مراقبة المطورين الرئيسيين للذكاء الاصطناعي التوليدي، بما في ذلك Meta، لمراجعة الضمانات التي وضعوها وضمان حماية حقوق المعلومات لمستخدمي المملكة المتحدة.”


اكتشاف المزيد من مجلة كوكان

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى