يواجه GenAI من Google تدقيقًا لتقييم مخاطر الخصوصية في أوروبا
فتحت هيئة تنظيم الخصوصية الرائدة في Google في الاتحاد الأوروبي تحقيقًا حول ما إذا كانت قد امتثلت لقوانين حماية البيانات الخاصة بالكتلة فيما يتعلق باستخدام معلومات الأشخاص لتدريب الذكاء الاصطناعي التوليدي أم لا.
إنها تبحث على وجه التحديد فيما إذا كانت شركة التكنولوجيا العملاقة بحاجة إلى إجراء تقييم تأثير حماية البيانات (DPIA) من أجل النظر بشكل استباقي في المخاطر التي قد تشكلها تقنيات الذكاء الاصطناعي الخاصة بها على حقوق وحريات الأفراد الذين تم استخدام معلوماتهم لتدريب النماذج.
تشتهر أدوات الذكاء الاصطناعي التوليدية بإنتاج أكاذيب تبدو معقولة. هذا الاتجاه، إلى جانب القدرة على تقديم المعلومات الشخصية عند الطلب، يخلق الكثير من المخاطر القانونية لصانعيها. تتمتع لجنة حماية البيانات الأيرلندية (DPC)، التي تشرف على امتثال Google للائحة العامة لحماية البيانات (GDPR) للكتلة، بصلاحيات فرض غرامات تصل إلى 4٪ من الإيرادات السنوية العالمية لشركة Alphabet (الكيان الأم لشركة Google) لأي انتهاكات مؤكدة.
قامت Google بتطوير العديد من أدوات الذكاء الاصطناعي التوليدية، بما في ذلك مجموعة كاملة من نماذج اللغات الكبيرة ذات الأغراض العامة (LLMs) والتي تحمل العلامة التجارية Gemini (المعروفة سابقًا باسم Bard). ويستخدم التكنولوجيا لتشغيل روبوتات الدردشة المدعمة بالذكاء الاصطناعي، بما في ذلك تحسين البحث على الويب. تكمن وراء أدوات الذكاء الاصطناعي التي تواجه المستهلك هذه دورة LLM من Google تسمى PaLM2، والتي أطلقتها العام الماضي في مؤتمر مطوري I / O.
إن كيفية تطوير Google لنموذج الذكاء الاصطناعي التأسيسي هذا هو ما تقول لجنة حماية البيانات الأيرلندية إنها تحقق فيه، بموجب المادة 110 من قانون حماية البيانات الأيرلندي لعام 2018 والذي حول اللائحة العامة لحماية البيانات إلى قانون وطني.
يتطلب تدريب نماذج GenAI عادةً كميات هائلة من البيانات، كما أن أنواع المعلومات التي اكتسبها صانعو LLM، بالإضافة إلى كيفية وأين حصلوا عليها، تخضع للتدقيق بشكل متزايد فيما يتعلق بمجموعة من المخاوف القانونية، بما في ذلك حقوق الطبع والنشر والخصوصية. .
في الحالة الأخيرة، تخضع المعلومات المستخدمة كعلف تدريبي للذكاء الاصطناعي والتي تحتوي على المعلومات الشخصية لمواطني الاتحاد الأوروبي لقواعد حماية البيانات الخاصة بالكتلة، سواء تم حذفها من الإنترنت العام أو تم الحصول عليها مباشرة من المستخدمين. ولهذا السبب، واجه عدد من LLM بالفعل أسئلة – وبعض إنفاذ القانون العام لحماية البيانات – فيما يتعلق بالامتثال للخصوصية، بما في ذلك OpenAI، صانع GPT (و ChatGPT)؛ وMeta، التي تعمل على تطوير نموذج Llama AI.
اجتذبت شركة X المملوكة لشركة Elon Musk أيضًا شكاوى من القانون العام لحماية البيانات (GDPR) وغضب DPC بشأن استخدام بيانات الأشخاص للتدريب على الذكاء الاصطناعي – مما أدى إلى رفع دعوى قضائية وتعهد شركة X بالحد من معالجة بياناتها ولكن بدون عقوبة. على الرغم من أن X لا يزال من الممكن أن يواجه عقوبة القانون العام لحماية البيانات (GDPR) إذا قررت لجنة حماية البيانات (DPC) معالجتها لبيانات المستخدم لتدريب أداة الذكاء الاصطناعي الخاصة بها، إلا أن شركة Grok انتهكت النظام.
يعد تحقيق DPC الخاص بـ DPIA بشأن GenAI من Google هو أحدث إجراء تنظيمي في هذا المجال.
“يتعلق التحقيق القانوني بمسألة ما إذا كانت Google قد امتثلت لأي التزامات قد تكون اضطرت لإجراء تقييم، وفقًا للمادة 35 من اللائحة العامة لحماية البيانات (تقييم تأثير حماية البيانات)، قبل المشاركة في معالجة “البيانات الشخصية لأصحاب بيانات الاتحاد الأوروبي/المنطقة الاقتصادية الأوروبية المرتبطة بتطوير نموذج الذكاء الاصطناعي التأسيسي، نموذج لغة المسارات 2 (PaLM 2)”،” كتب DPC في بيان صحفي.
ويشير إلى أن قانون حماية البيانات الشخصية يمكن أن يكون “ذو أهمية حاسمة في ضمان مراعاة الحقوق والحريات الأساسية للأفراد وحمايتها بشكل مناسب عندما يكون من المحتمل أن تؤدي معالجة البيانات الشخصية إلى مخاطر عالية”.
“يشكل هذا التحقيق القانوني جزءًا من الجهود الأوسع التي تبذلها لجنة حماية البيانات، والتي تعمل جنبًا إلى جنب مع الاتحاد الأوروبي/المنطقة الاقتصادية الأوروبية [European Economic Area] أضافت DPC، “المنظمون الأقران، في تنظيم معالجة البيانات الشخصية لأصحاب بيانات الاتحاد الأوروبي / المنطقة الاقتصادية الأوروبية في تطوير نماذج وأنظمة الذكاء الاصطناعي”، في إشارة إلى الجهود المستمرة التي تبذلها شبكة الكتلة من منفذي القانون العام لحماية البيانات للوصول إلى نوع من الإجماع حول أفضل السبل. لتطبيق قانون الخصوصية على أدوات GenAI.
تم الاتصال بشركة Google للرد على استفسار DPC.