يخبر Grok مستخدمي X بعدم الراحة عن “الإبادة الجماعية البيضاء” في جنوب إفريقيا

يبدو أن Elon Musk من AI chatbot Grok يعاني من خطأ يوم الأربعاء الذي تسبب في الرد على عشرات المنشورات على X مع معلومات حول “الإبادة الجماعية البيضاء” في جنوب إفريقيا ، حتى عندما لم يسأل المستخدم أي شيء عن الموضوع.
تنبع الاستجابات الغريبة من حساب X لـ Grok ، والذي يرد على المستخدمين الذين تم إنشاؤهم بواسطة AI كلما علامات المستخدم @Grok. عندما سئل عن الموضوعات غير ذات الصلة ، أخبر Grok المستخدمين مرارًا وتكرارًا عن “الإبادة الجماعية البيضاء” ، وكذلك الهتاف المضاد للفرنوديس “قتل البوير”.
إن الردود الغريبة غير ذات الصلة هي تذكير بأن AI chatbots لا تزال تقنية ناشئة ، وقد لا تكون دائمًا مصدرًا موثوقًا للمعلومات. في الأشهر الأخيرة ، كافح مقدمو النماذج من الذكاء الاصطناعى من أجل تعديل ردود chatbots الخاصة بهم ، والتي أدت إلى سلوكيات غريبة.
أُجبرت Openai مؤخرًا على تراجع تحديث إلى ChatGPT الذي تسبب في أن يكون chatbot من الذكاء الاصطناعي sycophanty بشكل مفرط. وفي الوقت نفسه ، واجهت Google مشاكل في رفض chatbot Gemini الإجابة ، أو إعطاء المعلومات الخاطئة ، حول الموضوعات السياسية.
في أحد الأمثلة على سوء سلوك Grok ، سأل أحد المستخدمين Grok عن راتب لاعب البيسبول المحترف ، ورد Grok على أن “مطالبة” الإبادة الجماعية البيضاء “في جنوب إفريقيا تتم مناقشتها”.
نشر العديد من المستخدمين على X حول تفاعلاتهم المربكة والغريبة مع Grok AI chatbot يوم الأربعاء.
من غير الواضح في هذا الوقت ما هو سبب إجابات Grok الغريبة ، ولكن تم التلاعب في chatbots من Xai في الماضي.
في فبراير / شباط ، بدا أن Grok 3 قد خضعت للرقابة لفترة وجيزة على الإشارات غير المتوفرة لإيلون موسك ودونالد ترامب. في ذلك الوقت ، بدا أن قيادة Xai Engineering Igor Babuschkin تؤكد أن Grok تم توجيه تعليمات إليه لفترة وجيزة ، على الرغم من أن الشركة عكست بسرعة التعليم بعد أن لفتت رد الفعل العكسي اهتمامًا أكبر.
مهما كان سبب الخطأ ، يبدو أن Grok يستجيب بشكل طبيعي للمستخدمين الآن. لم يرد متحدث باسم XAI على الفور على طلب TechCrunch للتعليق.