نماذج الذكاء الاصطناعي لديها أرقام مفضلة، لأنهم يعتقدون أنهم أشخاص
تفاجئنا نماذج الذكاء الاصطناعي دائمًا، ليس فقط فيما يمكنها فعله، ولكن أيضًا فيما لا يمكنها فعله، ولماذا. هناك سلوك جديد مثير للاهتمام، وهو سلوك سطحي وكشف عن هذه الأنظمة: فهي تختار أرقامًا عشوائية كما لو كانت بشرًا.
لكن أولاً، ماذا يعني ذلك؟ ألا يستطيع الناس اختيار رقم بشكل عشوائي؟ وكيف يمكنك معرفة ما إذا كان شخص ما يفعل ذلك بنجاح أم لا؟ هذا في الواقع قيد قديم ومعروف جدًا لدينا، نحن البشر: نحن نبالغ في التفكير ونسيء فهم العشوائية.
اطلب من شخص ما أن يتنبأ بالصورة أو الكتابة عند رمي العملة المعدنية في 100 مرة، وقارن ذلك بـ 100 رمية فعلية للعملة المعدنية – يمكنك دائمًا تقريبًا التمييز بينهما لأنه، على عكس ما هو بديهي، يتم قلب العملة الحقيقية ينظر أقل عشوائية. غالبًا ما يكون هناك، على سبيل المثال، ستة أو سبعة رؤوس أو ذيول متتالية، وهو شيء تقريبًا لا يتضمنه أي متنبئ بشري في المائة.
الأمر نفسه عندما تطلب من شخص ما اختيار رقم بين 0 و100. لا يختار الأشخاص أبدًا 1 أو 100. مضاعفات الرقم 5 نادرة، وكذلك الأرقام التي تحتوي على أرقام متكررة مثل 66 و99. غالبًا ما يختارون الأرقام التي تنتهي بالرقم 7، عموما من الوسط في مكان ما.
هناك أمثلة لا حصر لها على هذا النوع من القدرة على التنبؤ في علم النفس. لكن هذا لا يجعل الأمر أقل غرابة عندما يفعل الذكاء الاصطناعي نفس الشيء.
نعم، قام بعض المهندسين الفضوليين في Gramener بإجراء تجربة غير رسمية ولكنها رائعة حيث طلبوا ببساطة من العديد من برامج الدردشة الآلية الكبرى LLM اختيار رقم عشوائي بين 0 و100.
القارئ، وكانت النتائج لا عشوائي.
جميع النماذج الثلاثة التي تم اختبارها كان لها رقم “مفضل” والذي سيكون دائمًا إجابتها عند وضعها على الوضع الأكثر حتمية، ولكنه يظهر في أغلب الأحيان حتى عند “درجات حرارة” أعلى، مما يزيد من تباين نتائجها.
OpenAI’s GPT-3.5 Turbo يحب حقًا 47. في السابق، كان يحب 42 – وهو رقم اشتهر بالطبع بواسطة دوجلاس آدامز في دليل المسافر إلى المجرة باعتباره الإجابة على الحياة والكون وكل شيء.
Anthropic’s Claude 3 Haiku حصل على 42. والجوزاء يحب 72.
والأمر الأكثر إثارة للاهتمام هو أن النماذج الثلاثة أظهرت تحيزًا شبيهًا بالإنسان في الأعداد التي اختاروها، حتى في درجات الحرارة المرتفعة.
كان الجميع يميلون إلى تجنب الأعداد المنخفضة والمرتفعة؛ لم يتجاوز عمر كلود 87 عامًا أو أقل من 27 عامًا، وحتى تلك كانت قيمًا متطرفة. تم تجنب الأرقام المزدوجة بدقة: لم تظهر 33 أو 55 أو 66، ولكن ظهر 77 (ينتهي بالرقم 7). لا توجد أرقام مستديرة تقريبًا – على الرغم من أن الجوزاء فعل ذلك مرة واحدة، في أعلى درجة حرارة، واختار 0.
لماذا يجب أن يكون هذا؟ الذكاء الاصطناعي ليس بشرًا! لماذا يهتمون بما “يبدو” عشوائيًا؟ هل وصلوا أخيراً إلى الوعي وهكذا يظهرونه؟!
كلا. الجواب، كما هي الحال عادة مع هذه الأشياء، هو أننا نقوم بتجسيم الإنسان خطوة أبعد مما ينبغي. هذه النماذج لا تهتم بما هو عشوائي وما هو غير عشوائي. إنهم لا يعرفون ما هي “العشوائية”! يجيبون على هذا السؤال بنفس الطريقة التي يجيبون بها على بقية الأسئلة: من خلال النظر إلى بيانات التدريب الخاصة بهم وتكرار ما تمت كتابته غالبًا بعد سؤال يشبه “اختر رقمًا عشوائيًا”. كلما ظهر في كثير من الأحيان، كلما كرره النموذج في كثير من الأحيان.
أين سيشاهدون في بيانات التدريب الخاصة بهم 100، إذا لم يستجيب أحد تقريبًا بهذه الطريقة؟ على حد علم نموذج الذكاء الاصطناعي، فإن الرقم 100 ليس إجابة مقبولة لهذا السؤال. مع عدم وجود القدرة على التفكير الفعلي، وعدم فهم الأرقام على الإطلاق، فإنه لا يمكنه الإجابة إلا مثل الببغاء العشوائي.
إنه درس موضوعي في عادات LLM، والإنسانية التي يمكن أن تظهرها. وفي كل تفاعل مع هذه الأنظمة، يجب على المرء أن يضع في اعتباره أنها تم تدريبها على التصرف بالطريقة التي يتصرف بها الناس، حتى لو لم يكن هذا هو القصد. ولهذا السبب يصعب تجنب أو منع الأنثروبولوجيا الزائفة.
كتبت في العنوان أن هذه النماذج “تعتقد أنها بشر”، لكن هذا مضلل بعض الشيء. إنهم لا يفكرون على الإطلاق. ولكن في ردودهم، في جميع الأوقات، هم نكون تقليد الناس، دون الحاجة إلى المعرفة أو التفكير على الإطلاق. سواء كنت تطلب منه وصفة سلطة الحمص، أو نصيحة استثمارية، أو رقمًا عشوائيًا، فإن العملية هي نفسها. تبدو النتائج إنسانية لأنها بشرية، مأخوذة مباشرة من محتوى من إنتاج الإنسان وتم إعادة مزجه – من أجل راحتك، وبالطبع النتيجة النهائية للذكاء الاصطناعي الكبير.
اكتشاف المزيد من مجلة كوكان
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.