حصلت أوبرا للتو على عرض خاص حول الذكاء الاصطناعي مع سام ألتمان وبيل جيتس – وإليكم أبرز الأحداث
في وقت متأخر من مساء الخميس، بثت أوبرا وينفري عرضًا خاصًا عن الذكاء الاصطناعي، بعنوان “الذكاء الاصطناعي ومستقبلنا”. وكان من بين الضيوف الرئيس التنفيذي لشركة OpenAI سام ألتمان، والمؤثر التكنولوجي ماركيز براونلي، ومدير مكتب التحقيقات الفيدرالي الحالي كريستوفر راي.
وكانت النغمة السائدة هي تلك التي تتسم بالتشكك والحذر.
أشارت أوبرا في تصريحات معدة مسبقاً إلى أن جني الذكاء الاصطناعي قد خرج من القمقم، للأفضل أو للأسوأ، وأن البشرية سوف تضطر إلى تعلم كيفية التعايش مع العواقب.
وقالت: “لا يزال الذكاء الاصطناعي خارج نطاق سيطرتنا وإلى حد كبير… فهمنا”. “لكنها موجودة، وسنعيش مع التكنولوجيا التي يمكن أن تكون حليفتنا ومنافستنا في نفس الوقت… نحن أكثر المخلوقات قدرة على التكيف على هذا الكوكب. سوف نتكيف مرة أخرى. لكن أبقوا أعينكم على ما هو حقيقي. لا يمكن أن تكون المخاطر أعلى.”
سام التمان يبالغ في الوعود
ألتمان، أول مقابلة لأوبرا في تلك الليلة، أثار شكوكًا حول أن الذكاء الاصطناعي اليوم يتعلم المفاهيم ضمن البيانات التي تم تدريبه عليها.
وقال لأوبرا: “إننا نعرض على النظام ألف كلمة في تسلسل ونطلب منه التنبؤ بما سيأتي بعد ذلك”. “يتعلم النظام كيفية التنبؤ، ومن ثم يتعلم المفاهيم الأساسية.”
العديد من الخبراء يختلفون.
أنظمة الذكاء الاصطناعي مثل ChatGPT وo1، التي قدمتها OpenAI يوم الخميس، تتنبأ بالفعل بالكلمات التالية الأكثر احتمالية في الجملة. ولكنها مجرد آلات إحصائية، فهي تتعلم مدى احتمالية ظهور البيانات بناءً على الأنماط. ليس لديهم النية؛ إنهم يقومون فقط بتخمين مستنير.
في حين أن ألتمان ربما بالغ في تقدير قدرات أنظمة الذكاء الاصطناعي الحالية، إلا أنه أكد على أهمية معرفة كيفية اختبار سلامة أنظمة الذكاء الاصطناعي.
وقال: “أحد الأشياء الأولى التي يتعين علينا القيام بها، وهذا ما يحدث الآن، هو جعل الحكومة تبدأ في التفكير في كيفية إجراء اختبارات السلامة لهذه الأنظمة، كما نفعل مع الطائرات أو الأدوية الجديدة”. “أنا شخصيا ربما أجري محادثة مع شخص ما في الحكومة كل بضعة أيام.”
وربما تكون مساعي ألتمان من أجل التنظيم محض مصلحة ذاتية. عارضت OpenAI مشروع قانون سلامة الذكاء الاصطناعي في كاليفورنيا المعروف باسم SB 1047، قائلة إنه “سيخنق الابتكار”. ومع ذلك، فقد أعرب موظفو OpenAI السابقون وخبراء الذكاء الاصطناعي مثل جيفري هينتون عن دعمهم لمشروع القانون، بحجة أنه سيفرض الضمانات اللازمة على تطوير الذكاء الاصطناعي.
كما حثت أوبرا ألتمان على دوره كزعيم لـ OpenAI. وتساءلت لماذا يجب أن يثق الناس به، فتهرب من السؤال إلى حد كبير، قائلا إن شركته تحاول بناء الثقة مع مرور الوقت.
في السابق، قال ألتمان بشكل مباشر جدًا إنه لا ينبغي للناس أن يثقوا به أو بأي شخص للتأكد من أن الذكاء الاصطناعي يفيد العالم.
قال الرئيس التنفيذي لشركة OpenAI لاحقًا إنه من الغريب سماع أوبرا تسأل عما إذا كان “أقوى وأخطر رجل في العالم”، كما يشير عنوان إخباري. لم يوافق على ذلك، لكنه قال إنه يشعر بالمسؤولية لدفع الذكاء الاصطناعي في اتجاه إيجابي للإنسانية.
أوبرا على التزييف العميق
ومع ذلك، يمكن للتنبؤات والتخمينات أن تصل بك إلى حد كبير، كما توضح مولدات الفيديو التي تعمل بالذكاء الاصطناعي مثل Sora من OpenAI.
في وقت ما خلال العرض الخاص، عرض براونلي على أوبرا عينة من لقطات سورا. وقال: “الآن، لا يزال بإمكانك إلقاء نظرة على أجزاء من هذا والقول إن شيئًا ما ليس صحيحًا تمامًا”.
فأجابت أوبرا: “لا، لا أستطيع”.
كان العرض بمثابة مقطع لمقابلة مع Wray، الذي روى اللحظة التي تعرف فيها لأول مرة على تقنية التزييف العميق للذكاء الاصطناعي.
“كنت في غرفة الاجتماعات، ومجموعة من [FBI] قال راي: “لقد اجتمع الناس معًا ليبينوا لي كيف يمكن إنشاء صور مزيفة معززة بالذكاء الاصطناعي”. “لقد قاموا بإنشاء مقطع فيديو لي وأنا أقول أشياء لم أقلها من قبل ولن أقولها أبدًا.”
تحدث راي عن الانتشار المتزايد للابتزاز الجنسي القائم على الذكاء الاصطناعي. وفقًا لشركة الأمن السيبراني ESET، كانت هناك زيادة بنسبة 178٪ في حالات الابتزاز الجنسي بين عامي 2022 و2023، مدفوعة جزئيًا بتكنولوجيا الذكاء الاصطناعي.
قال راي: “شخص يتظاهر بأنه نظير يستهدف مراهقًا”، ثم يستخدم الصور المساومة التي ينشئها الذكاء الاصطناعي لإقناع الطفل بإرسال صور حقيقية في المقابل. في الواقع، إنه شخص ما خلف لوحة المفاتيح في نيجيريا، وبمجرد حصولهم على الصور، يهددون بابتزاز الطفل ويقولون له، إذا لم تدفع المبلغ، فسنشارك هذه الصور التي ستدمر حياتك. “
وتطرق راي أيضًا إلى المعلومات المضللة حول الانتخابات الرئاسية الأمريكية المقبلة. وبينما أكد أن “الوقت لم يكن وقت الذعر”، شدد على أنه يتعين على “الجميع في أمريكا” أن “يجلبوا إحساسًا مكثفًا بالتركيز والحذر بشأن استخدام الذكاء الاصطناعي” وكيف أن الذكاء الاصطناعي “يمكن أن يستخدمه الأشخاص السيئون”. الرجال ضدنا جميعا.”
قال راي: “نجد في كثير من الأحيان أن شيئًا ما على وسائل التواصل الاجتماعي يبدو مثل بيل من توبيكا أو ماري من دايتون هو في الواقع، كما تعلمون، ضابط مخابرات روسي أو صيني في ضواحي بكين أو موسكو”.
في الواقع، وجد استطلاع أجرته Statista أن أكثر من ثلث المشاركين في الولايات المتحدة رأوا معلومات مضللة – أو ما يشتبهون في أنها معلومات مضللة – حول موضوعات رئيسية بحلول نهاية عام 2023. وهذا العام، ظهرت صور مضللة تم إنشاؤها بواسطة الذكاء الاصطناعي للمرشحين نائب الرئيس كامالا هاريس والرئيس السابق حصل دونالد ترامب على ملايين المشاهدات على شبكات التواصل الاجتماعي بما في ذلك X.
بيل جيتس يتحدث عن اضطراب الذكاء الاصطناعي
ومن أجل تغيير وتيرة التفاؤل التكنولوجي، أجرت أوبرا مقابلة مع مؤسس شركة مايكروسوفت بيل جيتس، الذي أعرب عن أمله في أن الذكاء الاصطناعي سيعزز مجالات التعليم والطب.
“الذكاء الاصطناعي يشبه وجود شخص ثالث يجلس فيه [a medical appointment,] وقال جيتس: “يقومون بعمل نص، ويقترحون وصفة طبية”. “وهكذا بدلاً من أن يواجه الطبيب شاشة الكمبيوتر، فهو يتفاعل معك، ويتأكد البرنامج من وجود نسخة جيدة حقًا.”
ومع ذلك، تجاهل جيتس احتمال التحيز الناتج عن سوء التدريب.
أظهرت إحدى الدراسات الحديثة أن أنظمة التعرف على الكلام من شركات التكنولوجيا الرائدة كانت أكثر عرضة بمرتين لنسخ الصوت بشكل غير صحيح من مكبرات الصوت السوداء مقارنة بالسماعات البيضاء. وقد أظهرت أبحاث أخرى أن أنظمة الذكاء الاصطناعي تعزز المعتقدات القديمة وغير الصحيحة بأن هناك اختلافات بيولوجية بين السود والبيض – وهي أكاذيب تقود الأطباء إلى التشخيص الخاطئ للمشاكل الصحية.
وقال جيتس إنه في الفصل الدراسي، يمكن أن يكون الذكاء الاصطناعي “متاحًا دائمًا” و”يفهم كيفية تحفيزك… مهما كان مستوى معرفتك”.
هذا ليس بالضبط عدد الفصول الدراسية التي تراها.
في الصيف الماضي، سارعت المدارس والكليات إلى حظر ChatGPT بسبب مخاوف الانتحال والمعلومات المضللة. منذ ذلك الحين، قام البعض بإلغاء الحظر. ولكن ليس الجميع مقتنعين بقدرة GenAI على تحقيق الخير، مشيرين إلى استطلاعات مثل مركز الإنترنت الأكثر أمانًا في المملكة المتحدة، والذي وجد أن أكثر من نصف الأطفال (53٪) أفادوا أنهم رأوا أشخاصًا في سنهم يستخدمون GenAI بطريقة سلبية – على سبيل المثال إنشاء معلومات كاذبة يمكن تصديقها. المعلومات أو الصور المستخدمة لإزعاج شخص ما.
وفي أواخر العام الماضي، حثت منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو) الحكومات على تنظيم استخدام GenAI في التعليم، بما في ذلك تطبيق حدود عمرية للمستخدمين وحواجز حماية بشأن حماية البيانات وخصوصية المستخدم.
اكتشاف المزيد من مجلة كوكان
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.