Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تكنلوجيا الويب

هذا الأسبوع في الذكاء الاصطناعي: هل يمكننا (وهل يمكن أن نتمكن من ذلك) أن نثق في OpenAI؟


إن مواكبة صناعة سريعة الحركة مثل الذكاء الاصطناعي يعد أمرًا صعبًا. لذا، إلى أن يتمكن الذكاء الاصطناعي من القيام بذلك نيابةً عنك، إليك ملخصًا مفيدًا للقصص الحديثة في عالم التعلم الآلي، إلى جانب الأبحاث والتجارب البارزة التي لم نغطيها بمفردنا.

بالمناسبة، تخطط TechCrunch لإطلاق نشرة إخبارية خاصة بالذكاء الاصطناعي في 5 يونيو. تابعونا باستمرار. في هذه الأثناء، نعمل على زيادة إيقاع عمود الذكاء الاصطناعي شبه المنتظم لدينا، والذي كان في السابق مرتين في الشهر (أو نحو ذلك)، إلى أسبوعي – لذا ترقب المزيد من الإصدارات.

أطلقت OpenAI هذا الأسبوع في مجال الذكاء الاصطناعي خططًا مخفضة للمؤسسات غير الربحية وعملاء التعليم وأزاحت الستار عن أحدث جهودها لمنع الجهات الفاعلة السيئة من إساءة استخدام أدوات الذكاء الاصطناعي الخاصة بها. ليس هناك الكثير مما يمكن انتقاده، على الأقل ليس في رأي هذا الكاتب. لكن أنا سوف قل أن طوفان الإعلانات بدا وكأنه توقيت لمواجهة الصحافة السيئة للشركة في الآونة الأخيرة.

لنبدأ مع سكارليت جوهانسون. قامت شركة OpenAI بإزالة أحد الأصوات التي يستخدمها برنامج الدردشة الآلي ChatGPT الذي يعمل بالذكاء الاصطناعي بعد أن أشار المستخدمون إلى أنه يبدو مشابهًا بشكل مخيف لصوت جوهانسون. أصدرت جوهانسون لاحقًا بيانًا قالت فيه إنها عينت مستشارًا قانونيًا للاستفسار عن الصوت والحصول على تفاصيل دقيقة حول كيفية تطويره، وأنها رفضت المناشدات المتكررة من OpenAI لترخيص صوتها لـ ChatGPT.

الآن، تشير مقالة في صحيفة واشنطن بوست إلى أن OpenAI لم تسعى في الواقع إلى استنساخ صوت جوهانسون وأن أي تشابهات كانت عرضية. ولكن لماذا إذن تواصل سام ألتمان، الرئيس التنفيذي لشركة OpenAI، مع جوهانسون وحثها على إعادة النظر قبل يومين من العرض التوضيحي الرائع الذي ظهر فيه الصوت المشابه؟ إنه مشتبه به قليلاً.

ثم هناك مشكلات الثقة والسلامة في OpenAI.

كما ذكرنا في وقت سابق من هذا الشهر، تم وعد فريق Superalignment الذي تم حله في OpenAI منذ ذلك الحين، والمسؤول عن تطوير طرق للتحكم وتوجيه أنظمة الذكاء الاصطناعي “فائقة الذكاء”، بالحصول على 20% من موارد الحوسبة الخاصة بالشركة – ولكن فقط (ونادرًا) حصل على جزء صغير من هذه الموارد. هذا. وقد أدى ذلك (من بين أسباب أخرى) إلى استقالة قائدي الفريق، جان لايكي وإيليا سوتسكيفر، كبير العلماء السابق في شركة OpenAI.

وقد غادر ما يقرب من اثني عشر من خبراء السلامة شركة OpenAI في العام الماضي؛ أعرب العديد منهم، بما في ذلك ليك، علنًا عن مخاوفهم من أن الشركة تعطي الأولوية للمشاريع التجارية على جهود السلامة والشفافية. ردًا على الانتقادات، شكلت OpenAI لجنة جديدة للإشراف على قرارات السلامة والأمن المتعلقة بمشاريع الشركة وعملياتها. لكنها زودت اللجنة بأشخاص من داخل الشركة – بما في ذلك ألتمان – بدلا من مراقبين خارجيين. هذا حيث يقال إن OpenAI تفكر في التخلص من هيكلها غير الربحي لصالح نموذج تقليدي ربحي.

مثل هذه الحوادث تجعل من الصعب الثقة في شركة OpenAI، وهي الشركة التي تنمو قوتها ونفوذها يوميًا (انظر: صفقاتها مع ناشري الأخبار). هناك عدد قليل من الشركات، إن وجدت، تستحق الثقة. لكن تقنيات OpenAI التي تعطل السوق تجعل الانتهاكات أكثر إثارة للقلق.

ومما لا يساعد في الأمر أن ألتمان نفسه ليس بالضبط منارة للصدق.

عندما اندلعت أخبار عن تكتيكات OpenAI العدوانية تجاه الموظفين السابقين – وهي التكتيكات التي تنطوي على تهديد الموظفين بخسارة أسهمهم المكتسبة، أو منع مبيعات الأسهم، إذا لم يوقعوا اتفاقيات عدم الإفصاح المقيدة – اعتذر ألتمان وادعى أنه ليس لديه علم بذلك. السياسات. ولكن، وفقًا لفوكس، فإن توقيع ألتمان موجود على وثائق التأسيس التي سنت السياسات.

وإذا كان لنا أن نصدق عضو مجلس إدارة OpenAI السابق، هيلين تونر – أحد أعضاء مجلس الإدارة السابقين الذين حاولوا إقالة Altman من منصبه في أواخر العام الماضي – فقد حجب Altman المعلومات، وأساء تمثيل الأشياء التي كانت تحدث في OpenAI، وفي بعض الحالات كذب بشكل صريح. إلى السبورة. يقول تونر إن مجلس الإدارة علم بإصدار ChatGPT عبر تويتر، وليس من ألتمان؛ وأن ألتمان قدم معلومات خاطئة حول ممارسات السلامة الرسمية لشركة OpenAI؛ وأن ألتمان، الذي كان مستاءً من الورقة الأكاديمية التي شارك تونر في تأليفها والتي ألقت ضوءًا نقديًا على OpenAI، حاول التلاعب بأعضاء مجلس الإدارة لإبعاد تونر عن مجلس الإدارة.

ولا شيء من ذلك يبشر بالخير.

فيما يلي بعض قصص الذكاء الاصطناعي الأخرى الجديرة بالملاحظة من الأيام القليلة الماضية:

  • أصبح استنساخ الصوت سهلاً: وجد تقرير جديد صادر عن مركز مكافحة الكراهية الرقمية أن خدمات استنساخ الصوت المدعومة بالذكاء الاصطناعي تجعل تزوير بيان السياسي أمرًا تافهًا إلى حد ما.
  • صراع النظرات العامة حول الذكاء الاصطناعي من Google: نظرة عامة على الذكاء الاصطناعي، نتائج البحث التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي بدأت جوجل في طرحها على نطاق أوسع في وقت سابق من هذا الشهر على بحث جوجل، تحتاج إلى بعض العمل. تعترف الشركة بذلك، لكنها تدعي أنها تتكرر بسرعة. (سوف نرى.)
  • بول جراهام عن ألتمان: في سلسلة من المنشورات على X، نفى بول جراهام، المؤسس المشارك لمسرع الشركات الناشئة Y Combinator، الادعاءات القائلة بأن ألتمان تعرض لضغوط للاستقالة من منصب رئيس Y Combinator في عام 2019 بسبب تضارب محتمل في المصالح. (تمتلك Y Combinator حصة صغيرة في OpenAI.)
  • xAI تجمع 6 مليار دولار: جمعت شركة Elon Musk الناشئة في مجال الذكاء الاصطناعي، xAI، تمويلًا بقيمة 6 مليارات دولار، حيث قام Musk بتعزيز رأس المال للتنافس بقوة مع المنافسين بما في ذلك OpenAI وMicrosoft وAlphabet.
  • ميزة الذكاء الاصطناعي الجديدة في Perplexity: من خلال القدرة الجديدة لصفحات Perplexity، تهدف شركة Perplexity الناشئة للذكاء الاصطناعي إلى مساعدة المستخدمين على إعداد تقارير أو مقالات أو أدلة بتنسيق أكثر جاذبية من الناحية المرئية، حسبما أفاد إيفان.
  • الأرقام المفضلة لنماذج الذكاء الاصطناعي: يكتب ديفين عن الأرقام التي تختارها نماذج الذكاء الاصطناعي المختلفة عندما يتم تكليفها بإعطاء إجابة عشوائية. وكما تبين، فإن لديهم مفضلات، وهي انعكاس للبيانات التي تم تدريب كل منهم عليها.
  • إصدارات ميسترال Codestral: أصدرت شركة ميسترال، الشركة الفرنسية الناشئة للذكاء الاصطناعي والمدعومة من شركة مايكروسوفت والتي تبلغ قيمتها 6 مليارات دولار، أول نموذج ذكاء اصطناعي توليدي للبرمجة، أطلق عليه اسم Codestral. لكن لا يمكن استخدامه تجاريًا، وذلك بفضل ترخيص ميسترال المقيد للغاية.
  • روبوتات الدردشة والخصوصية: تكتب ناتاشا عن فريق عمل ChatGPT التابع للاتحاد الأوروبي، وكيف يقدم نظرة أولية على فك تشابك الامتثال للخصوصية في برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي.
  • مولد الصوت الخاص بـ ElevenLabs: قدمت شركة ElevenLabs الناشئة لاستنساخ الصوت أداة جديدة، تم الإعلان عنها لأول مرة في فبراير، تتيح للمستخدمين إنشاء مؤثرات صوتية من خلال المطالبات.
  • الوصلات البينية لرقائق الذكاء الاصطناعي: قام عمالقة التكنولوجيا، بما في ذلك Microsoft وGoogle وIntel – ولكن ليس Arm أو Nvidia أو AWS – بتشكيل مجموعة صناعية، وهي UALink Promotion Group، للمساعدة في تطوير مكونات شرائح الذكاء الاصطناعي من الجيل التالي.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى