تكنلوجيا الويب

مخطط سياسة الذكاء الاصطناعي الحاسم لعام 2024: إطلاق الإمكانات والحماية من المخاطر في مكان العمل


لقد وصف الكثير 2023 هو عام الذكاء الاصطناعي، وقد ظهر هذا المصطلح في العديد من قوائم “كلمات العام”. على الرغم من تأثير الذكاء الاصطناعي بشكل إيجابي على الإنتاجية والكفاءة في مكان العمل، إلا أنه قدم أيضًا عددًا من المخاطر الناشئة للشركات.

على سبيل المثال، كشف استطلاع حديث أجرته شركة Harris Poll بتكليف من AuditBoard أن ما يقرب من نصف الأمريكيين العاملين (51٪) يستخدمون حاليًا أدوات مدعومة بالذكاء الاصطناعي في العمل، مدفوعة بلا شك بـ ChatGPT وغيره من حلول الذكاء الاصطناعي التوليدية. ومع ذلك، في الوقت نفسه، قال ما يقرب من النصف (48٪) إنهم يدخلون بيانات الشركة في أدوات الذكاء الاصطناعي التي لا توفرها أعمالهم لمساعدتهم في عملهم.

يمثل هذا التكامل السريع لأدوات الذكاء الاصطناعي التوليدية في العمل تحديات أخلاقية وقانونية وتحديات تتعلق بالخصوصية والعملية، مما يخلق حاجة للشركات لتنفيذ سياسات جديدة وقوية تحيط بأدوات الذكاء الاصطناعي التوليدية. وفي الوقت الحالي، فإن معظمها لم تفعل ذلك بعد – فقد كشف استطلاع أجرته مؤسسة جارتنر مؤخرًا أن أكثر من نصف المؤسسات تفتقر إلى سياسة داخلية بشأن الذكاء الاصطناعي التوليدي، وقد وجد استطلاع هاريس أن 37٪ فقط من الأمريكيين العاملين لديهم سياسة رسمية فيما يتعلق باستخدام الذكاء الاصطناعي. الأدوات التي تعمل بالذكاء الاصطناعي والتي لا توفرها الشركة.

على الرغم من أن الأمر قد يبدو مهمة شاقة، إلا أن تطوير مجموعة من السياسات والمعايير الآن يمكن أن ينقذ المؤسسات من مشاكل كبيرة في المستقبل.

استخدام الذكاء الاصطناعي وإدارته: المخاطر والتحديات

إن تطوير مجموعة من السياسات والمعايير الآن يمكن أن ينقذ المؤسسات من المشاكل الكبيرة في المستقبل.

لقد أدى الاعتماد السريع للذكاء الاصطناعي التوليدي إلى جعل مواكبة إدارة مخاطر الذكاء الاصطناعي والحوكمة أمرًا صعبًا بالنسبة للشركات، وهناك انفصال واضح بين التبني والسياسات الرسمية. وجد استطلاع هاريس المذكور سابقًا أن 64% يرون أن استخدام أدوات الذكاء الاصطناعي آمن، مما يشير إلى أن العديد من العاملين والمنظمات قد يتجاهلون المخاطر.

يمكن أن تختلف هذه المخاطر والتحديات، ولكن ثلاثة من أكثرها شيوعًا تشمل:

  1. ثقة عمياء. تأثير دانينغ-كروجر هو تحيز يحدث عندما يتم المبالغة في تقدير معرفتنا أو قدراتنا. لقد رأينا هذا يتجلى فيما يتعلق باستخدام الذكاء الاصطناعي؛ يبالغ الكثيرون في تقدير قدرات الذكاء الاصطناعي دون فهم حدوده. وقد يؤدي هذا إلى نتائج غير ضارة نسبيًا، مثل تقديم مخرجات غير مكتملة أو غير دقيقة، ولكنه قد يؤدي أيضًا إلى مواقف أكثر خطورة، مثل المخرجات التي تنتهك قيود الاستخدام القانونية أو تخلق خطرًا على الملكية الفكرية.
  2. الأمن والخصوصية. يحتاج الذكاء الاصطناعي إلى الوصول إلى كميات كبيرة من البيانات لتحقيق الفعالية الكاملة، ولكن هذا يتضمن أحيانًا بيانات شخصية أو معلومات حساسة أخرى. هناك مخاطر متأصلة تصاحب استخدام أدوات الذكاء الاصطناعي التي لم يتم فحصها، لذلك يجب على المؤسسات التأكد من أنها تستخدم الأدوات التي تلبي معايير أمان البيانات الخاصة بها.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى