Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تكنلوجيا الويب

يتخذ Reddit موقفًا ضد برامج زحف الذكاء الاصطناعي


يتخذ موقع Reddit موقفًا ضد شركات الذكاء الاصطناعي، أو على الأقل يطلب منها الدفع.

في وقت سابق من هذا الأسبوع، أعلن Reddit أنه يقوم بتغيير بروتوكول استبعاد الروبوتات الخاص به، والمعروف أيضًا باسم ملف robots.txt الخاص به. يعد هذا التعديل الجاف جزءًا من مفاوضات/معركة أكبر بين شركات الذكاء الاصطناعي المتعطشة للمحتوى الذي يمكنها استخدامه لتدريب نماذجها اللغوية، والشركات التي تمتلك المحتوى بالفعل.

“Robots.txt” هو الطريقة التي تتواصل بها مواقع الويب مع أطراف ثالثة حول كيفية الزحف إلى موقع الويب – والمثال الكلاسيكي هو مواقع الويب التي تسمح لـ Google بالزحف إليها حتى يمكن تضمينها في نتائج البحث.

وفي حالة الذكاء الاصطناعي، فإن تبادل القيمة أقل وضوحًا بكثير. عندما تقوم بتشغيل موقع ويب يتضمن نموذج أعماله جذب النقرات ومقل العيون، فليس هناك الكثير من الجاذبية في السماح لشركات الذكاء الاصطناعي بتحريك المحتوى الخاص بك ومن ثم لا يرسلون لك أي حركة مرور – وفي بعض الحالات، يقومون بسرقة عملك تمامًا.

لذلك، من خلال تغيير ملف robots.txt الخاص به، وأيضًا من خلال الاستمرار في تحديد الحد الأقصى للتصنيف وحظر الروبوتات والزواحف غير المعروفة، يبدو أن Reddit يعمل على منع الممارسات التي تعرضت شركات مثل Perplexity AI لانتقادات بسببها.

اضغط على زر التشغيل لمعرفة المزيد، ثم أخبرنا برأيك في التعليقات!

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى