نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
"فلترة" المحتوى بذكاء: هل تنجح الآلة جيث فشل الإنسان؟ - بوابة الكويت, اليوم السبت 12 يوليو 2025 10:10 مساءً
بوابة الكويت - أضاء تقرير نشرته صحيفة "وول ستريت جورنال"، على أن مستخدمي وسائل التواصل الاجتماعي يواجهون صعوبة في تجنّب المحتوى المسيء، والمعلومات المضللة، واللغة العدوانية، رغم أن منصات مثل "فايسبوك" و"يوتيوب" تعتمد أنظمة للإشراف على المحتوى بهدف الحد من المواد الضارة.
ومع ذلك، أظهر استطلاع أجراه معهد "كاتو" Cato في عام 2021 أن واحداً فقط من كل أربعة مستخدمين يرى أن هذه المنصات تطبق معاييرها بعدالة.
يشير التقرير إلى أن الإشراف على المحتوى بات أزمة تكنولوجية واجتماعية معقدة، بسبب اختلاف وجهات نظر المستخدمين حيال ما يجب حظره. ففي حين يرى البعض أن الألفاظ النابية أو مشاهد العري أو العنف مرفوضة، يعتبرها آخرون حرية تعبير. وقد أشار 60% من المشاركين في استطلاع "كاتو" إلى رغبتهم في الحصول على خيارات أوسع لتحديد ما يشاهدونه عبر هذه المنصات.
في هذا السياق، يسلّط التقرير الضوء على أدوات الذكاء الاصطناعي التوليدي كحل محتمل يعيد توزيع سلطة الإشراف من الشركات إلى المستخدمين أنفسهم. ففي ورقة علمية قُدمت خلال مؤتمر ACM Web في سيدني – أوستراليا، طوّر باحثان نظام تصفية لمحتوى "يوتيوب" بالاعتماد على نماذج لغوية ضخمة متوافرة تجارياً. وقد استخدما أربعة روبوتات محادثة لتحليل ترجمات 4,098 فيديو عام على "يوتيوب" ضمن عشرة أنواع شهيرة، منها الرسوم المتحركة وتلفزيون الواقع، وتم تقييم كل فيديو بناءً على 17 معياراً معتمداً من الهيئة البريطانية لتصنيف الأفلام، مثل مشاهد العنف والعري وإيذاء النفس.
وقد نجح اثنان من هذه النماذج، وهما GPT-4 وClaude 3.5، في مطابقة تقييم المراقبين البشريين للمحتوى الضار بنسبة لا تقل عن 80%. ورغم هذه النتائج الواعدة، تبقى هناك عقبات، منها أن النظام لا يستطيع بعد تحليل الصور، بالإضافة إلى ارتفاع تكلفته، إذ أشار الباحثون إلى أن تطبيق هذه التقنية على جميع محتوى يوتيوب قد يكلّف تريليونات الدولارات وفق الأسعار الحالية.
مع ذلك، فإن هذا النموذج التجريبي يفتح الباب أمام مستقبل يسمح للمستخدم بتخصيص المحتوى الذي يراه، وفق معاييره الخاصة. فعلى سبيل المثال، يمكن لأحد الوالدين أن يحدد ظهور محتوى ذي طابع جنسي مرتفع ولكن بدرجة مخفوضة من مشاهد تعاطي المخدرات. ومع الانخفاض السريع في تكلفة استخدام الذكاء الاصطناعي، قد لا يكون هذا المستقبل بعيداً.
لكن التقرير يلفت إلى تحديات أخلاقية وقانونية تلوح في الأفق. إذ يخشى بعض الباحثين من أن يؤدي الإشراف الشخصي إلى نتائج عكسية، كأن يستخدمه البعض لرؤية مزيد من خطاب الكراهية بدلاً من تقليله، ما يصعّب من مهمة السيطرة على المحتوى غير القانوني. ويُقترح كبديل أن تُكيف أدوات الذكاء الاصطناعي مع القوانين والثقافات المحلية للدول، بدلاً من الاعتماد الكلي على تفضيلات الأفراد.
كذلك يُثير مخاوف من أن يؤدي هذا التحول إلى تملّص شركات التكنولوجيا من مسؤولياتها، إذ قد يُلقى العبء الكامل على المستخدم لحماية نفسه من الإساءات، في حين تبقى المنصات بمنأى عن المحاسبة. ويُلاحظ أيضاً أن الإشراف المخصص يحمي المستخدم فقط من رؤية المحتوى، لكنه لا يمنع من استهدافه أو تداول خطاب الكراهية عنه.
ويخلص إلى أن الذكاء الاصطناعي يقدم فرصة لإعادة صوغ مفهوم الإشراف على المحتوى، لكنه ليس حلاً سحرياً، بل يتطلب توازناً دقيقاً بين حرية المستخدم، وضرورة حماية الفضاء الرقمي من الانتهاكات المتزايدة.
0 تعليق