نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
الذّكاء الاصطناعي الأخلاقي: عندما تتصادم الخوارزميّات مع مبادئ الاستدامة - بوابة الكويت, اليوم الجمعة 27 يونيو 2025 01:20 مساءً
بوابة الكويت - حين تتحول الخوارزميات إلى فاعل مستقل في منظومات القرار والإنتاج، يصبح طرح الأسئلة الأخلاقية ضرورة منهجية، لا ترفاً فكرياً. فالذكاء الاصطناعي يتقاطع مع قضايا العدالة والمساءلة والشمول، ما يفرض إعادة التفكير في الإطار القيمي - التشريعي الذي يحكمه.
في محاولة للإجابة عن هذه الإشكاليات، حاورت "النهار" الدكتورة نجوى أزهار، الخبيرة في التنمية المستدامة، التي قدّمت رؤية تحليلية للعلاقة المعقدة بين الذكاء الاصطناعي وأجندة الاستدامة العالمية، محذّرة من مخاطره المحتملة، ومبرزة في الوقت نفسه إمكاناته الإيجابية.
تقول أزهار لـ"النهار": "صحيح أن الذكاء الاصطناعي يمثل فرصة حقيقية لتحقيق بعض أهداف التنمية المستدامة، مثل تحسين جودة التعليم والصحة والزراعة، إلا أنه قد يساهم —إن أسيء استخدامه— في تعميق الفوارق الاجتماعية والاقتصادية، وحتى تهديد مبادئ العدالة والشفافية والشمول التي تشكل ركائز أجندة 2030 للتنمية المستدامة".
العدالة والشفافية والشمول
تعتبر الأخلاقيات، بحسب أزهار، حجر الزاوية في بناء مستقبل مستدام للذكاء الاصطناعي. وتشرح: "أولاً، مبدأ العدالة يقتضي أن تكون أنظمة الذكاء الاصطناعي محايدة وغير متحيزة، تتعامل مع جميع الأفراد على قدم المساواة، بغض النظر عن عرقهم أو جنسهم أو وضعهم الاجتماعي. ثانياً، تضمن الشفافية إمكانية فهم كيفية اتخاذ أنظمة الذكاء الاصطناعي قراراتها، بحيث لا تكون مجرد ’صناديق سوداء‘ غامضة. وهذا يعني ضرورة أن تكون الخوارزميات قابلة للتفسير والتدقيق، وأن يكون مطوروها مستعدين لشرح منطق عملها".
وتضيف: ثالثاً وأخيراً، يعزز الشمول فكرة أن تمتد فوائد الذكاء الاصطناعي لتشمل الجميع، وأن تُصمّم الأنظمة لتلبية احتياجات الفئات المتنوعة، مع ضمان مشاركتها في عملية التطوير".
مخاوف من التحيز
على الرغم من الطموحات الأخلاقية، تحذّر أزهار من أن وجود مخاوف حقيقية من أن تؤدي أنظمة الذكاء الاصطناعي إلى تعزيز التحيز القائم في المجتمع أو حتى خلق أنواع جديدة من التحيز. وتوضح: "ينشأ هذا التحيز غالباً من بيانات تُدرب عليها هذه الأنظمة، فإن كانت هذه البيانات متحيزة أو غير مكتملة، فسيتعلم الذكاء الاصطناعي التحيز ويعكسه في قراراته".
تقدّم أزهار مثالاً واضحاً: "قد تؤدي الأنظمة المصمّمة لتقييم طلبات القروض أو التوظيف إلى استبعاد فئات معينة بشكل غير عادل، إن كانت بيانات التدريب تعكس تاريخاً من التمييز".
نحو أطر أخلاقية ملزمة
تشير أزهار إلى أن المؤسسات الدولية أدركت خطورة هذا المسار، فسارعت إلى طرح أطر أخلاقية لضبط استخدام الذكاء الاصطناعي، "ففي تشرين الثاني/نوفمبر 2021، اعتمدت منظمة اليونسكو أول اتفاقية عالمية لأخلاقيات الذكاء الاصطناعي، تدعو إلى ضمان العدالة والشفافية وعدم التمييز، مع التركيز على ضرورة إشراك المجتمعات في صوغ السياسات التكنولوجية".
كذلك، تبنّت منظمة التعاون الاقتصادي والتنمية (OECD) مجموعة من المبادئ التوجيهية، تهدف إلى ضمان أن يكون الذكاء الاصطناعي مسؤولاً وجديراً بالثقة، يخدم الإنسان ويعزز رفاه المجتمعات، لا أن يحل محلها أو يضرّها.
من التطوير المسؤول إلى الاستدامة الرقمية
تتابع أزهار حديثها بالتأكيد أن احترام مبادئ العدالة والشفافية والشمول في الذكاء الاصطناعي هو أحد أعمدة التنمية المستدامة في عصر البيانات، محذّرة: "إذا فشلنا في هذا الامتحان، فلن تكون التكنولوجيا سبباً في تقدمنا، بل في تعميق أزماتنا".
وبحسبها، لضمان أن يكون الذكاء الاصطناعي قوة دافعة للخير، ومساهماً حقيقياً في تحقيق التنمية المستدامة، "علينا أن نلتزم تطويره بطريقة أخلاقية، وذلك يتطلب جهوداً مشتركة من المطورين والمنظمين وصناع السياسات لإنشاء أطر عمل ومعايير تضمن العدالة والشفافية والشمول في كل مرحلة من مراحل دورة حياة الذكاء الاصطناعي".
وتحتم أزهار بالقول: "المستقبل الذي نصبو إليه هو مستقبل لا تتقدم فيه التكنولوجيا فحسب، بل تتقدم فيه الإنسانية جمعاء".
0 تعليق