
انعقدت الجلسة بقاعة الدكتور نعمان جمعة بكلية الحقوق، بحضور نخبة من الأكاديميين والخبراء والمستشارين القانونيين، حيث تناولت النقاشات التحديات الأخلاقية والقانونية المرتبطة بتطور تقنيات الذكاء الاصطناعي، وسبل تحقيق توازن دقيق بين الابتكار والإدارة الرشيدة للمخاطر.
شارك في الجلسة كلٌّ من:
الدكتور محمود السعيد، نائب رئيس جامعة القاهرة لشئون الدراالقاهرة سات العليا والبحوث، والدكتور محمد صلاح الدين، أستاذ القانون الدولي الخاص ورئيس المعهد الملكي للمحكمين المعتمدين، والدكتورة إنجي سراج، المدير التنفيذي للعقود وإدارة العمليات التجارية، والأستاذ جمال أحمد أبو علي، عضو مجلس إدارة الجمعية المصرية لشباب الأعمال، وعمر محمد محمد، الشريك المؤسس لشركة Meska AI.
وأدار الجلسة الدكتور محمد سامح عمرو، عميد كلية الحقوق بجامعة القاهرة.
حوكمة متوازنة ومسؤولية قانونية واضحة
سلّط المشاركون الضوء على تطور أخلاقيات الذكاء الاصطناعي في ظل التحولات الاقتصادية والاجتماعية، مؤكدين ضرورة وضع أطر قانونية واضحة تُحدّد المسؤوليات عند وقوع أضرار ناجمة عن استخدام النماذج الذكية، إلى جانب تعزيز مبادئ الاستخدام الأخلاقي للبيانات واشتراط الشفافية وقابلية التفسير في أنظمة الذكاء الاصطناعي.
كما ناقشت الجلسة آليات تحقيق التوازن بين الابتكار وإدارة المخاطر عبر سياسات حوكمة فعّالة وقابلة للتطبيق، وأوصت بضرورة اعتماد تقييمات دورية للأمان والامتثال، وتعزيز التعاون بين المشرعين والقطاع الصناعي والأكاديميا لبناء منظومة رقمية موثوقة وجديرة بالثقة.
توصيات نحو ابتكار مسؤول وتشريعات متطورة
اختُتمت الجلسة بعدد من التوصيات العملية التي تدعم تبنّي الابتكار المسؤول بما يتواءم مع المعايير الدولية والخصوصيات الإقليمية، أبرزها:
تطبيق نهج قائم على تقييم المخاطر يفرّق بين التطبيقات منخفضة ومتوسطة وعالية الخطورة، مع فرض متطلبات أكثر صرامة على القطاعات الحساسة كالصحة والعدالة والتمويل.
إلزام المطورين ومشغلي النماذج بتقديم وثائق نموذجية مختصرة تتضمن الغرض وحدود الأداء ومصادر البيانات ومؤشرات التحيز.
تحديد المسؤوليات بوضوح عبر سلسلة القيمة (المزود، المكيف، الناشر، المستخدم المهني).
اعتماد مبدأ “العناية الواجبة الخوارزمية” وإثباته من خلال سجلات تدقيق وتقارير اختبار.
وضع آليات تعويض فعّالة وسريعة للمتضررين، وتفعيل مسارات بديلة لتسوية المنازعات.
ترسيخ مبادئ تقليل البيانات والغرض المحدد مع منح الأفراد حق الانسحاب.
تشجيع تقنيات تعزيز الخصوصية مثل التعلم الاتحادي والتعلم التفاضلي، مع إلزام الأنظمة عالية المخاطر بتقييم أثر حماية البيانات قبل الإطلاق.
إجراء اختبارات دورية لرصد التحيز والتحقق من العدالة، والإفصاح عن حدود البيانات وخطط المعالجة التصحيحية.
إشراك الفئات المتأثرة في تصميم وتقييم الأنظمة لضمان تمثيل عادل.
إلزام الأنظمة باجتياز اختبارات أمان قبل النشر تشمل الاستقرار، مقاومة الهجمات، وضوابط منع المخرجات الضارة.
إنشاء مختبرات معتمدة للتقييم والتصديق، وآلية بلاغات عن الحوادث وخطط استجابة واسترداد.
وضع أدلة سياسات حكومية لاستخدام الذكاء الاصطناعي مع ضوابط حماية واضحة.
تشجيع المعايير المفتوحة والتشغيل البيني لتقليل الغلق التقني.
تحفيز الابتكار عبر صناديق رمل تنظيمية محددة المدة والضوابط.
إطلاق برامج تدريب إلزامية لصنّاع القرار والمطورين والمراجعين الأخلاقيين.
تطوير مناهج أكاديمية متعددة التخصصات تجمع بين القانون والهندسة والأخلاقيات.
تعزيز الوعي العام بحقوق الأفراد وحدود الأنظمة.
إنشاء لجان أخلاقيات داخلية مستقلة وتعيين مسؤولي امتثال للذكاء الاصطناعي.
تبنّي حوكمة شاملة لدورة حياة النموذج من التصميم إلى المراقبة اللاحقة.
ربط مؤشرات أداء الحوكمة بمكافآت الإدارة لضمان التطبيق العملي والالتزام المؤسسي.
رؤية جامعة القاهرة
أكدت الجلسة التزام جامعة القاهرة بدورها كمنارة فكرية وتشريعية في صياغة مستقبل الذكاء الاصطناعي بمسؤولية، مشددة على أن الابتكار الحقيقي لا ينفصل عن الأخلاق والحوكمة الرشيدة، وأن مصر تمتلك المقومات العلمية والقانونية لتكون رائدة في صياغة منظومة عربية متكاملة للذكاء الاصطناعي المسؤول.
من يحاسب الذكاء الاصطناعي؟ .. تفتح ملف الأخلاقيات والمخاطر
كتب: عماد جبر



