يركز هذا البرنامج التدريبي على تزويد المشاركين بفهم عميق للمفاهيم الأساسية لأخلاقيات الذكاء الاصطناعي وتطبيقاتها العملية، مع التركيز بشكل خاص على التحديات والفرص التي يواجهها القطاع المالي الأردني. وسيتناول البرنامج أبرز القضايا الأخلاقية والقانونية المتعلقة بالذكاء الاصطناعي، مستعرضًا أفضل الممارسات الدولية، وعلى رأسها قانون الذكاء الاصطناعي للاتحاد الأوروبي، كنموذج استرشادي لتطوير سياسات داخلية مسؤولة في غياب تشريعات محلية
· تزويد المشاركين بالمعرفة اللازمة لفهم المبادئ الأخلاقية للذكاء الاصطناعي وتطبيقاتها في السياق المالي.
· تمكين المشاركين من تحديد وتقييم المخاطر الأخلاقية والقانونية المرتبطة باستخدام الذكاء الاصطناعي في مؤسساتهم.
· التعرف على قانون الذكاء الاصطناعي للاتحاد الأوروبي وكيف يمكن الاستفادة منه في بناء أطر عمل داخلية للتعامل مع الذكاء الاصطناعي بمسؤولية.
· تطوير القدرة على اتخاذ قرارات مستنيرة وتصميم سياسات داخلية تضمن الاستخدام الأخلاقي والمسؤول للذكاء الاصطناعي في القطاع المالي الأردني.
· تعزيز الوعي بأهمية الحوكمة الرشيدة للذكاء الاصطناعي لضمان الشفافية، العدالة، والمساءلة.
1. مقدمة إلى الذكاء الاصطناعي وتطبيقاته في القطاع المالي:
• تعريف الذكاء الاصطناعي وأنواعه.
• أمثلة على تطبيقات الذكاء الاصطناعي في البنوك والمؤسسات المالية (مثل: الكشف عن الاحتيال، التداول الآلي، تقييم المخاطر الائتمانية، خدمة العملاء).
• الفرص والتحديات التي يفرضها الذكاء الاصطناعي على القطاع المالي الأردني.
2. المبادئ الأساسية لأخلاقيات الذكاء الاصطناعي:
• الشفافية وقابلية التفسير (Explainability).
• العدالة والإنصاف وعدم التحيز (Fairness and Bias).
• المساءلة والمسؤولية (Accountability and Responsibility).
• الخصوصية وحماية البيانات.
• الأمن والموثوقية.
• التحكم البشري والإشراف.
3. قانون الذكاء الاصطناعي للاتحاد الأوروبي (EU AI Act) كنموذج:
• نظرة عامة على قانون الذكاء الاصطناعي للاتحاد الأوروبي: الأهداف، النطاق، الفئات المختلفة لأنظمة الذكاء الاصطناعي (مخاطر غير مقبولة، عالية، محدودة، دنيا).
• الالتزامات والمتطلبات لأنظمة الذكاء الاصطناعي عالية المخاطر.
• أمثلة على تطبيقات قانون الاتحاد الأوروبي في سياقات مالية.
• كيف يمكن الاستفادة من مبادئ ومتطلبات هذا القانون في سد الفراغ التشريعي الأردني.
4. التحديات الأخلاقية والقانونية للذكاء الاصطناعي في القطاع المالي الأردني:
• قضايا التحيز في الخوارزميات المالية (مثل: في منح القروض، تقييم العملاء).
• مخاطر الخصوصية وأمن البيانات في أنظمة الذكاء الاصطناعي المالية.
• مسؤولية اتخاذ القرار: عندما يتخذ الذكاء الاصطناعي قرارات ذات تأثير مالي كبير.
• التعامل مع الشفافية وقابلية تفسير نماذج الذكاء الاصطناعي المعقدة.
• غياب الإطار التشريعي الأردني: الآثار والتحديات.
5. بناء إطار عمل داخلي للحوكمة الأخلاقية للذكاء الاصطناعي في المؤسسات المالية:
• تطوير سياسات وإجراءات داخلية للاستخدام المسؤول للذكاء الاصطناعي.
• إنشاء لجان أو فرق عمل لأخلاقيات الذكاء الاصطناعي.
• أهمية التدريب المستمر ورفع الوعي داخل المؤسسة.
• تقييم الأثر الأخلاقي للذكاء الاصطناعي (AI Ethics Impact Assessment).
• دور القيادة في تعزيز ثقافة أخلاقيات الذكاء الاصطناعي.
6. ورش عمل وحالات دراسية:
• تحليل حالات دراسية لمشكلات أخلاقية حقيقية حدثت في تطبيقات الذكاء الاصطناعي المالية.
• تطبيق المبادئ المستفادة من قانون الاتحاد الأوروبي على سيناريوهات أردنية.
• صياغة مسودة لمبادئ توجيهية داخلية لأخلاقيات الذكاء الاصطناعي في مؤسسة مالية معينة.
المدراء التنفيذيون في البنوك والمؤسسات المالية.
مدراء ورؤساء الأقسام (مثل: إدارة المخاطر، التكنولوجيا، الالتزام، الائتمان، الموارد البشرية، التحول الرقمي).