31/05/2025

في ظل التنامي السريع لتقنيات الذكاء الاصطناعي (AI)، تزايدت المخاوف بشأن المخاطر المتعددة المرتبطة بهذه التقنيات، وهو ما دفع العديد من الباحثين وصناع السياسات والشركات إلى محاولة تصنيفها وتنظيمها. إلا أن الجهود السابقة اتسمت بالتشتت والتباين، مما صعّب من عملية الفهم المشترك وإدارة هذه المخاطر بشكل فعال.

لذا؛ صدر في مارس ٢٠٢٥ تقريراً عن معهد ماساتشوستس للتكنولوجيا (MIT) تحت إشراف مجموعة من الباحثين من مؤسسات أكاديمية وبحثية متنوعة، منها MIT FutureTech، وجامعة كوينزلاند، ومعهد مستقبل الحياة (Future of Life Institute)، ومختبر علوم الحاسوب والذكاء الاصطناعي في .MIT

الهدف من التقرير:

سعى التقرير إلى إنشاء مرجع مشترك يُسمى مستودع مخاطر الذكاء الاصطناعي (AI Risk Repository) يتضمن مراجعة منهجية وتصنيفًا مزدوجًا وشاملًا لمخاطر الذكاء الاصطناعي، إلى جانب قاعدة بيانات حية تضم 1612 خطرًا تم استخراجها من 65 إطارًا وتصنيفًا سابقًا.

المنهجية:

اعتمد الباحثون على مراجعة منهجية للمؤلفات الأكاديمية وغير الأكاديمية، تلاها تشاور موسع مع خبراء، ليتم في النهاية تطوير تصنيفين:

1.   التصنيف السببي (Causal Taxonomy) يصنّف المخاطر وفقًا لثلاثة أبعاد:

  • الكيان المسبب (الإنسان أو الذكاء الاصطناعي).
  • القصد (متعمدة أو غير متعمدة).
  • توقيت حدوث الخطر (قبل النشر أو بعد النشر).

2.   التصنيف الميداني (Domain Taxonomy) يصنف المخاطر ضمن 7 مجالات رئيسية و24 مجالًا فرعيًا، منها:

  • التمييز.
  • الخصوصية والأمن.
  • المعلومات المضللة.
  • الجهات الخبيثة وسوء الاستخدام.
  • التفاعل بين الإنسان والحاسوب.
  • الأضرار الاجتماعية والبيئية.
  • سلامة أنظمة الذكاء الاصطناعي وأوجه القصور فيها.

أبرز النتائج:

  • أكثر من 60% من المخاطر تنشأ بعد نشر أنظمة الذكاء الاصطناعي.
  • أكثر من 40% من المخاطر سببها أنظمة الذكاء الاصطناعي نفسها.
  • المجالات الأكثر تغطية كانت: السلامة والأعطال، والأضرار الاجتماعية والبيئية، والتمييز.
  • من بين المجالات الأقل تناولًا: رفاهية وحقوق الملكية الفكرية لأنظمة الذكاء الاصطناعي، وتلوث النظام المعلوماتي، والتفاعلات التنافسية.

الاستخدامات والتوصيات:

يوفر المستودع أدوات متعددة للباحثين وصناع السياسات ومدققي الأنظمة، ويتيح تصفية البيانات وفقًا للأسباب أو المجالات. كما يعد أداة تأسيسية لتطوير سياسات تنظيمية، وإجراء مراجعات تدقيقية، وتحديد الثغرات البحثية.

خاتمة:

يمثل هذا العمل أول محاولة منهجية شاملة لتجميع وتنظيم مخاطر الذكاء الاصطناعي ضمن قاعدة بيانات حية ومفتوحة، ويهدف إلى تعزيز الفهم الجماعي وتسهيل التعاون الدولي في إدارة تلك المخاطر.