بحث هذه المدونة الإلكترونية

الأحد، 25 فبراير 2018

الاستخدام المؤذي للذكاء الصنعي: التوقعات والتوقي والتخفيف من الآثار

نشر في هذا الشهر (شباط 2018) تقرير أعدته مجموعة من 26 خبيراً من خبراء الذكاء الصنعي من عدة جامعات ومن ممثلين عن شركات ومؤسسات خاصة، بريطانية وأمريكية، عنوانه هو عنوان هذه الورقة ويمكن الاطلاع على محتوياته عبر هذا الرابط

يتحدث التقرير عن التطبيقات الإيجابية للذكاء الصنعي ولكنه يذكّر بإمكانية استخدامه للإساءة أيضاً مثل التحايل بطرق أكثر نجاعة وكذلك استخدام الأدوات أو الآلات المؤتمتة في أفعال هدامة، هذا طبعاً غير إمكانات استخدامه في أمور سياسية قد تسيء إلى العالم بأجمعه. وفيما يلي ترجمة لملخصه: 

إن الذكاء الصنعي وقدرات التعلم الآلي تتزايد بإيقاع لا سابق له. ولهذه التقانات تطبيقات كثيرة مفيدة تمتد من الترجمة الآلية إلى تحليل الصور الطبية. كما أن تطبيقات كثيرة مفيدة هي قيد الإعداد أو يمكن الوصول إليها على المدى البعيد. ولكن لم يوجه الكثير من الانتباه في الماضي إلى الطرق المؤذية التي يمكن للذكاء الصنعي أن يستخدم فيها. وهذا التقرير يدرس التهديدات الأمنية الكامنة التي يمكن أن يسببها الاستخدام الضار لتقانات الذكاء الصنعي ويقترح وسائل لتنبؤ ووقاية أفضل وكذلك التخفيف من الآثار الضارة. وما نقوم به في هذا التقرير هو تحليل، وليس الحل بطريقة ناجعة، لمسألة نوع التوازن على المدى البعيد بين المهاجمين والمدافعين. ولكننا نركز بدلاً من ذلك على أنواع الهجمات التي يحتمل أن نعاني منها إن لم تُطوّر الدفاعات المناسبة.
وكرد على مشهد التهديد المتبدل نقدم توصيات على أربعة مستويات:
1.       على صناع السياسات أن يتعاونوا عن كثب مع الباحثين التقانيين في تحري الاستخدامات المؤذية للذكاء الصنعي ومنعها والتخفيف من آثارها.
2.       على المهندسين والباحثين في الذكاء الصنعي أن يأخذوا على محمل الجد الطبيعة الثنائية [الحسنة والسيئة] لاستخدام الذكاء الصنعي مولين لاعتبارات سوء الاستخدام أولويات في البحث وفي الضوابط، ومساندة من يمكن أن يعاني من  تطبيقات مؤذية بطريقة فعالة.
3.       يجب تحديد أفضل الممارسات في مجالات البحث مع نهج أكثر نضجاً لمواجهة مخاوف ثنائية الاستخدام، كما هو الأمر في مسألة أمان الحاسوب، ونقلها كلما كان ذلك ممكنناً إلى حالة الذكاء الصنعي.
4.       البحث بفاعلية عن توسيع طيف أصحاب المصلحة وخبراء هذا المجال لزجهم في مناقشات هذه التحديات.
ومع تزايد قدرات وانتشار الذكاء الصنعي فإننا نتوقع أن يقود الاستخدام المتزايد لأنظمة الذكاء الصنعي إلى تغير في مشهد التهديدات على النحو الآتي:
·         اتساع التهديد الحالي. يمكن خفض كلف الهجمات بالاستخدام المتدرج لأنظمة الذكاء الصنعي للقيام بالمهمات التي قد تتطلب عادة الجهد الإنساني والذكاء والخبرة. وستكون النتيجة الطبيعية توسيع مجموعة المهاجمين الذين لهم قدرة القيام بمثل هذه الهجمات، والسرعة التي ينفذون بها هذه الهجمات، ومجموعة الأهداف الممكنة.
·         التمهيد لتهديدات جديدة. يمكن للهجمات الجديدة أن تظهر عبر استخدام أنظمة الذكاء الصنعي لاستكمال المهمات التي لا يمكن للإنسان أن يقوم بها بدون هذه الأنظمة. إضافة إلى ذلك فإن المهاجمين قد يستغلون نقاط ضعف أنظمة الذكاء الصنعي التي يستخدمها المدافعون.
·         تغيّر في الطبيعة النمطية للتهديدات. إننا نعتقد بوجود أسباب لتوقع هجمات، يمكّن منها الاستخدام المتزايد للذكاء الصنعي، فعالة على نحو خاص وموجهة بحذق يصعب التعرف على مصدرها، وأن تستغل على الأرجح نقاط الضعف في أنظمة الذكاء الاصطناعي.
نبني تحليلنا على اعتبار متمايز لثلاثة مجالات أمن وتبيان التغيرات الممكنة في التهديدات في هذه المجالات عبر أمثلة أصدق تعبيراً:
·         الأمن الرقمي: إن استخدام الذكاء الصنعي لأتمتة المهمات المشاركة في تنفيذ الهجمات السبرانية سيسمح بتسهيل التأثير المتبادل بين حجم وفعالية الهجمات. وهذا قد يوسع  التهديد المترافق مع الهجمات السبرانية الكثيفة الاعتماد على اليد العاملة (مثل الإيقاع بالاستدراج). ونتوقع أيضاً هجمات جديدة تستثمر نقاط الضعف الإنسانية (عبر استخدام تركيب الكلام لانتحال الهوية مثلاً)، ونقاط الضعف الموجودة في البرمجيات (عبر القرصنة الآلية على سبيل المثال) أو نقاط ضعف أنظمة الذكاء الصنعي (عبر الأمثلة المتناقضة أو البيانات المسممة مثلاً).
·         الأمن الفيزيائي. استخدام الذكاء الصنعي لأتمتة المهمات المشاركة في تنفيذ الهجمات التي تستخدم الطائرات المسيرة وأنظمة مادية أخرى (مثل تلك المستخدمة في الأسلحة المؤتمتة) يمكنها توسيع التهديدات المترافقة مع هذه الهجمات. ونتوقع هجمات جديدة أيضاً لتخريب الأنظمة السيبرانية (مثل تعطيل المركبات الذاتية الحركة) تنطوي على أنظمة مادية لن يكون من الممكن توجيهها عن بعد (مثل سرب من آلاف الطائرات الصغرية المسيرة).
·         الأمن السياسي: إن استخدام الذكاء الصنعي لأتمتة المهام المشاركة في المراقبة (مثل تحليل البيانات الخاصة بالناس) والإقناع  (خلق دعاية سياسية موجهة) والخداع (فيوديوهات متلاعب بها) يمكن أن توسع من التهديدات المترافقة مع انتهاك الخصوصية والتلاعب الاجتماعي. ونتوقع أيضاً  هجمات جديدة تستفيد من قدرة محسّنة على تحليل السلوكيات الإنسانية والأمزجة والاعتقادات على أساس البيانات المتاحة. وهذه المخاوف لها أهمية أكبر في حالة الدول الاستبدادية، وبمكن لها أن تقوض قدرة الديموقراطيات على الحفاظ على المناقشات العامة الصادقة.
إضافة إلى توصيات المستوى الأعلى آنفة الذكر، فإننا نقترح أيضاً سبر عدة أسئلة مفتوحة وإمكانيات التدخل عبر أربعة مجالات بحث ذات أولوية:
·         التعلم من المجتمع السيبراني ومعه. وفي نقاط التقاطع بين الأمان السيبراني وهجمات الذكاء الصنعي فإننا نسلط الضوء على الحاجة إلى استكشاف وربما إنشاء فرق حمراء [مجموعة ناقدة لبنية المؤسسة وعملها مهمتها البحث عن نقاط الضعف فيها]، وتحقق قاطع، وكشف مسؤول عن نقاط ضعف الذكاء الصنعي وأدوات الأمان وتجهيزات آمنة.
·         سبر نماذج انفتاح مختلفة. وبما أن الطبيعية الثنائية الاستخدام للذكاء الصنعي والتعلم الآلي أصبحت بيّنة، فإننا نسلط الضوء على الحاجة إلى إعادة تصور للمعايير والمؤسسات حول انفتاح البحث  بدءاً من تقييم المخاطر قبل النشر في المجالات التقنية ذات الأهمية الخاصة، ونماذج ترخيص النفاذ المركزية، وأنظمة التشارك التي تعلي من الأمن والأمان، ودروس أخرى من تقانات ثنائية الاستخدام.
·         تعزيز ثقافة المسؤولية. إن باحثي الذكاء الصنعي والمنظمات التي تستخدمهم هي في موقع فريد لتشكيل المشهد الأمني للعالم الذي يستخدم الذكاء الصنعي. ونسلط الضوء على أهمية التربية والتعليم والمعايير الأخلاقية وصيغها والأطر والمعايير والتوقعات.
·         تطوير الحلول التقانية والسياسات. إضافة إلى ما جاء سابقاً، فإننا نقوم بمسح لطيف من التقانات الواعدة، وكذلك لسياسة التدخلات، التي يمكنها بناء مستقبل أكثر أماناً مع الذكاء الصنعي. وتتضمن المجالات العالية المستوى التي تحتاج المزيد من البحث، حماية الخصوصية والاستخدام المنسق لاستخدام الذكاء الصنعي للأمن العام، ولمراقبة موارد الذكاء الصنعي ذات العلاقة وأجوبة تنظيمية وتشريعية أخرى.

إن التدخلات المقترحة تتطلب الانتباه والعمل ليس فقط من قبل باحثي الذكاء الصنعي والشركات ولكن أيضاً من قبل المشرعين والموظفين العامين والعاملين في الهيئات التنظيمية والباحثين في مجالات الأمن والمعلمين. إن التحدي شاق والمخاطر كبيرة.


ليست هناك تعليقات:

إرسال تعليق