حوكمة الذكاء الاصطناعي كتاب حديث ذو قيمة صدر خلال عام 2019م، من تأليف الدكتور إبراهيم أحمد المسلّم، وإصدار المركز الوطني لتقنية الذكاء الاصطناعي والبيانات الضخمة في مدينة الملك عبد العزيز للعلوم والتقنية (KACST) بالمملكة العربية السعودية.
وتأتي أهمية هذا الكتاب من موضوعه وطريقة تناوله، فضلاً عن أنه صادر من متخصص في الذكاء الاصطناعي، فهو يعرض الذكاء الاصطناعي مركزًا على التحديات والمخاطر المصاحبة لمراحل دورة حياة التقنية، سواء المخاطر الحالية أو المتوقعة في السنوات القليلة المقبلة بعد اعتماد الذكاء الاصطناعي، ويقدّم التوصيات والممارسات التي قد تُسهم في تجنب مخاطر الاستعمال ومواجهة الإشكالات المختلفة في كل مرحلة من المراحل التي قسمها إلى ثلاث، وهي: “مرحلة التطوير، ومرحلة التطبيق، ومرحلة التبني”.
بدأ الكتاب بالحديث عن الذكاء البشري، وبالقول إن الذكاء سؤال فلسفي عميق، وإن هناك اتفاقــًا تامًا على أن الإنسان ذكي، وقد يصعب تعريف الذكاء، لكن من السهل التعرف عليه، والذكاء الاصطناعي يقوم على محاكاة العقل البشري وأنماط عمله كالقدرة على التعلـّم، والاستنتاج، ورد الفعل على أوضاع لم تبرمج داخل الآلة، فالإنسان لا يملي على الآلة الخطوات، بل يعلمها كيف تتعلم.
ويقسم الذكاء الاصطناعي إلى أربعة مستويات: “الضعيف، والعام، والقوي، والخارق”، ويرى المؤلف أننا الآن في مستوى الذكاء الاصطناعي الضعيف، كما يفرّق بين البرامج التقليدية والذكاء الاصطناعي؛ بأن الأولى تقوم على مجموعة خطوات ترجمها المبرمج من لغته إلى لغة الآلة وينفذها الجهاز من دون أن يكون لها أي قرار، في حين أن الذكاء الاصطناعي يجعل الآلة تتفوق على ذكاء الإنسان؛ لأنها تملك القدرة على التعلـّم الذاتي.
ثم يعرض المؤلف ثلاث مراحل في دورة حياة التقنية، على النحو الآتي:
أولاً: مرحلة التطوير
وفيها يحدث إعداد نموذج توقعي باستخدام البيانات وخوارزميّات الذكاء الاصطناعي من أجل الوصول إلى هدف ما، كالتوقع باحتمالية حصول حادث أو احتمالية الإصابة بمرض.
وهذه المرحلة تقع تحت مسؤولية المطور، وجميع الأخطاء التي قد تنجم هي من المطور نفسه خلال مراحل: “جمع البيانات، والنمذجة، والقياس، وتفسير النتائج”، وعلى ذلك فإن التركيز في مرحلة التطوير يكون على بناء برمجيات ذاتية آمنة وخالية من الأخطاء، بهدف الخروج بمنتج آمن صالح للاستخدام.
ويشبّه هذه المرحلة بمرحلة تصنيع السيارة، حيث يهتم المصنع فيها بجميع سُبل الوقاية والسلامة، مثل تركيب أحزمة الأمان والوسائد الهوائية ومانع الانزلاق، لكن مهما عمل المصنع على إخراج منتج آمن، فلا يمكن أن يضمن عدم إساءة استخدامه من قبل بعض المستخدمين، وأهم تحديات هذه المرحلة تتمثل في الأخطاء التي قد تحدث عند بناء الأنظمة الذكية (البناء والقياس)، أو تلك الناتجة من ممارسات خاطئة أثناء جمع البيانات وإدخالها وتصنيفها (البيانات والانحياز)، أو لوقوع أخطاء عند الاستخدام وتحمل المسؤولية.
ثانيًا: مرحلة التطبيق
يناقش هذا القسم مخاطر محتملة عند اعتماد أنظمة الذكاء الاصطناعي، وقد استند إلى تقرير مفصل قدمّه (٢٦) باحثـًا في مجالات التقنية والمجتمع المدني والصناعة، يقول: إن تحليل هذه المخاطر ليس من أجل منع أو تقليل الضرر الناجم عن سوء الاستخدام فحسب، بل ‒ أيضًا ‒ لمنع التأخر عن الاستفادة من اعتماد الأنظمة الذكية، ويضيف: الذكاء الاصطناعي أداة ذات حدين؛ فكما تستخدم هذه التطبيقات عادة لأغراض حميدة يمكن استغلالها –أيضًا- لأغراض خبيثة، فالمحلقة الذاتية (الدرون) تستخدم لتسليم الطرود البريدية أو الإغاثات العاجلة، لكن يمكن استخدامها لإيصال مواد متفجرة أو للتجسس، ومثال ثان هذه الأنظمة تدعم إخفاء الهوية، ويمكن أن تكون بديلاً عن قيام الشخص بنفسه بالتخريب أو الإضرار بالآخرين، فقد يستخدم نظام أسلحة ذاتي لتنفيذ عملية اغتيال بدلاً من استخدام مسدس لتجنب الوجود في مكان الضحية نفسه.
الأمر الآخر أن أنظمة الذكاء الاصطناعي تسعى إلى القيام بمهمات تتطلب الذكاء البشري، مثل الفوز في لعبة شطرنج، أو مهمات تستعصي على القدرة البشرية، مثل تحليل البيانات الضخمة، فإذا نجحت هذه التطبيقات فإنها قد تتفوق على البشر، وقد تكون أكثر ضررًا في حال أسيء استخدامها، خاصّة أن تطبيقات الذكاء الاصطناعي تعاني من ثغرات، مثل: تسميم البيانات، والأمثلة العدائية أو المضللة، وقد نجح باحثون في تضليل نظام سيارة ذاتية القيادة بتغيير طفيف على إشارات المرور عن طريق وضع ملصقات عليها، فمثل هذه الثغرات قد تجعل الأنظمة الذكية تخفق في حالات لا يمكن أن يخفق فيها الإنسان، والباحثون يقسمون التحديات والمخاطر في مرحلة التطبيق إلى: رقمية (سيبرانية) ومادية وسياسية.
ثالثــًا: مرحلة التبني
وهي المرحلة التي تُعنى باستخدام التطبيقات المختلفة للذكاء الاصطناعي، وكشفت كثير من الدراسات العالمية عن مدى قدرة الذكاء الاصطناعي على تعزيز النمو الاقتصادي، ورفعه على المستوى الدولي والعالمي في السنوات القادمة، وأنّ كثيرًا من الدول اتجهت نحو تطبيقات الذكاء الاصطناعي في العديد من المجالات، كالطبية والعسكرية والصناعية والتقنية، بالإضافة إلى المجالات التعليمية والخدمية الأخرى، كما أشارت مجلة عكاظ إلى دراسة حديثة أكدت أن الذكاء الاصطناعي سيعود بارتفاع (1.1) نقطة مئوية في نمو الاقتصادي السعودي، مما سيضيف (٢١٥) مليار دولار للاقتصاد القومي بحلول ٢٠٣٥م.
إلا إن الاستخدام الخاطئ للذكاء الاصطناعي قد يؤدي إلى نتائج عكسية على مختلف الجوانب الاقتصادية والاجتماعية والنفسية.
وقد ناقش الكتاب التحديات والإشكاليات المصاحبة لكل مرحلة كان يعرض لها، وقدّم التنبيهات والتوصيات للتصدي لها أو التخفيف من آثارها، من ذلك:
-تعدُّد المعايير وعدم الاعتماد على معيار محدد في تقييم أداء الأنظمة الذاتية.|
-توعية الباحثين والمطورين بآداب الأنظمة الذاتية وبأهمية التأكد من الصحة والموثوقية والأمن، خاصّة عند تطوير نظام حساس بتقنية الذكاء الاصطناعي كالمركبات الذاتية.
-سياسة الإفصاح، بأن يُبلِّغ المستفيد عمّا إذا كان هناك نظام ذاتي يعتمد عليه أو يستخدم بأي طريقة لتوفير هذه الخدمة، مثل ما يعمل به حاليًا عند الاتصال بخدمات العملاء، حيث يُخبَر العميل بأن المكالمة مسجلة.
-حق التفسير وشرح أسباب الوصول إلى القرار، خصوصًا فيما يتعلق بحقوق المستخدم المدنية والمالية والصحية، كما هو معمول به من الاتحاد الأوروبي، وإعداد برامج وأنشطة تستهدف زيادة مستوى الوعي لدى المجتمع حول كيفية تطوير أنظمة الذكاء الاصطناعي وعملها.
يقول الكاتب: قد يكون من غير المهم معرفة سبب القرارات التي توصل إليها النظام وتفسيرها في بعض المجالات، كالألعاب والترفيه، لكن في الأمور الحساسة فالأمر مختلف، وهناك القياسات المضللة ومشكلة الصندوق الأسود، ففي مرحلة البناء تستطيع “بوضوح” معرفة البيانات والمعطيات التي أدخلت للنظام والنتائج الخوارزمية، لكن لا تستطيع معرفة ما حصل بين هاتين المرحلتين، ومن المهم شرح النظام وآلية عمل الخوارزميات لمعرفة أسباب وصول النظام إلى نتائج معينة، ومن ثم تحديد ما إذا كان النظام مقبولاً ويُعتمد عليه في اتخاذ القرارات المستقبلية.
-الانحياز صفة بشرية وقد يظهر التحيـّز في أنظمة الذكاء الاصطناعي بسبب البيانات المستخدمة في تدريبها، فالذي يختار البيانات ويجمعها هم البشر، ومن ثم فقد تحتوي البيانات على تمييز عرقي أو جنسي أو طبقي، وهذا بلا شك سينعكس سلبًا في الأنظمة، لذا ينبغي أن نكون حريصين على عدم تعزيز التحيـّز البشري عند تطوير الأنظمة، وقد لا تظهر أهمية ذلك في بعض التطبيقات البسيطة، لكن تكمن الخطورة عند اتخاذ قرارات مهمة ومصيرية مثل: “التشخيص الطبي، والموافقة على القروض والمنح الدراسية، والإفراج المشروط عن المتهمين”.
-مع إمكانية استغلال تقنيات الذكاء الاصطناعي لتنفيذ هجمات إلكترونية، يجب أن يقابلها أنظمة حماية ودفاع ذكية، قد يستخدم التعلـّم بالإشراف أو التعلـّم الاستقرائي (Supervised learning) ويستلزم عددًا كافيًا من الأمثلة، فهو يتعلم من تهديدات معلومة ثم يعممها لاكتشافات جديدة، ومن مساوئه أنه قد لا يكتشف التهديد المختلف عن الأمثلة، لذا يمكن الاستعانة بالتعلـّم غير المراقب أو التعلـّم الاستنتاجي (Unsupervised learning) الذي لا يتطلب أمثلة، ويمكنه التكيف في بيئة متغيرة.-فرض دراسة المخاطر عند طلب الدعم المادي في المقترحات البحثية أو المشروعات الحكومية.
-تبني تطبيق التقنيات بشكل تدريجي لاختبارها ثم التدرج في التوسع؛ حتى إذا حدث خطأ يكون على نطاق مصغر، مثلا اختبار السيارات ذاتية القيادة في مدن غير مكتظة.
-تعتمد الأنظمة الذاتية الحالية بشكل كبير على الإنسان في اتخاذ القرارات، لكن من المتوقع أن يقل هذا الاعتماد خلال السنوات القليلة القادمة، نظرًا للحاجة إلى أتمتة كثير من العمليات اليدوية في مختلف المجالات، والتطور السريع والثابت الذي تشهده أنظمة الذكاء الاصطناعي، فمثلاً المحلقات الذاتية (الدرونز) تطورت في مدة قصيرة إلى طائرات ذكية تؤدي عدة مهام بعد أن كانت غير مستقرة وتواجه صعوبات في الطيران، واستغلت جماعات إرهابية مثل “داعش” هذه الطائرات بوضعها الحالي، وبحسب تقرير صادر في أواخر عام 2016م أنه يوجد أكثر من (28) نوعًا مختلفًا من المحلقات الذاتية (درونز) تستغلها “داعش” في الصراعات بسوريا والعراق.
-التجسس وقمع حريات الأشخاص في الوقت الذي أصبح الإنترنت الفضاء الأمثل للتصريح بمواقفهم وآرائهم، وأصبحت شفافية الشركات التقنية الكبرى المتحكمة هذا الفضاء على المحك، وبالأخص الشركات التي تملك عددًا هائلاً من البيانات الشخصية للمستفيدين من خدماتها في جميع أنحاء العالم، حيث توجه لها اتهامات بالإسهام في قمع الحريات.
أخيرًا فإن أنظمة الذكاء الاصطناعي وتطبيقاته وجدت لخدمة الإنسان في العديد من المجالات كالصحة والتعليم والصناعة والترفيه وغيرها، ومع ذلك فإن له العديد من الآثار السلبية الاجتماعية والنفسية، ولتجنب هذه الآثار أوصى المؤلف بفرض القواعد والسياسات الخاصة لبناء أنظمة ذكاء متوافقة مع الـمـُثل العليا للكرامة الإنسانية والحقوق والحريات والتنوع الثقافي، فعلى سبيل المثال تضمن الدليل القياسي البريطاني للتصميم الأخلاقي وتطبيق الروبوتات والأنظمة الآلية توصية بوجوب تصميم “الروبوتات” والأنظمة الآلية بطريقة تمنع التحكم غير المناسب في اختيار الإنسان، بحيث تبقى السلطة النهائية معه.