على صناع السياسات الالتزام بخمسة مبادئ إرشادية لحوكمة الذكاء الاصطناعي بفاعلية
سيؤدي الذكاء الاصطناعي إلى انفتاح حياة الناس ومجتمعاتهم على جوانب التقدم العلمي الهائلة، وفرص غير مسبوقة للحصول على التكنولوجيا، والمعلومات المضللة السامة التي تعطل الديمقراطيات، والاضطرابات الاقتصادية. وفي هذا السياق، سيُحدث الذكاء الاصطناعي تحولا أساسيا في هيكل القوى العالمية وموازينها.
ويوجِد هذا الأمر تحديا لا مثيل له أمام المؤسسات السياسية في جميع أنحاء العالم. وسيتعين عليها وضع معايير جديدة لتكنولوجيا ديناميكية حديثة، والتخفيف من حدة مخاطرها المحتملة، وتحقيق التوازن بين المصالح المتباينة للأطراف الجغرافية السياسية. وستأتي هذه الأطراف من القطاع الخاص بشكل متزايد. وسيتطلب الأمر مستوى عالٍ من التنسيق من جانب الحكومات، بما في ذلك المنافسين والخصوم الاستراتيجيين.
وفي عام 2023، انتبهت الحكومات في جميع أنحاء العالم إلى هذا التحدي. فالمشرِّعون من بروكسل إلى بيجين وبانكوك منهمكون في صياغة أطر تنظيمية لحوكمة الذكاء الاصطناعي، حتى في الوقت الذي تتقدم فيه هذه التكنولوجيا نفسها على نحو متسارع ومطرد. ففي اليابان، أطلق قادة مجموعة السبعة "عملية هيروشيما" للتعامل مع بعض أكثر القضايا صعوبة التي يثيرها الذكاء الاصطناعي التوليدي، في حين أنشأت الأمم المتحدة هيئة استشارية جديدة رفيعة المستوى للذكاء الاصطناعي. وفي قمة مجموعة العشرين التي عُقدت في نيودلهي، دعا رئيس الوزراء الهندي ناريندرا مودي إلى وضع إطار جديد لحوكمة مسؤولة للذكاء الاصطناعي تتمحور حول الإنسان، في حين طالبت رئيسة المفوضية الأوروبية أورسولا فون دير لاين بإنشاء هيئة لمراقبة مخاطر الذكاء الاصطناعي على غرار الهيئة الحكومية الدولية المعنية بتغير المناخ.
وفي نوفمبر، استضافت الحكومة البريطانية أول قمة عالمية على مستوى القادة خُصصت لمواجهة المخاطر التي يمثلها الذكاء الاصطناعي على السلامة. وحتي في الولايات المتحدة، موطن أكبر شركات الذكاء الاصطناعي والتي عادة ما تتردد في تنظيم التكنولوجيا الجديدة، يُعد تنظيم الذكاء الاصطناعي مسألة توقيت، وليست مسألة إمكان حدوث ذلك، وحالة نادرة من التوافق بين الحزبين الجمهوري والديمقراطي.
وتُعد هذه الموجة من النشاط أمرا مشجعا. فخلال مدة زمنية قصيرة إلى حد كبير، جعل قادة العالم الحاجة إلى حوكمة الذكاء الاصطناعي من الأولويات. بيد أن الاتفاق على الحاجة إلى تنظيم هذه التكنولوجيا هو الحد الأدنى المطلوب للتحرك. ومن الأهمية بمكان تحديد نوع التنظيم المطلوب. فالذكاء الاصطناعي لا يشبه أي تحدٍ سابق، وتتطلب سماته المتفردة، المقترنة بالحوافز الجغرافية السياسية والاقتصادية للأطراف الرئيسية، ابتكارا في أنظمة الحوكمة.
والواقع أن حوكمة الذكاء الاصطناعي ليست مجرد مشكلة واحدة. فعندما يتعلق الأمر بتغير المناخ، ربما يوجد الكثير من المسارات لتحقيق الهدف النهائي المتمثل في تخفيض انبعاثات غازات الاحتباس الحراري، إلا أنه يوجد هدف واحد رئيسي. أما الذكاء الاصطناعي فهو مختلف عن ذلك، لأن أي جدول أعمال للسياسات الخاصة به يجب أن يحفز في الوقت نفسه الابتكار لمواجهة التحديات المستعصية على الحل وتجنب الانتشار الخطير، ولا بد أن يساعد في كسب ميزة جغرافية سياسية دون أن يجعل العالم يسير لا شعوريا نحو سباق تسلح جديد.
مفارقة قوة الذكاء الاصطناعي
إن طبيعة هذه التكنولوجيا نفسها تشكل تعقيدا إضافيا. فلا يمكن حوكمة الذكاء الاصطناعي مثل أي تكنولوجيا سابقة لأنها لا تشبه أيا منها. فهي لا تفرض تحديات على السياسات وحسب، بل إن سماتها المتفردة تجعل مواجهة هذه التحديات أكثر صعوبة على نحو متزايد. وتلك هي المفارقة في قوة الذكاء الاصطناعي.
وجميع أنواع التكنولوجيا تتطور في البداية، إلا أن الذكاء الاصطناعي فائق التطور. فمعدل تحسن الذكاء الاصطناعي سوف يفوق كثيرا قانون مور، الذي نجح في التنبؤ بتضاعف قوة أجهزة الكمبيوتر كل عامين. وبدلا من التطور بمقدار الضعف كل عامين، زاد حجم عمليات الحوسبة المستخدمة في تدريب أقوى نماذج الذكاء الاصطناعي بمعامل مقداره 10 في كل عام على مدار الأعوام العشرة الماضية. فعمليات المعالجة التي كانت في السابق تستغرق أسابيع، تتم حاليا في ثوانٍ معدودة. وسوف تصبح أنواع التكنولوجيا التأسيسية التي تمكِّن الذكاء الاصطناعي أصغر حجما وأرخص سعرا وأيضا ستزداد إمكانية الحصول عليها.
إلا أن تفرد الذكاء الاصطناعي لا يتعلق بقدرته الحاسوبية واسعة النطاق وحسب. وقد تنبأ البعض بتطور الذكاء الاصطناعي، من قدرته على تدريب نماذج اللغة الضخمة إلى تمكنه من حل المسائل المعقدة أو حتى تأليف الموسيقى. وقد تصبح هذه الأنظمة قريبا قادرة على العمل بشكل شبه مستقل. ويمكن أن يكون هذا الأمر ثوريا في حد ذاته، ولكنه سيأتي بانعكاسات أكثر تأثيرا هي أن الذكاء الاصطناعي قد يصبح أول تكنولوجيا لديها الوسائل اللازمة للتطور من تلقاء نفسها.
والذكاء الاصطناعي ينتشر بسهولة. وكما هو الحال مع أي برمجيات، فإن نَسخ خوارزميات الذكاء الاصطناعي وتشاركها (أو سرقتها) أسهل وأرخص بكثير مما يحدث مع الأصول المادية. ومع زيادة قوة هذه الخوارزميات - ورخص سعر الحوسبة - ستعمل هذه النماذج قريبا على الهواتف الذكية. ولم يسبق على الإطلاق أن ظهرت تكنولوجيا بهذه القوة يسهل الحصول عليها على نطاق واسع للغاية وبسرعة كبيرة على هذا النحو. ولأن تكلفتها الحدية - ناهيك عن التكلفة الحدية لتقديمها - هي صفر، فبمجرد إطلاق نماذج الذكاء الاصطناعي، يمكن أن توجد، بل وستوجد بالفعل، في كل مكان. ومعظم هذه النماذج سيكون آمنا؛ فالكثير منها قد خضع لتدريب مسؤول. وعلى الرغم من هذا، وكما هو الحال مع أي فيروس، فكل ما يتطلبه الأمر هو نموذج خبيث أو "اختراق" واحد لإحداث فوضى.
الحوافز تشير إلى غياب حوكمة الذكاء الاصطناعي
تشير طبيعة الذكاء الاصطناعي إلى وجود حوافز مختلفة أيضا. والتكنولوجيا ذات الاستخدام المزدوج ليست بالأمر الجديد (وهناك من الأسباب ما يدعو إلى الرقابة عن كثب على الانتشار النووي للأغراض المدنية)، والذكاء الاصطناعي ليس التكنولوجيا الأولى التي يكتنف عدم الوضوح استخداماتها المدنية والعسكرية. إلا أنه بينما تتسم أنواع تكنولوجيا مثل التخصيب النووي بالتعقيد الشديد وبأنها كثيفة الاستخدام لرأس المال، يعني رخص تكلفة الذكاء الاصطناعي أنه يمكن استخدامه بشكل لا نهائي، سواء للاستخدامات المدنية أو العسكرية. ويجعله هذا الأمر أكثر من مجرد تطوير برمجيات على النحو المعتاد؛ فهو وسيلة جديدة بالكامل، بل وخطيرة، لإظهار القوة.
ومن الصعوبة بمكان تقييد الذكاء الاصطناعي على أساس تكنولوجي. إلا أن قدرته على إثراء الأطراف القوية وتمكينها تعني أن الحكومات والشركات الخاصة التي تطور الذكاء الاصطناعي تجد حافزا على عمل العكس. ويعني ذلك ببساطة أن الهيمنة عن طريق الذكاء الاصطناعي تُعد هدفا استراتيجيا لكل حكومة وشركة لديها الموارد التي تمكِّنها من المنافسة. وإذا كانت الحرب الباردة قد شهدت سباق التسلح النووي، فالمنافسة الجغرافية-السياسية في عالم اليوم ستعكس بالمثل منافسة عالمية في مجال الذكاء الاصطناعي. وترى كل من الولايات المتحدة والصين في الهيمنة عن طريق الذكاء الاصطناعي هدفا استراتيجيا يجب تحقيقه - وحرمان الطرف الآخر منه. وتعني هذه الديناميكية صفرية المحصلة أن بيجين وواشنطن تركزان على تسريع وتيرة تطوير الذكاء الاصطناعي، بدلا من إبطائها.
إلا أنه بقدر ما كانت مراقبة الأنشطة النووية والتحقق منها بالغة الصعوبة منذ ثلاثين عاما، سيكون تنفيذها على الذكاء الاصطناعي أكثر صعوبة. فحتى إذا كانت القوى العالمية تميل إلى احتواء الذكاء الاصطناعي، فما من ضمان أنها ستتمكن من ذلك، لأن كل جانب من جوانبه يخضع حاليا لسيطرة القطاع الخاص، كما هو الحال في معظم العالم الرقمي. وعلى الرغم من أن العدد القليل من شركات التكنولوجيا الكبيرة التي تتحكم حاليا في الذكاء الاصطناعي قد يحتفظ بميزته في المستقبل المنظور، من المحتمل أن يجلب الانتشار التدريجي للذكاء الاصطناعي مزيدا من الكيانات الصغيرة إلى هذا المضمار، مما يجعل الحوكمة أكثر تعقيدا. وفي كلتا الحالتين، ليس لدى مؤسسات الأعمال الخاصة وخبراء التكنولوجيا الأفراد الذين سيتحكمون في الذكاء الاصطناعي سوى حافز قليل للتنظيم الذاتي.
ويمكن لأي من هذه السمات أن يضغط على نماذج الحوكمة التقليدية؛ ويؤدي وجودها معا إلى أن تصبح هذه النماذج غير كافية وتجعل التحدي المتمثل في حوكمة الذكاء الاصطناعي يختلف عن أي شيء سبق للحكومات مواجهته.
مبادئ الحوكمة
إذا كان لنجاح حوكمة الذكاء الاصطناعي العالمية أن يتحقق، فإنها يجب أن تعكس السمات المتفردة لهذه التكنولوجيا. ومن بين أولى هذه السمات الواقع المتمثل في أنه بوصف الذكاء الاصطناعي تكنولوجيا فائقة التطور، فإن التقدم الذي يمكن أن يحرزه يتسم بطابع لا يمكن التنبؤ به. ويجب على صناع السياسات أن يأخذوا في الاعتبار أنه نظرا لتعذر التنبؤ، قد لا تكون أي قواعد يقرونها اليوم فعالة أو حتى ذات صلة في غضون شهور قليلة، ناهيك عن الوضع خلال عدة سنوات. وقد يكون من الخطأ تقييد الجهات التنظيمية اليوم بأنظمة تفتقر إلى المرونة.
وبالأحرى، ستتحقق أفضل استفادة للحوكمة الرشيدة عن طريق وضع مجموعة من المبادئ الأولى التي يمكن أن تعتمد عليها عملية صنع القرار بشأن الذكاء الاصطناعي وتتسم بأنها:
- وقائية: لا يوجد اتساق في التوازن بين مخاطر الذكاء الاصطناعي والعائد منه؛ فعلى الرغم من وجود فوائد جمة لإمكانات الذكاء الاصطناعي، يجب على صناع السياسات اتخاذ إجراءات للوقاية من تطوراته المعاكسة المحتمل أن تكون كارثية. ويجب تعديل المبدأ الاحترازي المستخدم بالفعل على نطاق واسع ليناسب الذكاء الاصطناعي، وأن يتم النص عليه في أي نظام حوكمة.
- سريعة الحركة: تميل هياكل صنع القرار إلى الثبات، وتُعلي من شأن الاستقرار والقدرة على التنبؤ على الديناميكية والمرونة. وهذا أمر لن يصلح مع تكنولوجيا بتفرد الذكاء الاصطناعي. ويجب أن تكون حوكمة الذكاء الاصطناعي مرنة وقابلة للتعديل وذاتية التصحيح بقدر ما لدى الذكاء الاصطناعي من سرعة في الحركة والتطور الفائق والتحسن الذاتي.
- شاملة: دائما ما يعمل أفضل تنظيم لأي نشاط، لا سيما عندما يتعلق الأمر بالتكنولوجيا، بشكل تعاوني مع القطاع التجاري، وهو ما ينطبق بصفة خاصة على الذكاء الاصطناعي. ونظرا للطبيعة الحصرية لتطور الذكاء الاصطناعي (في الوقت الراهن على الأقل) - وتعقد هذه التكنولوجيا - فإن السبيل الوحيد أمام الجهات التنظيمية لممارسة الرقابة المناسبة على الذكاء الاصطناعي هو التعاون مع الشركات الخاصة العاملة في مجال التكنولوجيا. ومن أجل أن تعكس الحكومات طبيعة الذكاء الاصطناعي التي ليس لها حدود، ينبغي لها أن تجعل الشركات أطرافا في الاتفاقات الدولية ذات الصلة. وربما يتجه إدراج الشركات الخاصة في دبلوماسية رفيعة المستوى نحو عمل غير مسبوق، بيد أن استبعاد الشركات التي لها سيطرة كبيرة للغاية سيحكم بالفشل على أي هيكل حوكمة يستبعدها حتى قبل أن يبدأ.
- مُحكمة: من أجل نجاح حوكمة الذكاء الاصطناعي، يجب أن تكون مُحكمة، فنظرا لقدرة الذكاء الاصطناعي على الانتشار بسهولة، فإن حالة خروج واحدة عن النظام يمكن أن تسمح بانفلات نموذج خطير. لذلك، فإنه ينبغي لأي آليات امتثال أن تكون محكمة، مع جعل الدخول إليها سهلا للإجبار على المشاركة، في حين يكون الخروج منها مكلفا لردع عدم الامتثال.
- موجهة: نظرا لطبيعة الذكاء الاصطناعي ذات الأغراض العامة، وأوجه التعقيد في حوكمته، فإن نظاما واحدا للحوكمة لا يكفي لمواجهة المصادر المختلفة لمخاطر الذكاء الاصطناعي. ومن الناحية العملية، فإن تحديد الأدوات المناسبة لاستهداف أي من المخاطر سيتطلب وضع تصنيف تاكسونومي مباشر عملي للمخاطر المنفصلة المتوقعة التي ينطوي عليها الذكاء الاصطناعي. ومن ثم، يجب أن تكون حوكمة الذكاء الاصطناعي موجهة، وقائمة على المخاطر، وتناسب كل نمط وليست أسلوبا واحدا يناسب الجميع.
وستكون مسألة حوكمة الذكاء الاصطناعي من بين أصعب التحديات التي تواجه المجتمع الدولي في العقود المقبلة حيث أنضرورة تنظيم الذكاء الاصطناعي على نحو صحيح لا تقل أهمية عن ضرورة تنظيمه. وغالبا ما تميل النقاشات الحالية بشأن السياسات المتعلقة بالذكاء الاصطناعي نحو نقاش لا أساس له من الصحة بين التقدم والإخفاق (أو المزايا الجغرافية-السياسية والاقتصادية مقابل التخفيف من حدة المخاطر). وبدلا من التفكير بشكل ابتكاري، غالبا ما تماثل الحلول أنماط التعامل مع المشكلات السابقة. وهذا أمر لن يكتب له النجاح في عصر الذكاء الاصطناعي.
وبالتالي، ستكون عملية صنع القرار الجيدة بالغة الأهمية، إلا أن الوصول إلى هذه المرحلة يرتكز على مؤسسات جيدة. ولبناء هذه المؤسسات، سيتعين على المجتمع الدولي الاتفاق على إطار مفاهيمي لكيفية التفكير بشأن الذكاء الاصطناعي. ونحن نقدم هذه المبادئ كنقطة انطلاق.
الآراء الواردة في هذه المقالات وغيرها من المواد المنشورة تعبر عن وجهة نظر مؤلفيها، ولا تعكس بالضرورة سياسة صندوق النقد الدولي.