Thursday, May 9, 2024

فورين أفيرز: كيف يمكننا تفادي مخاطر الذكاء الاصطناعي؟

بقدر ما للذكاء الاصطناعي من فوائد في الارتقاء بمستوى حياة البشر، فإن له بالمثل مضار ومخاطر جمّة إذا لم يُحسن استخدامه، ومن ثمّ لا بد من وضع لوائح وضوابط لكبح جماحه لتجنب وقوع كارثة بسببه.

وقد أدلى اثنان من الخبراء في مجال الذكاء الاصطناعي بدلوهما في هذا الموضوع في مقال مشترك نشرته مجلة “فورين أفيرز” الأميركية في عددها الأخير.

وأوضح ماركوس أنديرونغ، رئيس السياسات في مركز حوكمة الذكاء الاصطناعي والبحث في مركز الأمن الأميركي الجديد، وزميله بول شار نائب الرئيس التنفيذي للمركز، في مقالهما أن ثورة الذكاء الاصطناعي قد انطلقت بالفعل، وتجلى ذلك في تقنيات التعرف على الوجه، وتوليد النصوص، ومساعدة الطلاب على إعداد البحوث، ودفع العلم لاكتشاف الأدوية وإلى حدود الانصهار النووي.

مخاطر وتحذيرات

إن الفرص التي يتيحها الذكاء الاصطناعي للبشرية هائلة. فإذا تم تصميم وإدارة برامجه بشكل صحيح يمكنه أن يفعل الشيء الكثير لتحسين أوضاع المجتمعات، كما يؤكد المقال.

ولكن للذكاء الاصطناعي مخاطره الهائلة أيضا -وفق المقال- إذ يزيد بالفعل من انتشار المعلومات المضللة، ويكرس التمييز، ويسهل على الدول والشركات التجسس.

وربما تتمكن أجهزة الذكاء الاصطناعي في المستقبل من تخليق كائنات حية مسببة للأمراض، أو اختراق بنى تحتية حساسة.

وفي واقع الأمر، بدأ العلماء المسؤولون عن تطوير الذكاء الاصطناعي بالتحذير من أن ابتكاراتهم في هذا المجال محفوفة بالمخاطر. وأطلق مديرو كل المختبرات العلمية تقريبا -في خطاب لهم في مايو/أيار الماضي- جرس إنذار أن “الحد من خطر الانقراض بسبب الذكاء الاصطناعي يجب أن يحظى بالأولوية على الصعيد العالمي، إلى جانب المخاطر الاجتماعية الأخرى مثل الأوبئة والحرب النووية”.

وبعد أشهر من ذلك التحذير، التقى صناع السياسات -من بينهم الرئيس الأميركي جو بايدن- مع القائمين على أمر هذه الصناعة. وحثوهم على وضع تدابير جديدة لدرء الحوادث والأضرار التي قد تنجم عن الذكاء الاصطناعي.

سُبُل التصدي لتلك المخاطر

ويقر الخبيران أنديرونغ وشار بأن ملاحقة المخاطر التي يمثلها الذكاء الاصطناعي وتحديد ما يمكن فعله للتصدي لها، من الصعوبة بمكان، ذلك أن الأضرار التي يسببها الذكاء الاصطناعي في المجتمعات المعاصرة إنما هي من صنع الأمس.

ويضيف الكاتبان أن أغلب الأجهزة المتطورة لم تُستخدم على نطاق واسع أو ليست مفهومة. وللتصدي للمخاطر، دعا بعض الخبراء للتوقف عن تطوير أنظمة الذكاء الاصطناعي الأكثر تقدما.

غير أن هذه النماذج من الأنظمة هي ببساطة ذات منفعة كبيرة للشركات التي تنفق مليارات الدولارات مما يجعل تجميد أنشطة تطويرها من الصعوبة بمكان. على أنه يمكن لواضعي السياسات -بل وينبغي عليهم- المساعدة في توجيه عمليات تطوير هذا القطاع، وتهيئة المواطنين لتقبل تأثيراتها. وبإمكان هؤلاء -حسب مقال فورين أفيرز- البدء بالتحكم في من يمكنه الوصول إلى الرقائق المتقدمة التي تدرب نماذج الذكاء الاصطناعي الرائدة. بما يضمن عدم قدرة جهات “خبيثة” على تطوير أنظمة ذكاء اصطناعي أقوى.

وعلى الحكومات -يستطرد المقال- أن تسن لوائح وقوانين كفيلة بضمان تطوير أنظمة ذكاء اصطناعي واستخدامها بمسؤولية. “فإذا طبق المستخدمون ذلك على نحو صحيح، فإن تلك اللوائح لن تحد من الابتكارات في مجال الذكاء الاصطناعي”.

ولكن ينبغي للحكومات كسب الوقت “قبل أن تصبح أخطر أنظمة الذكاء الاصطناعي في متناول الجميع على نطاق واسع”.

نصيحة الخبيران لدول العالم

وينصح الخبيران دول العالم بضرورة استغلال الوقت لتحصين مجتمعاتها ضد مخاطر الذكاء الاصطناعي العديدة. إذ يتعين عليها توظيف مجموعة واسعة من إجراءات الحماية. مثل إيجاد وسائل لمساعدة الناس على التمييز بين ما هو ذكاء اصطناعي وما هو محتوى من صنع البشر. ومد يد العون للعلماء وذلك بالكشف عن اختراق المختبرات والحد منها. وتطوير أدوات الأمن السيبراني التي تجعل البنيات التحتية الحساسة -مثل محطات الطاقة- تحت الإدارة المناسبة.

تهيئة المجتمعات

إن مواجهة هذه التحديات -برأي كاتبي المقال أنديرونغ وشار- يتطلب قدرة كبيرة على الإبداع من صناع السياسات والعلماء على السواء. والإسراع بإنجاز المهام المنوطة بهم. “فالمسألة مجرد وقت حتى تبدأ أنظمة الذكاء الاصطناعي البالغة القوة بالانتشار، فيما لم تتهيأ المجتمعات بعد لذلك”.

ويمضي المقال إلى التساؤل عن مدى خطورة الذكاء الاصطناعي. ويعلق الكاتبان على السؤال بالقول إن الجواب “الصادق والمخيف” هو أن لا أحد يعرف.

وتكمن مهارة برامج الذكاء الاصطناعي في أنها تساعد المبرمجين على استحداث برمجيات خبيثة يمكنها تفادي البرمجيات المضادة للفيروسات.

ولعل أحد مخاطر الذكاء الاصطناعي أنه قد يضفي طابعا “ديمقراطيا” على العنف. مما يجعل من السهل على مجموعة واسعة من الأطراف “الشريرة” إحداث أضرار.

ويحذر مقال فورين أفيرز من أن المعلومات المضللة هي مجرد جزء من مخاطر الذكاء الاصطناعي التي يجب على المجتمع الاحتراس منها. ويتعين على العلماء أيضا معرفة الكيفية التي يستطيعون بها منع نماذج الذكاء الاصطناعي من تمكين هجمات الأسلحة البيولوجية.

ويمكن لصانعي السياسات الشروع في سن لوائح تحظر على شركات تصنيع الحمض النووي من شحن تسلسلات الحمض النووي المتعلقة بمسببات الأمراض الخطيرة (أو مسببات الأمراض المحتملة) إلى العملاء غير المصرح لهم. وسيتعين على الحكومات دعم شركات تصنيع الحمض النووي أثناء عملها على تحديد التسلسلات الجينية التي قد تنطوي على خطورة.

اقرأ أيضاً / سلسلة الذكاء الاصطناعي للمبتدئين: تاريخ الذكاء الاصطناعي.

Related Stories