بحث

الذكاء الاصطناعي والعامل البشري: الآلة مهما كانت ذكية تبقى آلة وحسب الذكاء الاصطناعي والعامل البشري: الآلة مهما كانت ذكية تبقى آلة وحسب 

الذكاء الاصطناعي والعامل البشري: الآلة مهما كانت ذكية تبقى آلة وحسب

في أعقاب الخطاب الذي ألقاه البابا فرنسيس، بعد ظهر أمس الجمعة أمام قادة الدول السبع الأكثر تصنيعاً في العالم وقادة بلدان أخرى ومسؤولين عن المنظمات الدولية، كتب مدير تحرير دائرة الاتصالات الفاتيكانية أندريا تورنيلي مقالا سلط فيه الضوء على موضوع الذكاء الاصطناعي والذي تناوله الحبر الأعظم في خطابه وأكد المسؤول الفاتيكاني أن الآلة، ومهما كانت ذكية، تبقى آلة وحسب محذرا من مغبة أن يسلم الإنسان نفسه إلى الآلة لتتخذ القرارات نيابة عنه وتخوض الحروب.

كتب أندريا تورنيلي أنه في العام ١٩٨٣ أقدم رجل واحد على إنقاذ العالم من حرب نووية كان سيتسبب فيها خطأ آلي. قبل أن يتناول هذا الموضوع بالتفاصيل توقف المسؤول الفاتيكاني عند رسالة البابا فرنسيس لمناسبة اليوم العالمي للسلام ٢٠٢٤ التي كتب فيها: "لا يمكن لأنظمة الأسلحة المستقلة أن تكون أبدا أشخاصا مسؤولين أخلاقيا: لأن القدرة البشرية الحصرية على الحكم الأخلاقي وعلى اتخاذ القرار الأخلاقي هي أكثر من مجرد مجموعة معقدة من الخوارزميات، ولا يمكن اختزال هذه القدرة إلى برمجة آلة ما، تبقى آلة، على الرغم من كونها "ذكية". ولهذا السبب، من الضروري أن نضمن رقابة بشرية ملائمة ومعنويّة ومتماسكة لأنظمة الأسلحة".

أضاف تورنيلي أن ثمة واقعة حصلت لأربعين سنة خلت، لا بد أن تتحول إلى نموذج بالنسبة لنا عندما يدور الحديث عن الذكاء الاصطناعي المطبق في مجال الحروب والأسلحة وأدوات الموت. إنها قصة ضابط سوفيتي اتخذ قراراً مخالفاً البروتوكولات المتبعة وأنقذ العالم من صراع نووي كانت ستترتب عليه نتائج كارثية. كان ذلك الرجل يُدعى  Stanislav Evgrafovich Petrov وكان مقدماً في الجيش الروسي، وكان يؤدي خدمته ليل السادس والعشرين من أيلول سبتمبر عام ١٩٨٣ في ملجأ مُحصّن يراقب الأنشطة الصاروخية للولايات المتحدة. وكانت الحرب الباردة قد بلغت ذروتها، في وقت كان فيه الرئيس الأمريكي آنذاك رونالد ريغان ينفق مبالغ طائلة على التسلح وقد وصف الاتحاد السوفيتي بـ"إمبراطورية الشر"، وكان حلف شمال الأطلسي يقوم بمناورات عسكرية استعدادا لسناريوهات حرب نووية. في تلك الفترة كان سيد الكريملين يوري أندروبوف الذي تحدث عن تفاقم لا سابق له لأزمة الأول من أيلول سبتمبر عندما أسقطت طائرة تابعة للخطوط الجوية الكورية فوق شبه جزيرة كامشاتكا، ما أسفر عن سقوط مائتين وتسع وستين ضحية.

تابع تورنيلي قائلا إنه ليل السادس والعشرين من أيلول سبتمبر من ذلك العام أدرك بيتروف أن الآلة المسماة "كروكوس"، التي كانت تُعتبر الدماغ الذي كان يراقب أنشطة العدو، رصدت انطلاق صاروخ أمريكي من مونتانا متوجها نحو أراضي الاتحاد السوفيتي. وكان البروتوكول المتبع يقتضي أن يُبلغ الضابط السوفيتي المرجعيات العسكرية لتعطي بدورها الضوء الأخضر لإطلاق الصواريخ باتجاه الولايات المتحدة. وتوقع بيتروف أن يكون الرد السوفيتي هائلاً. واعتبر أن الآلة أعطت إنذاراً خاطئاً. ومع أنه كان يعلم أن الصواريخ العابرة للقارات تستغرق أقل من نصف ساعة للوصول إلى وجهتها قرر عدم الإبلاغ عما حصل وسط دهشة معاونيه الحاضرين معه.

اتضح لاحقا أن آلة "كروكوس" ارتبكت خطأً وأنه لم يُطلق أي صاروخ أمريكي، بل كان الأمر مجرد انعكاس لنور الشمس في الغيوم. وأكد تورنيلي أن الذكاء البشري ذهب أبعد من الذكاء الاصطناعي. وقرار عدم الرد اتخذه إنسان عرف كيف ينظر أبعد من المعطيات والبروتوكولات. وبهذه الطريقة، مضى المسؤول الفاتيكاني إلى القول، تم تفادي كارثة نووية، ولم يعلم أحد بما حصل تلك الليلة لغاية تسعينيات القرن الماضي. الضابط السوفيتي، الذي توفي في أيلول سبتمبر عام ٢٠١٧، علق على ما حصل معه في ذلك الملجأ المحصن لافتا إلى أنه لم يفعل شيئاً استثنائيا بل قام بواجبه وحسب وقال: "كنت الرجل الصحيح في المكان الصحيح وفي الزمان الصحيح". كان بيتروف الإنسان القادر على كشف خطأ ارتكبته آلة قيل عنها إنها لا تُخطئ، كان إنساناً قادرا على إعطاء تقييم خلقي وعلى اتخاذ قرار خلقي، لأن الآلة مهما كانت ذكية تبقى آلة وحسب.

في ختام مقاله أشار تورنيلي إلى مواقف البابا فرنسيس تجاه الحرب والتي عبر عنها في مناسبات عدة مؤكدا أن الحرب هي ضرب من الجنون وهي هزيمة للبشرية. كما أن الحرب تشكل انتهاكاً صارخاً للكرامة البشرية. وذكّر مدير تحرير دائرة الاتصالات الفاتيكانية بخطورة أن يخوض الإنسان الحروب مختبئاً وراء الخوارزميات، وأن يسلّم أمره إلى الذكاء الاصطناعي ليُحدد الأهداف العسكرية وطُرق ضربها، وبهذه الطريقة تقوم الآلة بعملية الاختيار، وهذا أمر يُلقي بثقله على ضمير الإنسان، هذا ثم دعا تورنيلي إلى عدم نسيان الضابط السوفيتي بيتروف.

15 يونيو 2024, 09:48