بورصة وول ستريت تغلق على تراجع بنحو 6% على خلفية الرسوم الجمركية الجديدة
حذر خبراء، من خطورة إحلال "الذكاء الاصطناعي" بدلاً من البشر ، عند استخدام الأسلحة النووية.
ورأى الخبراء، أن التقدير النهائي في المجال النووي أو العسكري، يجب أن يكون من جانب العنصر البشري الذي يستطيع تقدير الموقف وبحث المستجدات.
وأشاروا إلى أن دور الذكاء الاصطناعي، يتمثل بالدقة والسرعة في تحليل البيانات ووضع برامج العمل والخطط والحلول، ولكن يجب أن يكون الاختيار والقرار من جانب العنصر البشري.
وكان الرئيسان الأمريكي جو بايدن والصيني شي جين بينغ، اتفقا على ضرورة بقاء قرار استخدام الأسلحة النووية في سلطة البشر، وليس الذكاء الاصطناعي، وذلك على هامش منتدى التعاون الاقتصادي لدول آسيا والمحيط الهادئ.
ورأى الخبير الاستراتيجي محمد صالح الحربي، أن "الذكاء الاصطناعي يحمل جانباً من الخطورة بربطه بالاستخدامات العسكرية وصولاً إلى السلاح النووي، الأمر الذي يتطلب خضوعه لضوابط دولية".
وذكر الحربي" لـ"إرم نيوز"، أن "خطورة الذكاء الاصطناعي تتمثل في كيفية تقدير الموقف عبر ما هو متوفر من بيانات وما ينتج عن اتخاذ القرار، وهو الأمر الذي ينظر إليه المجتمع الدولي في الوقت الحالي ويعمل على معالجته".
وأضاف أن "السلاح النووي ما هو إلا سلاح للردع والإحباط، ولا يمكن استخدامه بأدوات الذكاء الاصطناعي الذي سيطبق نظرية التدمير الثنائي المتبادل في وقت يتركز فيه حوالي 90% من الأسلحة والرؤوس النووية في العالم بين أمريكا وروسيا".
بدوره، أكد الباحث في سياسات الأمن الدولي أحمد العلوي، "ضرورة أن يكون التقدير النهائي واتخاذ القرار في استخدامات الذكاء الاصطناعي عسكرياً من جانب العنصر البشري الذي يستطيع تقدير الموقف وبحث المستجدات".
وقال العلوي لـ"إرم نيوز"، إن "دور الذكاء الاصطناعي هو تقديم الدقة والسرعة في تحليل البيانات ووضع برامج العمل والخطط والحلول العديدة والخطط المتطورة والمتجددة وتقديم جميع الأبعاد".
ورأى أنه "ليس من العقل والمنطق أن يكون هناك استخدام مباشر في المجال النووي والعسكري، عبر أدوات الذكاء الاصطناعي؛ إذ يسبب ذلك دماراً وخراباً، ومن الجائز بشكل كبير أن يطول عدم تقدير الموقف وترك التقييم للذكاء الاصطناعي وتوجيه الأسلحة بشكل خاطئ إلى الدولة مصدر السلاح".
وأضاف العلوي، أن "الذكاء الاصطناعي نظام له منافع ويحقق مهام قد تذهب إلى ما لا يصدقه العقل، ولكن في النهاية يجب أن تكون المراقبة والتوجيه واتخاذ القرار من العقل البشري".
من ناحيته، رأى النائب التنفيذي لرئيس جامعة سانت فينيست الأمريكية عابد الكشك، أن "استخدام الذكاء الاصطناعي في مجال التسليح النووي، قد يكون له مخاطر كبيرة للغاية، لأنه لا يمتلك إحساس القرار وأبعاده".
وأضاف الكشك" لـ"إرم نيوز"، أن "الذكاء الاصطناعي يقدم المعلومات ويحللها بشكل كامل ودقيق، ولكن الأهم مدى وقوف العقل البشري عليها وكيفية استخدامها من حيث القرار".
ورأى أن "التجارب الأولية في هذا المجال من الممكن أن تتسبب في أضرار لمستخدميها، تكون اقتصادية أو عسكرية أو استخباراتية أو سياسية".