عاجل

السلطات الأوكرانية: مقتل شخصين وإصابة آخرين في قصف جوي روسي على مدينة سومي

logo
علوم وتقنية

هل تقود مخاطر الذكاء الاصطناعي إلى "انقراض الإنسان"؟

هل تقود مخاطر الذكاء الاصطناعي إلى "انقراض الإنسان"؟
07 يونيو 2024، 2:48 ص

حذّر مجموعة من الموظفين الحاليين والسابقين في كبرى شركات "وادي السيليكون" من القائمين على تطوير تقنيات الذكاء الاصطناعي، بأن هذه التقنيات يمكنها أن تشكل تهديداً "بانقراض البشرية".

جاء ذلك في رسالة مفتوحة، وقعها 13 موظفًا سابقًا معظمهم في شركات مثل OpenAI وAnthropic وDeepMind التابعة لشركة غوغل.

وذكرت الرسالة أن كبار الباحثين في مجال الذكاء الاصطناعي يحتاجون إلى مزيد من الحماية ليتمكنوا من توجيه انتقادات للتطورات الجديدة واتجاه ابتكارات الذكاء الاصطناعي.

وجاء في الرسالة أيضًا أنهم يؤمنون بقدرة تكنولوجيا الذكاء الاصطناعي في تقديم فوائد غير مسبوقة للبشرية، وأنهم يتفهمون أيضًا المخاطر الجسيمة التي تشكلها هذه التقنيات، خاصة بعد حصولها على قدرات جديدة قوية مثل إجراء محادثات صوتية مباشرة مع البشر والتفاعل مع المعلومات المرئية مثل إنشاء الفيديو والصور.

وتتراوح هذه المخاطر بين زيادة ترسيخ عدم المساواة، مرورًا بالتلاعب والتضليل، وصولًا إلى فقدان السيطرة على أنظمة الذكاء الاصطناعي المستقلة مما قد يؤدي إلى انقراض الإنسان.

تجنب الرقابة الفعالة

وتقول الرسالة إن الشركات التي تطور تقنيات الذكاء الاصطناعي القوية، بما في ذلك الذكاء الاصطناعي العام، وهو نظام نظري يكون ذكيًا أو أكثر ذكاءً من الذكاء البشري، لديها حوافز مالية قوية لتجنب الرقابة الفعالة من موظفيها والإدارة والجمهور.

وأشاروا إلى أنه يجب على أي مختبر يسعى إلى تطوير الذكاء الاصطناعي العام أن يثبت أنه يستحق ثقة الجمهور، وأن يعطي الموظفين حقًا محميًا للإبلاغ عن المخالفات.

كذلك تدعو الرسالة الشركات إلى الامتناع عن معاقبة أو إسكات الموظفين الحاليين أو السابقين الذين يتحدثون علناً عن مخاطر الذكاء الاصطناعي.

رد OpenAI

وقال متحدث باسم OpenAI إن الشركة تتفق على أن النقاش الدقيق حول الذكاء الاصطناعي أمر لا بد منه نظرًا لأهمية هذه التكنولوجيا.

وأكد أن الشركة ستواصل التعامل مع الحكومات والمجتمع المدني والمجتمعات الأخرى في جميع أنحاء العالم.

وأوضح أنها تتخذ عددًا من الخطوات لضمان الاستماع إلى موظفيها وتطوير منتجاتها بشكل مسؤول، بما في ذلك خطًا ساخنًا مجهولًا للعاملين ولجنة للسلامة والأمن تتولى مراجعة تطورات الشركة.

وأشارت OpenAI أيضًا إلى دعمها لزيادة تنظيم الذكاء الاصطناعي والالتزامات الطوعية حول سلامة هذه التكنولوجيا.

يذكر أن العديد من كبار الباحثين في الشركة غادروا مناصبهم، في الأشهر الأخيرة، بما في ذلك المؤسس المشارك إيليا سوتسكيفر.

وتعتبر تلك أحدث عملية تغيير منذ أن عانت الشركة من معركة مهمة على مستوى مجلس الإدارة العام الماضي، والتي تمت فيها إزاحة المدير التنفيذي سام ألتمان مؤقتًا ثم إعادته إلى منصبه بعد أقل من أسبوع.

logo
تابعونا على
جميع الحقوق محفوظة ©️ 2024 شركة إرم ميديا - Erem Media FZ LLC