قلقٌ متزايدٌ من التهديدات المحتملة التي قد يشكلها تطوير الذّكاء الاصطناعي على البشرية
وهج الخليج – وكالات
يُبدي العديد من العلماء والخبراء والمختصين في الذّكاء الاصطناعي خوفهم وقلقهم حول التهديدات المحتملة التي قد يشكلها تطوير الذّكاء الاصطناعي ونظم الذكاء الآلي على البشرية في المستقبل وخروجه عن السيطرة البشرية في المستقبل بدون وجود حوكمة له ووضع التشريعات والقوانين المنظمة له.
وبيَّن أنطونيو غوتيريش الأمين العام للأمم المتحدة غوتيريش اليوم أنّ العلماء والخبراء دعوا للتحرّك في هذا الجانب وأعلنوا أنّ الذّكاء الاصطناعي تهديد وجودي للبشرية لا يقل عن الحرب النووية.
وفي هذا الشأن يقول الدكتور معمر بن علي التوبي أكاديمي متخصّص في الذّكاء الاصطناعي لوكالة الأنباء العُمانية إنّ هناك إجماعًا دوليًّا وخصوصًا بين الوسط العلمي فيما يخص وجود خطر حقيقي للذّكاء الاصطناعي يهدد الوجود البشري ومستقبله، وصيحات الإنذار التي يطلقها العلماء ومنهم علماء الذّكاء الاصطناعي باتت في وتيرة مستمرة وتكاد تُسمع بشكل يومي خصوصًا بعد إطلاق الجيل الثالث لنموذج الذّكاء الاصطناعي التوليدي المعروف ب “ChatGPT” في ٢٠٢٢ الذي أحدث صدمة لم يعهدها العالم من قبل.
وأضاف أنّ نموذج الذكاء الاصطناعي الذي ظهر للعامة يُحاكي الأسلوب اللغوي الذي عند الإنسان، بل يكاد يتفوق عليه في كثير من المواهب التي تنتجها اللغة.
وذكر أنّه قبل حصول هذه الضجة التي تتابعت في تطوراتها وتحذيراتها من التسارع الرقمي، سبق لعالم الفيزياء ستيفن هوكينج أن أطلق تحذيره “المخيف” في ٢٠١٤ محذرًا من عواقب التطويرات السريعة للذّكاء الاصطناعي وواصفًا خطرها بالوجودي، حيث حذر من أنّ الذّكاء الاصطناعي قد يؤدي إلى ما لا يُحمدُ عقباه، في حينها أخذت تصريحات ستيفن هوكينج بعدم المبالاة، ووجدها البعض أنّها مجرد مبالغات.
وأفاد بأنه مع وفاة ستيفن هوكينج في عام ٢٠١٨، ظلت قضية الذكاء الاصطناعي محصورة داخل أروقة المختبرات التي كانت تسابق الزمن في الخروج بأحدث نماذجها الذكية حتى عام ٢٠٢٢ حيث -كما ذكرنا- ظهر للعلن النموذج الذكي التوليدي.
وذكر أنّ عرّاب الذكاء الاصطناعي والأب الروحي له “جيفري هينتون” أعلن بعد استقالته من جوجل محذرًا -هو الآخر- عن خطر قادم لم يحدد ملامحه التفصيلية، وأعلن بعدها عن رسالة وقعها عدد كبير من العلماء تطالب الشركات الرقمية الكبرى في تجميد أنشطة الذّكاء الاصطناعي لفترة لا تقل عن ٦ أشهر إلا أنّ الشركات المتلهفة للثروة الكبيرة لم توافق على هذا الطلب بحجة أن هناك من يستغل هذه الفرصة ليعمل على تطويرات بعيدة عن الأضواء.
ولفت إلى أنّ التحذيرات من خطر الذّكاء الاصطناعي تتوالى وتتصاعد، وهذه المخاطر موجودة وواقعية كون هذه التقنية الصاعدة لا تملك قاعدة قانونية وتشريعية وأخلاقية واضحة تحدُّ ممارستها الخاطئة والخطيرة.
ويرى أنّ مخاطر الذّكاء الاصطناعي لا تقل عن المخاطر النووية التي -للأسف- جاءت القوانين الدولية للحد منها وترويضها الصارم بعد كارثة هيروشيما، حيث استعملت الطاقة النووية لإنتاج قنبلة لم تجد من يحذر من خطرها؛ لتُسقطَ على اليابان؛ وتظهر بعدها مظاهر القلق من القادم.
وقال إنّ بعض المختصين رأوا أنّ مخاطر الذكاء الاصطناعي قد تتجاوز المخاطر النووية؛ لتهدد الوجود البشري حسب وصف “ستيفن هوكينج” قبل سنوات، وهذه المخاطر تتمثل في وجود أنظمة رقمية تعتمد على الذّكاء الاصطناعي وبسبب الوفرة الكبيرة للبيانات والقوة الرياضية الخوارزمية مع توفر قدرات حاسوبية عالية الكفاءة.
وبين أنّ هذه الأنظمة قد تفوق الإنسان ذكاءً لتصلَ إلى المرحلة العمومية “العامة”، حيث يمكن أن تتمرد وتخرج عن سيطرة الإنسان أو عبر تطوراتها الخوارزمية التي مُدت بها من قّبل مجموعات تضمر الشر والخراب للنظام البشري.
وفي هذا الصدد اعتبر الدكتور معمر بن علي التوبي أكاديمي متخصّص في الذّكاء الاصطناعي أنَّ ذلك قد يقود إلى ظهور أزمات كبيرة منها سيطرة هذه الأنظمة على النظام الاقتصادي والمالي العالمي، وعلى الأنظمة الحاسوبية، وعلى الأنظمة الصحية والعسكرية، وبإمكان تسخير هذه النماذج الذكية في الصناعات العسكرية البيولوجية الضارة، وهذا كله يقود إلى خلل عالمي يهدد الوجود البشري.