مخاوف الذكاء الاصطناعي

يخشى الآباء المؤسسون للذكاء الاصطناعي أن يخرج ابتكارهم عن
اجتمعت مجموعة من المتخصصين، من بينهم اثنان من الآباء المؤسسين للذكاء الاصطناعي، لمناقشة "المخاطر الكارثية" للذكاء الاصطناعي. ولتجنب السيناريو الذي يفلت فيه من السيطرة البشرية، يقترحون إطارًا تنظيميًا، مع نماذج مسجلة في السجل. تستمر المخاطر الكامنة في الذكاء الاصطناعي في تقسيم المتخصصين في هذا المجال. وفي حين يرى البعض أنها أداة غير ضارة نسبيًا، فإن البعض الآخر يشعر بالقلق من أنها قد تفلت من سيطرة الإنسان. وهذا هو الحال على وجه الخصوص مع جيفري هينتون ويوشوا بنجيو، اللذين يعتبران من الآباء المؤسسين للذكاء الاصطناعي، وقد حصلا على جائزة تورينج في عام 2018 لعملهما في مجال الذكاء الاصطناعي.التعلم العميق مع الفرنسي يان ليكون. حضر الرجلان مؤخرًا اجتماع وقد Idais الثالث (الحوارات الدولية حول أمن الذكاء الاصطناعي) الذي عقد في البندقية والذي جمع متخصصين مختلفين في هذا القطاع. ونشرت المجموعة بيانا صحفيا يسلط الضوء على المخاطر المرتبطة بالوصول الوشيك - أو على أبعد تقدير، في غضون بضعة عقود - للذكاء الاصطناعي القادر على تجاوز الذكاء البشري. إطار تنظيمي من ثلاث نقاط ووقع البيان الصحفي أيضًا أسماء مثل تشانغ يا تشين، الرئيس السابق للعملاق الصيني بايدو، وستيوارت راسل، ويطرح ثلاثة مقترحات لتجنب السيناريوهات الكارثية. أولا، ينبغي للمجتمع الدولي أن يبرم اتفاقيات ومؤسسات تسمح بتسجيل نماذج الذكاء الاصطناعي في السجل والإبلاغ عن أي حوادث. بعد ذلك، يجب أن يُطلب من المطورين إثبات أمان نماذجهم إذا تجاوزت قدراتهم حدودًا معينة. وأخيرًا، يجب أن يكون هناك بحث عالمي مستقل حول سلامة الذكاء الاصطناعي يمكنه التحقق من صحة الادعاءاتالمسائل الأمنية التي صاغها المطورون. ومع ذلك، فإن البيان الصحفي لا يعطي أي أدلة حول ما يمكن أن يشكل خطرا، ولا ما هي الحدود التي ينبغي وضعها. ليست هذه هي المرة الأولى التي يتحدث فيها جيفري هينتون عن هذا الموضوع. لقد استقال بشكل خاص من Google في عام 2023 ليكون حراً في مشاركة مخاوفه بشأن تطوير الذكاء الاصطناعي.
Comments