به گزارش پایداری ملی به نقل از باشگاه خبرنگاران جوان، تیمی از دانشمندان بین المللی از ۲۷۷۸ متخصص هوش مصنوعی در مورد آینده سیستمها سوال پرسیدند که ۵ درصد اعلام نظر کردند که این فناوری منجر به فروپاشی خواهد شد؛ اما ترسناکترین تخمین این بود که از هر ۱۰ محقق یک نفر میگوید ۲۵ درصد احتمال دارد که هوش مصنوعی نسل بشر را نابود کند.
کارشناسان سه دلیل احتمالی را برای این پیش بینی خود ذکر کرده اند: هوش مصنوعی به گروههای در معرض تهدید اجازه میدهد ابزارهای قدرتمندی مانند ویروسهای مهندسی شده و مستبدانی را بسازند که از هوش مصنوعی برای کنترل جمعیت خود استفاده و سیستمهایی را ایجاد میکنند که نابرابری اقتصادی را تشدید میکند.
شاید کنترل مقررات هوش مصنوعی تنها راه حل برای محافظت از انسان باشد. اگر هوش مصنوعی کنترل نشود، محققان تخمین زده اند که به احتمال ۱۰ درصد ماشینها تا سال ۲۰۲۷ در تمام وظایف از انسانها بهتر عمل کنند، اما این احتمال تا سال ۲۰۴۷ به ۵۰ درصد افزایش مییابد.
در این نظرسنجی از کارشناسان در مورد چهار حرفه خاص از جمله رانندگان کامیون، جراحان، فروشندگان خردهفروشی و محققان هوش مصنوعی که میتوانند کاملاً ماشینی شوند، پرسیده و این پاسخ دریافت شد که به احتمال ۵۰ درصد هوش مصنوعی تا سال ۲۱۱۶ به طور کامل بر همه این شغلها سیطره یابد.
کاتیا گریس، یکی از محققان این مطالعه، به مجله NewScientist گفت: این یک سیگنال مهم است که اکثر محققان هوش مصنوعی این موضوع که این فناوری پیشرفته میتواند بشریت را نابود کند، رد نمیکنند.
او افزود: من فکر میکنم این باور عمومی که خطری غیر قابل اغماض وجود دارد، بسیار گویاتر از درصد دقیق ریسک است.
تقریباً ۵۸ درصد از محققان نسبت به کنترل هوش مصنوعی خوشبینتر بودند و گفتند که تنها ۵ درصد احتمال دارد که باعث انقراض انسان شود.
سازمان ملل متحد قبلاً هشدارهایی را درباره استفاده گروههای تروریستی از هوش مصنوعی برای اهداف مخرب منتشر کرده و گفته است که این ابزار، ادوات دیگری خواهد بود که به زرادخانه آنها اضافه میشود.
صدها کارشناس، از جمله سام آلتمن، مدیر عامل OpenAI و دمیس حسابیس، مدیر عامل گوگل دیپ مایند، در ماه میسال گذشته بیانیهای صادر کردند و خواستار کنترل و تنظیم بیشتر هوش مصنوعی شدند.
در این بیانیه آمده است: کاهش خطر انقراض ناشی از هوش مصنوعی باید یک اولویت جهانی در کنار سایر خطرات اجتماعی مانند بیماریهای همهگیر و جنگ هستهای باشد.
منبع: الیوم السابع