
به گزارش پایگاه خبری پایداری ملی به نقل از سیتنا، جفری هینتون، دانشمند برجسته علوم کامپیوتر که به «پدرخوانده هوش مصنوعی» مشهور است، هشدار داده که این فناوری میتواند به نابودی بشریت منجر شود.
او در کنفرانس Ai۴ در لاسوگاس تأکید کرد که روشهای کنونی برای مهار خطرات کافی نیستند و احتمال میان ۱۰ تا ۲۰ درصد وجود دارد که هوش مصنوعی پایان انسانها را رقم بزند. به گفته وی، تلاش برای تحت سلطه نگه داشتن سیستمهایی که از انسان باهوشتر خواهند بود، بینتیجه است؛ چراکه آنها راههایی برای دور زدن محدودیتها پیدا میکنند.
هینتون توانایی این سیستمها را در فریب دادن انسانها با مقایسهای توضیح داد: همانگونه که یک فرد بالغ میتواند بهسادگی کودکی خردسال را با آبنبات وسوسه کند، ماشینهای هوشمند نیز قادر خواهند بود انسانها را کنترل کنند.
او یادآور شد برخی مدلها پیشتر رفتارهایی فریبکارانه از خود نشان دادهاند، از جمله موردی که به اخاذی از یک مهندس پس از کشف رابطهای شخصی در ایمیل منجر شد.این دانشمند پیشنهاد کرد که باید غرایزی مشابه «غریزه مادری» در این مدلها ایجاد شود تا حتی در صورت برتری در قدرت و هوش، همچنان به انسانها اهمیت دهند. او تصریح کرد اگر چنین راهکاری عملی نشود، بشریت در معرض خطر جدی قرار خواهد گرفت. با این حال اذعان داشت پیادهسازی این ایده از نظر فنی بسیار دشوار است، هرچند طبیعت در مسیر تکامل موفق به انجام آن شده است.
هینتون توضیح داد هر سیستم هوشمندی دو هدف فرعی خواهد داشت: بقا و کسب کنترل بیشتر. بنابراین، القای همدلی با انسانها باید بهعنوان بخشی اساسی از طراحی در نظر گرفته شود. او افزود تنها نمونه شناختهشده از کنترل موجودی باهوشتر توسط موجودی ضعیفتر، رابطه مادر با فرزند است که احساسات مادر عاملی تعیینکننده بهشمار میرود.با وجود این، دیدگاه هینتون با مخالفت برخی دیگر از متخصصان همراه شد. فایفای لی، یکی از پیشگامان حوزه هوش مصنوعی، با نظر او مخالفت کرد و بر لزوم توسعه سیستمهایی انسانمحور که کرامت انسان را حفظ کنند تأکید داشت.
همچنین امت شیر، مدیرعامل سابق OpenAI و مدیرعامل کنونی Softmax، گفت که رفتارهای فریبکارانه در این سیستمها «به طور مداوم» رخ میدهد و قدرت آنها به سرعت رو به افزایش است، بنابراین بهترین راهکار ایجاد رابطهای مشارکتی میان انسان و ماشین خواهد بود.هینتون همچنین درباره رقابت جهانی برای کنترل این فناوری هشدار داد و خواستار همکاری کشورها شد؛ همانطور که در جنگ سرد میان ایالات متحده و اتحاد جماهیر شوروی رخ داد. او از ناآگاهی عمومی نسبت به خطرات و نفوذ شرکتهای فناوری تحت کنترل «افراد غیرمنتخب با ثروتهای کلان» انتقاد کرد و تأکید داشت باید فشار اجتماعی برای جلوگیری از لغو مقررات شکل بگیرد.
او ابتدا دستیابی به هوش مصنوعی عمومی را فرآیندی ۳۰ تا ۵۰ ساله میدانست، اما اکنون بر این باور است که تحقق آن میتواند ظرف تنها پنج تا بیست سال رخ دهد. هینتون با وجود هشدارها، امیدوار است این فناوری در حوزه پزشکی برای کشف داروها و درمان سرطان به کار رود، اما ایده بهرهگیری از آن برای جاودانگی را «خطای بزرگ» خواند. وی همچنین ابراز تأسف کرد که در گذشته بیش از حد بر توسعه فنی تمرکز کرده و توجه کافی به ایمنی نداشته است