
به گزارش پایگاه خبری پایداری ملی به نقل از ایسنا، «محمد جودت» (Mohammad Gawdat) سرپرست ارشد پیشین پروژههای «آلفابت» (Alphabet) که قبلاً با نام «گوگل ایکس» (Google X) شناخته میشد، میگوید: جهان در آیندهای بسیار نزدیک به سمت یک پادآرمانشهر اجتنابناپذیر مبتنی بر هوش مصنوعی حرکت میکند.
پادآرمانشهر یا ویرانشهر، به یک جامعه یا سکونتگاه خیالی اشاره دارد که در آن شرایط زندگی بسیار بد و ناخوشایند است. نقطه مقابل آن، آرمانشهر است که به سرزمینی خیالی و آرمانی اشاره دارد که در آن همه چیز به بهترین شکل ممکن وجود دارد.
به نقل از گیزمودو، «جودت» معتقد است که ۱۲ تا ۱۵ سال آینده نه به خاطر رباتها، بلکه به دلیل نادانی خودمان دوران تاریکی خواهد بود. وی افزود: ما باید برای دنیایی کاملاً ناآشنا آماده شویم. ارزشهای کلیدی انسانی مانند آزادی، ارتباط انسانی، پاسخگویی، واقعیت و قدرت، همگی با اختلال بزرگی توسط هوش مصنوعی روبهرو هستند. این پادآرمانشهر دور نیست و ما از سال گذشته نشانههای آن را دیدهایم و سال آینده شاهد تشدید این نشانهها خواهیم بود. آغاز این سقوط در سال ۲۰۲۷ است و ۱۲ تا ۱۵ سال آینده ادامه خواهد داشت.
سرعت پیشرفت فناوریهای هوش مصنوعی نظر این مدیر اسبق گوگل را تغییر داد و وی را متقاعد کرد که ایجاد این پادآرمانشهر، اجتنابناپذیر است. وی افزود: تغییر این وضعیت کاملاً در دستان ماست، اما باید بگویم که فکر نمیکنم بشریت در این زمان آگاهی لازم را برای تمرکز بر این موضوع داشته باشد. هوش مصنوعی لزوماً عامل اصلی این پادآرمانشهر نیست. مخصوصا نه به شکلی که اکثر مردم تصور میکنند، بلکه هوش مصنوعی بهعنوان تشدیدکننده مسائل موجود جامعه و نادانیهای ما بهعنوان انسان عمل میکند.
هدف آرمانشهری، اما مقصد پادآرمانشهری
هدف هوش مصنوعی ایجاد یک پادآرمانشهر نبود، بلکه هدف آن ایجاد آرمانشهر بود. هوش مصنوعی با خودکارسازی بیشتر وظایف تکراری، پتانسیل کاهش حجم کار میلیونها کارگر در سراسر جهان در هر شغل و زمینهای را دارد و بهطور بالقوه زمان ارزشمند روزانه آنها را بدون قربانی کردن بهرهوری کلی بازمیگرداند. با این حال، این دقیقاً همان اتفاقی نیست که برای کارگران در حال وقوع است. در دنیایی که بیش از هر ارزش دیگری، سرمایهداری حاکم است، این رویای آرمانشهری توسط تلاش بیوقفه برای سود در حال تحریف است.
اختلال هوش مصنوعی به گفته برخی کارشناسان، در بازار کار آغاز شده است، زیرا این فناوری شروع به بازسازی کامل دیدگاه ما نسبت به کار کرده است. شرکتهایی که با استفاده از هوش مصنوعی بهرهوری را به حداکثر میرسانند، به جای کمک به حجم کار مردم، افراد را اخراج میکنند یا استخدام را کند میکنند تا سود را بیشتر کنند یا از کارگران موجود خواستههای بیشتری دارند.
«جودت» درباره این موضوع گفت: این یک اتفاق تصادفی نیست. تمام فناوریهای ایجاد شده تاکنون، تواناییها و ارزشهای موجود انسان را تقویت میکنند و بزرگترین مجموعه ارزشی بشریت در حال حاضر سرمایهداری است. چند بار رسانههای اجتماعی ما را به هم متصل کردهاند و چند بار باعث تنهایی بیشتر ما شدهاند؟ تلفنهای همراه چند بار باعث شدهاند کمتر کار کنیم؟
کارهای ناشایستی که تنها انسانها میتوانند انجام دهند
«جودت» معتقد است: یکی دیگر از مواردی که هوش مصنوعی فراتر از کنترل تشدید خواهد کرد، کارهای ناشایستی است که تنها انسان میتواند انجام دهد.
این کارها شامل تولید محتوای مستهجن جعلی، ورود فزاینده هوش مصنوعی به جنگ برای افزایش کشتار با سلاحهای خودمختار و وجود هوش مصنوعی مولد در ارتش است. این فناوری به بدترین جنبههای بشریت خدمت کرده است. کلاهبرداریهای مبتنی بر هوش مصنوعی بهویژه در حوزه ارز دیجیتال بهشدت افزایش یافته است. کارشناسان جنگ هستهای نیز نگران هستند که هوش مصنوعی بهزودی بتواند سلاحهای هستهای را هدایت کند.
هوش مصنوعی همچنین در حال تنظیم دقیق روشهای نظارت عمومی در مقیاس وسیع است. سامانههای نظارت عمومی مبتنی بر هوش مصنوعی در حال حاضر در بسیاری از کشورها فعال هستند، بارزترین نمونه زیرساخت نظارت گسترده در چین است. دولت آمریکا نیز اکنون از هوش مصنوعی برای نظارت بر حسابهای رسانههای اجتماعی مهاجران و مسافرانی که مایل به ورود به این کشور هستند، استفاده میکند.
هوش مصنوعی کاملا هم زیانآور نیست
هوش مصنوعی با وجود همه این موارد، همچنان تغییرات قابل توجه و مثبتی به همراه دارد. این سامانه در حال حاضر تأثیر قابل اندازهگیری بر اکتشافات و پیشرفتهای علمی، بهویژه در مطالعات پزشکی و دارویی داشته است. استفاده آرمانشهری و مثبت از هوش مصنوعی در آینده به لطف پیشرفتهایی مانند این مطالعات امکانپذیر است، اما ابتدا بشریت باید با چالشهای آن روبهرو شود.
«جودت» خاطرنشان کرد: ما باید به دولتها فشار بیاوریم تا بفهمند حدی وجود دارد که مردم در برابر مسائل هوش مصنوعی سکوت خواهند کرد. آنها باید نحوه استفاده از هوش مصنوعی را تنظیم کنند، نه اینکه خود هوش مصنوعی را سازگار کنند. شما نمیتوانید طراحی چکش را طوری تنظیم کنید که بتواند میخ بکوبد، اما به کسی آسیب نرساند، اما میتوانید قتل انسان با چکش را جرم بدانید. چکش هوش مصنوعی اکنون در دستان ماست و اینجا نیز ماندگار خواهد بود. تنها سوال باقیمانده این است که آیا اراده لازم برای نوشتن قوانینی علیه این قتل را داریم یا خیر.