۰۸ آذر ۱۳۹۹ - ۱۵:۴۷
کد خبر: ۶۱۷۰۷
پژوهشگاه گروه مطالعات اخلاقی فضای مجازی با بررسی موضوع اخلاق و هوش مصنوعی، به این سوال پاسخ می دهد که آیا هوش مصنوعی به اندازه انسان‌ها خوب است؟
به گزارش پایداری ملی به نقل از خبرگزاری مهر، وقتی بحث بر سر اصول اخلاقی هوش مصنوعی و این که چگونه فناوری می‌تواند اشتباه کند، پیش می‌آید، غالباً ذهن مردم تحت تأثیر صحنه‌های فیلم‌های هالیوودی قرار می‌گیرد. این که چه اتفاقی می‌افتد اگر این ابزار علیه ما برانگیخته شود و شروع به تیراندازی به مردم در خیابان کند؟! گرچه مشا باید پذیرای همه احتمالات باشیم، اما نگرانی‌های اساسی‌تری نیز در مورد اخلاقیات هوش مصنوعی وجود دارد.

در طول تاریخ، ارائه چندین اختراع در حوزه فناوری بحث در مورد اصول اخلاقی در زمینه استفاده و یا حتی وجود آن فناوری را دامن زده است؛ همچنین با پررنگ‌تر شدن هوش‌ مصنوعی در جامعه و مسائل اخلاقی پیرامون آن احساس نیاز به برنامه‌ای جامع برای رسیدگی به مسائل اخلاقی و چارچوب‌های آن بیشتر شد.

در ادامه، نگاهی به جنبه‌های مختلف اخلاق و هوش مصنوعی خواهیم داشت.

مبحث انصاف

در اولین روز کنفرانس مجازی EmTech Asia۲۰۲۰، دانشمند مشهور پیتر نورویگ، مدیر بخش تحقیقات گوگل، در مورد مسئله انصاف در اجرای هوش مصنوعی سخنرانی کرد. وی نمونه‌ای از نتایج جستجوی تصاویر در گوگل را نمایش داد. در گذشته، هنگامی‌که کاربران کلمه کلیدی «دکتر» را جستجو می‌کردند، تنها احتمال نمایش تصاویری شبیه به مردان قفقازی با کت‌های آزمایشگاهی سفید وجود داشت. اما امروزه تنوع جنسیتی و نژادی بیشتری در نتایج قابل مشاهده است.

نورویگ این نتایج را حاصل کیفیت داده‌ها و فرآیندهای تصمیم‌گیری می‌داند و همچنین اشاره می‌کند اگر انصاف از طریق عدم آگاهی حاصل شود، همچنان مشکل باقی مانده است. به این معنا که اگر انصاف در ارائه نتایج، حاصل تلاش انسانی و دانشمندان نبوده و تنها به دلیل کیفیت داده‌ها به‌دست آید، باز هم به طور آگاهانه انصاف رعایت نشده است. بنابراین برای اطمینان از صحت عملکرد آن این عمل باید از طریق تلاش آگاهانه دانشمندان و مهندسان انجام شود که می‌تواند روند پیچیده‌ای داشته باشد. وی تاکید می‌کند: «هدف ما این است که مردم را متقاعد کنیم در این حوزه انصاف وجود دارد.»

وی به توسعه‌دهندگان محصولات توصیه کرد که همواره به موارد زیر توجه داشته باشند: هنگامی‌که یکی از حضار در مورد میزان موفقیت شرکت‌های فناوری در تلاش برای کاهش تعصبات سؤال کرد، نورویگ می‌گوید که این لیست به توسعه‌دهندگان کمک کرده است تا با آگاهی بیشتری در این مورد، کار را پیش ببرند. ما همچنین به اضافه کردن عوامل جدید ادامه می‌دهیم. در گذشته ما بر روی امنیت داده تمرکز داشتیم؛ اما اکنون بر روی انصاف در ارائه محتوا نیز متمرکز شده‌ایم.

کار انسانی

کار انسانی بخشی است که هنگام صحبت درباره هوش مصنوعی به آن اشاره‌ای نمی‌شود. نادیده گرفتن جنبه کار انسان اغلب هنگام بحث در مورد هوش مصنوعی و اخلاق ممکن است تعجب‌آور باشد. اما مری گری انسان‌شناس در کتاب خود، درباره نیروی انسانی نامرئی صحبت می‌کند که برای پیاده‌سازی هوش مصنوعی به شکلی که امروزه شاهد آن هستیم، در تلاش است.

گری تاکید می‌کند: از آن‌جا که این افراد تا حد زیادی کنترل نشده‌اند و نظارتی روی خود ندارند، به راحتی یک‌بارمصرف تلقی شده و اغلب به عنوان کمک موقتی در نظر گرفته می‌شوند.

این افراد در حال کار بر روی وظایفی مانند برچسب‌گذاری داده‌ها بوده و جمعیت رو به رشدی از افراد ارائه‌دهنده خدمات را دربر می‌گیرند. اما گری این نوع کار را به‌ عنوان کار شبح تعریف می‌کند. زیرا شرایط کار اغلب باعث کاهش ارزش کاری آن‌ها و پنهان کردن افرادی می‌شود که به نتایج جستجوی بهتر در پروژه‌های دنیای استارت‌آپ کمک می‌کنند.

گرچه ممکن است این چشم‌انداز در ابتدا دلهره‌آور به نظر برسد؛ اما گری بیان می‌کند که این مشاغل می‌توانند به ویژه در زمان بحران بهداشت جهانی، مشابه وضعیت فعلی، ارزش کسب کنند. اما اقداماتی نیز برای جلوگیری و توقف سوءاستفاده از آن‌ها وجود دارد.

وی تأکید کرد که در حال حاضر هیچ قانونی وجود ندارد که کارگران قراردادی را اداره کند و خود مردم باید برای ایجاد چنین قانونی پافشاری کنند. وی هشدار داد: بازار قرار نیست این مشکل را برطرف کند.

فناوری و انسان

در ماه فوریه ۲۰۲۰، در یک کارگاه آموزشی که در واتیکان برگزار شد، پاپ فرانسیس اظهار داشت: کهکشان دیجیتال و به‌ویژه هوش مصنوعی در قلب تغییرات تاریخی است که ما در حال تجربه آن هستیم.

این نشان‌دهنده اهمیت فناوری هوش مصنوعی در زندگی امروز ماست. در حالت ایده‌آل، ما می‌خواهیم آن را به اخلاقی‌ترین شکل ممکن پیاده‌سازی کنیم.

اما اکنون که پیچیدگی مسئله انصاف در اجرای هوش مصنوعی و سایر مسائل عملیاتی پشت آن را دیده‌ایم، زمان آن رسیده است که این سؤال بزرگ را بررسی کنیم: آیا فناوریِ تنها به اندازه انسان پشت آن خوب است؟

این ممکن است استدلال موجود در خصوص چاقو را به شما یادآوری کند: به عنوان یک ابزار نه بد است و نه خوب. ارزش آن به فردی که از آن استفاده می‌کند و این که به چه دلیل از آن استفاده می‌کند، بستگی دارد.

آیا این بدین معناست که نگرانی‌های ما واقعی هستند؟ این که هوش مصنوعی چاقویی بیش نیست و فقط می‌توان امیدوار بود که به دست فرد اشتباهی نیفتد!

نورویگ پیام امیدوارکننده‌ای در این زمینه می‌دهد. زمانی‌که یکی از حضار این نگرانی را در رابطه با مسائل اخلاقی در هوش مصنوعی بیان می‌کند، نورویگ به او یادآوری می‌کند که چرا انسان‌ها در وهله اول در حال توسعه فناوری هستند. او تأکید می‌کند: ما سیستمی را مدنظر قرار داده‌ایم که در آن، فناوری‌ها بتوانند بهتر از ما عمل کنند.

به طور کلی، پیشرفت فناوری برای همه به معنای زندگی بهتر است. هوش مصنوعی پتانسیل گسترده‌ای دارد و مسئولیت اجرای آن به عهده ما است تا سیستم‌هایی ارائه دهیم که توانایی رعایت اخلاقیات را مشابه بهترین حالت انسانی داشته باشند.

گزارش خطا
ارسال نظرات
نام
ایمیل
نظر