۲۱ فروردين ۱۴۰۳ - ۱۶:۰۶
کد خبر: ۷۴۵۲۵
بسیاری از دانشمندانی که در حوزه هوش مصنوعی و متعلقات آن مشغول به کار هستند، تأکید دارند که قدرت مواجهه با آثار و تبعات غیر قابل کنترل این فناوری نوین را ندارند.

به گزارش پایداری ملی به نقل از آنا، سکان «هوش مصنوعی» در جهان در دست چه کسانی است؟ آیا انسان‌ها می‌توانند به عنوان مولد هوش مصنوعی، بر عملکرد ساختار‌هایی که در بطن این ابزار مجازی و تصنعی تعریف و عملیاتی می‌شود، نظارت کنند؟ به عبارت بهتر، آیا بشر می‌تواند ناظر و کنترل کننده محصولی باشد که خود در تولید و ارتقای آن نقش داشته و دارد؟ پاسخ این سوال تا این لحظه منفی است! به عبارت بهتر، حتی بسیاری از دانشمندانی که در حوزه هوش مصنوعی و متعلقات آن مشغول به کار هستند، تأکید دارند که قدرت مواجهه با آثار و تبعات غیر قابل کنترل این فناوری نوین را ندارند. هیچ سازمان و فردی نیست که مدعی کنترل پذیر بودن مطلق هوش مصنوعی و کارکرد‌های آن شود.

در این میان، سوالات دیگری به ذهن خطور می‌کند که قطعاً باید نسبت به آنها پاسخی قانع کننده داد! یکی از بزرگترین نگرانی‌های مردم این است که چطور می‌شود قوانین را با این فناوری تحول‌آفرین مطابقت داد. باور مشترک کارشناسان در چندین کشور این است که انسان‌ها باید بتوانند همیشه عملکرد هوش مصنوعی را به چالش بکشند، و هر چه زمان می‌گذرد ابزار‌های هوش مصنوعی هم محتوای بیشتری درباره ما تولید می‌کنند.

در کشور‌ها هنوز برای هوش مصنوعی قانون رسمی وجود ندارد، ولی دولت‌ها می‌گویند که مسائل مربوط به کارکرد آن باید در قوانین موجود گنجانده شوند. به نظرمی‌رسد سرعت تحولات ناشی از ایجاد و ارتقای ابزار‌ها و مجاری مربوط به هوش مصنوعی به مراتب نسبت به سرعت تدوین قوانین و قواعد ثابت و متغیر در این خصوص بالاتر است! همین مسئله در آینده‌ای نزدیک چالش‌هایی را برای بشریت تولید خواهد کرد. زمانی که سرعت رشد تکنولوژی نسبت به سرعت ایجاد زیرساخت‌های قانونی و حقوقی آن بیشتر شود، این بحران گریبان‌گیر ملت‌های دنیا خواهد شد. این مسئله را در قبال فضای مجازی و شکل گیری شبکه‌های اجتماعی (خصوصا در حوزه نقض حریم خصوصی افراد و سازمان‌ها) مشاهده کردیم: جایی که حریم افراد نقض می‌شد و قانونی برای دفاع از آن‌ها وجود نداشت!

در این میان هوش مصنوعی به مراتب نسبت به شکل گیری شبکه‌های اجتماعی حساسیت بیشتری دارد، زیرا امکان استفاده از ابزار‌های جعلی و دروغین در عرصه هوش مصنوعی به مراتب نسبت به شبکه‌های اجتماعی بیشتر است. تولید صدا‌ها و تصاویر مربوط به یک شخص حقوقی یا حقیقی (آن هم با کیفیتی واقعی)، یکی از این آسیب‌هاست: جایی که فرد یا سازمان آسیب دیده دقیقا نمی‌داند باید از چه کسی و به کجا شکایت کند و فراتر از آن، کدام ماده و تبصره قانونی حامی وی در این گردش کار قضایی خواهد بود!

در کشور انگلیس، اخیرا تحقیقی در خصوص فناوری هوش مصنوعی صورت گرفته که نشان می‌دهد چت‌بات‌های هوش مصنوعی به «هذیان گفتن» شهرت دارند؛ یعنی از خودشان حرف درمی‌آوردند. حتی سازندگانشان هم نمی‌دانند دلیلش چیست! صرفاً توضیحی اضافه می‌کنند که خروجی ابزار شاید قابل اتکا نباشد تا از خودشان سلب مسئولیت کنند؛ و حتی پاسخی که می‌گیرید هم لزوما ثابت نیست. اما این سازندگان، پاسخی به این سوال نمی‌دهند که اگر در جریان این فعل و انفعال، آبرو و اعتبار یک فرد یا مجموعه آسیب دید، چگونه باید آن را توجیه کرد وچه کسی خسارات مالی و اعتباری و شخصی ناشی از آن را پرداخت خواهد کرد...

گزارش خطا
ارسال نظرات
نام
ایمیل
نظر