به گزارش پایداری ملی به نقل از آنا، سکان «هوش مصنوعی» در جهان در دست چه کسانی است؟ آیا انسانها میتوانند به عنوان مولد هوش مصنوعی، بر عملکرد ساختارهایی که در بطن این ابزار مجازی و تصنعی تعریف و عملیاتی میشود، نظارت کنند؟ به عبارت بهتر، آیا بشر میتواند ناظر و کنترل کننده محصولی باشد که خود در تولید و ارتقای آن نقش داشته و دارد؟ پاسخ این سوال تا این لحظه منفی است! به عبارت بهتر، حتی بسیاری از دانشمندانی که در حوزه هوش مصنوعی و متعلقات آن مشغول به کار هستند، تأکید دارند که قدرت مواجهه با آثار و تبعات غیر قابل کنترل این فناوری نوین را ندارند. هیچ سازمان و فردی نیست که مدعی کنترل پذیر بودن مطلق هوش مصنوعی و کارکردهای آن شود.
در این میان، سوالات دیگری به ذهن خطور میکند که قطعاً باید نسبت به آنها پاسخی قانع کننده داد! یکی از بزرگترین نگرانیهای مردم این است که چطور میشود قوانین را با این فناوری تحولآفرین مطابقت داد. باور مشترک کارشناسان در چندین کشور این است که انسانها باید بتوانند همیشه عملکرد هوش مصنوعی را به چالش بکشند، و هر چه زمان میگذرد ابزارهای هوش مصنوعی هم محتوای بیشتری درباره ما تولید میکنند.
در کشورها هنوز برای هوش مصنوعی قانون رسمی وجود ندارد، ولی دولتها میگویند که مسائل مربوط به کارکرد آن باید در قوانین موجود گنجانده شوند. به نظرمیرسد سرعت تحولات ناشی از ایجاد و ارتقای ابزارها و مجاری مربوط به هوش مصنوعی به مراتب نسبت به سرعت تدوین قوانین و قواعد ثابت و متغیر در این خصوص بالاتر است! همین مسئله در آیندهای نزدیک چالشهایی را برای بشریت تولید خواهد کرد. زمانی که سرعت رشد تکنولوژی نسبت به سرعت ایجاد زیرساختهای قانونی و حقوقی آن بیشتر شود، این بحران گریبانگیر ملتهای دنیا خواهد شد. این مسئله را در قبال فضای مجازی و شکل گیری شبکههای اجتماعی (خصوصا در حوزه نقض حریم خصوصی افراد و سازمانها) مشاهده کردیم: جایی که حریم افراد نقض میشد و قانونی برای دفاع از آنها وجود نداشت!
در این میان هوش مصنوعی به مراتب نسبت به شکل گیری شبکههای اجتماعی حساسیت بیشتری دارد، زیرا امکان استفاده از ابزارهای جعلی و دروغین در عرصه هوش مصنوعی به مراتب نسبت به شبکههای اجتماعی بیشتر است. تولید صداها و تصاویر مربوط به یک شخص حقوقی یا حقیقی (آن هم با کیفیتی واقعی)، یکی از این آسیبهاست: جایی که فرد یا سازمان آسیب دیده دقیقا نمیداند باید از چه کسی و به کجا شکایت کند و فراتر از آن، کدام ماده و تبصره قانونی حامی وی در این گردش کار قضایی خواهد بود!
در کشور انگلیس، اخیرا تحقیقی در خصوص فناوری هوش مصنوعی صورت گرفته که نشان میدهد چتباتهای هوش مصنوعی به «هذیان گفتن» شهرت دارند؛ یعنی از خودشان حرف درمیآوردند. حتی سازندگانشان هم نمیدانند دلیلش چیست! صرفاً توضیحی اضافه میکنند که خروجی ابزار شاید قابل اتکا نباشد تا از خودشان سلب مسئولیت کنند؛ و حتی پاسخی که میگیرید هم لزوما ثابت نیست. اما این سازندگان، پاسخی به این سوال نمیدهند که اگر در جریان این فعل و انفعال، آبرو و اعتبار یک فرد یا مجموعه آسیب دید، چگونه باید آن را توجیه کرد وچه کسی خسارات مالی و اعتباری و شخصی ناشی از آن را پرداخت خواهد کرد...