به گزارش پایداری ملی به نقل از خبرگزاری مهر، مینت نوشت؛ این شرکت به رهبری سم آلتمن، معتقد است سیستمهای هوش مصنوعی در ۱۰ سال آینده در مهارتهای مختلف خبره میشوند و میتوانند فعالیتها را با بهره وری بالاتری نسبت به بزرگترین شرکتهای امروز انجام دهند.
اوپن آ آی در یک پست وبلاگی دلایلش برای قانونمندسازی هوش مصنوعی را توضیح داده و نوشته است: نظارت بر قدرتمندترین سیستمها و همچنین تصمیم گیری در خصوص به کارگیری چنین سیستمهایی باید همراه نظارت عمومی قدرتمند باشد. ما معتقدیم مردم سراسر جهان باید به طور دموکراتیک درباره مرزها و قصورهای مربوط به سیستمهای هوش مصنوعی تصمیم بگیرند.
در ادامه آمده است: ما هنوز نمیدانیم چنین مکانیسمی را چطور طراحی کنیم، اما قصد داریم به طور آزمایشی آن را توسعه دهیم.
پست وبلاگی مذکور توسط سم آلتمن (بنیانگذار)، گرگ بروکمن (رییس شرکت) و ایلیا سوتسکور (محقق ارشد) شرکت اوپن آ آی نوشته شده است. در این پست ابر هوشمندی را با انرژی هستهای مقایسه و پیشنهاد شده یک سازمان مشابه آژانس بین المللی انرژی اتمی برای کاهش ریسکهای هوش مصنوعی ایجاد شود.
اوپن آ آی یک برنامه ۳ مرحلهای برای کاهش ریسک سیستمهای هوش مصنوعی ابر هوشمند آینده پیشنهاد کرده که عبارت است از:
۱- هماهنگی میان توسعه دهندگان هوش مصنوعی: در پست وبلاگی اوپن آ آی پیشنهاد شده شرکتهایی که سیستمهای هوش مصنوعی مانند بارد (متعلق به گوگل) و بینگ (موتور جستجوی مایکروسافت) میسازند، باید به طور هماهنگ برای تضمین ایجاد سیستمهای ابر هوشمند ایمن تلاش و به یکپارچگی این سیستمها در جامعه کمک کنند.
سازنده چت جی پی تی ۲ روش برای هماهنگی پیشنهاد کرده است که عبارتند از اینکه دولتهای سراسر جهان با همکاری تولیدکنندگان برتر هوش مصنوعی یک سیستم رگولاتوری بسازند یا این شرکتها میتوانند با همکاری یکدیگر رشد هوش مصنوعی را به ازای نرخی سالانه محدود کنند.
۲- یک رگولاتور بین المللی: اوپن آ آی همچنین پیشنهاد کرده یک سازمان بین المللی جدید مانند سازمان انرژی اتمی تاسیس شود تا ریسکهای فعلی سیستمهای هوش مصنوعی ابر هوشمند کاهش یابد. این شرکت معتقد است سازمان رگولاتوری پیشنهادی باید اختیار بررسی سیستم ها، اجرای بازبینی، تست برای همخوانی با استانداردهای ایمنی، وضع محدودیت بر میزان به کارگیری سیستم و سطح امنیت را داشته باشد.