این ادعا که استفاده از هوش مصنوعی در سامانههای دفاع سایبری، لزوماً به معنای تقویت امنیت در این سامانهها نیست، جملهای است که تمام کارشناسان امنیتی، بر آن اتفاقنظر دارند و تأکید میکنند
به گزارش پایداری ملی به نقل از پایگاه اطلاع رسانی قرارگاه سایبری کشور (پاپسا)، با توجه به پیشرفتهای حاصلشده در زمینه هوش مصنوعی و بهکارگیری آن در امنیت سایبری، واژهی یادگیری ماشینی یکی از اصلیترین مفاهیم امنیتی این سالها را دارد؛ اما دشمنی که بهاندازهی کافی هوشمند باشد، میتواند از الگوریتمهای این فناوری سوءاستفاده کرده و کیفیت تصمیمهای گرفته شده را کاهش دهد.
بهعنوانمثال یک سازمان ممکن است تصمیم بگیرد از یادگیری ماشینی برای توسعه یک سامانهی خود تشخیصی با قابلیت رفع آسیبپذیریها در شبکهی خود استفاده کند؛ اما چه اتفاقی رخ میدهد اگر یک مهاجم بتواند به شبکه نفوذ کند؟ یا حتی قبل از شروع پردازش الگوریتم یادشده در شبکه حضور داشته باشد؟
به باور کارشناسان، بهرهگیری از هوش مصنوعی در توسعه دفاع سایبری، گهگاه میتواند خسارات جبرانناپذیری برای کشورهای جهان داشته باشد؛ چرا که توسعه آن و وجود حفرههای امنیتی وصله نشده، سبب میشود تا دست هکرها و سوءاستفاده گران نیز در این زمینه باز مانده و بتوانند از چنین موقعیتی برای رسیدن به اهداف خود بهرهبرداری کنند.
بررسی سخنان مطرحشده در اجلاس بلک هت ۲۰۱۸، میتواند دید واضحی در مورد بهرهبرداری از هوش مصنوعی و مخاطرات آن، در اختیار قرار دهد و اثبات کند که بهرهگیری از هوش مصنوعی در دفاع سایبری، لزوماً به معنای امنتر شدن جهان نخواهد بود.
هوش مصنوعی و یادگیری ماشینی در امنیت سایبری- چرا الگوریتمها خطرناک هستند
رافائل مارتی، کارشناس امنیت سایبری: «در حال حاضر همهی شرکتهای امنیتی در حال صحبت پیرامون نحوهی بهکارگیری یادگیری ماشینی هستند؛ اما بهکارگیری این فناوری بسیار خطرناک است و متأسفانه کارشناسان کورکورانه به الگوریتمها وابسته شدهاند.
الگوریتمهای یادگیری، بدون اینکه هیچگونه آگاهی از عملکرد دیگر الگوریتمها و کاربرد آن داشته باشند، ناهنجاری موجود در دادهها را جستجو میکنند. شرکتها به جای توسعه سامانهای از دانش امنیتی واقعی، الگوریتمهایی را به کار میگیرند که هیچ شخصی آنها را درک نمیکند و بینشهایی اشتباه کشف میشوند.»
Deep Locker- پنهانسازی حملات هدفمند و فرار با هوش مصنوعی
مارک استوکلین، کارشناس امنیت سایبری: «امنیت سایبری یک مسابقهی تسلیحاتی است. محلی که مهاجمان و مدافعان بهصورت پیوسته بازی موش و گربه را انجام میدهند. در هر عصر جدیدی از محاسبات، حملهکنندگان، قابلیتها و آسیبپذیریهای تازهای را بهمنظور انجام اعمال خرابکارانهی خود به کار میگیرند.
در عصر رایانههای شخصی، تهدیدات بدافزاری از سوی کرمها و ویروسها به وجود آمد که صنعت امنیت از طریق نرمافزار ضدویروس با آن مقابله کرد. در عصر وب، حملاتی مانند CSRF و XSS شکل گرفت و برنامههای کاربردی این بستر را به چالش کشید. هماکنون انسانها در عصر «ابر، تجزیهوتحلیل، تلفن همراه و رسانههای اجتماعی» (CAMS) [۱] قرار دارند. در این عصر، تهدیدات پیشرفتهی پایدار (APT)، ذهن مدیران ارشد اطلاعاتی و امنیتی را به خود مشغول ساخته است.
انسانها در معرض نسل جدیدی قرار دارند. دورهی هوش مصنوعی. یادگیری ماشینی و هوش مصنوعی، پیشرفت عظیم بعدی در فناوری اطلاعات محسوب میشود. باوجوداین، مجرمان سایبری در حال فراگیری شیوهی بهرهمندی از هوش مصنوعی برای کسب برتری و تبدیل آن به سلاح هستند. هوش مصنوعی چگونه حملات سایبری را متحول میکند؟ ویژگیهای حملات بر پایهی هوش مصنوعی چیست؟ و چگونه میتوان به مقابله با آنها پرداخت؟
مرکز IBM Research، بهمنظور شناسایی و پیشبینی تهدیدات جدید و مقابله با مجرمان سایبری، بهطور مداوم در حال بررسی تکامل فناوریها، قابلیتها و روشیهای مختلف است. درنتیجه محققان یادشده، نسل جدیدی از ابزارهای بسیار هدفمند و غیرقابلشناسایی حملات به نام Deep Locker را به وجود آورند که بر پایهی هوش مصنوعی عمل میکند.
هدف از ایجاد Deep Locker بررسی این موضوع بود که چگونه میتوان با ترکیب مدلهای هوش مصنوعی و بدافزارهای موجود، نسل تازهای نرمافزارهای مخرب را به وجود آورد. این رده از بدافزارهای مجهز به هوش مصنوعی تا زمانی که به یک هدف خاص برسند خود را پنهان میسازند و بهمحض اینکه چهره، موقعیت جغرافیایی و صدای هدف را تشخص دهد، اقدامات خود را آغاز خواهد کرد.
حملهی یادشده را میتوان در مقابل بدافزارهای سنتی که شیوهی «اسپری کن و به دعا بپرداز» قرار داد. بدافزار Deep Locker، برای مخفی ماندن طراحیشده است. زمانی که در محدودهی رادار قرار دارد، از عملیات تشخیص خودداری میکند تا هنگامیکه در لحظهای دقیق، هدف خود را به رسمیت بشناسد. اینگونه بدافزارها بسیار خطرناک هستند؛ زیرا همانند نرمافزارهای مخرب دولتی، میتوانند بدون شناسایی شدن، میلیونها سیستم را آلوده کنند؛ اما برخلاف آن امکان حضور در هر دو حوزهی غیرنظامی و تجاری را دارند. باوجوداینکه در طول تاریخ بدافزارهای بسیاری به مانند Deep Locker سعی در پنهانسازی و گریز از نرمافزارهای ضد بدافزار را داشتند؛ اما هیچیک از آنها از بهاندازهی نمونهی جدید تولیدشده، توانایی نداشتند.
بدافزار Deep Lockerمیتواند برای جلوگیری از شناسایی شدن توسط بیشتر آنتیویروسها، خود را در یک نرمافزار آلوده مانند برنامه ویدئو کنفرانس پنهان سازد. چیزی که آن را خاص میکند، بهکارگیری هوش مصنوعی برای راهاندازی نوعی حمله است که تقریباً امکان مهندسی معکوس آن وجود ندارد. همچنین تنها در صورتی کار خود را آغاز میکند که به هدف از پیش تعیینشده برسد. سپس شبکهی عصبی موجود کلید موردنیاز برای شروع حمله را تولید میکند. به همین دلیل تقریباً غیرممکن است که کارشناسان بتوانند همهی حالتهای هوش مصنوعی را ارزیابی کرده، با مهندسی معکوس آن، قادر به درکش باشند.
تصور کنید نرمافزار کنفرانس ویدئویی یادشده که قابلاجرا روی طیف وسیعی از سیستمعاملها است، توسط میلیونها نفر از سراسر جهان دانلود شود. پس از نصب به شیوهی عادی کار خود را انجام میدهد؛ اما بهصورت همزمان از طریق دوربین دستگاه تصویری را مخاطبان گرفته، به هوش مصنوعی میدهد. درنهایت نیز تنها زمانی عمل میکند که هدف خود را شناسایی کرده، به وی حمله میکند. جامعهی امنیتی، باید خود را برای مقابله با سطح جدیدی از حملات مجهز به هوش مصنوعی آماده کند. جامعه نمیتواند بهعنوان صنعت صبر کند تا حملات خود را نشان داده، سپس آمادهسازیهای دفاعی را آغاز کنند.»
اندازهگیری سرعت رقابت Red Queen؛ انطباق و گریز در بدافزار
ریچارد هارنگ، کارشناس امنیت سایبری: «امنیت یک بازی موش و گربهی دائمی بین افرادی است که سعی دارند از بدافزارهای نوآورانه بهره بگیرند و آنهایی که سعی دارند با شناسایی رفتارهای مخرب، آنها را متوقف کنند.
معرفی مدلهای آماری یادگیری ماشینی در این مسابقهی تسلیحاتی کمک میکند تا سؤال جالبی موردبررسی قرار گیرد. یک بدافزار در پاسخ به فشارهای اعمالشده از سوی متخصصان امنیتی، با چه سرعتی به روز میشود؟ تواناییهای الگوریتمهای یادگیری ماشینی بهمنظور شناسایی بدافزار هماکنون شناخته شده است.»
محافظت از حفاظت تقویتشده با یادگیری ماشینی در برابر حملات خصمانه
هالی استوارت، کارشناس امنیت سایبری: «یادگیری ماشینی و هوش مصنوعی میتوانند به حفاظت در برابر حملات سایبری کمک کنند؛ اما هکرها قادر هستند الگوریتمهای امنیتی را از طریق حمله به دادههایی که با آن آموزش میبینند و پرچمهای هشدار تعریف شده، خنثی کنند.
باوجوداینکه در جریان برگزاری اجلاس بلکهت، شرکتهای بسیاری نشان میدادند که چگونه از طریق یادگیری ماشینی و هوش مصنوعی امنیت خود را افزایش دادهاند. بعضی از متخصصان نگران این موضوع هستند که فروشندگان، توجه کافی به خطرات مرتبط با این فناوری ندارند. آنچه رخ میدهد کمی نگرانکننده و در بعضی مواقع حتی خطرناک است.
صنعت امنیت، مشتاق الگوریتمهای قابلفهم است. همانگونه که تعداد دستگاههای متصل به اینترنت بهسرعت در حال گسترش است، سونامی حملات سایبری نیز افزایش پیدا میکند. بهطور همزمان نیز کمبود نیروی کار متخصص وجود دارد. با استفاده از یادگیری ماشینی و هوش مصنوعی میتوان تهدیدات را شناسایی و با آنها مقابله کرد و فشار روی کارکنان را کاهش داد.
هماکنون شرکتهای بسیاری محصولات خود را بر پایه یادگیری ماشینی تولید میکنند؛ زیرا فکر میکنند مشتریان در یک چرخهی هایپ از هوش مصنوعی قرار دارند. این خطر وجود دارد که احساس امنیت دروغین به وجود آمده توسط الگوریتمها را نادیده گرفته شود.
بسیاری از محصولاتی که امروزه عرضه میشوند از طریق «یادگیری با نظارت» (supervised learning) آموزش دیدهاند. در این شیوه شرکتها باید حجم عظیمی از دادهها را انتخاب کرده، نشانهگذاری کنند تا الگوریتمها بر اساس آن متوجه شوند کدام کد بدافزار و کدامیک سالم است.
یکی از خطرات این است که تولیدکنندگان برای ورود محصول خود به بازار عجله میکنند؛ به همین علت از دادههایی برای آموزش استفاده خواهد شد که بهصورت کامل از ناهنجاریها پاک نشدهاند. درنتیجه الگوریتمها تعدادی از حملات را شناسایی نخواهند کرد. از طرفی هکری که به سامانههای یک شرکت امنیتی دسترسی پیدا میکنند، میتواند دادهها را با تغییر برچسب آنها خراب کند؛ بنابراین یک کد مخرب بهعنوان یک کد سالم شناخته خواهد شد.
بازیگران بد حتی نیازی به دستکاری دادههای یادشده نیز ندارند. آنها تنها باید ویژگیهایی را که پرچمهای بهکاررفته از آن بهعنوان بدافزار یاد میکنند، از کدهای خود حذف کنند تا کد مخرب آنها دیگر قابلشناسایی نباشد. از طرفی، خطر وابسته بودن بیشازحد به یک الگوریتمِ تنها، در سامانههای امنیتی وجود دارد. این خطر بیان میکند اگر الگوریتم دستکاری شود، هیچ سیگنال دیگری برای مواجهه با مشکل وجود نخواهد داشت.»
همه بر ناامن بودن سامانههای دفاع سایبری مبتنی هوش مصنوعی، اتفاقنظر دارند
طی سالهای اخیر، صحبتهای فراوانی در مورد سامانههای دفاعی مبتنی بر هوش مصنوعی شده است و بسیاری از کشورهای جهان و همچنین شرکتهای بزرگ فناوری، به بهرهبرداری از این سامانه روی آورده یا حداقل در این زمینه، تحقیقاتی را آغاز کردهاند؛ اما نکته مشترک در صحبتهای همه کارشناسان، رشد تهدیدات همزمان با بهکارگیری این سامانهها است.
به باور کارشناسان، بسیاری از بات نتهایی که طی ماههای اخیر، سبب بروز حملات سایبری گسترده به جهان شدهاند، نظیر میرای، واناکرای و چندین مورد دیگر، با استفاده از هوش مصنوعی و یادگیری ماشینی، عملیات خود را به انجام رسانده و با بهرهگیری از ترفندهای معرفیشده توسط این ابزار نوین فناوری، خود را پنهان کردهاند.
بهبیاندیگر، میتوان گفت این ادعا که استفاده از هوش مصنوعی در سامانههای دفاع سایبری، لزوماً به معنای تقویت امنیت در این سامانهها نیست، جملهای است که تمام کارشناسان امنیتی، بر آن اتفاقنظر دارند و تأکید میکنند.
نکتهای که باید در پایان به آن اشاره کرد، این است که سامانههای دفاعی مبتنی بر هوش مصنوعی، ساختهوپرداخته دست بشر هستند و بنابراین، میتوانند توسط هکرهای انسانی، مورد نفوذ قرار بگیرند. از سوی دیگر، این سامانهها میتوانند در اقدامات خصمانه هکری نیز مورد سوءاستفاده قرار بگیرند و حتی با دستکاری هکرها، به جان سامانههایی بیفتند که برای دفاع از آنها، تهیه و تنظیم شدهاند.
این مسئله، بار دیگر استفاده از هوش مصنوعی در سامانههای دفاع سایبری را به شمشیری دو لبه تشبیه میکند که بهصورت همزمان، هم میتواند سبب رشد امنیت شده و هم میتواند به سلاحی مرگبار، علیه امنیت زیرساختها تبدیل شود.