۲۱ ارديبهشت ۱۳۹۸ - ۱۱:۰۲
کد خبر: ۴۸۵۷۷
بررسی نظرات کارشناسان بلک هت در مورد به‌کارگیری هوش مصنوعی در دفاع سایبری
این ادعا که استفاده از هوش مصنوعی در سامانه‌های دفاع سایبری، لزوماً به معنای تقویت امنیت در این سامانه‌ها نیست، جمله‌ای است که تمام کارشناسان امنیتی، بر آن اتفاق‌نظر دارند و تأکید می‌کنند
به گزارش پایداری ملی به نقل از پایگاه اطلاع رسانی قرارگاه سایبری کشور (پاپسا)، با توجه به پیشرفت‌های حاصل‌شده در زمینه هوش مصنوعی و به‌کارگیری آن در امنیت سایبری، واژه‌ی یادگیری ماشینی یکی از اصلی‌ترین مفاهیم امنیتی این سال‌ها را دارد؛ اما دشمنی که به‌اندازه‌ی کافی هوشمند باشد، می‌تواند از الگوریتم‌های این فناوری سوءاستفاده کرده و کیفیت تصمیم‌های گرفته شده را کاهش دهد.

به‌عنوان‌مثال یک سازمان ممکن است تصمیم بگیرد از یادگیری ماشینی برای توسعه یک سامانه‌ی خود تشخیصی با قابلیت رفع آسیب‌پذیری‌ها در شبکه‌ی خود استفاده کند؛ اما چه اتفاقی رخ می‌دهد اگر یک مهاجم بتواند به شبکه نفوذ کند؟ یا حتی قبل از شروع پردازش الگوریتم یادشده در شبکه حضور داشته باشد؟

به باور کارشناسان، بهره‌گیری از هوش مصنوعی در توسعه دفاع سایبری، گهگاه می‌تواند خسارات جبران‌ناپذیری برای کشورهای جهان داشته باشد؛ چرا که توسعه آن و وجود حفره‌های امنیتی وصله نشده، سبب می‌شود تا دست هکرها و سوءاستفاده گران نیز در این زمینه باز مانده و بتوانند از چنین موقعیتی برای رسیدن به اهداف خود بهره‌برداری کنند.

بررسی سخنان مطرح‌شده در اجلاس بلک هت ۲۰۱۸، می‌تواند دید واضحی در مورد بهره‌برداری از هوش مصنوعی و مخاطرات آن، در اختیار قرار دهد و اثبات کند که بهره‌گیری از هوش مصنوعی در دفاع سایبری، لزوماً به معنای امن‌تر شدن جهان نخواهد بود.

هوش مصنوعی و یادگیری ماشینی در امنیت سایبری- چرا الگوریتم‌ها خطرناک هستند

رافائل مارتی، کارشناس امنیت سایبری: «در حال حاضر همه‌ی شرکت‌های امنیتی در حال صحبت پیرامون نحوه‌ی به‌کارگیری یادگیری ماشینی هستند؛ اما به‌کارگیری این فناوری بسیار خطرناک است و متأسفانه کارشناسان کورکورانه به الگوریتم‌ها وابسته شده‌اند.

الگوریتم‌های یادگیری، بدون این‌که هیچ‌گونه آگاهی از عملکرد دیگر الگوریتم‌ها و کاربرد آن داشته باشند، ناهنجاری موجود در داده‌ها را جستجو می‌کنند. شرکت‌ها به جای توسعه سامانه‌ای از دانش امنیتی واقعی، الگوریتم‌هایی را به کار می‌گیرند که هیچ شخصی آن‌ها را درک نمی‌کند و بینش‌هایی اشتباه کشف می‌شوند.»

 

Deep Locker- پنهان‌سازی حملات هدفمند و فرار با هوش مصنوعی

مارک استوکلین، کارشناس امنیت سایبری: «امنیت سایبری یک مسابقه‌ی تسلیحاتی است. محلی که مهاجمان و مدافعان به‌صورت پیوسته بازی موش و گربه را انجام می‌دهند. در هر عصر جدیدی از محاسبات، حمله‌کنندگان، قابلیت‌ها و آسیب‌پذیری‌های تازه‌ای را به‌منظور انجام اعمال خرابکارانه‌ی خود به کار می‌گیرند.

در عصر رایانه‌های شخصی، تهدیدات بدافزاری از سوی کرم‌ها و ویروس‌ها به وجود آمد که صنعت امنیت از طریق نرم‌افزار ضدویروس با آن مقابله کرد. در عصر وب، حملاتی مانند CSRF و XSS شکل گرفت و برنامه‌های کاربردی این بستر را به چالش کشید. هم‌اکنون انسان‌ها در عصر «ابر، تجزیه‌وتحلیل، تلفن همراه و رسانه‌های اجتماعی» (CAMS) 
[۱]
قرار دارند. در این عصر، تهدیدات پیشرفته‌ی پایدار (APT)، ذهن مدیران ارشد اطلاعاتی و امنیتی را به خود مشغول ساخته است.

انسان‌ها در معرض نسل جدیدی قرار دارند. دوره‌ی هوش مصنوعی. یادگیری ماشینی و هوش مصنوعی، پیشرفت عظیم بعدی در فناوری اطلاعات محسوب می‌شود. باوجوداین، مجرمان سایبری در حال فراگیری شیوه‌ی بهره‌مندی از هوش مصنوعی برای کسب برتری و تبدیل آن به سلاح هستند. هوش مصنوعی چگونه حملات سایبری را متحول می‌کند؟ ویژگی‌های حملات بر پایه‌ی هوش مصنوعی چیست؟ و چگونه می‌توان به مقابله با آن‌ها پرداخت؟

مرکز IBM Research، به‌منظور شناسایی و پیش‌بینی تهدیدات جدید و مقابله با مجرمان سایبری، به‌طور مداوم در حال بررسی تکامل فناوری‌ها، قابلیت‌ها و روشی‌های مختلف است. درنتیجه محققان یادشده، نسل جدیدی از ابزارهای بسیار هدفمند و غیرقابل‌شناسایی حملات به نام Deep Locker را به وجود آورند که بر پایه‌ی هوش مصنوعی عمل می‌کند.

هدف از ایجاد Deep Locker بررسی این موضوع بود که چگونه می‌توان با ترکیب مدل‌های هوش مصنوعی و بدافزارهای موجود، نسل تازه‌ای نرم‌افزارهای مخرب را به وجود آورد. این رده از بدافزارهای مجهز به هوش مصنوعی تا زمانی که به یک هدف خاص برسند خود را پنهان می‌سازند و به‌محض این‌که چهره، موقعیت جغرافیایی و صدای هدف را تشخص دهد، اقدامات خود را آغاز خواهد کرد.

حمله‌ی یادشده را می‌توان در مقابل بدافزارهای سنتی که شیوه‌ی «اسپری کن و به دعا بپرداز» قرار داد. بدافزار Deep Locker، برای مخفی ماندن طراحی‌شده است. زمانی که در محدوده‌ی رادار قرار دارد، از عملیات تشخیص خودداری می‌کند تا هنگامی‌که در لحظه‌ای دقیق، هدف خود را به رسمیت بشناسد. این‌گونه بدافزارها بسیار خطرناک هستند؛ زیرا همانند نرم‌افزارهای مخرب دولتی، می‌توانند بدون شناسایی شدن، میلیون‌ها سیستم را آلوده کنند؛ اما برخلاف آن امکان حضور در هر دو حوزه‌ی غیرنظامی و تجاری را دارند. باوجوداینکه در طول تاریخ بدافزارهای بسیاری به مانند Deep Locker سعی در پنهان‌سازی و گریز از نرم‌افزارهای ضد بدافزار را داشتند؛ اما هیچ‌یک از آن‌ها از به‌اندازه‌ی نمونه‌ی جدید تولیدشده، توانایی نداشتند.

بدافزار Deep Lockerمی‌تواند برای جلوگیری از شناسایی شدن توسط بیشتر آنتی‌ویروس‌ها، خود را در یک نرم‌افزار آلوده مانند برنامه ویدئو کنفرانس پنهان سازد. چیزی که آن را خاص می‌کند، به‌کارگیری هوش مصنوعی برای راه‌اندازی نوعی حمله است که تقریباً امکان مهندسی معکوس آن وجود ندارد. همچنین تنها در صورتی کار خود را آغاز می‌کند که به هدف از پیش تعیین‌شده برسد. سپس شبکه‌ی عصبی موجود کلید موردنیاز برای شروع حمله را تولید می‌کند. به همین دلیل تقریباً غیرممکن است که کارشناسان بتوانند همه‌ی حالت‌های هوش مصنوعی را ارزیابی کرده، با مهندسی معکوس آن، قادر به درکش باشند.

تصور کنید نرم‌افزار کنفرانس ویدئویی یادشده که قابل‌اجرا روی طیف وسیعی از سیستم‌عامل‌ها است، توسط میلیون‌ها نفر از سراسر جهان دانلود شود. پس از نصب به شیوه‌ی عادی کار خود را انجام می‌دهد؛ اما به‌صورت هم‌زمان از طریق دوربین دستگاه تصویری را مخاطبان گرفته، به هوش مصنوعی می‌دهد. درنهایت نیز تنها زمانی عمل می‌کند که هدف خود را شناسایی کرده، به وی حمله می‌کند. جامعه‌ی امنیتی، باید خود را برای مقابله با سطح جدیدی از حملات مجهز به هوش مصنوعی آماده کند. جامعه نمی‌تواند به‌عنوان صنعت صبر کند تا حملات خود را نشان داده، سپس آماده‌سازی‌های دفاعی را آغاز کنند.»


اندازه‌گیری سرعت رقابت Red Queen؛ انطباق و گریز در بدافزار

ریچارد هارنگ، کارشناس امنیت سایبری: «امنیت یک بازی موش و گربه‌ی دائمی بین افرادی است که سعی دارند از بدافزارهای نوآورانه بهره بگیرند و آن‌هایی که سعی دارند با شناسایی رفتارهای مخرب، آن‌ها را متوقف کنند.

معرفی مدل‌های آماری یادگیری ماشینی در این مسابقه‌ی تسلیحاتی کمک می‌کند تا سؤال جالبی موردبررسی قرار گیرد. یک بدافزار در پاسخ به فشارهای اعمال‌شده از سوی متخصصان امنیتی، با چه سرعتی به روز می‌شود؟ توانایی‌های الگوریتم‌های یادگیری ماشینی به‌منظور شناسایی بدافزار هم‌اکنون شناخته شده است.»

 محافظت از حفاظت تقویت‌شده با یادگیری ماشینی در برابر حملات خصمانه

هالی استوارت، کارشناس امنیت سایبری: «یادگیری ماشینی و هوش مصنوعی می‌توانند به حفاظت در برابر حملات سایبری کمک کنند؛ اما هکرها قادر هستند الگوریتم‌های امنیتی را از طریق حمله به داده‌هایی که با آن آموزش می‌بینند و پرچم‌های هشدار تعریف شده، خنثی کنند.

باوجوداینکه در جریان برگزاری اجلاس بلک‌هت، شرکت‌های بسیاری نشان می‌دادند که چگونه از طریق یادگیری ماشینی و هوش مصنوعی امنیت خود را افزایش داده‌اند. بعضی از متخصصان نگران این موضوع هستند که فروشندگان، توجه کافی به خطرات مرتبط با این فناوری ندارند. آنچه رخ می‌دهد کمی نگران‌کننده و در بعضی مواقع حتی خطرناک است.

صنعت امنیت، مشتاق الگوریتم‌های قابل‌فهم است. همان‌گونه که تعداد دستگاه‌های متصل به اینترنت به‌سرعت در حال گسترش است، سونامی حملات سایبری نیز افزایش پیدا می‌کند. به‌طور هم‌زمان نیز کمبود نیروی کار متخصص وجود دارد. با استفاده از یادگیری ماشینی و هوش مصنوعی می‌توان تهدیدات را شناسایی و با آن‌ها مقابله کرد و فشار روی کارکنان را کاهش داد.

هم‌اکنون شرکت‌های بسیاری محصولات خود را بر پایه یادگیری ماشینی تولید می‌کنند؛ زیرا فکر می‌کنند مشتریان در یک چرخه‌ی هایپ از هوش مصنوعی قرار دارند. این خطر وجود دارد که احساس امنیت دروغین به وجود آمده توسط الگوریتم‌ها را نادیده گرفته شود.

بسیاری از محصولاتی که امروزه عرضه می‌شوند از طریق «یادگیری با نظارت» (supervised learning) آموزش دیده‌اند. در این شیوه شرکت‌ها باید حجم عظیمی از داده‌ها را انتخاب کرده، نشانه‌گذاری کنند تا الگوریتم‌ها بر اساس آن متوجه شوند کدام کد بدافزار و کدام‌یک سالم است.

یکی از خطرات این است که تولیدکنندگان برای ورود محصول خود به بازار عجله می‌کنند؛ به همین علت از داده‌هایی برای آموزش استفاده خواهد شد که به‌صورت کامل از ناهنجاری‌ها پاک نشده‌اند. درنتیجه الگوریتم‌ها تعدادی از حملات را شناسایی نخواهند کرد. از طرفی هکری که به سامانه‌های یک شرکت امنیتی دسترسی پیدا می‌کنند، می‌تواند داده‌ها را با تغییر برچسب آن‌ها خراب کند؛ بنابراین یک کد مخرب به‌عنوان یک کد سالم شناخته خواهد شد.

بازیگران بد حتی نیازی به دست‌کاری داده‌های یادشده نیز ندارند. آن‌ها تنها باید ویژگی‌هایی را که پرچم‌های به‌کاررفته از آن به‌عنوان بدافزار یاد می‌کنند، از کدهای خود حذف کنند تا کد مخرب آن‌ها دیگر قابل‌شناسایی نباشد. از طرفی، خطر وابسته بودن بیش‌ازحد به یک الگوریتمِ تنها، در سامانه‌های امنیتی وجود دارد. این خطر بیان می‌کند اگر الگوریتم دست‌کاری شود، هیچ سیگنال دیگری برای مواجهه با مشکل وجود نخواهد داشت.»

 همه بر ناامن بودن سامانه‌های دفاع سایبری مبتنی هوش مصنوعی، اتفاق‌نظر دارند

طی سال‌های اخیر، صحبت‌های فراوانی در مورد سامانه‌های دفاعی مبتنی بر هوش مصنوعی شده است و بسیاری از کشورهای جهان و همچنین شرکت‌های بزرگ فناوری، به بهره‌برداری از این سامانه روی آورده یا حداقل در این زمینه، تحقیقاتی را آغاز کرده‌اند؛ اما نکته مشترک در صحبت‌های همه کارشناسان، رشد تهدیدات هم‌زمان با به‌کارگیری این سامانه‌ها است.

به باور کارشناسان، بسیاری از بات نت‌هایی که طی ماه‌های اخیر، سبب بروز حملات سایبری گسترده به جهان شده‌اند، نظیر میرای، واناکرای و چندین مورد دیگر، با استفاده از هوش مصنوعی و یادگیری ماشینی، عملیات خود را به انجام رسانده و با بهره‌گیری از ترفندهای معرفی‌شده توسط این ابزار نوین فناوری، خود را پنهان کرده‌اند.

به‌بیان‌دیگر، می‌توان گفت این ادعا که استفاده از هوش مصنوعی در سامانه‌های دفاع سایبری، لزوماً به معنای تقویت امنیت در این سامانه‌ها نیست، جمله‌ای است که تمام کارشناسان امنیتی، بر آن اتفاق‌نظر دارند و تأکید می‌کنند.

نکته‌ای که باید در پایان به آن اشاره کرد، این است که سامانه‌های دفاعی مبتنی بر هوش مصنوعی، ساخته‌وپرداخته دست بشر هستند و بنابراین، می‌توانند توسط هکرهای انسانی، مورد نفوذ قرار بگیرند. از سوی دیگر، این سامانه‌ها می‌توانند در اقدامات خصمانه هکری نیز مورد سوءاستفاده قرار بگیرند و حتی با دست‌کاری هکرها، به جان سامانه‌هایی بیفتند که برای دفاع از آن‌ها، تهیه و تنظیم شده‌اند.

این مسئله، بار دیگر استفاده از هوش مصنوعی در سامانه‌های دفاع سایبری را به شمشیری دو لبه تشبیه می‌کند که به‌صورت هم‌زمان، هم می‌تواند سبب رشد امنیت شده و هم می‌تواند به سلاحی مرگبار، علیه امنیت زیرساخت‌ها تبدیل شود.



[۱] - cloud, analytics, mobile and social

گزارش خطا
ارسال نظرات
نام
ایمیل
نظر