۱۶ اسفند ۱۴۰۲ - ۱۲:۰۱
کد خبر: ۷۴۳۴۴
پژوهشگران امنیتی یک کرم خودهمتاساز هوش مصنوعی ساخته‌اند که می‌تواند با نفوذ به پست الکترونیکی افراد، بدافزار پخش کند و داده‌ها را بدزدد.

به گزارش پایداری ملی به نقل از سیتنا، ایندیپندنت نوشت؛ پژوهشگران امنیتی یک کرم خودهمتاساز هوش مصنوعی ساخته‌اند که قادر است با نفوذ به ایمیل افراد، بدافزار پخش کند و داده‌ها را بدزدد.

این کرم رایانه‌ای با توجه به [نام]نخستین کرم رایانه‌ای که گروه بین‌المللی آمریکایی و رژیم صهیونیستی به قصد برجسته کردن خطر‌های مرتبط با هوش مصنوعی مولد (GenAI) در سال ۱۹۸۸ ساخته بود، موریس ۲ (Morris II) نام گرفت.

این کرم طراحی شده است تا برنامه‌های کاربردی مجهز به هوش مصنوعی را که از ابزار‌های پرطرفداری مانند جمینی (Gemini) گوگل و چت جی‌پی‌تی (ChatGPT) اوپن ای‌آی استفاده می‌کنند، هدف قرار بدهد. این کرم تاکنون برای حمله به دستیار‌های ایمیل مجهز به هوش مصنوعی مولد به منظور سرقت اطلاعات شخصی و راه‌اندازی کارزار‌های ارسال هرزنامه (spam) آزمایش شده است.

پژوهشگران هشدار دادند این کرم نشان‌دهنده نسل جدید «بدافزار صفر [بدون]کلیک» است، چرا که لازم نیست قربانی روی چیزی کلیک کند یا حتی آن را تکثیر کند تا فعالیت مخرب فعال شود. بلکه با عملکرد خودکار ابزار هوش مصنوعی مولد انجام می‌شود.

پژوهشگران نوشتند: «این مطالعه نشان می‌دهد که مهاجمان می‌توانند چنین دستوراتی را به‌عنوان ورودی به مدل‌های هوش مصنوعی مولد بدهند تا مدل را وادار کنند این ورودی را به‌منزله خروجی (تکثیر) تکرار و در فعالیت‌های مخرب (بار محاسباتی/payload) شرکت کند.»

«افزون بر این، ورودی‌ها این عامل [نرم‌افزار یا دستگاه]را وادار می‌کنند با بهره‌برداری از ارتباط درونی اکوسیستم هوش مصنوعی مولد، آن‌ها را به عوامل جدید تحویل بدهد (تکثیر کند).»

این پژوهش در مطالعه‌ای با عنوان «کامپرومایزد (ComPromptMized): پخش کردن کرم‌های صفرکلیک که برنامه‌های کاربردی مبتنی بر هوش مصنوعی مولد را هدف قرار می‌دهد» با جزئیات شرح داده شده است.

پژوهشگران امنیتی از زمان آغاز به کار چت جی‌پی‌تی در سال ۲۰۲۲ به احتمال استفاده هکر‌ها و مجرمان سایبری از برخی عناصر هوش مصنوعی مولد برای حمله اشاره کرده بودند.

قابلیت این فناوری برای تقلید واقع‌گرایانه از متن تولیدی انسان موجب می‌شود افراد غیربومی بتوانند برای تولید پست الکترونیکی و متن‌های جعلی متقاعدکننده، از آن استفاده کنند.

شرکت امنیت سایبری کرادسترایک (CrowdStrike) در گزارش سالانه «تهدید جهانی» (Global Threat Report) خود که ماه گذشته منتشر شد، هشدار داد پژوهشگران فعالانی رخنه‌گر [هک‌تیویست]و فعالانی دولتی را مشاهده کرده‌اند که با ابزار‌هایی مانند چت جی‌پی‌تی آزمایش می‌کنند.

یک نماینده شرکت در پست الکترونیکی به ایندیپندنت نوشت: «هوش مصنوعی مولد [می‌تواند]حملات را عمومی‌سازی و سد ورود عملیات‌های پیچیده‌تر را کوتاه‌تر کند.» احتمالا در سال ۲۰۲۴ از هوش مصنوعی مولد برای فعالیت‌های سایبری استفاده خواهد شد، چون محبوبیت این فناوری همچنان رو به افزایش است.»

گزارش خطا
ارسال نظرات
نام
ایمیل
نظر