
به گزارش پایگاه خبری پایداری ملی، این نقص به مهاجم اجازه میداد بدون کلیک کاربر روی لینک، باز کردن فایل یا هر اقدام آگاهانه دیگر، کنترل کامل گفتوگوهای او را در چتجیپیتی به دست گیرد، اهداف مکالمه را تغییر دهد و حتی به جای کاربر با هوش مصنوعی تعامل کند.
در کنفرانس امنیتی «بلکهت ۲۰۲۵» نشان داده شد که یک هکر میتواند تنها با دانستن آدرس ایمیل کاربر، این فرایند را آغاز کند و از چتجیپیتی بهعنوان یک عامل مخرب پنهان علیه خود کاربر بهره بگیرد، بدون آنکه کاربر از وقوع نفوذ مطلع شود.
این افشاگری نگرانیها درباره امنیت پلتفرمهای هوش مصنوعی را تشدید کرده است. کارشناسان میگویند ماهیت متصل و مبتنی بر داده این ابزارها، آنها را به اهداف جذابی برای هکرها و بازیگران بدخواه تبدیل میکند. با توجه به آنکه کاربران روزانه حجم زیادی از اطلاعات شخصی، حرفهای و حتی محرمانه را در تعامل با چتباتها وارد میکنند، هرگونه نفوذ میتواند پیامدهای جدی در حوزه حریم خصوصی و امنیت اطلاعات به همراه داشته باشد.
برخی متخصصان امنیت سایبری هشدار میدهند که پلتفرمهای هوش مصنوعی، بهویژه آنهایی که با ابزارهای شخصیسازی و اتصال به سیستمهای خارجی کار میکنند، نیازمند استانداردهای امنیتی سختگیرانهتری هستند. این استانداردها باید شامل ارزیابیهای دورهای آسیبپذیری، رمزنگاری پیشرفته دادهها، محدودیتهای دسترسی و آموزش کاربران برای شناسایی تهدیدات احتمالی باشد.
علاوه بر این، نگرانیهایی نیز درباره امکان استفاده از هوش مصنوعی بهعنوان ابزاری برای انجام حملات هماهنگ، انتشار اطلاعات نادرست یا حتی جاسوسی صنعتی مطرح شده است. در این زمینه، متخصصان بر ضرورت همکاری بینالمللی میان شرکتهای فناوری، دولتها و نهادهای نظارتی برای تدوین چارچوبهای مشترک امنیتی تاکید میکنند.
به گفته کارشناسان، مورد اخیر چتجیپیتی نشان داد که حتی پیشرفتهترین سیستمهای هوش مصنوعی نیز از خطرات سایبری در امان نیستند و حفاظت از کاربران باید همزمان با گسترش قابلیتها و کاربردهای این فناوری، در اولویت قرار گیرد.