به گزارش پایداری ملی به نقل از خبرگزاری صدا و سیما، به نقل از گجتنو، تحقیقات جدید نشان میدهد که مجرمان سایبری از ChatGPT متعلق به مایکروسافت برای ایجاد باتهای تلگرامی استفاده میکنند که میتوانند بدافزار بنویسند و دادههای کاربران را بدزدند.
در حال حاضر، اگر از ChatGPT بخواهید ایمیل فیشینگ با جعل هویت یک بانک بنویسد یا بدافزار ایجاد کنداین کار را نخواهد کرد. با این حال، هکرها در حال دور زدن محدودیتهای ChatGPT هستند و یک گفت وگوی فعال در انجمنهای زیرزمینی وجود دارد که نحوه استفاده از OpenAI API برای دور زدن موانع و محدودیتهای ChatGPT را نشان میدهد.
طبق تحقیقات شرکت CheckPoint Research (CPR) این کار بیشتر با ایجاد رباتهای تلگرامی استفاده کننده از API انجام میشود. این شرکت امنیت سایبری قبلاً کشف کرده بود که از سال ۲۰۱۹ مجرمان سایبری از ChatGPT برای بهبود کدگذاری بدافزار اصلی Infostealer استفاده میکنند.
بحثها و تحقیقات زیادی در مورد اینکه چگونه مجرمان سایبری از پلتفرم OpenAI، بهویژه ChatGPT، برای تولید محتوای مخرب مانند ایمیلهای فیشینگ و بدافزارها استفاده میکنند؛ انجام شده است.
نسخه فعلی API OpenAI توسط برنامههای خارجی استفاده میشود و اقدامات ضد سوء استفاده بسیار کمی دارد. در نتیجه، امکان ایجاد محتوای مخرب مانند ایمیلهای فیشینگ و کدهای بدافزار را بدون محدودیتها یا موانعی که ChatGPT بر روی رابط کاربری خود دارد، میدهد.
شرکت CPR در یک انجمن زیرزمینی، مجرم سایبری را پیدا کرد که سامانه جدیدی را تبلیغ میکرد؛ یک ربات تلگرام با استفاده از OpenAI API بدون هیچ محدودیتی. محققان خاطرنشان کردند که مجرم سایبری اسکریپتی اساسی ایجاد کرده است که از OpenAI API برای دور زدن محدودیتهای ضد سوء استفاده بهره میبرد.
مجرمان سایبری بیشتر به ChatGPT علاقه مند میشوند، زیرا فناوری هوش مصنوعی پشت آن میتواند هک را مقرون به صرفهتر کند.