۳۰ تير ۱۴۰۴ - ۱۴:۳۰
کد خبر: ۷۷۲۳۶

هوش مصنوعی چگونه به ابزار قتل تبدیل می‌‎شود؟

از قرارداد‌های میلیاردی پنتاگون با OpenAI و xAI تا سامانه‌های اسرائیلی که هزاران فلسطینی را بدون تأیید انسانی هدف قرار دادند؛ هوش مصنوعی حالا به مرگبارترین سلاح قرن تبدیل شده است.

به گزارش پایگاه خبری پایداری ملی به نقل از ایمنا، در سال‌های اخیر، کاربرد هوش مصنوعی (AI) در حوزه نظامی به‌طور چشمگیری افزایش پیدا کرده است، این فناوری به‌خصوص در زمینه‌هایی همچون شناسایی اهداف، تحلیل داده‌های اطلاعاتی و تصمیم‌گیری‌های رزمی به کار گرفته می‌شود، با این حال استفاده از AI در جنگ‌ها و عملیات نظامی، نگرانی‌های جدی اخلاقی و حقوقی را ایجاد کرده است؛ یکی از مسائل اساسی در این زمینه، ماهیت «دوگانه» فناوری‌های AI است، این فناوری‌ها قابلیت استفاده در حوزه‌های غیرنظامی و نظامی را دارند و همین موضوع مرز بین کاربرد‌های مشروع و نامشروع آنها را مبهم می‌کند و امکان سوءاستفاده را افزایش می‌دهد. برای مثال، به‌کارگیری مدل‌های عمومی AI همچون GPT و Grok در عملیات نظامی می‌تواند به تصمیم‌گیری‌های نادرست و آسیب به غیرنظامیان منجر شود، از سوی دیگر، به‌کارگیری AI در جنگ‌ها ممکن است موجب کاهش نقش انسان در فرایند تصمیم‌گیری شود، این مسئله می‌تواند مسئولیت‌پذیری در قبال اقدامات نظامی را تضعیف کند و احتمال وقوع اشتباهات و نقض حقوق بشر را افزایش دهد، برخی پژوهشگران هشدار داده‌اند که استفاده از AI بدون نظارت انسانی کافی، می‌تواند احتمال هدف‌گیری غیرنظامیان و نقض قوانین بشردوستانه بین‌المللی را بالا ببرد.

در این راستا، برخی کشور‌ها و سازمان‌های بین‌المللی اقدام به تدوین اصول و چارچوب‌های اخلاقی برای کاربرد AI در حوزه نظامی کرده‌اند. به‌عنوان نمونه، وزارت دفاع آمریکا در سال ۲۰۱۸ اصول اخلاقی استفاده از AI در حوزه نظامی را تصویب کرد که شامل مسئولیت‌پذیری، قابلیت درک و تبیین عملکرد، انصاف، قابلیت اطمینان و حفظ ایمنی می‌شود. همچنین، بیش از ۵۰ کشور عضو سازمان همکاری اقتصادی و توسعه (OECD) بیانیه‌ای در خصوص مسئولیت‌پذیری در استفاده نظامی از AI امضا کرده‌اند؛ با این حال برخی کارشناسان معتقدند که این اصول و چارچوب‌ها کافی نیستند و نیازمند نظارت و مقررات بین‌المللی مؤثرتری برای جلوگیری از سوءاستفاده از AI در جنگ‌ها هستیم؛ آنها بر ضرورت ایجاد توافقات الزام‌آور بین‌المللی برای محدود کردن کاربرد AI در عملیات نظامی و جلوگیری از توسعه سلاح‌های خودمختار کشنده تأکید می‌کنند، استفاده از AI در حوزه نظامی نیازمند رویکردی متوازن است که ضمن بهره‌برداری از مزایای فناوری، مخاطرات و چالش‌های آن را نیز لحاظ کند، توسعه و اجرای اصول اخلاقی، نظارت مؤثر و همکاری‌های بین‌المللی می‌تواند زمینه استفاده مسئولانه و انسانی از AI در جنگ‌ها را فراهم کند.

زینب اصغریان استاد دانشگاه با اشاره به اهداف کلان وزارت دفاع آمریکا اظهار کرد: وزارت دفاع آمریکا به‌طور رسمی هدف خود را از همکاری با شرکت‌های هوش مصنوعی، افزایش «سرعت تصمیم‌گیری رزمی»، «پیش‌بینی‌پذیری تهدیدات» و «کاهش خطای انسانی» در محیط‌های جنگی اعلام کرده است، این امر بخشی از برنامه کلان موسوم به «فرماندهی و کنترل همه دامنه مشترک» یا JADC۲ است که تلاش دارد یک شبکه منسجم از داده، تحلیل و اقدام در میدان نبرد ایجاد کند، به گفته مؤسسه بروکینگز، وزارت دفاع در سال ۲۰۲۳ بیش از ۹۵ درصد بودجه هوش مصنوعی دولت فدرال را دریافت کرده است، از دیگر اهداف پنتاگون، کاهش هزینه‌های دفاعی از طریق خودکارسازی فرایند‌ها و رقابت مؤثر با چین در زمینه تسلیحات هوشمند است، گزارش «کمیسیون ملی امنیت و هوش مصنوعی آمریکا» (NSCAI) در سال ۲۰۲۱ تصریح می‌کند که تسلط بر هوش مصنوعی «عنصر کلیدی پیروزی در رقابت راهبردی با چین» خواهد بود.

وی درباره نقش شرکت‌های خصوصی هوش مصنوعی افزود: شرکت OpenAI، توسعه‌دهنده مدل‌های زبانی همچون GPT-۴، قراردادی ۲۰۰ میلیون دلاری با وزارت دفاع آمریکا برای ارائه نسخه‌های سفارشی‌شده مدل‌های خود در قالب برنامه «OpenAI برای حکومت» امضا کرده است. این برنامه شامل تولید ابزار‌هایی برای تحلیل اطلاعات طبقه‌بندی‌شده، استخراج الگو‌های تهدید، و پشتیبانی از فرماندهان میدانی در تصمیم‌گیری است، در طرف دیگر، شرکت xAI به رهبری ایلان ماسک، مدل «Grok برای حکومت» را توسعه داده است، این مدل که بر پایه نسخه چهارم Grok (Grok-۴) ساخته شده، به تحلیل فوری داده‌های حسگر، سیگنال‌های جنگ الکترونیک و استخراج توصیه‌های تاکتیکی در محیط‌های رزمی می‌پردازد. منابعی همچون رویترز و PC Gamer، تأیید می‌کنند که xAI نیز قراردادی مشابه ۲۰۰ میلیون دلاری با وزارت دفاع منعقد کرده است.

این استاد دانشگاه، به موضوع چارچوب‌های نظارتی پرداخت و گفت: وزارت دفاع آمریکا در سال ۲۰۱۸ اصول اخلاقی کاربرد AI در حوزه نظامی را تصویب کرد، این اصول شامل پنج بند کلیدی‌اند: مسئولیت‌پذیری، قابلیت درک و تبیین عملکرد، انصاف، قابلیت اطمینان آسیب نرساندن غیرضروری، در سطح عملیاتی که پنتاگون از چارچوبی سنجش و ارزیابی موسوم به «Assurance Framework» استفاده می‌کند که به گفته مؤسسه RAND، ارزیابی‌های بر پایه شواهد فنی را در چرخه عمر سیستم تضمین می‌کند، همچنین اسناد قانونی همچون قانون مجوز دفاع ملی «National Defense Authorization Act (NDAA) ۲۰۲۱» و دستور اجرایی رئیس‌جمهور در اکتبر ۲۰۲۳، سازوکار‌های نظارت مستقل و گزارش‌دهی شفاف برای پروژه‌های AI نظامی را الزام‌آور کرده‌اند و در سطح بین‌المللی، ایالات متحده یکی از امضاءکنندگان بیانیه مسئولیت‌پذیری در استفاده نظامی از AI با حضور ۵۱ کشور عضو OECD است.

اصغریان درباره چالش‌های اخلاقی و حقوقی گفت: استفاده از AI در تصمیم‌گیری‌های مرگ‌بار، مناقشات گسترده‌ای در حوزه اخلاق جنگ ایجاد کرده است. به گفته دیده‌بانی حقوق بشر، حذف یا کاهش حلقه انسانی در فرایند شناسایی و انهدام هدف، نقض اصول بنیادین حقوق بشردوستانه تلقی می‌شود، مدل‌های AI عمومی نظیر GPT و Grok ماهیت «دو منظوره» (dual-use) دارند؛ به‌گونه‌ای که نمی‌توان به‌روشنی مرز میان کاربرد غیرنظامی و نظامی آنها را مشخص کرد. مؤسسه CSET وابسته به دانشگاه جورج‌تاون هشدار داده است که این وضعیت، زمینه‌ساز نشت فناوری و نقض رژیم کنترل صادرات خواهد بود.

وی به پیامد‌های گسترده نظامی‌سازی هوش مصنوعی اشاره کرد و بیان کرد: شورای روابط خارجی آمریکا معتقد است سرعت بی‌سابقه در توسعه سلاح‌های م برپایه هوش مصنوعی توسط آمریکا، چین و روسیه، نشان‌دهنده شکل‌گیری یک رقابت تسلیحاتی فناورانه است. تحلیل شورای روابط خارجی آمریکا (CFR) هشدار می‌دهد که نبود چارچوب‌های بین‌المللی الزام‌آور، می‌تواند به وضعیتی مشابه جنگ سرد منجر شود، با توجه به تحولات پرشتاب جهانی، ایران باید راهبرد‌های دفاعی خود را به‌ویژه در حوزه دفاع شناختی بازنگری کند؛ زیرا در نبرد‌های آینده، برتری نه به‌صرف با سلاح، بلکه با داده، تحلیل و سرعت تصمیم‌گیری خواهد بود.

این استاد دانشگاه به موضوع «خصوصی‌سازی جنگ»، شباهت فنی میان سامانه‌های رژیم‌صهیونیستی در غزه و پروژه‌های هوش مصنوعی وزارت دفاع آمریکا، و در نهایت پیامد‌های راهبردی برای جمهوری اسلامی ایران اشاره و عنوان کرد: مشارکت شرکت‌های خصوصی در امنیت ملی، خطر «خصوصی‌سازی جنگ» و تضاد منافع میان سود تجاری و اصول انسانی را تشدید می‌کند، بنیاد New America در این زمینه هشدار می‌دهد که این وضعیت، دموکراسی و نظارت مدنی را تضعیف می‌سازد، مطالعات میدانی نشان می‌دهد که ارتش رژیم صهیونیستی در حملات به غزه از سیستم‌هایی به نام Lavender و Gospel برای شناسایی و انهدام اهداف انسانی استفاده کرده است.»

اصغریان توضیح داد: در روزنامه فرانسوی لوموند نوشت شده است که سامانه Lavender، با تحلیل داده‌های تماس، موقعیت مکانی و شبکه‌های اجتماعی، لیستی از ۳۷٬۰۰۰ مرد فلسطینی به‌عنوان مظنون تولید کرده بود. این لیست بدون راستی‌آزمایی دقیق انسانی، به عملیات هوایی تبدیل می‌شد، سامانه Gospel نیز داده‌های تصویری را برای رهگیری فرماندهان مقاومت در منازلشان استفاده می‌کرد. پروژه‌ای با عنوان «?Where’s Daddy» (پدر کجاست؟) اهداف را زمانی که در خانه بودند، مورد حمله قرار می‌داد.

وی به مقایسه میان سیستم‌های رژیم‌صهیونیستی و سامانه‌های هوش مصنوعی آمریکایی پرداخت و گفت: تحلیل تطبیقی میان سامانه‌های Lavender و Gospel با مدل‌های توسعه‌یافته توسط OpenAI و xAI حاکی از هم‌گرایی در چند حوزه است؛ حوزه نخست تحلیل داده‌های انبوه غیرساختاریافته که هر دو از داده‌های تماس، مکانی و رفتاری برای پیش‌بینی تهدید استفاده می‌کنند؛ دوم تصمیم‌سازی خودکار یا نیمه‌خودکار: است که خروجی سیستم به‌عنوان مبنای عملیات نظامی قرار می‌گیرد که بدون بررسی عمیق انسانی انجام می‌شود؛ سوم کاهش نقش انسان در حلقه تصمیم‌گیری مشابه آنچه RAND در پروژه‌های وزارت دفاع ایالات متحده آمریکا نسبت به آن هشدار داده است. چهارم پیش‌بینی تهدید بر اساس همبستگی آماری، نه شواهد حقوقی همان ضعف ساختاری که به قتل احتمالی غیرنظامیان در غزه منجر شد. پنجم مقیاس‌پذیری بالا است که هدف آن، تولید سریع و بلادرنگ اهداف ضربتی در مقیاس بزرگ است؛ مشابه آنچه پنتاگون در سند «Data Advantage» (مزیت اطلاعات) به آن تصریح کرده است.

این استاد دانشگاه گفت: با توجه به تحولات فوق، ایران برای حفظ بازدارندگی مؤثر و تأمین امنیت ملی در قرن بیست‌ویکم، ناگزیر است دکترین دفاعی خود را به‌صورت فوری و در سه محور بازطراحی کند. محور نخست شامل توسعه سامانه بومی تحلیل اطلاعات پهپادی است که توانایی پردازش فوری تصاویر ویدئویی را داشته باشد. محور دوم طراحی مدل زبانی فارسی ویژه امنیت ملی به منظور تحلیل اسناد طبقه‌بندی‌شده و حمایت از فرماندهی میدانی است، محور سوم نیز ایجاد ساختار فرماندهی ترکیبی انسان‌ماشین به منظور تسریع در تصمیم‌گیری‌های بحرانی به شمار می‌رود.

اصغریان تصریح کرد: ورود هوش مصنوعی به ساختار نظامی آمریکا بدون تردید آغازگر عصری نوین در راهبرد‌های جنگی است، با این حال در غیاب چارچوب‌های اخلاقی قوی، شفافیت نهادی و نظارت حقوقی مؤثر، این تحولات می‌توانند تهدیدی جدی برای امنیت بین‌المللی و حقوق بشر به شمار روند. از این رو، ایران باید این تغییرات را تنها از منظر فناوری مشاهده نکند، بلکه آنها را به‌عنوان نشانه‌ای از تحول در قواعد بازی جهانی بپذیرد، تأخیر در سازگاری با نظم فناورانه جدید به معنای عقب‌ماندگی راهبردی در سطوح حیاتی ملی خواهد بود. البته برخلاف ادعا‌های ظاهری اخلاق‌مدارانه آمریکا، ایران به‌طورقطع اخلاق‌مدارانه عمل خواهد کرد و هرگز اجازه نخواهد داد فناوری جایگزین تصمیم‌گیری انسانی شود.

در عصر حاضر، هوش مصنوعی (AI) به‌عنوان یک فناوری دوگانه، هم در حوزه‌های غیرنظامی و هم در نظامی، به‌طور فزاینده‌ای در حال گسترش است. این ویژگی دوگانه، چالش‌های جدیدی را در زمینه‌های اخلاقی، حقوقی و امنیتی به‌وجود آورده است. در سطح بین‌المللی، فقدان یک چارچوب حکمرانی جامع برای استفاده از AI در حوزه نظامی، موجب ایجاد خلاء‌های نظارتی و افزایش خطرات ناشی از سوءاستفاده‌های احتمالی شده است؛ در ایالات متحده، وزارت دفاع با هدف افزایش سرعت تصمیم‌گیری رزمی، پیش‌بینی تهدیدات و کاهش خطای انسانی، به‌طور گسترده‌ای از AI در عملیات‌های نظامی استفاده می‌کند، این امر با امضای قرارداد‌هایی با شرکت‌های خصوصی همچون OpenAI و xAI، به‌منظور توسعه مدل‌های هوش مصنوعی سفارشی برای تحلیل اطلاعات طبقه‌بندی‌شده و پشتیبانی از فرماندهی میدانی، همراه بوده است، با این حال استفاده از این فناوری‌ها بدون نظارت انسانی کافی، نگرانی‌هایی را در مورد مسئولیت‌پذیری و احتمال نقض حقوق بشر به‌وجود آورده است، در سطح بین‌المللی، در حالی که برخی کشور‌ها به تدوین اصول اخلاقی برای استفاده از AI در حوزه نظامی پرداخته‌اند، اما هنوز چارچوب‌های الزام‌آور و نظارت مؤثری برای جلوگیری از سوءاستفاده‌های احتمالی وجود ندارد، به عنوان نمونه بیانیه مسئولیت‌پذیری در استفاده نظامی از AI که توسط ۵۱ کشور امضا شده است، بیشتر جنبه توصیه‌ای دارد و فاقد سازوکار‌های اجرایی مؤثر است، استفاده از AI در حوزه نظامی نیازمند رویکردی متوازن است که ضمن بهره‌برداری از مزایای این فناوری، خطرات و چالش‌های آن را نیز در نظر بگیرد. توسعه و اجرای اصول اخلاقی، نظارت مؤثر، و همکاری‌های بین‌المللی می‌تواند به استفاده مسئولانه و انسانی از AI در جنگ‌ها کمک کند.

گزارش خطا
ارسال نظرات
نام
ایمیل
نظر