
به گزارش پایگاه خبری پایداری ملی به نقل از ایمنا، در سالهای اخیر، کاربرد هوش مصنوعی (AI) در حوزه نظامی بهطور چشمگیری افزایش پیدا کرده است، این فناوری بهخصوص در زمینههایی همچون شناسایی اهداف، تحلیل دادههای اطلاعاتی و تصمیمگیریهای رزمی به کار گرفته میشود، با این حال استفاده از AI در جنگها و عملیات نظامی، نگرانیهای جدی اخلاقی و حقوقی را ایجاد کرده است؛ یکی از مسائل اساسی در این زمینه، ماهیت «دوگانه» فناوریهای AI است، این فناوریها قابلیت استفاده در حوزههای غیرنظامی و نظامی را دارند و همین موضوع مرز بین کاربردهای مشروع و نامشروع آنها را مبهم میکند و امکان سوءاستفاده را افزایش میدهد. برای مثال، بهکارگیری مدلهای عمومی AI همچون GPT و Grok در عملیات نظامی میتواند به تصمیمگیریهای نادرست و آسیب به غیرنظامیان منجر شود، از سوی دیگر، بهکارگیری AI در جنگها ممکن است موجب کاهش نقش انسان در فرایند تصمیمگیری شود، این مسئله میتواند مسئولیتپذیری در قبال اقدامات نظامی را تضعیف کند و احتمال وقوع اشتباهات و نقض حقوق بشر را افزایش دهد، برخی پژوهشگران هشدار دادهاند که استفاده از AI بدون نظارت انسانی کافی، میتواند احتمال هدفگیری غیرنظامیان و نقض قوانین بشردوستانه بینالمللی را بالا ببرد.
در این راستا، برخی کشورها و سازمانهای بینالمللی اقدام به تدوین اصول و چارچوبهای اخلاقی برای کاربرد AI در حوزه نظامی کردهاند. بهعنوان نمونه، وزارت دفاع آمریکا در سال ۲۰۱۸ اصول اخلاقی استفاده از AI در حوزه نظامی را تصویب کرد که شامل مسئولیتپذیری، قابلیت درک و تبیین عملکرد، انصاف، قابلیت اطمینان و حفظ ایمنی میشود. همچنین، بیش از ۵۰ کشور عضو سازمان همکاری اقتصادی و توسعه (OECD) بیانیهای در خصوص مسئولیتپذیری در استفاده نظامی از AI امضا کردهاند؛ با این حال برخی کارشناسان معتقدند که این اصول و چارچوبها کافی نیستند و نیازمند نظارت و مقررات بینالمللی مؤثرتری برای جلوگیری از سوءاستفاده از AI در جنگها هستیم؛ آنها بر ضرورت ایجاد توافقات الزامآور بینالمللی برای محدود کردن کاربرد AI در عملیات نظامی و جلوگیری از توسعه سلاحهای خودمختار کشنده تأکید میکنند، استفاده از AI در حوزه نظامی نیازمند رویکردی متوازن است که ضمن بهرهبرداری از مزایای فناوری، مخاطرات و چالشهای آن را نیز لحاظ کند، توسعه و اجرای اصول اخلاقی، نظارت مؤثر و همکاریهای بینالمللی میتواند زمینه استفاده مسئولانه و انسانی از AI در جنگها را فراهم کند.
زینب اصغریان استاد دانشگاه با اشاره به اهداف کلان وزارت دفاع آمریکا اظهار کرد: وزارت دفاع آمریکا بهطور رسمی هدف خود را از همکاری با شرکتهای هوش مصنوعی، افزایش «سرعت تصمیمگیری رزمی»، «پیشبینیپذیری تهدیدات» و «کاهش خطای انسانی» در محیطهای جنگی اعلام کرده است، این امر بخشی از برنامه کلان موسوم به «فرماندهی و کنترل همه دامنه مشترک» یا JADC۲ است که تلاش دارد یک شبکه منسجم از داده، تحلیل و اقدام در میدان نبرد ایجاد کند، به گفته مؤسسه بروکینگز، وزارت دفاع در سال ۲۰۲۳ بیش از ۹۵ درصد بودجه هوش مصنوعی دولت فدرال را دریافت کرده است، از دیگر اهداف پنتاگون، کاهش هزینههای دفاعی از طریق خودکارسازی فرایندها و رقابت مؤثر با چین در زمینه تسلیحات هوشمند است، گزارش «کمیسیون ملی امنیت و هوش مصنوعی آمریکا» (NSCAI) در سال ۲۰۲۱ تصریح میکند که تسلط بر هوش مصنوعی «عنصر کلیدی پیروزی در رقابت راهبردی با چین» خواهد بود.
وی درباره نقش شرکتهای خصوصی هوش مصنوعی افزود: شرکت OpenAI، توسعهدهنده مدلهای زبانی همچون GPT-۴، قراردادی ۲۰۰ میلیون دلاری با وزارت دفاع آمریکا برای ارائه نسخههای سفارشیشده مدلهای خود در قالب برنامه «OpenAI برای حکومت» امضا کرده است. این برنامه شامل تولید ابزارهایی برای تحلیل اطلاعات طبقهبندیشده، استخراج الگوهای تهدید، و پشتیبانی از فرماندهان میدانی در تصمیمگیری است، در طرف دیگر، شرکت xAI به رهبری ایلان ماسک، مدل «Grok برای حکومت» را توسعه داده است، این مدل که بر پایه نسخه چهارم Grok (Grok-۴) ساخته شده، به تحلیل فوری دادههای حسگر، سیگنالهای جنگ الکترونیک و استخراج توصیههای تاکتیکی در محیطهای رزمی میپردازد. منابعی همچون رویترز و PC Gamer، تأیید میکنند که xAI نیز قراردادی مشابه ۲۰۰ میلیون دلاری با وزارت دفاع منعقد کرده است.
این استاد دانشگاه، به موضوع چارچوبهای نظارتی پرداخت و گفت: وزارت دفاع آمریکا در سال ۲۰۱۸ اصول اخلاقی کاربرد AI در حوزه نظامی را تصویب کرد، این اصول شامل پنج بند کلیدیاند: مسئولیتپذیری، قابلیت درک و تبیین عملکرد، انصاف، قابلیت اطمینان آسیب نرساندن غیرضروری، در سطح عملیاتی که پنتاگون از چارچوبی سنجش و ارزیابی موسوم به «Assurance Framework» استفاده میکند که به گفته مؤسسه RAND، ارزیابیهای بر پایه شواهد فنی را در چرخه عمر سیستم تضمین میکند، همچنین اسناد قانونی همچون قانون مجوز دفاع ملی «National Defense Authorization Act (NDAA) ۲۰۲۱» و دستور اجرایی رئیسجمهور در اکتبر ۲۰۲۳، سازوکارهای نظارت مستقل و گزارشدهی شفاف برای پروژههای AI نظامی را الزامآور کردهاند و در سطح بینالمللی، ایالات متحده یکی از امضاءکنندگان بیانیه مسئولیتپذیری در استفاده نظامی از AI با حضور ۵۱ کشور عضو OECD است.
اصغریان درباره چالشهای اخلاقی و حقوقی گفت: استفاده از AI در تصمیمگیریهای مرگبار، مناقشات گستردهای در حوزه اخلاق جنگ ایجاد کرده است. به گفته دیدهبانی حقوق بشر، حذف یا کاهش حلقه انسانی در فرایند شناسایی و انهدام هدف، نقض اصول بنیادین حقوق بشردوستانه تلقی میشود، مدلهای AI عمومی نظیر GPT و Grok ماهیت «دو منظوره» (dual-use) دارند؛ بهگونهای که نمیتوان بهروشنی مرز میان کاربرد غیرنظامی و نظامی آنها را مشخص کرد. مؤسسه CSET وابسته به دانشگاه جورجتاون هشدار داده است که این وضعیت، زمینهساز نشت فناوری و نقض رژیم کنترل صادرات خواهد بود.
وی به پیامدهای گسترده نظامیسازی هوش مصنوعی اشاره کرد و بیان کرد: شورای روابط خارجی آمریکا معتقد است سرعت بیسابقه در توسعه سلاحهای م برپایه هوش مصنوعی توسط آمریکا، چین و روسیه، نشاندهنده شکلگیری یک رقابت تسلیحاتی فناورانه است. تحلیل شورای روابط خارجی آمریکا (CFR) هشدار میدهد که نبود چارچوبهای بینالمللی الزامآور، میتواند به وضعیتی مشابه جنگ سرد منجر شود، با توجه به تحولات پرشتاب جهانی، ایران باید راهبردهای دفاعی خود را بهویژه در حوزه دفاع شناختی بازنگری کند؛ زیرا در نبردهای آینده، برتری نه بهصرف با سلاح، بلکه با داده، تحلیل و سرعت تصمیمگیری خواهد بود.
این استاد دانشگاه به موضوع «خصوصیسازی جنگ»، شباهت فنی میان سامانههای رژیمصهیونیستی در غزه و پروژههای هوش مصنوعی وزارت دفاع آمریکا، و در نهایت پیامدهای راهبردی برای جمهوری اسلامی ایران اشاره و عنوان کرد: مشارکت شرکتهای خصوصی در امنیت ملی، خطر «خصوصیسازی جنگ» و تضاد منافع میان سود تجاری و اصول انسانی را تشدید میکند، بنیاد New America در این زمینه هشدار میدهد که این وضعیت، دموکراسی و نظارت مدنی را تضعیف میسازد، مطالعات میدانی نشان میدهد که ارتش رژیم صهیونیستی در حملات به غزه از سیستمهایی به نام Lavender و Gospel برای شناسایی و انهدام اهداف انسانی استفاده کرده است.»
اصغریان توضیح داد: در روزنامه فرانسوی لوموند نوشت شده است که سامانه Lavender، با تحلیل دادههای تماس، موقعیت مکانی و شبکههای اجتماعی، لیستی از ۳۷٬۰۰۰ مرد فلسطینی بهعنوان مظنون تولید کرده بود. این لیست بدون راستیآزمایی دقیق انسانی، به عملیات هوایی تبدیل میشد، سامانه Gospel نیز دادههای تصویری را برای رهگیری فرماندهان مقاومت در منازلشان استفاده میکرد. پروژهای با عنوان «?Where’s Daddy» (پدر کجاست؟) اهداف را زمانی که در خانه بودند، مورد حمله قرار میداد.
وی به مقایسه میان سیستمهای رژیمصهیونیستی و سامانههای هوش مصنوعی آمریکایی پرداخت و گفت: تحلیل تطبیقی میان سامانههای Lavender و Gospel با مدلهای توسعهیافته توسط OpenAI و xAI حاکی از همگرایی در چند حوزه است؛ حوزه نخست تحلیل دادههای انبوه غیرساختاریافته که هر دو از دادههای تماس، مکانی و رفتاری برای پیشبینی تهدید استفاده میکنند؛ دوم تصمیمسازی خودکار یا نیمهخودکار: است که خروجی سیستم بهعنوان مبنای عملیات نظامی قرار میگیرد که بدون بررسی عمیق انسانی انجام میشود؛ سوم کاهش نقش انسان در حلقه تصمیمگیری مشابه آنچه RAND در پروژههای وزارت دفاع ایالات متحده آمریکا نسبت به آن هشدار داده است. چهارم پیشبینی تهدید بر اساس همبستگی آماری، نه شواهد حقوقی همان ضعف ساختاری که به قتل احتمالی غیرنظامیان در غزه منجر شد. پنجم مقیاسپذیری بالا است که هدف آن، تولید سریع و بلادرنگ اهداف ضربتی در مقیاس بزرگ است؛ مشابه آنچه پنتاگون در سند «Data Advantage» (مزیت اطلاعات) به آن تصریح کرده است.
این استاد دانشگاه گفت: با توجه به تحولات فوق، ایران برای حفظ بازدارندگی مؤثر و تأمین امنیت ملی در قرن بیستویکم، ناگزیر است دکترین دفاعی خود را بهصورت فوری و در سه محور بازطراحی کند. محور نخست شامل توسعه سامانه بومی تحلیل اطلاعات پهپادی است که توانایی پردازش فوری تصاویر ویدئویی را داشته باشد. محور دوم طراحی مدل زبانی فارسی ویژه امنیت ملی به منظور تحلیل اسناد طبقهبندیشده و حمایت از فرماندهی میدانی است، محور سوم نیز ایجاد ساختار فرماندهی ترکیبی انسانماشین به منظور تسریع در تصمیمگیریهای بحرانی به شمار میرود.
اصغریان تصریح کرد: ورود هوش مصنوعی به ساختار نظامی آمریکا بدون تردید آغازگر عصری نوین در راهبردهای جنگی است، با این حال در غیاب چارچوبهای اخلاقی قوی، شفافیت نهادی و نظارت حقوقی مؤثر، این تحولات میتوانند تهدیدی جدی برای امنیت بینالمللی و حقوق بشر به شمار روند. از این رو، ایران باید این تغییرات را تنها از منظر فناوری مشاهده نکند، بلکه آنها را بهعنوان نشانهای از تحول در قواعد بازی جهانی بپذیرد، تأخیر در سازگاری با نظم فناورانه جدید به معنای عقبماندگی راهبردی در سطوح حیاتی ملی خواهد بود. البته برخلاف ادعاهای ظاهری اخلاقمدارانه آمریکا، ایران بهطورقطع اخلاقمدارانه عمل خواهد کرد و هرگز اجازه نخواهد داد فناوری جایگزین تصمیمگیری انسانی شود.
در عصر حاضر، هوش مصنوعی (AI) بهعنوان یک فناوری دوگانه، هم در حوزههای غیرنظامی و هم در نظامی، بهطور فزایندهای در حال گسترش است. این ویژگی دوگانه، چالشهای جدیدی را در زمینههای اخلاقی، حقوقی و امنیتی بهوجود آورده است. در سطح بینالمللی، فقدان یک چارچوب حکمرانی جامع برای استفاده از AI در حوزه نظامی، موجب ایجاد خلاءهای نظارتی و افزایش خطرات ناشی از سوءاستفادههای احتمالی شده است؛ در ایالات متحده، وزارت دفاع با هدف افزایش سرعت تصمیمگیری رزمی، پیشبینی تهدیدات و کاهش خطای انسانی، بهطور گستردهای از AI در عملیاتهای نظامی استفاده میکند، این امر با امضای قراردادهایی با شرکتهای خصوصی همچون OpenAI و xAI، بهمنظور توسعه مدلهای هوش مصنوعی سفارشی برای تحلیل اطلاعات طبقهبندیشده و پشتیبانی از فرماندهی میدانی، همراه بوده است، با این حال استفاده از این فناوریها بدون نظارت انسانی کافی، نگرانیهایی را در مورد مسئولیتپذیری و احتمال نقض حقوق بشر بهوجود آورده است، در سطح بینالمللی، در حالی که برخی کشورها به تدوین اصول اخلاقی برای استفاده از AI در حوزه نظامی پرداختهاند، اما هنوز چارچوبهای الزامآور و نظارت مؤثری برای جلوگیری از سوءاستفادههای احتمالی وجود ندارد، به عنوان نمونه بیانیه مسئولیتپذیری در استفاده نظامی از AI که توسط ۵۱ کشور امضا شده است، بیشتر جنبه توصیهای دارد و فاقد سازوکارهای اجرایی مؤثر است، استفاده از AI در حوزه نظامی نیازمند رویکردی متوازن است که ضمن بهرهبرداری از مزایای این فناوری، خطرات و چالشهای آن را نیز در نظر بگیرد. توسعه و اجرای اصول اخلاقی، نظارت مؤثر، و همکاریهای بینالمللی میتواند به استفاده مسئولانه و انسانی از AI در جنگها کمک کند.