به گزارش پایگاه خبری پایداری ملی به نقل خبرگزاری فارس، رویترز نوشت؛ درخواست وزارت جنگ آمریکا برای استفاده بدون محدودیت و غیراخلاقی از خدمات شرکت هوش مصنوعی آنتروپیک و ملاحظات شرکت مذکور در این زمینه باعث شده تا پنتاگون آنتروپیک را تهدید به قطع همکاری کند.
به گفته یک مقام دولتی در آمریکا، وزارت جنگ آمریکا در حال بررسی پایان دادن به رابطه خود با شرکت هوش مصنوعی آنتروپیک به دلیل اصرار این شرکت بر حفظ برخی محدودیتها در زمان استفاده ارتش آمریکا از مدلهای هوش مصنوعی آن است.
پنتاگون از چهار شرکت هوش مصنوعی آمریکا خواسته که به ارتش این کشور اجازه دهند از ابزار آنها برای اجرای تمامی اهداف خود از جمله در زمینه توسعه تسلیحات، جمعآوری اطلاعات و عملیات در میدان نبرد استفاده کند، اما آنتروپیک با این شرایط موافقت نکرده و پس از ماهها مذاکره، پنتاگون از این وضعیت به ستوه آمده، زیرا در این شرایط نیات پنتاگون برای کشتار جمعی گسترده و هوشمند محقق نخواهد شد.
سایر شرکتهایی که وزارت جنگ آمریکا با آنها در حال مذاکرات مشابه است، اوپنای آی، گوگل و xAI هستند و به آنها نیز در همین زمینه هشدار داده شده است.
سخنگوی آنتروپیک در این مورد گفت: این شرکت در مورد استفاده از مدل هوش مصنوعی کلود خود، برای عملیات خاص با پنتاگون بحثی نکرده است. گفتوگوها با دولت آمریکا تا کنون بر روی مجموعه مشخصی از سوالات مربوط به سیاستهای استفاده، از جمله محدودیتهای سخت در مورد سلاحهای کاملاً خودمختار و نظارت و جاسوسی انبوه داخلی متمرکز بوده که به هیچکدام از عملیات جاری پنتاگون مرتبط نیست.
وال استریت ژورنال روز جمعه گزارش داد که از مدل هوش مصنوعی کلود شرکت آنتروپیک، در عملیات ارتش آمریکا برای دستگیری نیکولاس مادورو، رئیسجمهور پیشین ونزوئلا استفاده شده و این کار با همکاری شرکت پالانتیر انجام شده است.
پنتاگون هفته قبل از شرکتهای برتر هوش مصنوعی از جمله اوپنای آی و آنتروپیک خواسته بود ابزار هوش مصنوعی خود را بدون بسیاری از محدودیتهای استانداردی که شرکتها برای کاربران اعمال میکنند، در شبکههای طبقهبندی شده وزارت جنگ امریکا در دسترس قرار دهند.
کارشناسان هشدار میدهند تحقق این امر، دست ارتش آمریکا را برای تولید تسلیحات مرگبار کشتار جمعی با قدرت تخریبی بی سابقه باز خواهد گذاشت و پایانی بر استفاده اخلاقی و نظاممند از هوش مصنوعی در جهان خواهد بود که تبعات ویرانگری برای کل جهان خواهد داشت.