گوگل هفته پيش به كارمندانش اعلام كرد قراردادش را با وزارت دفاع و ارتش آمريكا كه سال آينده منقضي خواهد شد، تمديد نخواهد كرد. اين شركت اكنون اعلام كرده از هوش مصنوعي براي آسيبزدن به انسانها استفاده نخواهدكرد.
ساندار پيچاي مدير اجرايي اين شركت دستورالعمل جديد استفاده از فناوري هوش مصنوعي را در وبلاگ خود منتشر ساخت و اعلام كرد گوگل براي فناوريهايي كه منجر به آسيب شوند، براي فناوريها يا سلاحهايي كه هدف نهايي آنها آسيب مستقيم وارد كردن به افراد باشد، براي فناوريهايي كه اطلاعات مردم را گردآوري كرده و از هنجارهاي پذيرفتهشده بينالمللي تخطي ميكنند، و براي فناوريهايي كه هدف آنها با اصول پذيرفته شده قوانين بينالمللي و حقوق بشر در مغيرت است، هوش مصنوعي طراحي نخواهد كرد.
پيچاي همچنين هفت اصل ديگر را كه بايد براي طراحي هوش مصنوعي در آينده مورد استفاده قرار گيرند منتشر ساخت، بر اين اساس هوش
مصنوعي بايد براي جامعه مفيد باشد، بايد از ايجاد تعصب جلوگيري كند، در
نهايت ايمني ساخته شده و آزمايش شود، قابل اعتماد باشد، اصول حريم خصوصي را
در نظر بگيرد، استانداردهاي برتر علمي را به كار ببندد، براي همه قابل
دسترس باشد.
زماني
كه گوگل اعلام كرد طي قراردادي قصد دارد فناوري هوش مصنوعي خود را با
پنتاگون به اشتراك بگذارد، تعدادي از كارمندان و هزاران نفر از مردم نسبت
به اين تصميم اعتراض كردند.
پروژه
ماون به شكلي طراحي شده بود كه بتواند با استفاده از هوش مصنوعي چهره
افراد و اشياء را در تصاوير ثبت شده توسط پهپادها شناسايي كند.