لیران اَنتبی در مقاله‌ای که موسسه مطالعات امنیت بین‌الملل رژیم صهیونیستی منتشر کرد، نوشت: در آوریل 2015 یک مجمع بین‌المللی در دفتر سازمان ملل در ژنو امکان افزودن ضمیمه‌ای را به کنوانسیون محدود کردن کاربرد سلاح‌های متعارف و ممنوعیت کاربرد سامانه پیشرفته خودکار به صورت توامان مطرح کرد.

این کنوانسیون، کاربرد بمب‌های خوشه‌ای و سایر سلاح‌ها را محدود می‌کند. ادعای اصلی که در کمیته سازمان ملل مطرح شد این بود که می‌توان کاربرد سامانه‌های سلاح‌های خودکار را پیش از پیشرفت‌های شدید و افزایش اهمیت این سلاح‌ها محدود کرد.

اخیرا دیده بان حقوق بشر گزارشی درباره دشواری انتساب مسئولیت در این سامانه‌ها منتشر کرده است. در گزارش به این مساله اشاره شده که رزمندگان، فرماندهان و حتی تصمیم‌گیرندگان برای ارتکاب جرایم جنگی مسئول هستند.

قصد دیده‌بان از ذکر چنین نکته‌ای، خصوصیت بازدارندگی این ادعاست، اما چنین شکلی از حسابرسی و پاسخگویی در مورد سامانه‌های خودکار ممکن نیست، چرا که محاکمه و مجازات یک ربات در دادگاه بی‌معنی است. از طرفی محاکمه مهندس یا شرکت سازنده سلاح‌ها نیز دشوار و غیرمنطقی است.

هم‌چنین بر اساس گزارش‌ها، کسانی که مخالف استفاده و کاربرد این ربات‌ها هستند، در برخی حوزه‌ها از موضع خود کوتاه آمده‌اند. برای مثال به تازگی میان سامانه‌های دفاعی هوایی خودکار و سامانه‌هایی که به انسان‌ها صدمه می‌زنند، مانند سامانه‌های مسلح زمینی و هواپیماهای بدون سرنشین تفکیک قائل شده‌اند.

نهایتا گزارش دیده‌بان با پیشنهاد ممنوعیت‌های قانونی بین‌المللی، خواستار ممنوعیت مطلق ایجاد و گسترش سامانه‌های خودکار کشنده شده است. گزارش و کمپینی که برای توقف ربات‌های کشنده ایجاد شده بسیار قابل توجه است. دیده‌بان پنج حرکت مشترک را با دستورکارهای یکسان، در روز تشکیل جلسات ژنو برگزار کرد. این پویش‌ها در وب‌سایت رسمی کمیته سازمان ملل نیز درج شد.

با این وجود در مذاکرات عمومی که پیش از جلسات کمیته برگزار می‌شد، استدلال‌های موافق سامانه‌‌های خودکارمطرح نشد. ظاهرا در خود کمیته نیز بحث در مورد ماهیت این سامانه‌ها مطرح نشد. از این روست که به نظر می‌رسد سازمان ملل فرصت رد خود به خود ایجاد و به کارگیری سامانه‌های خودکار را از دست داده است.

سامانه‌های مرگبار سلاح‌های خودکار از آن‌جایی که نیاز به سربازان را کاهش می‌دهند خطر کم‌تری برای جان رزمندگان، به ویژه در مبارزه علیه تروریست‌ها و گروه‌های چریکی به همراه دارند. به علاوه چنین سامانه‌هایی امکان رشد نیروهای حافظ صلح سازمان ملل را بدون نیاز به توسل به نیروهای ملی افزایش می‌دهد. ضمنا به خاطر دقت و حسابگری این سامانه‌ها ممکن است استفاده از آن‌ها خطر کم‌تری برای افراد بیگناه داشته باشد، یعنی همان موضوعی که موضوع نگرانی سازمان‌های حقوق بشری است.

علاوه بر این به نظر می‌رسد که سازمان ملل فرصت کاهش اقدامات ناقض حقوق جنگ را از دست داده است. اگر سامانه‌های خودکار صرفا به کاری بپردازند که برایش برنامه‌ریزی شده‌اند و برنامه‌شان با حقوق بین‌الملل سازگار باشد، چنین کاهشی ممکن است.

هم‌چنین در کل فرصت‌های بسیاری برای پرداختن به مساله هوش مصنوعی از دست رفته است که به سامانه‌های خودکار نیز مرتبط است. ابراز نگرانی دانشمندانی مانند استیون هاکینگ، الون ماسک و بیل گیتس باعث شده که این موضوع در سال‌های اخیر بسیار در اخبار شنیده شود.

دلیل توسعه‌ پروژه مبارزه با سامانه‌های سلاح‌های خودکار به دلیل نگرانی از امکان آسیب دیدن ناظران بی‌گناه در میدان جنگ یا هرجای دیگر است، نه به خاطر خودکار بودن آن‌ها. درست است که حمایت از حقوق بشر در مخاصمات مساله مهمی است، اما تهدید ناشی از پیشرفت کنترل نشده‌ی سامانه‌های خودکار، اگر نه تمام بشریت، دستکم انسان‌های بسیار زیادی را به خطر می‌اندازد.

به همین دلیل، اگر فعالیت‌های سازمان ملل در این زمینه تنها از دستورکار سازمان‌های حقوق بشری تغذیه شود، شاهد پیچیدگی‌های غیرضروری خواهیم بود.