مت فیلد در یادداشتی که پایگاه اینترنتی بولتن علوم اتمی آن را منتشر کرد، نوشت: اوایل سال 2019، سه متخصص برجسته دفاعی آمریکا گزارش جامعی از چگونگی کاربرد هوش مصنوعی در سامانه‌های کنترل و فرماندهی هسته‌ای و خطرات احتمالی کاربرد اشکال خطرناک آن منتشر کردند.

این گزارش علمی که با عنوان «آینده هسته‌ای پایدار؟» منتشر شد، به تاثیر سامانه‌های خودکار و هوش مصنوعی بر راهبردهای استفاده از تسلیحات هسته‌ای پرداخته است. پژوهش مذکور بیانگر این حقیقت است که ارتش‌های کشورهای جهان به کاربرد هرچه بیشتر هوش مصنوعی در تسلیحات غیر هسته‌ای روی آورده و چند کشور نیز به نوسازی برنامه‌های تسلیحات هسته‌ای خود پرداخته‌اند. طبق این گزارش، سامانه‌های تسلیحاتی هسته‌ای اکنون نیز دارای برخی کارکردهای خودکار است از جمله؛ سیستم‌های اعلان هشدار که به طور خودکار اپراتورهای تسلیحات هسته‌ای را از حمله آگاه می‌سازند.

با این حال، این گزارش معتقد است که این تجهیزات خودکار خطرناک هستند، زیرا یک شلیک تصادفی ممکن است «موجب جنگ هسته‌ای شود». چنین خطری از منابع مختلفی سرچشمه می‌گیرد: از جمله آنکه ممکن است کشورها به توسعه تجهیزات بدون سرنشین حمل تسلیحات هسته‌ای بپردازند. به اعتقاد نویسندگان این گزارش، از آنجا که در این تجهیزات بدون سرنشین کسی مسئول حمل تسلیحات هسته‌ای نیست، احتمال هک و یا «خارج شدن از کنترل» آن‌ها وجود دارد.

این گزارش همچنین اشاره دارد که روسیه ظاهرا یک اژدر هسته‌ای خودکار تولید کرده است. هورویتز، استاد دانشگاه پنسیلوانیا گفته است که این سلاح می‌تواند آغازگر این روند باشد، هرچند که چگونگی و استفاده یا عدم استفاده از هوش مصنوعی در آن هنوز معلوم نیست.

همچنین احتمال دارد که کشورها به استفاده هرچه بیشتر از هوش مصنوعی در سامانه‌های هشدار زودهنگام وقوع حمله هسته‌ای و یا در سامانه‌های پشتیبانی تصمیم راهبردی بپردازند. در گذشته، حتی اشکال ساده تجهیزات خودکار در این نوع سامانه‌ها باعث تشدید تنش‌های هسته‌ای شده است.

در این مقاله به حادثه 1983 اشاره شده است که در آن، سرهنگ استانیسلاو پتروف، افسر شوروی سابق، خوشبختانه با درک پدیده تشخیص [نادرست] موسوم به پیشداوری خودکار، هشدارهای شنیداری و بصری خودکار مبنی بر ورود موشک‌های هسته‌ای آمریکا را نادیده گرفت.

سامانه پشتیبانی تصمیم راهبردی شوروی، موسوم به ویران (VYRAN)، نوع دیگری از مشکل تجهیزات خودکار اولیه محسوب می‌شود. این سامانه یک برنامه رایانه‌ای و قرار بود به رهبران شوروی هشدار دهد که چه زمانی آمریکا به سطحی از برتری نظامی می‌رسد که مستلزم حمله هسته‌ای مسکو باشد؛ اما عوامل اطلاعاتی شوروی اطلاعاتی را به این سامانه وارد می‌کردند که ریشه در باورهای پیشین آن‌ها در مورد نیات آمریکا داشت و بنابراین، به جای اینکه درک و فهم درستی از اهداف آمریکا در اختیار رهبران شوروی بگذارد، موجب تشدید تهدیدهای فرضی آن‌ها می‌شد.

با این حال، علیرغم این سوابق، نویسندگان این گزارش معتقدند که دلایلی برای کاربرد هرچه بیشتر هوش مصنوعی در سامانه‌های تسلیحات هسته‌ای وجود دارد. آن‌ها اشاره می‌کنند که سامانه‌های هوش مصنوعی می‌توانند داده‌های بیشتری پردازش کنند و آگاهی بیشتری از وضعیت در اختیار افسران مسئول تسلیحات هسته‌ای قرار دهند.

کشورهایی که خطرات کاربرد سطوح بالای هوش مصنوعی و اتوماسیون در سامانه‌های تسلیحات هسته‌ای را می‌پذیرند، کشورهایی هستند که از توانایی خود برای حمله تلافی جویانه پس از حمله به زرادخانه هسته‌ای شان مطمئن نیستند. به همین خاطر، در کشورهایی که اعتماد به نفس بیشتری دارند، پیامدهای ناشی از هشدار نادرست حمله در حال وقوع، نسبتا کمتر است.

هورویتز معتقد است که به‌کارگیری هوش مصنوعی در سامانه‌های تسلیحات هسته‌ای فی نفسه خطرات کمتری دارد. در حقیقت، نگرانی وی آن است که بکارگیری هوش مصنوعی در سامانه‌های نظامی غیرهسته‌ای ممکن است سیاست‌های [استفاده از] تسلیحات هسته‌ای را تحت تاثیر قرار دهد.

بر اساس این گزارش، فشار ناشی از کاهش وقت بواسطه کاربرد هوش مصنوعی ممکن است به زنجیره‌ای از تصمیم‌گیری‌ها دامن بزند که در بدترین حالت به آغاز حمله هسته‌ای پیشگیرانه منجر شود. «ترس از شکست فوری می‌تواند تنش‌ها را تا سطح حمله هسته‌ای افزایش دهد».

این گزارش پیش‌بینی می‌کند که با گذشت زمان، پای تجهیزات خودکار به عملیات‌ هسته‌ای باز خواهد شد، به‌ویژه که کشورها به نوسازی نیروی هسته‌ای خود می‌پردازند. آمریکا برای ارتقای نیروی هسته‌ای خود به یک برنامه چند ده ساله و تریلیون دلاری مضاعف مبادرت کرده است؛ روسیه و چین نیز در حال نوسازی نیروی هسته‌ای خویش هستند.

با این وجود، آمریکا و روسیه (و شوروی سابق) به مدت دهه‌ها از تجهیزات خودکار در سامانه‌های حمل، کنترل و فرماندهی و هشدار زودهنگام عملیات هسته‌ای خود استفاده کرده‌اند. بنابراین، بررسی عمیق این موضوع حائز اهمیت است.