جدیدترین مطالب

افزایش شهدای غزه به ۳۴۰۴۹ نفر

وزارت بهداشت غزه اعلام کرد: آمار شهدا در نوار غزه از تاریخ ۷ اکتبر گذشته به سی و چهار هزار و ۴۹ نفر رسید و هفتاد و شش هزار و ۹۰۱ نفر هم تاکنون زخمی شدند.

Loading

أحدث المقالات

هر آنچه که در که حادثه اصفهان گذشت/ وقتی تیر صهیونیست‌ها به سنگ خورد

چندین صدای شبیه انفجار در اصفهان و تبریز باعث شد تا مردم این دو شهر، صبح جمعه را با حجم زیادی از اخبار متناقض درباره حمله اسرائیل آغاز کنند. هم‌زمان شایعاتی از حمله به عراق و سوریه نیز منتشر شد. خبرآنلاین در گزارشی به بررسی منشأ انفجارها پرداخته و نقش اسرائیل را در این زمینه بررسی کرده است.

واکنش اسلام‌آباد به تحریم‌های جدید آمریکا علیه برنامه موشکی پاکستان

اسلام‌آباد – ایرنا – پاکستان اقدام تازه آمریکا برای تحریم چند شرکت خارجی به دلیل همکاری با اسلام‌آباد در حوزه برنامه‌های موشکی را خودسرانه و سیاسی دانست و تاکید کرد: پاکستان چنین رویکردهای دوگانه‌ای که منجر به تضعیف اهداف عدم اشاعه می‌شود را قبول ندارد.

روایت «بلومبرگ» از افزایش اختلاف اروپایی‌ها در مورد تامین بودجه دفاعی برای مقابله با روسیه

تهران-ایرنا- آندری دومانسکی، وزیر دارایی لهستان روز جمعه گفت که کشورش قصد دارد در زمانی که ریاست دوره‌ای اتحادیه اروپا را در ژانویه (دی ماه) به دست می‌گیرد، به‌رغم میل برخی رهبران اروپایی فشار خود را برای افزایش هزینه‌های دفاعی این قاره تشدید کند.

Loading

امنیت ملی و نظارت در عصر هوش مصنوعی

۱۳۹۷/۱۲/۱۹ | علمی - فرهنگی

شورای راهبردی آنلاین – رصد: جامعه اطلاعاتی انگلیس با موضوع جلب اعتماد عمومی در زمینه استفاده از هوش مصنوعی در راستای اهداف امنیت ملی، مواجه است.

الکساندر بابوتا، پژوهشگر مطالعات امنیت ملی در گزارشی که اندیشکده انگلیسی راسی منتشر کرد، نوشت: پل کیلورث، معاون سیاست راهبردی ستاد ارتباطات دولت انگلیس (GCHQ) در تاریخ 21 ژانویه 2019 در سخنرانی در جمع مخاطبان مدعو در اندیشکده راسی در این باره توضیح داد که چطور هوش مصنوعی (AI) و یادگیری ماشینی (ML) می‌تواند کارایی و کفایت عملکردهای مختلف هوش را بهبود بخشد. این قابلیت‌ها در هر صورت مجموعه‌ای از ملاحظات حقوقی و اخلاقی را همراه دارد و افکار عمومی انتظار جدی دارد که آژانس‌های اطلاعاتی انگلیس طوری اقدام کنند که حقوق و آزادی‌های شهروندان حفاظت شود.

به گفته وی، جامعه امنیت ملی تمایلش را برای گفت‌وگوی بازتر درباره این مسائل بیان کرده است. کیلورث تاکید کرد «مسلما ضروری است در فضای امنیت ملی بحث‌هایی درباره هوش مصنوعی و یادگیری ماشینی داشته باشیم تا پاسخ‌ها و رویکردهایی را ارائه کند که بتواند رضایت عمومی را برای ما فراهم آورد». در هر صورت ممکن است به دلیل حساسیت زیاد، اطمینان بخشیدن به افکار عمومی درباره استفاده‌های هوش مصنوعی کاری دشوار باشد.

پذیرش استفاده آژانس‌های اطلاعاتی از فن‌آوری برای افکار عمومی با دو احساس متضاد سر و کار دارد. از یک سو انتظار بالایی وجود دارد که جامعه امنیت ملی از شهروندان در برابر تهدیدهای ایمنی حفاظت کند و روش‌های جدیدی را به کار بندد که ممکن است به آنها اجازه دهد این کار را به شکل موثرتری انجام دهند. از سوی دیگر افکار عمومی انتظار دارد این آژانس‌ها در عین حال که از حقوق و آزادی‌های شهروندان حفاظت می‌کنند، خود را تطابق دهند و به نوآوری دست بزنند. رسیدن به این تعادل به ویژه در دوره‌ای که در عرصه فن‌آوری با تغییر قابل توجهی روبرو هستیم، برای دست اندرکاران جامعه امنیت ملی چالش مهمی است.

تعهد به نوآوری

مشخص است که چرا هوش مصنوعی برای یک آژانس اطلاعات سیگنالی (SIGINT) چشم‌انداز جذابی است. یادگیری ماشینی همین حالا هم بخش‌های بسیاری از اقتصاد را متحول کرده و استفاده از الگوریتم‌ها برای استخراج موثر بینش‌های معنادار از مجموعه داده‌های مختلف و در حال گسترش برای بسیاری از سازمان‌ها به امری ضروری تبدیل شده است. به همین ترتیب حجم، شتاب و پیچیدگی داده‌های دیجیتالی که در حال حاضر آژانس‌های امنیتی و اطلاعاتی انگلیس (SIAs) باید آنها را پردازش کنند، فراتر از ظرفیت تحلیل‌های انسانی به تنهایی است.

به علاوه آژانس‌های امنیتی و اطلاعاتی انگلیس برای حفاظت از مردم در برابر تهدیدهای امنیت ملی وظیفه‌ای حقوقی و اجتماعی دارند و اکراه در پذیرش روش‌های نوینی که ممکن است به آنها کمک کند، این کار را به شکلی موثرتر انجام دهند، می‌تواند به عنوان یک شکست در عمل به این وظیفه در نظر گرفته شود. همان طور که کیلورث در نشست اندیشکده راسی گفت «یا باید خودمان را برای شروع به کار بردن روش‌های جدید تطابق دهیم و یا اینکه به نهادی بی‌ربط تبدیل شویم.»

این «تعهد به نوآوری» با دو عامل سر و کار دارد. اول، آژانس‌های SIGINT با مشکل «زیاد بودن اطلاعات» روبرو هستند: اگرچه در سال‌های اخیر قابلیت‌های جمع آوری اطلاعات پیشرفت قابل توجهی داشته، اما فن آوری پردازش و تحلیل موثر داده‌های جمع آوری شده نتوانسته است با همان سرعت پیش برود. دومین ملاحظه نیز ماهیت به سرعت در حال تحول چشم‌انداز تهدید است. انگلیس همچنان با تهدیدهای امنیت ملی جدی از جانب طیفی از منابع روبرو است و ضرورت دارد آژانس‌های امنیتی و اطلاعاتی انگلیس از فن آوری جدید استفاده کنند تا از پیشروی خود همگام با نوآوری‌ها در قابلیت‌های دشمنان اطمینان یابند.

کیلورث توضیح داد که «درون سازمانی نظیر ستاد ارتباطات دولت انگلیس، این پتانسیل وجود دارد که از یادگیری ماشینی و هوش مصنوعی برای بهبود نتایج عملیاتی استفاده کنیم. ما می‌توانیم این مشکلات بزرگ را رفع کنیم و احتمالا راه‌حل‌های اطلاعاتی و امنیتی برای کمک به حفظ ایمنی انگلیس را به روش‌هایی ارائه کنیم که قبلا قادر به انجامش نبودیم.» او با تشریح نمونه‌ای از سیستم «دفاع سایبری فعال» انگلیس توضیح داد که چطور «دفاع از سیستم‌های امنیت سایبری انگلیس می‌تواند با استفاده از هوش مصنوعی و یادگیری ماشینی به شیوه‌های جدیدی انجام شود و در آینده ما تقریبا به طور قطع باید این کار را انجام دهیم و پا به پای چالش‌های فراروی مان پیش برویم. نمی توانم باور کنم که در آینده بدون استفاده از هوش مصنوعی بتوانیم دفاع سایبری فعالی را که امروز داریم، داشته باشیم».

چالش پیش رو این است که تضمین شود در آینده نوآوری فنی در یک چارچوب قانونی انجام گیرد که به خوبی تعریف شده باشد و به افکار عمومی اطمینان دهد که حقوق افراد رعایت می‌شود و در عین حال اذعان کند که قابلیت‌های خاص باید سری باقی بماند.

انتظارات افکار عمومی درباره حریم خصوصی

افکار عمومی به شکلی روزافزون بر موضوع حکمرانی و مقررات تحلیل داده‌ها متمرکز است. در حال حاضر با اجرای قانون حفاظت از داده‌ها در سال 2018 (مقررات عمومی اتحادیه اروپا برای حفاظت از داده‌ها (حفاظت از داده‌های عمومی) را به قانون انگلیس منتقل کرد) کاربران بیش از گذشته از چگونگی جمع‌آوری و پردازش داده‌ها مطلع هستند. احتمالا استفاده از هوش مصنوعی برای اهداف امنیتی با توجه به نفوذ احتمالی در حریم خصوصی و نقض آزادی‌های مدنی امری بحث برانگیز خواهد بود. قانون فعلی نظارت از جمله قانون اختیارات تحقیق 2016 ، محدودیت‌ها یا پادمان‌های مختص هوش مصنوعی را اعمال نمی‌کند و بسیاری سوال می‌کنند که آیا مقررات فعلی برای پاسخگو دانستن آژانس‌ها در استفاده از هوش مصنوعی کفایت می‌کند یا خیر.

ستاد ارتباطات دولت انگلیس  این تغییر در انتظارات عمومی را کاملا تصدیق می‌کند و کیلورث توضیح می‌دهد که چطور «ما به جامعه‌ای رسیده ایم که انتظارات قوی‌تری درباره حقوق بشر، ایمنی عمومی، شفاف سازی و بررسی دقیق دارد. برای افسران اطلاعاتی مانند خود من توضیح و توجیه اینکه چطور این کار را به شیوه‌ای انجام می‌دهیم که شاید نسل‌های قبل هرگز انجام نداده باشند یک چالش است.»

در هر صورت، اگرچه فن‌آوری نظارتی اغلب با عباراتی کابوس‌وار معرفی می‌شود، اما بسیاری از مصارف هوش مصنوعی در امنیت ملی آنقدر که برخی انتظار دارند جنجالی نیست. به ویژه باید به این موضوع اشاره شود که هوش مصنوعی این پتانسیل را دارد که با کاهش حجم داده‌های شخصی که باید  تحت بررسی تحلیلگران انسانی قرار گیرد میزان نفوذ احتمالی در حریم خصوصی را به حداقل برساند.

در هر حال وارد شدن به این بحث برای ستاد ارتباطات دولت انگلیس ضروری است تا به این ترتیب بتواند اعتماد عمومی را به دست آورد. کیلورث تشریح کرد که چطور «آنچه ما به عنوان یک سازمان از ادوارد اسنودن آموختیم این بود که وقتی با فن‌آوری سروکار داریم، وقتی با روش‌های جدید اجرای عملیات‌ روبرو هستیم، ضروری است با اجتماع گسترده‌تر، جامعه مدنی، دانشگاهیان، گروههای ذینفع، متخصصان فن آوری وارد تعامل شویم.» او افزود که «اگر چنین بحث‌هایی را انجام ندهیم از اعتماد برخوردار نخواهیم بود. اگر از اعتماد بهره‌مند نباشیم، در نهایت قوانین و اختیاراتی که به ما کمک می‌کند کارمان را انجام دهیم، در اختیار نخواهیم داشت.»

لرد ایوانز، دبیر کل پیشین سرویس امنیتی (MI5) نیز در نشست RUSI همان احساسات را منعکس و تاکید کرد «در نهایت امنیت ملی ما به توان آژانس‌ها و پلیس برای پیروزی در نبردهای عملیاتی با تروریست‌ها و جاسوس‌ها بستگی خواهد داشت، اما آنها فقط در صورت وجود رضایت سیاسی و عمومی می‌توانند چنین کاری را انجام دهند.»

این که برخی گروه‌ها و بخش‌هایی از جمعیت با کلیه سیاست‌های نظارتی «به صورت پیش فرض» مخالفت کنند، امری اجتناب‌ناپذیر است. اما جامعه امنیت ملی با ورود به گفت‌وگوهای شفاف‌تر و بازتر درباره کاربردهای فن آوری جدید و انتظارات مربوط به حریم خصوصی ممکن است بتواند اعتماد و رضایت لازم را برای اینکه قادر باشد در جهان به سرعت در حال تغییر اقدام موثری انجام دهد، به دست آورد.

0 Comments

یک دیدگاه بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *