جدیدترین مطالب
چین چگونه در هوش مصنوعی از غرب پیش افتاد
شورای راهبردی آنلاین-رصد: رهبران غربی به رقابت آمریکا و چین بهعنوان یک رقابت برای برتری در عرصه هوش مصنوعی نگاه میکنند؛ به این معنا که چه کسی میتواند قدرتمندترین مدل زبانی بزرگ را آموزش دهد، به هوش عمومی مصنوعی نزدیکتر شود و سامانه بعدی را با تریلیونها پارامتر بسازد. از رؤسایجمهور آمریکا تا مدیران سیلیکونولی، همگی یک ترجیعبند واحد را تکرار کردهاند و آن این است که «کشورهای غربی باید در نوآوری هوش مصنوعی از چین پیشی بگیرند وگرنه با شکست راهبردی موجودیتی روبهرو خواهند شد.»
أحدث المقالات
چین چگونه در هوش مصنوعی از غرب پیش افتاد
شورای راهبردی آنلاین-رصد: رهبران غربی به رقابت آمریکا و چین بهعنوان یک رقابت برای برتری در عرصه هوش مصنوعی نگاه میکنند؛ به این معنا که چه کسی میتواند قدرتمندترین مدل زبانی بزرگ را آموزش دهد، به هوش عمومی مصنوعی نزدیکتر شود و سامانه بعدی را با تریلیونها پارامتر بسازد. از رؤسایجمهور آمریکا تا مدیران سیلیکونولی، همگی یک ترجیعبند واحد را تکرار کردهاند و آن این است که «کشورهای غربی باید در نوآوری هوش مصنوعی از چین پیشی بگیرند وگرنه با شکست راهبردی موجودیتی روبهرو خواهند شد.»
تحول در سیاستگذاری بینالمللی برای بهرهگیری از هوش مصنوعی

اوی فیول و کورتنی لانگ در یادداشتی در وبسایت اندیشکده «شورای آتلانتیک» نوشتند که اجلاس آینده تأثیر هوش مصنوعی (دهلی نو، فوریه ۲۰۲۶) میتواند محملی برای پیشبرد گفتوگوهای بینالمللی درباره اعتماد و ارزیابی هوش مصنوعی، و ایجاد هماهنگی جهانی برای مدیریت هوش مصنوعی با دو هدف موازی کاهش خطرات و تسهیل پذیرش گسترده آن باشد. دولتها باید بین ایمنی و پذیرش هوش مصنوعی تعادل ایجاد کنند و از این اجلاس برای تقویت همکاریهای فرامرزی استفاده نمایند.
پاریس: آغاز انقلاب پذیرش هوش مصنوعی
بحث جهانی درباره ایمنی هوش مصنوعی که از اجلاس بلچلی ۲۰۲۳ آغاز شد و در اجلاسهای سئول و سانفرانسیسکو ۲۰۲۴ ادامه یافت، با تغییر جهت سیاسی در آمریکا و بریتانیا در ۲۰۲۵ کمرنگ شد. در اجلاس پاریس، تمرکز از خطرات وجودی به سمت «نوآوری و شتاب» در هوش مصنوعی تغییر کرد، بهطوری که آمریکا و بریتانیا از امضای بیانیه پایدار هوش مصنوعی خودداری کردند و نام مؤسسات ایمنی خود را به مراکز «امنیت ملی» و «استانداردهای فناوری» تغییر دادند. این نشاندهنده تحول راهبرد کشورها به سمت سرمایهگذاری گسترده در توسعه هوش مصنوعی، آموزش مدلهای زبانی بزرگ و کاهش مقررات محدودکننده است، در حالی که نگرانیهای اجتماعی و وجودی درباره هوش مصنوعی به حاشیه رانده شدهاند.
دستورالعملهای سرمایهگذاری و بهکارگیری هوش مصنوعی
دولت ترامپ با لغو مقررات هوش مصنوعی دوره بایدن و تدوین «طرح اقدام هوش مصنوعی» جدید، راهبرد خود را بر مقرراتزدایی و همسویی توسعه هوش مصنوعی با امنیت ملی و رقابت اقتصادی متمرکز کرده است. در سطح ایالتی، تلاشها برای تنظیم مقررات هوش مصنوعی با وتوی قانون ویرجینیا و تعدیل قانون تگزاس با شکست مواجه شدهاند. در اروپا نیز اگرچه اتحادیه اروپا به اجرای قانون هوش مصنوعی خود ادامه میدهد، فشار صنعت به خاطر تأخیر در اجرا و تأکید گروه هفت بر نقش هوش مصنوعی در رشد اقتصادی، نشاندهنده اولویت قائل شدن برای بهکارگیری فناوری در مقابل نگرانیهای ایمنی است. این تحولات حاکی از تغییر جهت جهانی به سمت تسهیل توسعه هوش مصنوعی با کاهش محدودیتهای نظارتی است.
سازگاری با تغییر سیاست جهانی هوش مصنوعی
علیرغم تغییر جهت سیاستهای جهانی به سمت توسعه سریع هوش مصنوعی، نیاز به گفتگو درباره اعتماد و ایمنی همچنان حیاتی است. ظهور فناوریهای نوظهوری مانند هوش مصنوعی عاملی(Agentic AI)-سیستمهای هوش مصنوعی که برای عملکرد خودکار، تصمیمگیری و انجام اقدامات لازم برای دستیابی به اهداف خاص با حداقل دخالت انسان طراحی شدهاند- و چالشهای پیچیده استقرار سازمانی نشان میدهد سال ۲۰۲۵ نه پایان، بلکه آغازی جدید برای سیاستگذاری هوش مصنوعی است. اجلاس آینده «تأثیر هوش مصنوعی» در دهلینو فرصتی است برای ایجاد اکوسیستمی که از طریق آزمایشهای دقیق، همزمان به نوآوری و اعتمادسازی بپردازد. این امر مستلزم همکاری جهانی در چهار حوزه کلیدی است که دولتهای ملی باید در تلاشهای خود برای پیشبرد بهکارگیری هوش مصنوعی به صورت جداگانه در اولویت قرار دهند و در عین حال در این راستا در سطح جهانی همکاری کنند:
۱. ارزیابی و رفع شکافهای نظارتی بر اساس تحولات جدید فناوری هوش مصنوعی: هوش مصنوعی عاملی، تحول بعدی در عرصه فناوری هوش مصنوعی است. در عین حال که میتواند مزایای قابل توجهی ارائه دهد، ممکن است ریسکهای موجود را تشدید یا ریسکهای جدیدی ایجاد کند، زیرا قادر به اجرای وظایف به صورت مستقل است. دولتها باید چارچوبهای نظارتی موجود را ارزیابی و اطمینان حاصل کنند که این چارچوبها ریسکهای جدید مرتبط با هوش مصنوعی عاملی را در نظر گرفتهاند و در صورت شناسایی شکافها، باید چارچوبهایی انعطافپذیر و آیندهنگر ایجاد کنند که بتواند با تحولات آینده هوش مصنوعی سازگار شود.
۲. پیشبرد مباحث صنعتمحور حول مدلهای متنباز و وزنباز، از جمله ملاحظات خاص برای نگرانیهای امنیت ملی: مدلهای متنباز و وزنباز نیازمند شفافیت بیشتر در سطح دسترسی و اشتراکگذاری دادهها هستند. دولتها و صنایع باید درک روشنی از اجزای قابل اشتراکگذاری این مدلها و تأثیرات امنیت ملی آنها داشته باشند. این درک به انتخاب ایمن شرکا و تأمینکنندگان کمک کرده و چارچوبی امن برای توسعه و آزمایش فراهم میکند. گفتوگوهای صنعتی میتوانند استانداردهای شفافیت و امنیت را در این حوزه تعریف کنند.
۳. تقویت اعتماد از طریق تشویق توسعه و پذیرش آزمایشات، معیارها و ارزیابیهای هوش مصنوعی: دولتها باید بهکارگیری آزمایشها، معیارها و ارزیابیهای هوش مصنوعی مبتنی بر اجماع و مورد پذیرش جهانی را تشویق کنند. توسعهدهندگان مدلهای پیشرفته باید بتوانند مدلهای زبانی بزرگ (LLM) خود را با کمک ارزیابیهای دقیق عملکرد و ایمنی درک، تحلیل و تکرار کنند. دولتها باید از توسعه چارچوبهای قوی آزمایش و ارزیابی حمایت کنند تا اطمینان حاصل شود که این چارچوبها مناسب هدف هستند، به مسائلی مانند نبود ثبات و قابلیت اطمینان در گزارشدهی نتایج ارزیابی توجه دارند و دسترسی به مجموعه دادههای ارزیابی باکیفیت و قابل اعتماد را بهبود میبخشند. این چارچوبها همچنین باید به گونهای طراحی شوند که درک و تکرار نتایج ارزیابی را برای بهبود مدلها بدون «بیشبرازش» (اورفیت یا بیشبرازش، سازگاری بیش از حد با دادههای آموزشی است که منجر به عملکرد ضعیف در دادههای جدید میشود) ممکن سازند.
۴. ترویج همکاری فرامرزی بخش عمومی و خصوصی برای تسهیل بهکارگیری هوش مصنوعی و مدیریت ریسک: گفتوگوی مربوط به فناوری به مرزهای ملی محدود نمیشود. ضروری است که ذینفعان بخش عمومی و خصوصی، در حالی که درباره حکمرانی و شفافیت هوش مصنوعی گفتوگو میکنند، وابستگی متقابل زنجیره ارزش هوش مصنوعی را درک و از آن بهرهبرداری کنند. حیاتی است که سیاستگذاران و بازیگران مختلف در زنجیره ارزش هوش مصنوعی درک روشنی از نقشها و مسئولیتهای خود داشته باشند. شرکتها و دولتهای ملی باید برای تسهیل همکاری فرامرزی بخش عمومی و خصوصی به استفاده از مجامع بینالمللی مانند سازمان همکاری و توسعه اقتصادی (OECD)، مشارکت جهانی هوش مصنوع (GPAI)، شبکه بینالمللی مؤسسات ایمنی و سازمان ملل ادامه دهند. این امر به اطمینان از سازگاری رویکردهای مختلف و بهرهبرداری بهینه کشورها و سازمانها از نقاط قوت خود کمک میکند.
***
جهان نباید دستاوردهای محققان، سیاستگذاران و شرکتهایی را که طی سالهای گذشته برای مقابله با ریسکهای هوش مصنوعی تلاش کردهاند، تنها با تمرکز افراطی بر مساله پذیرش از دست بدهد. پاسخهای مورد نیاز برای حل چالشها و ریسکهای مرتبط با هوش مصنوعی، با توانایی بهرهبرداری از فرصتهای این فناوری گره خورده است و میتواند پاسخگویی و امنیت این فناوریها را برای سالهای آینده تضمین کند. اگر بهکارگیری هوش مصنوعی هدف است، آزمایشها، ارزیابیها و حکمرانی هوش مصنوعی روشهای تحقق آن هستند. اولویت هر کشوری باید تلاش جمعی برای پیشبرد سیاستگذاری هوش مصنوعی به شکلی باشد که این واقعیت را منعکس کند.
0 Comments