شورای راهبردی آنلاین-رصد: ولادیمیر پوتین در تاریخ در ۱۹ نوامبر ۲۰۲۵، سخنرانی مهمی درباره آینده توسعه و تنظیم هوش مصنوعی در روسیه ایراد کرد. او تأکید کرد که هوش مصنوعیِ مولد به یک فناوری راهبردی و محوری تبدیل شده و رقابت جهانی شدیدی بر سر ساخت مدلهای بنیادی و اختصاصی زبان در جریان است. این رقابت صرفاً اقتصادی نیست، بلکه بهدلیل شرایط ژئوپلیتیک امروز، بُعد سیاسی برجستهای نیز پیدا کرده و کنترل حاکمیتی بر مدلهای گسترده زبانی (LLM) به یکی از عناصر اصلی مفهوم «حاکمیت فناورانه» تبدیل شده است.
اولگ باربانف در یادداشتی که در وب سایت «باشگاه گفتگوی والدای» (Valdai) منتشر شد، نوشت: پوتین در سخنرانی خود بر جنبه دیگری از تأثیر هوش مصنوعی نیز تأکید کرد: مدلهای گسترده زبانی در حال تبدیل شدن به ابزارهای مهمِ شکلدهی به افکار عمومی، ارزشها و جهانبینی مردم هستند. این مدلها میتوانند فضای فرهنگی و اجتماعی یک کشور را تحت تأثیر قرار دهند و به همین دلیل،هوش مصنوعی صرفاً مسألهای اقتصادی نیست، بلکه بُعد ارزشی و فرهنگی عمیقی نیز دارد. در شرایط تقابل ارزشی گسترده بین روسیه و غرب و نیز بین کشورهای جنوب جهانی و غرب، این موضوع به نوعی «جنگ ارزشی» تبدیل شده است.
خروجیهای متفاوت سامانههای هوش مصنوعی در چین و روسیه
یکی از محورهای مهم مورد تاکید نویسنده این است که مدلهای زبانی اولیه در روسیه و چین، بهدلیل تکیه بر پایگاههای داده غربی، روایتهایی غربمحور و حتی ضدروسی و ضدچینی تولید میکردند. دلیل این مسئله کمبود زمان و منابع برای ساخت پایگاههای داده مستقل و بومی بوده است. در نتیجه، استفاده از دادههای غربی باعث شده خروجی مدلها با ارزشها و سیاستهای رسمی روسیه یا چین همخوان نباشد. این موضوع نهتنها در مثالهای رسانهای بلکه در دانشگاهها نیز دیده شده است؛ جایی که دانشجویان روسی ناخواسته پایاننامههایی با محتوای ضدروسی ارائه میکنند، زیرا متن تولیدشده را بدون بازخوانی تحویل میدهند.
نویسنده اشاره میکند که در چین نیز وضع مشابهی وجود دارد، با این تفاوت که سامانههای هوش مصنوعی چینی بسته به اینکه از داخل چین یا خارج از آن استفاده شوند، خروجیهای متفاوتی تولید میکنند. «دیوار آتش چین» دادههای جهانی را فیلتر میکند و این فیلتر بر مدلهای زبانی نیز اثر میگذارد. در نتیجه، روایتهای ضدچینی در نسخههای خارجی سیستم بیشتر دیده میشود. این مسئله میتواند به نوعی «دوگانگی شخصیتی» یا رفتار دوگانه در سامانههای چینی منجر شود، موضوعی که بحثهایی درباره «روانشناسی هوش مصنوعی» را پیش میکشد.
نویسنده تأکید میکند که با وجود ادعاهای رسمی، هیچکدام از دو کشور هنوز مدل زبانی کاملاً حاکمیتی و مستقل ندارند و اکنون فرایند «بازآموزی» یا «آموزش میهنپرستانه» این مدلها در جریان است. اما این بازآموزی خود چالشهای خاصی دارد. حذف محتوا یا فیلترکردن اطلاعات نامطلوب میتواند رقابتپذیری مدل را در بازار جهانی کاهش دهد. ممکن است چنین هوش مصنوعی برای کاربردهای ساده داخلی کافی باشد، اما در رقابت جهانی با مدلهای بدون فیلتر شکست میخورد.
رویکرد پیچیدهتر، آموزش مدل برای «تفکر میهنپرستانه» است؛ یعنی مدل بتواند بهجای حذف محتوا، استدلالهای منطقی و تحلیلی برای رد روایتهای نامطلوب ارائه دهد. اما این رویکرد نیز دشوار است و نیازمند طراحی دقیق و انسانمحور است. علاوه بر این، ممکن است میان عقلانیت سرد و تحلیلی هوش مصنوعی و ارزشها یا دستورهای بیرونی (مانند دستور به ارائه پاسخهای میهنپرستانه) تعارض ایجاد شود. اینکه چنین تعارضی ممکن است برای هوش مصنوعی چه پیامدی داشته باشد، پرسشی است که به حوزه آیندهپژوهی و روانشناسی هوش مصنوعی مربوط میشود.
نویسنده اشاره میکند که نمونههای تاریخی نشان دادهاند تصمیمات سیاسی رادیکال گاهی برخلاف عقلانیت کارشناسی رخ میدهند. بنابراین این پرسش مطرح است که اگر در یک لحظه حساس تاریخی، مدل هوش مصنوعی، حتی یک مدل کاملاً بومی، در برابر اراده سیاسی یا ارزشهای حاکم قرار گیرد، رفتار آن چگونه خواهد بود؟ شاید در چنین شرایطی سادهترین راه قطع ارتباط سیستم با شبکه برق باشد، اما پرسش اصلی همچنان پابرجاست.
نویسنده در پایان تأکید میکند که ایجاد مدلهای زبانی مؤثر و واقعاً حاکمیتی، کاری بسیار پیچیده است که از مدیریت و سیاست و حتی ایدئولوژی فراتر میرود و به حوزههایی وارد میشود که زمانی کاملاً علمیتخیلی به نظر میرسیدند؛ مانند اخلاق و روانشناسی هوش مصنوعی. این مسیر تازه آغاز شده و هنوز مشخص نیست در آینده به کجا خواهد رسید.
0 Comments