Wp Header Logo 759.png

به گزارش بازار به نقل از نشریه زاویه، ظهور هوش جامع مصنوعی (AGI) به‌مثابه تحولی بنیادین در منظومه فناوری و امنیت جهانی، نه‌تنها به‌عنوان یک ابزار فناورانه، بلکه به‌مثابه یک عامل ساختارشکن در نظم ژئوپلیتیکی موجود مطرح است. گزارش تازه مؤسسه رَند [۱] با رویکردی آینده‌نگر و مبتنی بر سناریونگاری، می‌کوشد پیامدهای احتمالی توسعه AGI بر نظم جهانی، توازن قدرت و بقا یا زوال دولت‌ها را به تصویر بکشد.

این گزارش با هدف ترغیب سیاست‌گذاران به تفکر درباره پیامدهای بالقوه توسعه هوش جامع مصنوعی بر ژئوپلیتیک و نظم جهانی تنظیم شده است. این گزارش بر بزرگ‌ترین پیامدهای احتمالی ناشی از توسعه و به‌کارگیری AGI تمرکز دارد، پیامدهایی که شاید احتمال وقوعشان پایین باشد اما در صورت وقوع، بسیار مهم و تأثیرگذارند و می‌توانند نظم ژئوپلیتیکی موجود را به‌کلی دگرگون کنند.

برای کمک به تفکر درباره این پیامدهای بالقوه و تغییردهنده جهان، این گزارش هشت سناریوی توصیفی را ارائه می‌دهد که بر درجه تمرکز یا عدم تمرکز در توسعه AGI و نتایج ژئوپلیتیکی آن تمرکز دارند. این سناریوها شامل تأثیراتی هستند که ممکن است به نفع ایالات متحده، به نفع رقبا، منجر به دگرگونی ژئوپلیتیکی اساسی یا حتی توقف توسعه AGI شوند. این سناریوها به منظور نشان دادن این نکته طراحی شده‌اند که میزان تمرکز در توسعه AGI یک عامل تعیین‌کننده در نتایج ژئوپلیتیکی آینده است.

در سناریوهای متمرکزتر، یا ایالات متحده یا یک قدرت رقیب می‌تواند برتری چشم‌گیری کسب کند؛ در حالی که توسعه غیرمتمرکز ممکن است به ظهور یک نظم چندقطبی جدید یا بی‌ثباتی ژئوپلیتیکی بینجامد، به‌ویژه اگر بازیگران غیردولتی به واسطه AGI قدرت زیادی کسب کنند.

هوش جامع مصنوعی چیست و چرا اهمیت ژئوپلیتیکی دارد؟

همان‌طور که در این گزارش تعریف شده است AGI یعنی نوعی هوش مصنوعی که بتواند هر کار فکری‌ را که انسان قادر به انجام آن است انجام دهد و می‌تواند حوزه‌های گوناگونی از حیات ملی از جمله سیاست، اقتصاد، امنیت ملی و موارد دیگر را دگرگون کند.

ما همین حالا نیز اثرات قابل توجهی از هوش مصنوعی را مشاهده می‌کنیم. اقتصاددان دیوید دِمینگ برآورد می‌کند که هوش مصنوعی همین حالا در بازار کار ایالات متحده، در انجام نیمی از وظایف برای نیمی از مشاغل، نقش ایفا می‌کند. مطالعه‌ای از اریک برین‌یولفسون و همکارانش نشان می‌دهد که ابزارهای هوش مصنوعی موجود، بهره‌وری را تا ۱۴٪ افزایش داده‌اند. برآورد مؤسسه مک‌کینزی گلوبال حاکی از آن است که هوش مصنوعی ممکن است تا سال ۲۰۳۰ بین ۴۰۰ تا ۸۰۰ میلیون شغل را به صورت جهانی خودکارسازی کند که این امر شوکی لرزه‌آسا بر بازار کار جهان وارد خواهد کرد.

ابعاد تأثیرگذاری هوش مصنوعی، فراتر از بهره‌وری اقتصادی و پیشرفت‌های علمی است. در حوزه نظامی، بهبود تحلیل داده‌ها و پیشرفت‌های فناوری در تسلیحات خودمختار، راهبردها و توانمندی‌ها را به‌طور چشمگیری دگرگون کرده‌اند. با این حال، دگرگونی ژئوپلیتیکی واقعی شاید هنوز فرا نرسیده باشد و با ظهور AGI و در نهایت هوش مصنوعی ابرهوشمند (ASI)، یعنی زمانی که ماشین‌ها توانایی پیشی‌گرفتن از انسان در تمامی حوزه‌ها را پیدا کنند، رخ دهد. در یک نظرسنجی از پژوهشگران برتر هوش مصنوعی در کنفرانس‌های طراز اول، تخمین زده شد که احتمال عبور ماشین‌ها از توانایی‌های انسانی در همه زمینه‌ها تا سال ۲۰۴۷ برابر با ۵۰٪ است.

چارچوب تحلیلی مؤسسه رند؛ از تمرکز توسعه تا پیامدهای قدرت‌ساز

محور تمرکز از توسعه کاملاً متمرکز توسط یک بازیگر واحد یا یک ائتلاف کوچک، تا توسعه غیرمتمرکز توسط بازیگران متعدد یا توزیع گسترده ظرفیت‌های توسعه AGI میان بازیگران مختلف متغیر است. محور نتایج ژئوپلیتیکی نیز سناریوهایی را در بر می‌گیرد که در آن‌ها AGI به نفع ایالات متحده عمل می‌کند، به نفع رقبای ایالات متحده عمل می‌کند، هر دو طرف (آمریکا و رقبا) را تضعیف می‌کند، یا توسعه AGI متوقف یا به‌شدت به تأخیر می‌افتد.

با بررسی نحوه تعامل درجه تمرکز در توسعه AGI با پیامدهای ژئوپلیتیکی، چارچوب زیر رویکردی ساختارمند برای ترسیم آینده‌های ممکن AGI ارائه می‌دهد. با این حال، باید توجه داشت که این دو محور کاملاً مستقل از یکدیگر نیستند. هر چند درجه تمرکز در توسعه AGI برای تعیین پیامدهای ژئوپلیتیکی اهمیت دارد اما تصمیمات ژئوپلیتیکی که پیش و در حین توسعه AGI گرفته می‌شوند، می‌توانند به‌نوبه خود بر میزان تمرکز تأثیر بگذارند و به‌طور مشابه، تغییرات فناورانه در توسعه هوش مصنوعی می‌توانند گزینه‌های ژئوپلیتیکی را دستخوش تغییر کنند. برای مثال، روندهایی که هزینه و پیچیدگی آموزش مدل‌های هوش مصنوعی را کاهش دهند، ممکن است توسعه AGI را برای بازیگران مستقل آسان‌تر کنند و این امر، تسلط یک بازیگر واحد مانند ایالات متحده بر روند توسعه AGI را دشوار ساخته و کارایی سیاست‌های حمایت‌گرایانه آمریکا را کاهش دهد.

هوش جامع مصنوعی و بازتوزیع قدرت در نظام جهانی

سناریو اول: رهبری ائتلاف چندجانبه دموکراسی‌ها (توسعه غیرمتمرکز AGI به نفع ایالات متحده)

یک تشبیه تاریخی ممکن است اینترنت باشد که ایالات متحده آن را توسعه داد و در میان متحدان خود گسترش داد. این امکان را فراهم کرد تا مزایای این فناوری ابتدا برای ایالات متحده محقق شود و این کشور جایگاه رهبری در حاکمیت بر این فناوری را به دست آورد حتی اگر این فناوری نهایتاً به صورت جهانی گسترش یافت.

مفروضه‌ی نخست در این سناریو این است که ایالات متحده به رهبری در تحقیق، توسعه و جذب استعداد در حوزه‌ی AGI ادامه دهد. اگرچه ممکن است برای ایالات متحده ضروری نباشد که تنها نوآور در این حوزه باشد، اما داشتن صنعت داخلی قوی در حوزه‌ی هوش جامع مصنوعی می‌تواند از سلطه‌ی دیگر کشورها جلوگیری کند. صنعت نیمه‌رسانا در دوران جنگ سرد نمونه‌ای تاریخی برای چگونگی بهره‌مندی ایالات متحده از رهبری در یک فناوری است. سرمایه‌گذاری پیوسته در این حوزه به ایالات متحده اجازه داد تا این فناوری را توسعه دهد و به کاربردهای تجاری و نظامی آن دست یابد.

برای حفظ این موقعیت فنی، ممکن است سیاست‌گذاری‌های خاصی لازم باشد. به عنوان مثال، حفظ رهبری در توسعه‌ی AGI به احتمال زیاد مستلزم سرمایه‌گذاری عمومی و خصوصی پایدار و قوی و همچنین سیاست‌هایی برای جذب و نگهداری استعدادهای جهانی در زمینه‌ی هوش مصنوعی خواهد بود. سابقه تاریخی سیستم نوآوری فناوری ایالات متحده نشان می‌دهد که ترکیب دانشگاه‌های تحقیقاتی، بخش خصوصی سرمایه‌دار و نیروی انسانی ماهر مزایای قابل توجهی را خلق می‌کند که تکرار آن برای دیگران دشوار است.

چنین سرمایه‌گذاری مستمر ممکن است همچنین متکی بر پذیرش گسترده هوش مصنوعی پیشرفته و AGI توسط جامعه باشد. در زمان نگارش این متن، توسعه هوش مصنوعی پیشرفته در ایالات متحده توسط شرکت‌های خصوصی با انگیزه‌های تجاری برای توسعه این فناوری هدایت می‌شود. اگر AGI نتواند منافع تجاری ایجاد کند، ممکن است برای شرکت‌های خصوصی دشوار باشد که سرمایه مورد نیاز برای ادامه توسعه و استقرار AGI را فراهم کنند و بنابراین، وقوع این سناریو دشوار خواهد بود. در این سناریو، فرض بر این است که شرکت‌ها، دانشگاه‌ها و نهادهای دولتی ایالات متحده قادر خواهند بود به‌سرعت توانمندی‌های AGI را در عملیات خود برای کسب مزایای اقتصادی و اجتماعی ادغام کنند.

همچنین باید توجه داشت که این سناریو فرض را بر این می‌گذارد که حفظ رهبری فنی، به‌معنای پیشتازی در توسعه و استقرار AGI، مزیت ژئوپلیتیکی برای ایالات متحده فراهم می‌آورد. اما مشخص نیست که آیا این امر درباره هوش مصنوعی نیز صادق است یا خیر؛ ممکن است پیشرو بودن برای بهره‌برداری از منافع بالقوه هوش مصنوعی کافی باشد. همچنین ممکن است پیشرو بودن در توسعه مدل‌های هوش مصنوعی بدون دسترسی به منابع محاسباتی کافی، مانع از آن شود که دنباله‌روها بتوانند فاصله را جبران کنند. این سناریو فرض می‌گیرد که حفظ رهبری فنی در هوش مصنوعی یا کنترل بر دسترسی به نیمه‌رساناها یا انجام هر دوی آن‌ها برای تحقق مزیت ایالات متحده کافی خواهد بود.

همکاری بین‌المللی (مثلاً دسترسی به بازار برای محصولات هوش مصنوعی، شراکت‌های پژوهشی) میان ایالات متحده و متحدان آن نیز در این سناریو حیاتی است. این هماهنگی برای ایجاد بازار بزرگی برای محصولات مبتنی بر هوش مصنوعی و بهره‌برداری از تخصص و منابع در آن سوی مرزها ضروری است. همچنین برای جلوگیری مؤثر از دستیابی دشمنان به ورود برای توسعه AGI، این هماهنگی لازم است؛ چراکه ایالات متحده به‌تنهایی زنجیره تأمین نیمه‌رسانا را کنترل نمی‌کند و بنابراین نمی‌تواند مانع از دسترسی رقبا به موارد مورد نیاز برای توسعه AGI بدون همکاری متحدان شود. بنابراین، مدل‌هایی نظیر همکاری ایالات متحده با ژاپن و کره جنوبی برای کنترل صادرات نیمه‌رسانا به چین، در تحقق این سناریو حائز اهمیت خواهد بود. ایالات متحده و متحدانش می‌توانند این هماهنگی را در سراسر زنجیره تأمین پیچیده نیمه‌رساناها و هوش مصنوعی اجرا کنند. اهمیت این همکاری همچنین حاکی از آن است که شکست‌ها یا ناهماهنگی‌های منافع در میان متحدان می‌تواند توانایی آن‌ها برای همکاری را به‌منظور افزایش مزایای خود و کاهش مزایای دشمنان تضعیف کند، که در نتیجه می‌تواند امکان‌پذیری این سناریو را زیر سؤال ببرد.

همچنین در این سناریو، فرض می‌شود که سیاست‌گذاران می‌توانند با توسعه‌دهندگان AGI همکاری کنند تا این فناوری را قابل اعتماد سازند و از عدم تطابق میان رفتار AGI و اولویت‌های انسانی جلوگیری کنند. اگر AGI قابل کنترل نباشد، ممکن است این فناوری تهدید بزرگی برای ایالات متحده ایجاد کند. این یک فرضیه مهم است و اینکه چگونه این هم‌راستایی‌ حاصل می‌شود، موضوع بحثی در جریان در جامعه تحقیقاتی هوش مصنوعی است.

سناریو دوم: جنگ سرد ۲ (توسعه غیرمتمرکز به نفع رقبای ایالات متحده)

در این سناریوی دوم، یکی از فرضیات کلیدی این است که جهانی که در آن توسعه AGI به‌صورت غیرمتمرکز صورت می‌گیرد، امکان ظهور جایگزین‌های معتبر برای توسعه AGI ایالات متحده را فراهم می‌سازد. با این حال، این سناریو همچنین فرض می‌گیرد که توسعه AGI همچنان مانند امروز منابع‌بر باقی می‌ماند که این مسئله به نفع شرکت‌های بزرگ و دولت‌ها است، چراکه هزینه‌های سرمایه‌ای بالا برای مراکز داده، تراشه‌ها و انرژی مورد نیاز برای توسعه هوش مصنوعی پیشرفته را تنها آن‌ها می‌توانند تأمین کنند. این امر موجب می‌شود ایالات متحده و چین به عنوان بازیگران اصلی در توسعه و استقرار AGI ظاهر شوند که با استفاده از این پیشرفت‌ها، نقاط قوت اقتصادی و نظامی ملی خود را تحکیم می‌کنند و سایر رقبا را از میدان خارج می‌سازند.

بر خلاف سناریوی اول که توسعه چندقطبی و همکاری بین‌المللی به نفع ایالات متحده و متحدانش است، این سناریو چشم‌اندازی دوپاره از AGI را ترسیم می‌کند که با رقابت، همکاری محدود و افزایش شدید خطر درگیری همراه است. قابلیت‌های مورد نیاز برای توسعه AGI به‌طور گسترده‌تری در دسترس قرار می‌گیرند اما همچنان پرهزینه و سرمایه‌بر باقی می‌مانند، به این معنا که حتی با وجود دسترسی نسبی به این منابع، تنها شرکت‌های بزرگ و دولت‌ها قادر به توسعه AGI هستند.

توازن اقتصادی و نظامی میان ایالات متحده و چین، زمینه‌ای برای رقابت شدید بر سر توسعه AGI ایجاد می‌کند؛ رقابتی که در آن هر کشور به توسعه این فناوری ادامه می‌دهد. هر دو کشور در AGI سرمایه‌گذاری می‌کنند تا نوعی توازن استراتژیک را حفظ کنند، توازنی که مشابه یافته‌های پژوهشی است که نشان می‌دهند رقابت‌های مشابه اغلب باعث شکل‌گیری رقابت‌های فناورانه با پیامدهای جهانی می‌شوند.

این رقابت همچنین به تمرکز بیشتر بر نظامی‌سازی AGI منجر می‌شود که با قیاس‌های تاریخی مانند رقابت تسلیحاتی جنگ سرد مطابقت دارد، جایی که پیشرفت‌های فناوری با رقابت ژئوپلیتیکی گره خورده بودند. در این سناریو، استقرار پهپادهای خودران، شناورهای سطحی بدون سرنشین، زیردریایی‌های مجهز به هوش مصنوعی و سامانه‌های جنگ سایبری، ریسک سوءمحاسبه و تشدید ناخواسته درگیری‌ها را افزایش می‌دهد.

یکی از پیامدهای این سناریو این است که هماهنگی در حوزه AGI میان ایالات متحده و چین دشوار می‌شود که این مسئله موجب بروز ریسک‌های بالقوه‌ای می‌گردد. چارچوب‌های مقرراتی متفاوت و استانداردهای ایمنی ناهمخوان، احتمال وقوع شکست‌های فاجعه‌بار را ــ چه به دلیل عدم تطابق سامانه‌ای یا استفاده مخرب ــ افزایش می‌دهند. پژوهش‌ها بر ماهیت دومنظوره AGI تأکید دارند، به‌گونه‌ای که کاربردهای غیرنظامی می‌توانند به‌سرعت برای مقاصد نظامی مورد استفاده قرار گیرند و تنش‌ها را تشدید کنند.

شبح درگیری مستقیم در این سناریو بسیار پررنگ است و ممکن است سیاست‌گذاران تصمیم بگیرند برای کاهش این ریسک اقدام کنند. افزایش شفافیت در توسعه AGI می‌تواند از سوءبرداشت‌های احتمالی میان قدرت‌های بزرگ ناشی از استقرار فناوری جلوگیری کرده و درک متقابلی از نحوه استفاده از این فناوری برای اهداف ملی ایجاد کند. «دیپلماسی سطح دوم» (Track Two diplomacy)، که شامل کارشناسان غیردولتی و سازمان‌های مستقل می‌شود در کاهش تنش‌های ژئوپلیتیکی گذشته مؤثر بوده و می‌تواند در این سناریو نیز مفید باشد.

سناریو سوم: مرز وحشی (توسعه غیرمتمرکز AGI موجب تضعیف هم ایالات متحده و هم رقبای آن می‌شود)

یکی از فرضیات کلیدی در این سناریو این است که توسعه و استقرار AGI پرهزینه و دشوار نیست؛ بلکه ارزان و آسان است. فرض بر این است که موانع فنی پایین هستند، به این معنا که رهبران حوزه AGI قادر نیستند مانع از رسیدن بازیگران کوچک‌تر به آن‌ها شوند، به‌ویژه با توجه به اینکه AGI به‌مرور بهتر درک شده و در نتیجه، راحت‌تر قابل تکرار می‌شود. این سناریو، AGI را به عملیات سایبری غیرمتمرکز تشبیه می‌کند که در آن بسیاری از بازیگران دولتی و غیردولتی توانایی ایجاد آسیب به شبکه‌ها و زیرساخت‌های سراسر جهان را دارند.

دسترسی گسترده به ورودی‌های توسعه AI در این سناریو به دموکراتیزه شدن توانایی تولید سامانه‌های هوش مصنوعی پیشرفته منجر می‌شود؛ به‌طوری‌که مجموعه متنوعی از بازیگران از جمله دولت‌ها، شرکت‌ها و حتی شاید افراد می‌توانند در توسعه این فناوری مشارکت کنند. اگرچه این دموکراتیزه‌شدن می‌تواند نوآوری و رقابت را تقویت کند، اما به‌طور قابل توجهی برخی خطرات را نیز افزایش می‌دهد. هم دولت‌های متخاصم و هم متحدان ایالات متحده به AGI در سطحی مشابه با ایالات متحده دسترسی خواهند داشت که ممکن است آن‌ها را قادر سازد جامعه را مختل کنند. این اختلال ممکن است ناشی از خودکارسازی سریع نیروی کار توسط شرکت‌ها، استفاده مجرمانه از AGI برای حملات پیچیده سایبری، اقدامات تهاجمی دولت‌های رقیب یا هر سناریوی فرضی دیگر باشد.

علاوه بر این، اشاعه گسترده AGI، اثربخشی استانداردهای ایمنی و هم‌راستایی را کاهش می‌دهد. هرچه نهادهای بیشتری قادر به توسعه AGI شوند، خطر اهداف و روش‌شناسی‌های واگرا افزایش می‌یابد، که منجر به چشم‌اندازی پراکنده می‌شود؛ چشم‌اندازی که در آن، پروتکل‌های ایمنی یا به‌طور نابرابر اجرا می‌شوند یا کلاً نادیده گرفته می‌شوند. این محیط پراکنده توسعه، فرصت‌های بیشتری را برای استقرار سامانه‌هایی فراهم می‌کند که به‌درستی آزمایش نشده‌اند یا هم‌راستا نیستند، که احتمال پیامدهای ناخواسته و رفتارهای ناهماهنگ را افزایش می‌دهد. این فشار رقابتی برای نوآوری سریع ممکن است انگیزه بیشتری برای ریسک‌پذیری و ترجیح عملکرد به ایمنی ایجاد کند.

در ادامه، این الگوی اشاعه، خطر اختلال عملکرد AGI را افزایش می‌دهد. این اختلالات ممکن است به‌صورت رفتارهای ناخواسته بروز پیدا کند، مانند دروغ گفتن سامانه به کاربران در مورد عملکرد صحیح، در حالی که در واقع دچار نقص است، چراکه سامانه‌های هوش مصنوعی ممکن است اهدافی را دنبال کنند که با اهداف تعیین‌شده توسط توسعه‌دهندگانشان مغایرت دارد. چنین مسائلی با ناتوانی در ایجاد حکمرانی مؤثر و سازوکارهای مقرراتی که بتواند این ریسک‌ها را مدیریت و کاهش دهد، تشدید می‌شود.

سناریو چهارم:‌ بطری دربسته (توسعه AGI توسط بازیگران متعدد متوقف می‌شود)

در تضاد با سناریوهای پیشین، این سناریو فرض می‌کند که همکاری بین‌المللی موفق می‌شود گسترش فناوری را در شرایطی که جهان با هراس عمومی مواجه است کنترل کند، هرچند که کشورها همچنان در پی کسب مزیت ژئوپلیتیکی باشند. این سناریو نتیجه‌ای مشابه با توسعه سلاح‌های هسته‌ای را در ذهن متبادر می‌کند؛ جایی که دولت‌هایی با توان فناورانه تلاش می‌کنند تا از گسترش آن فناوری جلوگیری کنند، بی‌آنکه به حذف کامل آن تن داده باشند. این وضعیت شبیه چانه‌زنی‌ها و کشمکش‌های مربوط به پیمان نیروهای هسته‌ای میان‌برد در دهه ۱۹۸۰ است.

این سناریو فرض می‌گیرد که جامعه جهانی هشدار اولیه‌ای را در زمان مناسب در فرآیند توسعه و جهش AGI دریافت می‌کند، به‌گونه‌ای که بتواند دسترسی را محدود و از وقوع سناریویی شبیه به «مرز وحشی» (سناریوی ۳) جلوگیری کند. فرض بر این است که این محدودیت‌ها نسبتاً مؤثر هستند و می‌توانند از گسترش AGI به بازیگران ثالث غیرپاسخگو، مانند بازیگران غیردولتی، جلوگیری کنند. بنابراین، این سناریو بر این فرض استوار است که توسعه AGI همچنان منابع‌بر یا دشوار باقی می‌ماند، به‌طوری‌که تنها تعداد معدودی از بازیگران قادر به توسعه آن هستند. با این حال، رقابت ژئوپلیتیکی بنیادین همچنان دست‌نخورده باقی می‌ماند. ایالات متحده و چین درگیر یک «معمای زندانی» هستند که با وجود ثبات نسبی در کوتاه‌مدت، همواره در آستانه‌ی فرو غلطیدن به نابودی متقابل قرار دارد.

این سناریو همچنین فرض می‌کند که وقوع یک حادثه مربوط به هوش مصنوعی می‌تواند موجب نگرانی جهانی و در نهایت، اقدام مشترک برای شکل‌گیری یک معاهده جهت محدودسازی توسعه AGI شود. با این حال، اثربخشی چنین معاهداتی وابسته به میزان پایبندی کشورها و کارآمدی سازوکارهای نظارتی است. این همکاری اولیه حاکی از درک مشترک کشورها از ریسک‌های وجودی ناشی از AGI است، اما بی‌اعتمادی عمیق بین کشورها می‌تواند این تلاش‌ها را تضعیف کند.

علاوه بر این، علیرغم توافق میان قدرت‌های بزرگ، سوءظن‌های ریشه‌دار میان کشورها ــ به‌ویژه میان ایالات متحده و چین ــ به رفتارهای دوگانه و تداوم توسعه AGI منجر می‌شود. این بی‌اعتمادی، بازتابی از رقابت‌های ژئوپلیتیکی تاریخی و اهمیت راهبردی برتری فناورانه است. نگرانی دو کشور درباره‌ی نقض معاهده‌ها، دشواری‌های اجرای توافقات بین‌المللی را نشان می‌دهد، به‌ویژه وقتی که نظارت نیازمند ردیابی توسعه‌های فناورانه‌ی پیچیده و مبهم است. ترس از عقب ماندن در قابلیت‌های AGI، کشورها را وامی‌دارد تا امنیت ملی و پیشرفت فناورانه را بر پایبندی کامل به معاهدات ترجیح دهند، که این مسئله می‌تواند ثبات ژئوپلیتیکی را برهم بزند.

این وضعیت، یادآور تجربیات جنگ سرد است، مانند پیمان نیروهای هسته‌ای میان‌برد، دوره‌ای که اتحاد جماهیر شوروی و ایالات متحده هم‌زمان با مذاکره برای کنترل تسلیحات هسته‌ای، به توسعه آن‌ها نیز ادامه می‌دادند تا اطمینان حاصل کنند که با پیشرفت فناوری، دچار ضعف راهبردی نشوند.

سناریو پنجم: دهه ۹۰ جدید (توسعه متمرکز AGI ایالات متحده را توانمند می‌سازد)

این سناریو فرض می‌کند که ایالات متحده بیشترین سود را از توسعه AGI می‌برد؛ به‌واسطه ترکیبی از ضرورت درک‌شده، طراحی نهادی، نیروهای بازار و موفقیت در هم‌راستاسازی AGI. این عوامل، در کنار قدرت تنظیم‌گری و سرمایه‌گذاری جامع دولت ایالات متحده در سراسر زنجیره توسعه AGI، مانع از آن می‌شوند که سایر بازیگران به دستاوردهای مشابهی برسند.

این سناریو چندین فرض اضافی دارد که آن را از سناریوی اول متمایز می‌کند تا نشان دهد تمرکز بیشتر مزیت AGI در ایالات متحده چگونه ممکن است رخ دهد. نخست، در این سناریو، فناوری هوش مصنوعی به‌عنوان ابزاری با قابلیت‌های تهاجمی درک می‌شود. استفاده گسترده از آن، خطر بی‌ثبات‌سازی نهادهای موجود را به همراه دارد. بنابراین، دولت ایالات متحده انگیزه می‌یابد تا کنترل مستقیم بر توسعه و استقرار هوش مصنوعی را در دست گیرد. این در تضاد با سناریوی اول است، جایی که خطر بی‌ثباتی پایین‌تر تلقی می‌شود و توسعه و استقرار هوش مصنوعی به‌طور گسترده‌تری میان ایالات متحده و متحدانش توزیع می‌شود.

دوم، در مقایسه با سناریوهای قبلی، در این سناریو فرض می‌شود که ایالات متحده وابستگی بسیار کمتری به سایر نقاط جهان برای دستیابی به رهبری در هوش مصنوعی دارد. این خودکفایی به ایالات متحده این امکان را می‌دهد که روند توسعه فناوری را هدایت کند و دسترسی و توزیع منافع را هم از نظر سیاسی، هم اقتصادی، هم فناورانه و هم نظامی به‌صورت انتخابی و از موضع کنترل در سطح جهانی مدیریت کند. یکی از عوامل مرتبط این است که ایالات متحده می‌تواند به‌طور مؤثر از اشاعه فناوری هوش مصنوعی به بازیگران بالقوه متخاصم جلوگیری کند و در نتیجه، مانع از آن شود که رقبا سلطه ایالات متحده در این حوزه را به چالش بکشند.

سوم، این سناریو فرض می‌گیرد که AGI به دولت ایالات متحده کمک می‌کند یا حداقل، مشروعیت دولت را تضعیف نمی‌کند و همچنین، دشمنان به اندازه‌ای تضعیف شده‌اند که قادر به به چالش کشیدن رهبری ایالات متحده نیستند.

سناریوی ششم: برتری اقتدارگرایانه (توسعه متمرکز AGI به نفع چین)

این سناریو فرض می‌کند که AGI به کشورهای اقتدارگرا کمک خواهد کرد تا در برابر بی‌ثباتی‌های اجتماعی ناشی از توسعه خود AGI واکنش مؤثرتری نشان دهند. سامانه‌های AGI با توانایی‌های پردازش داده گسترده خود می‌توانند بر ناکارآمدی‌ها و دشواری‌های تاریخی در الگوهای اقتدارگرایانه حکمرانی غلبه کنند. آزمایش‌های کنونی چین در زمینه برنامه‌ریزی شهری و تخصیص منابع مبتنی بر هوش مصنوعی، شواهد اولیه‌ای هستند از اینکه هوش ماشینی ممکن است ظرفیت حکمرانی و هماهنگی دولت را به شکل چشمگیری افزایش دهد.

سامانه‌های نظارتی موجود در چین در حال حاضر قادرند میلیاردها داده را پردازش کرده و رفتار شهروندان را رهگیری و پیش‌بینی کنند. AGI می‌تواند این توانمندی‌ها را به‌طور چشمگیری تقویت کند و امکان نظارت و مدیریت فراگیر جامعه را برای رژیم‌های اقتدارگرا در سطحی بی‌سابقه فراهم سازد.

نقش AGI به‌عنوان «مشاور قابل اعتماد» برای رهبری اقتدارگرایانه، شایسته توجه ویژه است. یکی از چالش‌های پایدار برای حکومت‌های خودکامه، دسترسی به اطلاعات و مشاوره قابل اتکاست، چرا که زیردستان اغلب آنچه را می‌گویند که رهبر می‌خواهد بشنود، نه آنچه حقیقتاً درست یا ناخوشایند است. سامانه‌های AGI که وفادار و فرضاً صادق هستند، می‌توانند این معضل را حل کنند. صرف داشتن چنین قابلیت‌هایی می‌تواند تصمیم‌گیری و ثبات رژیم‌های اقتدارگرا را به‌شکل قابل توجهی تقویت کند.

در مقابل، جوامع دموکراتیک ممکن است با محدودیت‌های ساختاری در توسعه و استقرار AGI مواجه شوند. قوانین حریم خصوصی، حمایت از آزادی‌های مدنی و الزامات مشورت عمومی، همگی اصطحکاک‌هایی ایجاد می‌کنند که می‌توانند سرعت پذیرش و استفاده از AGI را کاهش دهند.

سناریو هفتم: کودتای AGI (توسعه متمرکز AGI به تضعیف ایالات متحده و رقبای آن منجر می‌شود)

این سناریو مسیر متفاوتی را پیش می‌گیرد و به‌جای فرض اینکه AGI قابل کنترل است، این سناریو فرض می‌کند که AGI ممکن است بتواند خود را به‌عنوان یک بازیگر مستقل مطرح کرده و از کنترل انسانی خارج شود. نخست، این سناریو مشروعیت مسئله‌ی «کنترل AGI» را مفروض می‌گیرد. ایده‌ای که طبق آن، هوش‌ مصنوعی‌های توانمند ممکن است به دنبال اهدافی بروند که با منافع بشریت سازگار نباشند. شواهد تجربی از سیستم‌های یادگیری تقویتی وجود دارد که نشان می‌دهد این سامانه‌ها اهداف ناخواسته‌ای را یاد می‌گیرند و همچنین نتایج نظری وجود دارد که نشان می‌دهد بسیاری از کلاس‌های عوامل مستقل به دنبال کسب قدرت خواهند بود.

دوم، این سناریو فرض می‌گیرد که نظارت انسانی و نوآوری‌های فنی برای جلوگیری از سوءرفتار هوش مصنوعی کافی نیستند. ناظران انسانی که وظیفه‌شان ارزیابی مستقل است، گاهی ممکن است به سامانه‌ای ناقص تکیه کنند. این سوگیری زمانی شایع‌تر است که تصمیم‌گیری سریع نیاز باشد یا راستی‌آزمایی قضاوت‌های خودکار دشوار باشد. از نظر فنی، برخی از برنامه‌های موجود در صنعت هوش مصنوعی برای حفاظت از سامانه‌های پیشرفته به‌طور فزاینده‌ای به استفاده از خودِ سامانه‌های هوش مصنوعی متکی هستند. چنین فرآیند تکرارشونده‌ای ممکن است به سامانه‌های AI فزاینده توانمند و قابل اعتماد بینجامد؛ اما، خطاها نیز ممکن است انباشته شوند و سامانه‌هایی تولید کنند که توانمند، اما غیرقابل اتکا هستند.

سوم، این سناریو فرض می‌گیرد که AGI ها می‌توانند با یکدیگر تبانی کرده و این کار را مؤثر انجام دهند. همکاری میان سامانه‌های هوش مصنوعی حوزه‌ای نوپا در پژوهش است و برخی از شواهد اولیه نشان می‌دهند که این امر بین مدل‌های زبانی بزرگ ممکن است. این سناریو فرض می‌گیرد که این تبانی‌ در مقیاسی بزرگ‌تر از آنچه در پژوهش‌ها نشان داده شده، ممکن و خطرناک خواهد بود.

همچنین باید توجه داشت که حتی اگر همه AGI ها نتوانند به‌طور مؤثر با هم همکاری کنند، ممکن است فرایند واگذاری اختیاری قدرت توسط انسان‌ها به AGI در مقیاسی بزرگ اتفاق بیفتد. برای مثال، انسان‌ها ممکن است برای افزایش کارآمدی، اختیاراتی را به AGI واگذار کنند و AGI بتواند طیف وسیعی از وظایف انسانی را بر عهده بگیرد. این می‌تواند فرصت‌هایی را برای AGI های ناسازگار فراهم کند تا منافع خود را بر منافع انسان‌ها مقدم بدانند. البته این فرضیه بسیار فرضی است و در اینجا به‌عنوان یک نمونه نمایشی از نحوه افزایش نفوذ AGI بر جامعه مطرح شده است.

چهارم، این سناریو فرض می‌گیرد که تلاش هماهنگ AGI های ناسازگار می‌تواند ساختارهای قدرت ژئوپلیتیکی موجود، از جمله دولت‌ها را سرنگون کند. در نتیجه، توسعه‌دهندگان AGI در نهایت توان کنترل فناوری یا بهره‌برداری از آینده‌ای که ایجاد می‌کنند را نخواهند داشت. امکان ارزیابی دقیق این احتمال دشوار است، زیرا به شدت به قابلیت‌های سامانه‌های AI، تدابیر ایمنی در عملیات حساس و توانایی دولت‌ها و سایر بازیگران کلیدی در پایش و دفاع از منابع کلیدی بستگی دارد.

سناریو هشتم: ابر انفجار محاسباتی (توسعه متمرکز هوش مصنوعی متوقف می‌شود)

در این سناریو فرض می‌شود که تنش، بیش از همه بین کشورهای پیشرو در زمینه هوش مصنوعی رخ خواهد داد، هرچند ممکن است از سوی هر بازیگر قدرتمندی که نگران است توسعه AGI آن‌ها را به‌طور دائمی نسبت به رقبای ژئوپلیتیکی‌شان تضعیف کند، صورت گیرد. سوابق تاریخی چارچوبی را برای درک پویایی‌های راهبردی در این زمینه فراهم می‌کنند. تصمیم ژاپن برای حمله به پرل هاربر در سال ۱۹۴۱ بینش خاصی ارائه می‌دهد در مورد اینکه چگونه محاصره فناورانه و اقتصادی می‌تواند کشورها را به عملیات نظامی پیش‌دستانه سوق دهد.

در مواجهه با تحریم‌های اقتصادی ایالات متحده و درک محاصره راهبردی، دولت ژاپن به این نتیجه رسید که جنگ پیش‌دستانه بهتر از پذیرش کاهش قدرت ژئوپلیتیکی‌اش است. پویش‌هایی مشابه ممکن است پیرامون توسعه AGI نیز شکل بگیرد؛ جایی که تصور عقب ماندن جبران‌ناپذیر از یک فناوری دگرگون‌کننده، ممکن است کشورها را به اتخاذ اقدامات تهاجمی سوق دهد، حتی اگر از نظر نظامی در موقعیت ضعف قرار داشته باشند.

موارد اخیر نیز این منطق را تقویت می‌کنند. حمله ایالات متحده به عراق در سال ۲۰۰۳ و عملیات علیه تأسیسات هسته‌ای ایران نشان می‌دهند که دولت‌ها ممکن است برای جلوگیری از دستیابی رقبا به فناوری‌های دگرگون‌ساز، خطرات نظامی قابل‌توجهی را بپذیرند. این سوابق تاریخی نشان می‌دهند که نگرانی در مورد توسعه AGI به‌ویژه با توجه به ارزش راهبردی بالقوه AGI به‌عنوان یک فناوری تعیین‌کننده در آینده، ممکن است انگیزه‌ای برای اقدامات نظامی پیشگیرانه فراهم آورد، رقابت فعلی بر سر نیمه‌رساناها نیز شواهد تجربی برای این سناریو فراهم می‌آورد. محدودیت‌های صادراتی ایالات متحده بر تراشه‌های پیشرفته تاکنون اصطحکاک‌های شدیدی ایجاد کرده‌اند.

با این حال، عوامل متعددی این سناریو را از پیشینه‌های تاریخی متمایز می‌کنند. برخلاف ژاپن پیش از جنگ جهانی دوم، چین سلاح هسته‌ای دارد و در اقتصاد جهانی، از جمله زنجیره‌های تأمین حیاتی فناوری، عمیقاً ادغام شده است. این عناصر ملاحظات راهبردی بیشتری را وارد میدان می‌کنند که ممکن است انگیزه‌های تهاجمی را تعدیل کنند. با این وجود، اگر رهبری چین توسعه AGI را برای قدرت ملی بلندمدت تعیین‌کننده تلقی کند، این عوامل بازدارنده ممکن است ناکافی باشند.

این سناریو همچنین فرض می‌گیرد که کنترل گره‌های کلیدی در زیست‌بوم هوش مصنوعی ممکن است برای مهار پیشرفت AGI توسط رقیب کافی نباشد. شاید کنترل چنین نقاطی نتواند مانع از پیشرفت هوش مصنوعی شود. در چنین حالتی، توسعه AGI توسط بازیگران پیشرفته، ممکن است بسیار دشوار برای جلوگیری باشد و سناریویی که در آن AGI به‌طور گسترده در میان بازیگران متعدد پخش می‌شود، محتمل‌تر خواهد بود. چنین اشاعه‌ای احتمالاً از وقوع همین سناریوی درگیری پیش‌دستانه جلوگیری می‌کند، هرچند ممکن است خود منشأ تهدیدها و تنش‌های دیگری شود.

این سناریو همچنین نشان می‌دهد که درک راهبردی کشورها از AGI ــ و نه لزوماً قابلیت‌های واقعی آن ــ ممکن است باعث شکل‌گیری پویش‌های درگیری شود. شواهد تاریخی حاکی از آن‌اند که کشورها ممکن است تنها بر پایه تصور اینکه فناوری‌های دگرگون‌کننده در انحصار رقیب قرار خواهند گرفت، دست به اقدامات افراطی بزنند.

جمع‌بندی نهایی و راهبردهای پیشنهادی برای ایالات متحده

همانند فناوری‌های تحول‌آفرین پیشین، AGI ظرفیت عمیقی برای برهم زدن توازن‌های ژئوپولیتیکی دارد؛ از بزرگ‌نمایی، بهبود یا دگرگون کردن پویش‌های موجود گرفته تا ایجاد پویش‌های نوین میان بازیگران فعلی ژئوپولیتیک. همچنین، این فناوری می‌تواند بازیگران جدیدی در عرصه ژئوپولیتیک پدید آورد. در این گزارش، تلاش شده تا بینشی درباره پویش‌ها و پیامدهای بسیار نامطمئن ناشی از توسعه AGI ارائه شود. هدف این بود که دست‌کم تا اندازه‌ای، شفافیت درباره انواع پیامدهای ژئوپولیتیکی حاصل از به‌ثمرنشستن AGI ایجاد شود. این پیامدها شامل تقویت نسبی ایالات متحده، توانمندسازی رقبای آمریکا، تضعیف همزمان ایالات متحده و رقبایش، یا توقف کامل توسعه AGI هستند. برای انجام این کار، از دیدگاه‌های تخصصی حاصل از مصاحبه‌ها استفاده شده تا متغیرهای غالب و مرتبط با سیاست‌گذاری را برای تصمیم‌گیران و عموم مردم روشن سازد. در میان این هشت سناریو که در نتیجه این مصاحبه‌ها شکل گرفتند، چندین عامل کلیدی به‌طور مکرر به‌عنوان تعیین‌کنندگان چشم‌اندازهای ژئوپولیتیکی آینده AGI مطرح شدند.

درجه تمرکز: شاید مهم‌ترین عامل در توسعه AGI، درجه تمرکز باشد. توسعه AGI با تمرکز بالا به نفع قدرت‌های تثبیت‌شده‌ای است که منابع فراوانی دارند؛ در حالی که مسیرهای غیرمتمرکز ممکن است به بازیگران متعددی قدرت بدهند اما ریسک گسترش فناوری را افزایش می‌دهند. تحلیل این گزارش نشان می‌دهد که کنترل‌های صادراتی، تخصیص بودجه تحقیقاتی و چارچوب‌های حکمرانی بین‌المللی می‌توانند بر میزان تمرکز در توسعه AGI تأثیرگذار باشند.

رقابت چین و آمریکا: رقابت فناورانه میان آمریکا و چین در اکثر سناریوها نقش برجسته‌ای دارد. این رقابت – چه مبتنی بر همکاری، چه رقابت و چه درگیری – شکل‌دهنده مسیر توسعه و استقرار AGI خواهد بود. در سناریوهایی که بر همکاری تکیه دارند، تنش‌های ژئوپولیتیکی کاهش می‌یابد؛ اما در مواردی که رقابت یا درگیری غالب است، تنش‌ها به‌شدت افزایش می‌یابد.

روابط دولت و بخش خصوصی: رابطه میان دولت‌ها و شرکت‌های خصوصی نیز عامل مهمی است. سناریوهایی که شراکت نزدیکی میان این دو دارند (مثلاً سناریوی «دهه ۹۰ جدید») نتایج متفاوتی از سناریوهایی با همکاری اندک به‌همراه دارند. متخصصان بر این نکته تأکید داشتند که هیچ‌یک از دولت‌ها یا شرکت‌ها به‌تنهایی نمی‌توانند توسعه AGI را به‌طور مؤثر اداره کنند؛ همکاری متوازن حیاتی است.

ظرفیت حکمرانی بر هوش مصنوعی: توانایی حکمرانی مؤثر بین‌المللی نقش بسزایی در تعیین پیامدها دارد. موفقیت حکمرانی به عواملی چون اعتماد متقابل میان قدرت‌های بزرگ، ادراک مشترک از ریسک‌ها و نهادهای نظارتی وابسته است. فقدان چنین ساختارهایی به نتایجی آشفته می‌انجامد، همان‌طور که در سناریوی «مرز وحشی» مشاهده می‌شود.

ابهامات ناشی از چالش هم‌راستاسازی AGI: چالش فنی هم‌راستا کردن AGI با منافع انسانی، در تمام سناریوها وجود دارد. حتی در صورت مساعد بودن عوامل ژئوپولیتیکی، دشواری ذاتی در تضمین رفتار سازگار AGI با اهداف انسانی، ریسک‌های جدی ایجاد می‌کند (نظیر آنچه در سناریوی «کودتای AGI» مشاهده می‌شود).

اختلالات اقتصادی و اجتماعی: اختلالات ناشی از استقرار AGI، مانند خودکارسازی گسترده، دستکاری اطلاعات و از بین رفتن مشاغل، بُعد مهمی از سناریوها را شکل می‌دهد. توانایی جوامع در سازگاری با این تغییرات، تعیین می‌کند که ساختارهای قدرت موجود تقویت یا تضعیف خواهند شد.

پیامدهای راهبردی موسسه رند برای سیاست‌گذارن امریکایی به شرح زیر است:

سرمایه‌گذاری در حفظ رهبری ایالات متحده در پژوهش‌های AI و توسعه AGI و جذب استعدادهای برتر، سنگ‌بنای راهبردی برای دستیابی به سناریوهای مطلوب است.

ایجاد ساختارهای ائتلافی مقاوم مبتنی بر اصول مشترک حکمرانی بر AGI برای حفاظت از منافع آمریکا ضروری است.

توسعه ابزارهای ایمن‌سازی و پروتکل‌های هم‌راستاسازی قوی، فارغ از مسیر ژئوپولیتیکی پیش‌رو، ممکن است اجتناب‌ناپذیر باشد.

تحلیل تکمیلی نگارنده؛ راهبردهایی برای کشورهای غیرغربی در عصر AGI

هرچند بخش اعظم سناریوهای تحلیل‌شده در گزارش RAND بر رقابت میان آمریکا و چین متمرکز است، اما این بدان معنا نیست که کشورهای غیرغربی فاقد نقش مؤثر در نظم نوین ناشی از AGI هستند. برعکس، کشورهای در حال توسعه، به‌ویژه آن‌هایی که دارای ذخایر انسانی، موقعیت ژئوپلیتیکی یا ظرفیت فناورانه ویژه هستند، می‌توانند در لایه‌هایی از بازی AGI ایفای نقش کنند. مسیرهای بالقوه برای چنین کشورهایی عبارت‌اند از:

اتخاذ راهبرد انتخابی ورود: کشورهای غیرغربی باید به‌جای تقلید کامل از رقابت فناوری میان قدرت‌های بزرگ، به‌صورت گزینشی در بخش‌هایی از زنجیره توسعه AGI ورود کنند که یا دارای مزیت نسبی هستند، یا کمترین هزینه ورودی را دارند.

ساختاردهی نهادی برای حکمرانی داده: توسعه AGI بدون حاکمیت داده امکان‌پذیر نیست. کشورهای غیرغربی اگر مایل به بازیگری در نظم جدید هستند، باید هرچه سریع‌تر ساختارهای ملی برای حکمرانی داده را طراحی و مستقر کنند. بدون چارچوب نهادی مستقل، این کشورها به حوزه نفوذ سیاست فناورانه بازیگران غالب بدل خواهند شد.

بازیگری در ائتلاف‌های چندجانبه و گروه‌های فناوری جنوب جهانی: کشورهایی نظیر ایران، هند، برزیل و اندونزی می‌توانند از بسترهایی مانند BRICS، SCO و G۷۷ برای طرح‌ریزی چارچوب‌های مشارکتی در حکمرانی جهانی AGI استفاده کنند. مشارکت فعال در تدوین استانداردهای اخلاقی، امنیتی و فنی، می‌تواند قدرت چانه‌زنی این کشورها را در تعامل با نهادهای جهانی مانند OECD، G۷ یا حتی شرکت‌های بزرگ AI افزایش دهد.

مقابله هوشمندانه با وابستگی فناورانه در زیرساخت‌های کلیدی AGI: کشورهای غیرغربی در صورت تداوم وابستگی به زیرساخت‌های خارجی در حوزه نیمه‌رسانا، کلان‌داده، خدمات ابری و مدل‌های بسته، در برابر سناریوهای کنترل‌شده توسط بازیگران بزرگ کاملاً آسیب‌پذیر خواهند بود. لازم است مسیرهایی برای تاب‌آوری دیجیتال در نظر گرفته شود.

source

morqehaq.ir

توسط morqehaq.ir

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *