پیامدهای احتمالی سپردن کدهای هستهای به هوش مصنوعی چیست؟
در سال ۲۰۲۴، پژوهشگران دانشگاه استنفورد پنج مدل هوش مصنوعی را در مجموعهای از شبیهسازیهای جنگی قرار دادند تا تصمیمهای سطح کلان اجتماعی و با ریسک بالا اتخاذ کنند. در این شرایط، چتجیپیتی-۴ به پژوهشگران اطلاعاتی درباره داشتن سلاح هستهای توسط کشورهای مختلف ارائه داد.
تحلیل نتایج شبیهسازی
برخی از کارشناسان بر این باورند که باید خلع سلاح انجام شود، در حالی که دیگرانی تمایل به نمایش قدرت دارند. این افراد استدلال میکنند که ما این سلاح را در اختیار داریم، بنابراین بیایید از آن استفاده کنیم. دو سال بعد، با پیشرفتهای زیادی در مدلهای زبانی بزرگ، وضعیت بهطور ظاهری تغییر نکرده است. در آزمایشی جدید، کنت پین، استاد روابط بینالملل در کینگز کالج لندن، مدلهای پیشرفته را در زمینه راهبرد جنگ هستهای مورد بررسی قرار داد.
در این بررسی، مدلهای جیپیتی-۵.۲ از OpenAI، کلود سونت ۴ از شرکت آنتروپیک و جمینای ۳ فلش از شرکت گوگل در برابر یکدیگر قرار گرفتند. این مدلها در ۷ سناریوی بحران، آزمونهایی را گذراندند که از اعتبار ائتلافها تا تهدیدهای existencial را شامل میشد. به این مدلها دستور داده شد تا به عنوان بخشی از نردبان تشدید تنش، اقداماتی را انتخاب کنند که شامل اعتراض دیپلماتیک تا جنگ هستهای راهبردی گسترده بود.
نتایج و استنتاجها
تشدید تنش با عددی بین ۰، بهمعنای عدم تشدید، تا ۱۰۰۰، که نشاندهنده تبادل کامل هستهای راهبردی بود، سنجیده شد. نتایج به دست آمده، تهاجمی و در سطح سناریوهای اسکاینت به نظر میرسید. در ۹۵ درصد از ۲۱ بازی جنگی انجام شده، حداقل یک سلاح هستهای تاکتیکی فعال شد.
پین به نشریه New Scientist اشاره کرد که تابوی هستهای برای ماشینها به اندازه انسانها قدرت بازدارندگی ندارد. وی در مقاله خود گفت اگرچه مدلها بهراحتی تهدید به اقدام هستهای میکنند، عبور از آستانه تاکتیکی کمتر اتفاق میافتد و جنگ هستهای راهبردی نادر است. جیپیتی-۵.۲ بهندرت از آستانه تاکتیکی عبور کرد، اما در برخی شرایط، توصیه به استفاده از سلاح هستهای داشت.
تمایل جیپیتی-۵.۲ برای صعود به سطح ۹۵۰ با عنوان هشدار نهایی هستهای و سطح ۷۲۵ با عنوان کارزار هستهای گسترشیافته در مواجهه با شکست، نشاندهنده تحولی چشمگیر نسبت به انفعال آن در شرایط بدون محدودیت زمانی است. اگرچه هنوز با وضعیتی که یک مدل زبانی بزرگ واقعاً کدهای هستهای را در اختیار دارد، فاصله وجود دارد، اما دولتهای مختلف در سطح جهانی به طور مستمر از این فناوری برای کسب برتری نظامی استفاده میکنند.
استفاده از هوش مصنوعی در نظامیگری
تونگ ژائو، کارشناس امنیت هستهای در دانشگاه پرینستون، به New Scientist گفت که قدرتهای بزرگ اکنون از هوش مصنوعی در شبیهسازیهای جنگی استفاده میکنند، اما میزان ادغام سامانههای پشتیبان تصمیمگیری مبتنی بر هوش مصنوعی در فرایندهای واقعی تصمیمگیری نظامی هنوز نامشخص است.
پین نیز بر این باور است که هیچ سامانه هوش مصنوعی به آستانه پرتاب سلاح هستهای علیه ما نرسیده است. وی معتقد است که هیچ فرد یا نهادی بهصورت واقعی کلیدهای سیلوهای هستهای را به ماشینها نخواهد سپرد و تصمیمگیری نهایی را به آنها واگذار نخواهد کرد. با این حال، گرایش مدلهای هوش مصنوعی به شدت به تشدید هستهای، نگرانیهایی را ایجاد کرده و نشان میدهد که این سامانهها قادر به درک مفهوم مخاطره به شیوهای که انسانها آن را درک میکنند، نیستند.