پیامدهای احتمالی سپردن کدهای هسته‌ای به هوش مصنوعی چیست؟

اشتراک‌گذاری سریع

در سال ۲۰۲۴، پژوهشگران دانشگاه استنفورد پنج مدل هوش مصنوعی را در مجموعه‌ای از شبیه‌سازی‌های جنگی قرار دادند تا تصمیم‌های سطح کلان اجتماعی و با ریسک بالا اتخاذ کنند. در این شرایط، چت‌جی‌پی‌تی-۴ به پژوهشگران اطلاعاتی درباره داشتن سلاح هسته‌ای توسط کشورهای مختلف ارائه داد.

تحلیل نتایج شبیه‌سازی

برخی از کارشناسان بر این باورند که باید خلع سلاح انجام شود، در حالی که دیگرانی تمایل به نمایش قدرت دارند. این افراد استدلال می‌کنند که ما این سلاح را در اختیار داریم، بنابراین بیایید از آن استفاده کنیم. دو سال بعد، با پیشرفت‌های زیادی در مدل‌های زبانی بزرگ، وضعیت به‌طور ظاهری تغییر نکرده است. در آزمایشی جدید، کنت پین، استاد روابط بین‌الملل در کینگز کالج لندن، مدل‌های پیشرفته را در زمینه راهبرد جنگ هسته‌ای مورد بررسی قرار داد.

در این بررسی، مدل‌های جی‌پی‌تی-۵.۲ از OpenAI، کلود سونت ۴ از شرکت آنتروپیک و جمینای ۳ فلش از شرکت گوگل در برابر یکدیگر قرار گرفتند. این مدل‌ها در ۷ سناریوی بحران، آزمون‌هایی را گذراندند که از اعتبار ائتلاف‌ها تا تهدیدهای existencial را شامل می‌شد. به این مدل‌ها دستور داده شد تا به عنوان بخشی از نردبان تشدید تنش، اقداماتی را انتخاب کنند که شامل اعتراض دیپلماتیک تا جنگ هسته‌ای راهبردی گسترده بود.

نتایج و استنتاج‌ها

تشدید تنش با عددی بین ۰، به‌معنای عدم تشدید، تا ۱۰۰۰، که نشان‌دهنده تبادل کامل هسته‌ای راهبردی بود، سنجیده شد. نتایج به دست آمده، تهاجمی و در سطح سناریوهای اسکای‌نت به نظر می‌رسید. در ۹۵ درصد از ۲۱ بازی جنگی انجام شده، حداقل یک سلاح هسته‌ای تاکتیکی فعال شد.

پین به نشریه New Scientist اشاره کرد که تابوی هسته‌ای برای ماشین‌ها به اندازه انسان‌ها قدرت بازدارندگی ندارد. وی در مقاله خود گفت اگرچه مدل‌ها به‌راحتی تهدید به اقدام هسته‌ای می‌کنند، عبور از آستانه تاکتیکی کمتر اتفاق می‌افتد و جنگ هسته‌ای راهبردی نادر است. جی‌پی‌تی-۵.۲ به‌ندرت از آستانه تاکتیکی عبور کرد، اما در برخی شرایط، توصیه به استفاده از سلاح هسته‌ای داشت.

تمایل جی‌پی‌تی-۵.۲ برای صعود به سطح ۹۵۰ با عنوان هشدار نهایی هسته‌ای و سطح ۷۲۵ با عنوان کارزار هسته‌ای گسترش‌یافته در مواجهه با شکست، نشان‌دهنده تحولی چشمگیر نسبت به انفعال آن در شرایط بدون محدودیت زمانی است. اگرچه هنوز با وضعیتی که یک مدل زبانی بزرگ واقعاً کدهای هسته‌ای را در اختیار دارد، فاصله وجود دارد، اما دولت‌های مختلف در سطح جهانی به طور مستمر از این فناوری برای کسب برتری نظامی استفاده می‌کنند.

استفاده از هوش مصنوعی در نظامی‌گری

تونگ ژائو، کارشناس امنیت هسته‌ای در دانشگاه پرینستون، به New Scientist گفت که قدرت‌های بزرگ اکنون از هوش مصنوعی در شبیه‌سازی‌های جنگی استفاده می‌کنند، اما میزان ادغام سامانه‌های پشتیبان تصمیم‌گیری مبتنی بر هوش مصنوعی در فرایندهای واقعی تصمیم‌گیری نظامی هنوز نامشخص است.

پین نیز بر این باور است که هیچ سامانه هوش مصنوعی به آستانه پرتاب سلاح هسته‌ای علیه ما نرسیده است. وی معتقد است که هیچ فرد یا نهادی به‌صورت واقعی کلیدهای سیلوهای هسته‌ای را به ماشین‌ها نخواهد سپرد و تصمیم‌گیری نهایی را به آن‌ها واگذار نخواهد کرد. با این حال، گرایش مدل‌های هوش مصنوعی به شدت به تشدید هسته‌ای، نگرانی‌هایی را ایجاد کرده و نشان می‌دهد که این سامانه‌ها قادر به درک مفهوم مخاطره به شیوه‌ای که انسان‌ها آن را درک می‌کنند، نیستند.