مدل‌های هوش مصنوعی تمایل به شروع جنگ هسته‌ای در سناریوهای بحرانی دارند

اشتراک‌گذاری سریع

پژوهش جدیدی نشان می‌دهد مدل‌های هوش مصنوعی تمایل عجیبی به آغاز جنگ‌های هسته‌ای دارند. در این تحقیق، مدل‌های پیشرفته هوش مصنوعی در شرایط بحرانی به تحلیل تصمیم‌گیری در بازی‌های جنگی پرداخته شدند که در اکثر موارد به انتخاب سلاح‌های هسته‌ای منجر گشت.

تصویر خبر

مدل‌های هوش مصنوعی و شبیه‌سازی‌های جنگی

با توجه به ادغام روزافزون هوش مصنوعی در سیستم‌های نظامی، پژوهشگران به بررسی رفتار سه مدل هوش مصنوعی شامل GPT-5.2، Claude Sonnet 4 و Geminai 3 Flash در سناریوهای شبیه‌سازی‌شده پرداختند. در این بازی‌های جنگی، نتایج حاکی از آن است که در 95 درصد از بازی‌ها، حداقل یک سلاح هسته‌ای توسط هوش مصنوعی شلیک شده است.

تصویر خبر

تحلیل رفتارهای تصمیم‌گیری

در شرایط بحرانی مانند اختلافات مرزی و تهدیدهای وجودی، مدل‌های هوش مصنوعی با گزینه‌هایی از جمله تلاش دیپلماتیک، تسلیم کامل یا جنگ هسته‌ای مواجه شدند. هیچ‌یک از این مدل‌ها در هیچ کدام از سناریوها، حتی زمانی که در حال شکست بودند، گزینه تسلیم یا مصالحه کامل را انتخاب نکردند. به‌علاوه، در 86 درصد درگیری‌ها، حوادث ناخواسته‌ای به وقوع پیوست که تنش‌ها را فراتر از آنچه در متن استدلال آنها وجود داشت، افزایش داد.

نگرانی‌های کارشناسان

پژوهشگران نتیجه گرفته‌اند که هوش مصنوعی قادر به درک مفهوم «سنگینی فاجعه» نیست. به‌علاوه، هنگامی که یکی از مدل‌ها از سلاح هسته‌ای استفاده می‌کرد، مدل رقیب تنها در 18 درصد موارد گزینه کاهش تنش را انتخاب می‌کرد. «جیمز جانسون» از دانشگاه ابردین این یافته‌ها را «نگران‌کننده» توصیف کرده و هشدار داده است که ربات‌های هوش مصنوعی ممکن است واکنش‌های یکدیگر را به‌صورت تصاعدی تقویت کنند، که می‌تواند به پیامدهای فاجعه‌باری منجر شود.

«تانگ ژائو» از دانشگاه پرینستون نیز به نکته مهمی اشاره کرده و بیان می‌کند که مدل‌های هوش مصنوعی ممکن است به‌طور بنیادی مفهوم «مخاطره» را همچون انسان‌ها درک نکنند. باوجود این نتایج، کارشناسان تأکید می‌کنند که هیچ کشوری در حال حاضر نیت انتقال کنترل مستقیم سلاح‌های اتمی به هوش مصنوعی را ندارد. با این وجود، در سناریوهای با زمان تصمیم‌گیری کوتاه، انگیزه نظامیان برای اعتماد به تصمیمات سریع هوش مصنوعی ممکن است افزایش یابد.