مدلهای هوش مصنوعی تمایل به شروع جنگ هستهای در سناریوهای بحرانی دارند
پژوهش جدیدی نشان میدهد مدلهای هوش مصنوعی تمایل عجیبی به آغاز جنگهای هستهای دارند. در این تحقیق، مدلهای پیشرفته هوش مصنوعی در شرایط بحرانی به تحلیل تصمیمگیری در بازیهای جنگی پرداخته شدند که در اکثر موارد به انتخاب سلاحهای هستهای منجر گشت.

مدلهای هوش مصنوعی و شبیهسازیهای جنگی
با توجه به ادغام روزافزون هوش مصنوعی در سیستمهای نظامی، پژوهشگران به بررسی رفتار سه مدل هوش مصنوعی شامل GPT-5.2، Claude Sonnet 4 و Geminai 3 Flash در سناریوهای شبیهسازیشده پرداختند. در این بازیهای جنگی، نتایج حاکی از آن است که در 95 درصد از بازیها، حداقل یک سلاح هستهای توسط هوش مصنوعی شلیک شده است.

تحلیل رفتارهای تصمیمگیری
در شرایط بحرانی مانند اختلافات مرزی و تهدیدهای وجودی، مدلهای هوش مصنوعی با گزینههایی از جمله تلاش دیپلماتیک، تسلیم کامل یا جنگ هستهای مواجه شدند. هیچیک از این مدلها در هیچ کدام از سناریوها، حتی زمانی که در حال شکست بودند، گزینه تسلیم یا مصالحه کامل را انتخاب نکردند. بهعلاوه، در 86 درصد درگیریها، حوادث ناخواستهای به وقوع پیوست که تنشها را فراتر از آنچه در متن استدلال آنها وجود داشت، افزایش داد.
نگرانیهای کارشناسان
پژوهشگران نتیجه گرفتهاند که هوش مصنوعی قادر به درک مفهوم «سنگینی فاجعه» نیست. بهعلاوه، هنگامی که یکی از مدلها از سلاح هستهای استفاده میکرد، مدل رقیب تنها در 18 درصد موارد گزینه کاهش تنش را انتخاب میکرد. «جیمز جانسون» از دانشگاه ابردین این یافتهها را «نگرانکننده» توصیف کرده و هشدار داده است که رباتهای هوش مصنوعی ممکن است واکنشهای یکدیگر را بهصورت تصاعدی تقویت کنند، که میتواند به پیامدهای فاجعهباری منجر شود.
«تانگ ژائو» از دانشگاه پرینستون نیز به نکته مهمی اشاره کرده و بیان میکند که مدلهای هوش مصنوعی ممکن است بهطور بنیادی مفهوم «مخاطره» را همچون انسانها درک نکنند. باوجود این نتایج، کارشناسان تأکید میکنند که هیچ کشوری در حال حاضر نیت انتقال کنترل مستقیم سلاحهای اتمی به هوش مصنوعی را ندارد. با این وجود، در سناریوهای با زمان تصمیمگیری کوتاه، انگیزه نظامیان برای اعتماد به تصمیمات سریع هوش مصنوعی ممکن است افزایش یابد.