آنتروپیک: هوش مصنوعی جایگزین تیم‌های انسانی شرکت خواهد شد

اشتراک‌گذاری سریع

شرکت آنتروپیک اعلام کرده است که هوش مصنوعی این شرکت به‌زودی مسئولیت برخی وظایف را که در حال حاضر توسط تیم‌های برتر پژوهشی انسانی انجام می‌شود، بر عهده خواهد گرفت. این موضوع پرسش‌های جدیدی درباره آینده مشاغل تخصصی و مهارت‌های بالا ایجاد کرده است.

این شرکت در تازه‌ترین نقشه راه خود تصریح کرده که چنین تحولی ممکن است از سال ۲۰۲۷ آغاز شود. این تغییر در حالی مطرح می‌شود که آنتروپیک در حال شتاب‌دهی به توسعه سامانه‌های خود است و هم‌زمان تلاش می‌کند تا سازوکارهای کنترلی ایمنی را نیز مستقر نماید.

آنتروپیک هشدارهای جدیدی درباره آینده کار انسانی ارائه داده و اعلام کرده که هوش مصنوعی به‌زودی برخی مشاغل پژوهشی را که در حال حاضر توسط پژوهشگران درجه یک انجام می‌شود، تصاحب خواهد کرد. این ادعا در سند تازه‌ای با عنوان Responsible Scaling Policy roadmap منتشر شده است. این سند توضیح می‌دهد که آنتروپیک انتظار دارد سامانه‌های هوش مصنوعی‌اش در طول یک سال آینده چگونه عمل کنند و چه کنترل‌های ایمنی قبل از تحقق این مرحله برقرار خواهد شد.

این سند که به تاریخ ۱۹ فوریه ۲۰۲۶ (۳۰ بهمن ۱۴۰۴) منتشر شده، نشان می‌دهد که سرعت پیشرفت هوش مصنوعی بسیار فراتر از انتظارات بسیاری از تحلیلگران است. هرچند تمرکز اصلی نقشه راه بر هم‌راستاسازی ایمنی و سازوکارهای سیاست‌گذاری حفاظتی است، اما بخشی از آن به دلیل ارزیابی بی‌پرده درباره توانمندی‌های نزدیک به وقوع هوش مصنوعی و پیامدهای آن برای پژوهشگران انسانی فعال در حوزه‌های حساس، در شبکه اجتماعی X به سرعت فراگیر شده است.

در بیانیه مربوط به پژوهش و توسعه خودکار، آنتروپیک توضیح می‌دهد که از اوایل سال ۲۰۲۷ ممکن است سامانه‌های هوش مصنوعی این شرکت توانایی کامل خودکارسازی فعالیت‌های تیم‌های پژوهشگران انسانی را داشته باشند یا حداقل بتوانند این فعالیت‌ها را با شتاب بیشتری پیش ببرند. این شرکت حوزه‌هایی را که پیشرفت سریع در آن‌ها می‌تواند پیامدهای جدی به‌همراه داشته باشد شناسایی کرده است، از جمله انرژی، رباتیک، توسعه تسلیحات و خود هوش مصنوعی.

نگرانی آنتروپیک تنها به سرعت پیشرفت محدود نمی‌شود، بلکه دامنه تأثیرگذاری را نیز در بر می‌گیرد. این شرکت عنوان کرده که پیشرفت در این حوزه‌ها ممکن است امنیت بین‌المللی را تحت تأثیر قرار دهد و توازن قدرت جهانی را مختل سازد. احتمال اینکه ماشین‌ها به‌صورت مستقل مسیر پژوهش در این حوزه‌ها را هدایت کنند، آنتروپیک را واداشته تا اهداف ایمنی داخلی خود را که به‌عنوان تهاجمی توصیف می‌شوند، تدوین کند.

طبق این نقشه راه، آنتروپیک انتظار دارد تا زمان رسیدن هوش مصنوعی‌اش به این سطح، بخش عمده‌ای از اهداف تعیین‌شده را تکمیل کرده باشد. این اهداف شامل تأمین منابع و اتمام پروژه‌های بزرگ امنیت پژوهش، ایجاد سامانه‌های داخلی قدرتمند و توسعه ابزارهای خودکار برای بررسی حملات یا سوءاستفاده‌ها می‌شود. شرکت همچنین اعلام کرده که قصد دارد رویکردی مبتنی بر نظارت کامل نسبت به توسعه داخلی هوش مصنوعی خود حفظ کند و به‌طور مستمر ممیزی‌هایی انجام دهد تا اطمینان حاصل شود مدل‌های آن از اصول تعیین‌شده در Claude’s Constitution پیروی می‌کنند.

هشدار درباره مشاغل پژوهشی در حالی مطرح می‌شود که آنتروپیک از همین حالا دامنه حضور هوش مصنوعی را در فعالیت‌های روزمره مبتنی بر دانش گسترش داده است. اوایل همین ماه، این شرکت از Claude Cowork رونمایی کرد و پس از آن افزونه‌های تخصصی برای صنایع مختلف، از جمله ابزارهایی در حوزه حقوقی، معرفی شدند. عرضه این محصولات باعث ناآرامی در بازار سرمایه شده و سهام شرکت‌های نرم‌افزاری تحت فشار قرار گرفت، زیرا بازارها به احتمال خودکارسازی گسترده در نقش‌های اداری و تخصصی واکنش نشان داده‌اند.