آنتروپیک: هوش مصنوعی جایگزین تیمهای انسانی شرکت خواهد شد
شرکت آنتروپیک اعلام کرده است که هوش مصنوعی این شرکت بهزودی مسئولیت برخی وظایف را که در حال حاضر توسط تیمهای برتر پژوهشی انسانی انجام میشود، بر عهده خواهد گرفت. این موضوع پرسشهای جدیدی درباره آینده مشاغل تخصصی و مهارتهای بالا ایجاد کرده است.
این شرکت در تازهترین نقشه راه خود تصریح کرده که چنین تحولی ممکن است از سال ۲۰۲۷ آغاز شود. این تغییر در حالی مطرح میشود که آنتروپیک در حال شتابدهی به توسعه سامانههای خود است و همزمان تلاش میکند تا سازوکارهای کنترلی ایمنی را نیز مستقر نماید.
آنتروپیک هشدارهای جدیدی درباره آینده کار انسانی ارائه داده و اعلام کرده که هوش مصنوعی بهزودی برخی مشاغل پژوهشی را که در حال حاضر توسط پژوهشگران درجه یک انجام میشود، تصاحب خواهد کرد. این ادعا در سند تازهای با عنوان Responsible Scaling Policy roadmap منتشر شده است. این سند توضیح میدهد که آنتروپیک انتظار دارد سامانههای هوش مصنوعیاش در طول یک سال آینده چگونه عمل کنند و چه کنترلهای ایمنی قبل از تحقق این مرحله برقرار خواهد شد.
این سند که به تاریخ ۱۹ فوریه ۲۰۲۶ (۳۰ بهمن ۱۴۰۴) منتشر شده، نشان میدهد که سرعت پیشرفت هوش مصنوعی بسیار فراتر از انتظارات بسیاری از تحلیلگران است. هرچند تمرکز اصلی نقشه راه بر همراستاسازی ایمنی و سازوکارهای سیاستگذاری حفاظتی است، اما بخشی از آن به دلیل ارزیابی بیپرده درباره توانمندیهای نزدیک به وقوع هوش مصنوعی و پیامدهای آن برای پژوهشگران انسانی فعال در حوزههای حساس، در شبکه اجتماعی X به سرعت فراگیر شده است.
در بیانیه مربوط به پژوهش و توسعه خودکار، آنتروپیک توضیح میدهد که از اوایل سال ۲۰۲۷ ممکن است سامانههای هوش مصنوعی این شرکت توانایی کامل خودکارسازی فعالیتهای تیمهای پژوهشگران انسانی را داشته باشند یا حداقل بتوانند این فعالیتها را با شتاب بیشتری پیش ببرند. این شرکت حوزههایی را که پیشرفت سریع در آنها میتواند پیامدهای جدی بههمراه داشته باشد شناسایی کرده است، از جمله انرژی، رباتیک، توسعه تسلیحات و خود هوش مصنوعی.
نگرانی آنتروپیک تنها به سرعت پیشرفت محدود نمیشود، بلکه دامنه تأثیرگذاری را نیز در بر میگیرد. این شرکت عنوان کرده که پیشرفت در این حوزهها ممکن است امنیت بینالمللی را تحت تأثیر قرار دهد و توازن قدرت جهانی را مختل سازد. احتمال اینکه ماشینها بهصورت مستقل مسیر پژوهش در این حوزهها را هدایت کنند، آنتروپیک را واداشته تا اهداف ایمنی داخلی خود را که بهعنوان تهاجمی توصیف میشوند، تدوین کند.
طبق این نقشه راه، آنتروپیک انتظار دارد تا زمان رسیدن هوش مصنوعیاش به این سطح، بخش عمدهای از اهداف تعیینشده را تکمیل کرده باشد. این اهداف شامل تأمین منابع و اتمام پروژههای بزرگ امنیت پژوهش، ایجاد سامانههای داخلی قدرتمند و توسعه ابزارهای خودکار برای بررسی حملات یا سوءاستفادهها میشود. شرکت همچنین اعلام کرده که قصد دارد رویکردی مبتنی بر نظارت کامل نسبت به توسعه داخلی هوش مصنوعی خود حفظ کند و بهطور مستمر ممیزیهایی انجام دهد تا اطمینان حاصل شود مدلهای آن از اصول تعیینشده در Claude’s Constitution پیروی میکنند.
هشدار درباره مشاغل پژوهشی در حالی مطرح میشود که آنتروپیک از همین حالا دامنه حضور هوش مصنوعی را در فعالیتهای روزمره مبتنی بر دانش گسترش داده است. اوایل همین ماه، این شرکت از Claude Cowork رونمایی کرد و پس از آن افزونههای تخصصی برای صنایع مختلف، از جمله ابزارهایی در حوزه حقوقی، معرفی شدند. عرضه این محصولات باعث ناآرامی در بازار سرمایه شده و سهام شرکتهای نرمافزاری تحت فشار قرار گرفت، زیرا بازارها به احتمال خودکارسازی گسترده در نقشهای اداری و تخصصی واکنش نشان دادهاند.