شرکت Anthropic اعلام کرده که اکنون نزدیک به ۱۰۰ درصد از کدهایش توسط هوش مصنوعی تولید می‌شود؛ بنابراین این پرسش مطرح شده که مهندسان نرم‌افزار دقیقاً چه کاری انجام می‌دهند؟

به گفته بوریس چرنی، مدیر Claude Code، در حالی که هوش مصنوعی بخش عمده کدنویسی را بر عهده گرفته، انسان‌ها مسئولیت‌های تازه‌ای را پذیرفته‌اند؛ از جمله هدایت سامانه‌ها، بازبینی خروجی‌ها و تصمیم‌گیری درباره این‌که گام بعدی توسعه چه باید باشد.

Anthropic در حال حاضر یکی از داغ‌ترین شرکت‌های حوزه هوش مصنوعی به شمار می‌رود و مدل عامل‌محور آن با نام Claude Code به شرکت‌ها در نگارش و خودکارسازی فرایند توسعه نرم‌افزار کمک می‌کند. این ابزار بنا بر گزارش‌ها چنان کارآمد است که در داخل Anthropic، سامانه‌های هوش مصنوعی این شرکت اکنون تقریباً ۱۰۰ درصد کدهای داخلی را تولید می‌کنند. با چنین سطحی از خودکارسازی، بسیاری این سؤال را مطرح کرده‌اند که اگر هوش مصنوعی تقریباً تمام کدهای Anthropic را می‌نویسد، مهندسان دقیقاً چه می‌کنند؟ این شرکت توضیح می‌دهد که مهندسان اکنون به هوش مصنوعی جهت می‌دهند که چه چیزی ساخته شود و ابزارهایی را که اجرای پیاده‌سازی را بر عهده دارند مدیریت می‌کنند.

پیش‌تر، مایک کریگر، مدیر ارشد محصول Anthropic، در نشست ۲۰۲۶ Cisco AI Summit اعلام کرد که سامانه‌های هوش مصنوعی داخلی شرکت که با Claude کار می‌کنند، اکنون تقریباً تمام کدهای آن را تولید می‌کنند. این خبر پس از پیش‌بینی‌های قبلی داریو آمودی، مدیرعامل شرکت، منتشر شد که گفته بود هوش مصنوعی به‌زودی بخش عمده کار کدنویسی شرکت را بر عهده خواهد گرفت.

هرچند این افشاگری ابعاد گسترده خودکارسازی درون شرکت را نشان می‌دهد، اما پرسش‌هایی درباره نقش مهندسان انسانی نیز ایجاد کرده است. آیا این به معنای جایگزینی آن‌ها با هوش مصنوعی است؟ یکی از کاربران در X پرسشی مشابه مطرح کرد و نوشت: «Claude Code اکنون ۱۰۰% کد Claude را می‌نویسد. اما در صفحه مشاغل Anthropic بیش از ۱۰۰ موقعیت توسعه‌دهنده باز وجود دارد؟»

بوریس چرنی، مدیر Claude Code، در پاسخ به این پست گفت که کدنویسی تنها بخشی از کار است. او توضیح داد که مهندسان مسئول ارائه دستور به سامانه‌های هوش مصنوعی، گفت‌وگو با مشتریان، هماهنگی با تیم‌های دیگر و تصمیم‌گیری درباره آنچه باید در مرحله بعد ساخته شود هستند.

او در پاسخ خود نوشت: «کسی باید به Claude دستور بدهد، با مشتریان صحبت کند، با سایر تیم‌ها هماهنگ شود و درباره محصول بعدی تصمیم بگیرد. مهندسی در حال تغییر است و مهندسان برجسته بیش از هر زمان دیگری اهمیت دارند.»

Anthropic همچنین اعلام کرده است که مهندسان همچنان در طراحی سامانه، تصمیم‌های معماری و برنامه‌ریزی بلندمدت نقش نزدیک و فعالی دارند.‌ تغییری مشابه در سایر شرکت‌ها نیز مشاهده می‌شود؛ جایی که هوش مصنوعی به‌طور فزاینده وظیفه خسته‌کننده و زمان‌بر نگارش کد را بر عهده می‌گیرد، در حالی که مهندسان بر بازبینی خروجی‌ها و کار بر طراحی سطح‌بالا و تصمیم‌گیری‌های راهبردی تمرکز می‌کنند. در واقع گفته می‌شود هوش مصنوعی ماهیت کاری را که مهندسان نرم‌افزار انجام می‌دهند تغییر خواهد داد. اما در حوزه کدنویسی، این فعالیت شاید دیگر مسئولیت اصلی آن‌ها مانند گذشته نباشد.

پیش‌تر ایلان ماسک، مدیرعامل xAI، پیش‌بینی کرده بود که تا سال ۲۰۲۶ کدنویسی سنتی ممکن است برای مهندسان نرم‌افزار منسوخ شود. او در ویدیویی که به‌طور گسترده منتشر شد گفت که احتمالاً تا پایان ۲۰۲۶ حتی زحمت کدنویسی را هم به خود نخواهید داد.

طبق گزارش‌ها، مدل هوش مصنوعی Claude متعلق به شرکت Anthropic در عملیات نظامی ایالات متحده برای دستگیری نیکلاس مادورو در ماه گذشته مورد استفاده قرار گرفته است.

لحظاتی وجود دارند که فناوری به‌صورت نامحسوس از یک مرز عبور می‌کند. به نظر می‌رسد این نیز یکی از همان لحظات باشد. مدل هوش مصنوعی Claude متعلق به Anthropic، سامانه‌ای که عمدتاً برای نگارش ایمیل، تحلیل اسناد و پاسخ‌گویی به پرسش‌ها شناخته می‌شود، بنا بر اظهارات افرادی مطلع، در یک عملیات نظامی ایالات متحده با هدف بازداشت نیکلاس مادورو، رئیس‌جمهور ونزوئلا، مورد استفاده قرار گرفته است. این مأموریت که در ماه گذشته انجام شد، شامل بمباران چندین نقطه در کاراکاس بود و مادورو و همسرش را هدف قرار داد.

جزئیات مربوط به نحوه استفاده از Claude همچنان نامشخص باقی مانده است. با این حال، صرف این واقعیت که یک مدل تجاری هوش مصنوعی راه خود را به یک عملیات نظامی باز کرده، موضوعی نیست که بتوان آن را نادیده گرفت.

سخنگوی Anthropic به WSJ گفت: «ما نمی‌توانیم در خصوص اینکه آیا Claude یا هر مدل هوش مصنوعی دیگری در هر عملیات خاص، مورد استفاده قرار گرفته یا خیر، اظهارنظر کنیم. هرگونه استفاده از Claude، چه در بخش خصوصی و چه در نهادهای دولتی، ملزم به رعایت سیاست‌های استفاده ما است که نحوه استقرار آن را تنظیم می‌کند. ما از نزدیک با شرکای خود همکاری می‌کنیم تا از انطباق اطمینان حاصل شود.»

آنچه این موضوع را به‌طور ویژه قابل توجه می‌سازد، دستورالعمل‌های داخلی خود Anthropic است. راهنمای استفاده این شرکت، به‌کارگیری Claude برای تسهیل خشونت، توسعه سلاح یا انجام نظارت را ممنوع می‌کند. با این حال، عملیات مورد بحث شامل بمباران چندین موقعیت در کاراکاس بوده است. این تضاد میان سیاست‌های مکتوب و واقعیت‌های میدان نبرد اکنون در کانون یک مناقشه قرار گرفته است.

Anthropic نخستین توسعه‌دهنده مدل هوش مصنوعی بود که سامانه آن در عملیات‌های طبقه‌بندی‌شده توسط وزارت دفاع آمریکا مورد استفاده قرار گرفته است. این احتمال وجود دارد که سایر ابزارهای هوش مصنوعی نیز در مأموریت ونزوئلا برای وظایف غیرطبقه‌بندی‌شده به کار گرفته شده باشند. در محیط‌های نظامی، چنین سامانه‌هایی می‌توانند در تحلیل حجم عظیمی از اسناد، تولید گزارش‌ها یا حتی پشتیبانی از سامانه‌های پهپاد خودران ایفای نقش کنند.

برای شرکت‌های فعال در حوزه هوش مصنوعی که در صنعتی متراکم و با ارزش‌گذاری بالا رقابت می‌کنند، پذیرش از سوی نهادهای نظامی اهمیت قابل توجهی دارد؛ چرا که نشانه‌ای از اعتماد و توانمندی فنی تلقی می‌شود. در عین حال، این امر مخاطرات اعتباری نیز به همراه دارد.

داریو آمودی، مدیرعامل Anthropic، به‌صورت علنی درباره خطرات ناشی از سامانه‌های پیشرفته هوش مصنوعی سخن گفته و خواستار ایجاد سازوکارهای حفاظتی قوی‌تر و مقررات‌گذاری سخت‌گیرانه‌تر شده است. او نگرانی خود را نسبت به استفاده از هوش مصنوعی در عملیات‌های مرگبار خودمختار و نظارت داخلی ابراز کرده است؛ دو حوزه‌ای که بنا بر گزارش‌ها به نقاط اختلاف در مذاکرات قراردادی با پنتاگون تبدیل شده‌اند.

قرارداد ۲۰۰ میلیون دلاری که تابستان گذشته به Anthropic اعطا شد، اکنون تحت بررسی دقیق قرار گرفته است. گزارش‌های پیشین نشان داده‌اند که نگرانی‌های داخلی در این شرکت درباره نحوه استفاده احتمالی نظامیان از Claude، برخی مقامات دولتی را به بررسی امکان لغو این توافق سوق داده است.