كشفت شركة Anthropic عن تحديث جديد لأداة البرمجة الخاصة بنموذجها Claude، يتيح له تنفيذ المهام البرمجية بدرجة أكبر من الاستقلالية، مع الحفاظ على منظومة أمان تهدف إلى تقليل المخاطر المحتملة.
التحديث الجديد جاء في إطار توجه متسارع داخل شركات التكنولوجيا لتطوير أنظمة ذكاء اصطناعي قادرة على العمل بشكل شبه ذاتي، دون الحاجة إلى تدخل المستخدم في كل خطوة، بما يحقق توازنا بين سرعة الإنجاز ومستوى التحكم.
وتحمل الميزة الجديدة اسم “الوضع التلقائي” (Auto Mode) ولا تزال في مرحلة الاختبار وتمنح النظام القدرة على اتخاذ قرارات تنفيذ الأوامر بشكل مستقل، بدلا من الاعتماد الكامل على المطور ويعتمد هذا الوضع على آلية ذكية تقوم بمراجعة كل إجراء قبل تنفيذه، بهدف اكتشاف أي سلوك غير آمن أو أوامر قد تكون ضارة.
مميزات البرمجة الذاتية لنموذج Claude
ومن أبرز ما تركز عليه هذه الآلية، التصدي لهجمات “حقن الأوامر” (Prompt Injection) وهي محاولات خفية لتوجيه الذكاء الاصطناعي نحو تنفيذ تعليمات غير مرغوب فيها وفي حال التأكد من سلامة الإجراء، يتم تنفيذه تلقائيا، بينما يتم حظر أي نشاط مشبوه.
ويعد هذا التوجه امتدادا لمنافسة قوية بين كبرى شركات التقنية مثل OpenAI وGitHub، التي تسعى جميعها لتقديم أدوات برمجية أكثر تطورا تعتمد على الذكاء الاصطناعي إلا أن ما يميز طرح “أنثروبيك” هو منح الذكاء الاصطناعي نفسه صلاحية تحديد متى يحتاج إلى إذن المستخدم وهو ما يمثل نقلة نوعية في مستوى الاستقلالية.
في حين، لم تكشف الشركة بشكل تفصيلي عن المعايير التي تعتمدها للتمييز بين الأوامر الآمنة والخطرة، ما قد يثير بعض القلق لدى المطورين بشأن الشفافية وإمكانية الاعتماد الكامل على هذه التقنية.
وجاء التحديث ضمن منظومة أوسع من الأدوات التي تقدمها الشركة، مثل أدوات مراجعة الأكواد تلقائيا وتوزيع المهام على وكلاء ذكاء اصطناعي وسط توقعات أن يتم طرح “الوضع التلقائي” قريبا لمستخدمي الشركات وواجهات البرمجة (API)، على أن يعمل حاليا مع أحدث إصدارات نماذج Claude.
ومع هذه التطورات، توصي الشركة باستخدام الميزة الجديدة داخل بيئات اختبار معزولة (Sandbox)، بعيدا عن الأنظمة الفعلية، لتقليل أي مخاطر محتملة.
ويعكس هذا التوجه مرحلة جديدة في تطور الذكاء الاصطناعي، حيث لم يعد مجرد أداة مساعدة، بل أصبح قادرا على تنفيذ المهام بشكل مباشر، مع استمرار التحديات المتعلقة بالأمان والموثوقية.

