أطلقت Anthropic وضع التشغيل التلقائي لـ Claude Code، حيث يقوم الذكاء الاصطناعي بالحكم بشكل مستقل على سلامة العمليات

أخبار Gate، في 25 مارس، أطلقت شركة Anthropic وضع صلاحيات جديد لأداة برمجة الذكاء الاصطناعي Claude Code، يُسمى الوضع التلقائي (auto mode)، والذي يوفر مسارًا ثالثًا بين الموافقة على كل مهمة بشكل فردي وتجاوز الصلاحيات تمامًا. يعتمد الوضع التلقائي على آلية أساسية تتمثل في مراجعة مسبقة لكل عملية استدعاء للأداة بواسطة مصنف، للتحقق مما إذا كانت العملية قد تكون ضارة، ويشمل نطاق المراجعة حذف ملفات جماعي، تسرب بيانات حساسة، تنفيذ تعليمات برمجية خبيثة، وغيرها. العمليات التي تُعتبر آمنة تُسمح تلقائيًا، أما العمليات التي تُعتبر خطرة فتُحظر، ويقوم Claude بمحاولة إكمال المهمة بطرق أخرى. إذا حاول Claude تكرار العمليات التي تم حظرها مرارًا وتكرارًا، يظهر للمستخدم في النهاية إشعار تأكيد. وأكدت شركة Anthropic أن هذا الوضع يقلل من المخاطر لكنه لا يقضي عليها تمامًا، ونصحت باستخدامه في بيئات معزولة. يُتاح الوضع التلقائي حاليًا بشكل معاينة بحثية لمستخدمي فريق التخطيط، وسيحصل مستخدمو المؤسسات وواجهات برمجة التطبيقات على إمكانية الوصول قريبًا. يمكن للمستخدمين تفعيل الوضع عبر الأمر claude --enable-auto-mode، ثم يمكنهم التبديل إليه أثناء الاستخدام بالضغط على Shift+Tab.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات