أعلنت شركة “أنثروبيك” (Anthropic) عن تحديث جوهري في “الدستور” الخاص بنموذجها الذكي “كلود”، يهدف لمنح النموذج القدرة على استنباط وتطبيق مبادئ أخلاقية واسعة النطاق بدلاً من مجرد اتباع قواعد برمجية جامدة.

يسمح هذا التحول للذكاء الاصطناعي بالتعامل مع مواقف معقدة وغير متوقعة بمرونة أكبر، مما يقلل من احتمالية تقديم ردود آلية غير منطقية أو الوقوع في فخاخ التلاعب اللغوي.

وتعد هذه الخطوة جزءاً من رؤية الشركة لبناء “ذكاء اصطناعي دستوري” يتماشى مع القيم الإنسانية بشكل عميق ومستدام.

التعديلات الجديدة

وفقاً لما نشرته مجلة “فورتشن” (Fortune) ، فإن التعديلات الجديدة تتيح لـ “كلود” مراجعة قراراته وتقييمها بناءً على سياق المحادثة وتأثيراتها المحتملة على المستخدم والمجتمع. وأوضحت الشركة أن هذا التطور ليس مجرد تحسين في الأداء، بل هو “إعادة تعريف للعلاقة بين الآلة والأخلاق”، حيث يتم تدريب النموذج على فهم “روح القانون” وليس “نص القانون” فقط. وقد أظهرت الاختبارات الأولية أن النسخة المحدثة أكثر كفاءة في رفض الأوامر الضارة دون الحاجة لقوائم كلمات محظورة تقليدية.

إعادة هيكلة الآمان 

تمثل إعادة الهيكلة هذه تقدمًا تقنيًا مهماً في مجال “الأمان الدلالي” الذي أصبح التحدي الأكبر لشركات الذكاء الاصطناعي في عام 2026. ومن خلال تمكين النموذج من الاستنتاج الأخلاقي المستقل، تسعى أنثروبيك لتقديم حلول أكثر أماناً للمؤسسات والقطاعات الحساسة مثل الرعاية الصحية والقانون.

ويرى المحللون أن هذا النهج يمنح الشركة ميزة تنافسية كبيراً في مواجهة النماذج الأكثر تحررًا، حيث تزداد حاجة العالم إلى ذكاء اصطناعي “مسؤول” يمكن الوثوق به في إدارة مفاصل الحياة الرقمية والواقعية تماماً.

الانتقال من القواعد الجامدة إلى المبادئ

يسمح النظام الجديد للذكاء الاصطناعي بتفسير المبادئ العامة وتطبيقها على حالات فريدة، مما يجعله أكثر قدرة على فهم الفروق الدقيقة في المحادثات البشرية وتجنب الردود التي قد تكون صحيحة تقنياً ولكنها مسيئة أو ضارة سياقياً للمستخدم.

تحسين كفاءة الاستدلال الأخلاقي

تساهم هذه المعمارية في تسريع عمليات اتخاذ القرار داخل النموذج، حيث لم يعد بحاجة لمراجعة آلاف القواعد المقيدة قبل الرد، بل يعتمد على “بوصلة أخلاقية” داخلية توجه مخرجاته بما يضمن السلامة الرقمية ويحقق أهداف المستخدم بفعالية عالية جداً.
 

زيارة مصدر الخبر