في تحول لافت في سياساتها، قررت شركة “أنثروبيك” (Anthropic) تخفيف بعض التزاماتها الأساسية المتعلقة بسلامة وأمان نماذج الذكاء الاصطناعي الخاصة بها، والشركة التي طالما سوّقت لنفسها كالبديل الأكثر أمانًا وحذرًا في السوق، يبدو أنها تواجه ضغوطًا تنافسية وتجارية تدفعها لتسريع وتيرة نشر تقنياتها وتوسيع استخداماتها في قطاعات كانت محظورة سابقًا، مما يثير تساؤلات حول التوازن بين الابتكار والمسؤولية.

 

الصراع حول مشاريع حوارية

ووفقًا لموقع “وول ستريت جورنال” (WSJ)، تضمن هذا التراجع تخفيف القيود المفروضة على استخدام تقنيات الشركة من قبل جهات معينة، وهو ما تزامن مع تلقي الشركة إنذارات نهائية من جهات حكومية ودفاعية أمريكية حول ضرورة السماح باستخدام أدواتها في مشاريع حيوية، ويعد هذا التغيير يعكس تنازلات اضطرارية لضمان الفوز بعقود ضخمة.

ويعكس هذا الحدث سياقًا أوسع يتمثل في المعضلة الأخلاقية التي تواجه شركات الذكاء الاصطناعي اليوم، فبينما يتم تأسيس هذه الشركات على مبادئ صارمة لمنع خروج التكنولوجيا عن السيطرة، تصطدم هذه المبادئ بواقع السوق القاسي وحاجات الأمن القومي. ومع اشتداد المنافسة مع شركات أخرى تسعى للاستحواذ على حصص سوقية ضخمة، تجد الشركات الحذرة نفسها مجبرة على إعادة تقييم خطوطها الحمراء لضمان بقائها في صدارة المشهد التقني.

 

الضغوط التجارية والحكومية

وتضطر الشركات التقنية لتغيير مبادئها التأسيسية لتلبية متطلبات العقود العسكرية والحكومية الضخمة التي لا يمكن تجاهلها، ويعد تخفيف قيود الأمان ينذر بسباق متسارع قد يؤدي إلى إطلاق نماذج ذكاء اصطناعي قوية دون ضوابط كافية مستقبلاً.

زيارة مصدر الخبر