كشفت ميتا عن سياساتها للذكاء الاصطناعي، مؤكدة على أن إتاحته بشكل مفتوح المصدر سيُحسن حياة الناس في جميع أنحاء العالم بشكلٍ ملموس، ومضيفة “نحن ملتزمون ليس فقط بنشر نماذجنا بشكل مفتوح، بل أيضًا بالتعاون في تطوير الذكاء الاصطناعي واستخدامه بشكل مسؤول، فالجهود الجماعية العالمية ضرورية لابتكار ذكاء اصطناعي آمن.”

 

وأوضحت الشركة عبر موقعها الرسمي، “من خلال جعل نماذجنا مفتوحة المصدر، نُمكن المجتمع من مراجعة نماذج Llama باستمرار، والمساعدة في تحديد المشكلات، وتحسينها، مما يجعلها أكثر أمانًا، ونسعى إلى الاستفادة من خبرات الأكاديميين والباحثين الذين يستخدمون نماذجنا، ومنظمات المجتمع المدني، لضمان شمولية نهجنا.”

 

ضمانات ميتا الأخلاقية لميزات Meta AI

طورت الشركة ميزات الصور والصوت الجديدة للذكاء الاصطناعى مع مراعاة السلامة والخصوصية، وفي المناطق التي يُمكن فيها للمستخدمين تحميل الصور إلى Meta AI، اتخذت الشركة خطوات لمنع استخدام Meta AI لتحديد هوية الأشخاص في تلك الصور، مثل ضبط الأمان للمساعدة في اكتشاف المطالبات التي تطلب من Meta AI تحديد هوية الأشخاص في الصورة، وفلترة المخرجات للمساعدة في منع الردود.

 

ما وراء الخوارزمية (1).. 7 معايير AI تلتزم بها شركات التكنولوجيا

 

ما وراء الخوارزمية (2).. 4 مشكلات قانونية تواجهها شركات التكنولوجيا

 

ما وراء الخوارزمية (3).. إنتل تركز على الأمن السيبرانى فى سياسات الـAI

 

وانشأت الشركة ضمانات للمساعدة في الحماية من تعديلات الصور التي قد تؤدي إلى محتوى ضار أو غير لائق، ولأن Meta AI يدعم الصوت أيضا ، وسعوا ضوابط الحذف بحيث يُمكن حذف النصوص الصوتية من سجل محادثات Meta AI في أي وقت.

يجب أن يكون المستخدمون على دراية عند رؤيتهم وتفاعلهم مع محتوى متعلق بالذكاء الاصطناعي، وعند بدء استخدام ميزات الذكاء الاصطناعي التوليدية، توفر الشركة تجارب تعريفية داخل المنتج لشرح كيفية استخدامها على النحو الأمثل.

وتتضمن الصور التي يتم إنشاؤها أو تعديلها بواسطة ميزة Imagine في Meta AI علامات مائية مرئية لتوضيح أن هذه الصور قد تم إنشاؤها باستخدام الذكاء الاصطناعي، والعلامات المائية والبيانات الوصفية غير مرئية.

 

زيارة مصدر الخبر