تؤدي شركة إنتل دورًا حيويًا في مجال الذكاء الاصطناعي، وتُسهم منتجاتها، من أجهزة وبرامج، في حل أكثر التحديات تعقيدًا التي نواجهها اليوم، فعلى سبيل المثال، تسرع وتيرة الأبحاث ونُحسن نتائج المرضى في مجالي الرعاية الصحية وعلوم الحياة من خلال تحليلات أسرع وأكثر دقة في مجالات الطب الدقيق، والتصوير الطبي، وأتمتة المختبرات، وفي قطاع التصنيع، تحول البيانات إلى رؤى تُساعد العملاء على تحسين أداء المصانع، وتقليل فترات التوقف، وتعزيز السلامة، وزيادة الربحية، أما في مجال البحث، فتعمل مع أكاديميين من مختلف أنحاء العالم لمواجهة التحديات العالمية باستخدام ابتكارات الذكاء الاصطناعي.
معايير إنتل للذكاء الاصطناعى
كشفت شركة إنتل على موقعها الرسمي، أنها تدعم بيئة تنظيمية وسياسية تُسهل التبني المسؤول للذكاء الاصطناعي وخوارزمياته، وتُدافع إنتل عن تدابير سياسات الذكاء الاصطناعي القائمة على المخاطر والمبادئ، وتؤكد إنتل على أهمية معايير الذكاء الاصطناعي الطوعية لضمان التطوير المسؤول والاعتماد العالمي، ولتوجيه اللوائح الناشئة، تُسهم هذه المعايير في تقليل الحواجز التجارية من خلال كونها أساساً للوائح الفنية، مع دعم المنافسة والابتكار في السوق.
ما وراء الخوارزمية (1).. 7 معايير AI تلتزم بها شركات التكنولوجيا
ما وراء الخوارزمية (2).. 4 مشكلات قانونية تواجهها شركات التكنولوجيا
تدعم إنتل نهجًا قائمًا على المخاطر ومتعدد الأطراف لضمان موثوقية الذكاء الاصطناعي، مستندًا إلى المعايير الدولية (مثل ISO/IEC) وأطر العمل، مثل إطار إدارة مخاطر الذكاء الاصطناعي الصادر عن المعهد الوطني للمعايير والتكنولوجيا (NIST)، و توفر هذه المعايير والأطر توجيهات أساسية لتلبية المتطلبات الهامة التي تدعم موثوقية الذكاء الاصطناعي وسلامته، مثل حوكمة البيانات، والشفافية، والدقة، والمتانة، والتحيز.
الذكاء الاصطناعي الآمن
في عصر التحول الرقمي، يُعيد الذكاء الاصطناعي تشكيل الصناعات ويُحسن جوانب حياتنا، ومع ذلك، فإن تاريخ الأمن السيبراني هو صراع دائم للابتكار التكنولوجي لمواكبة التهديدات المتطورة، فمع ازدياد قدرة الذكاء الاصطناعي على إجراء حسابات معقدة، يُمكن للمهاجمين استغلال أدواته لاختراق الثغرات الأمنية، لذا، وجدت أنتل أنه من الضروري تفعيل آليات الأمن السيبراني لمواجهة هذا التهديد المتطور بدلاً من الاعتماد على التدابير الأمنية التقليدية.
يُشكل الذكاء الاصطناعي الآمن أساس التفاعلات الرقمية المستقبلية، حيث يحمي البيانات بتقنيات أمنية متقدمة مُدمجة مباشرةً في الأجهزة، أي نهج للذكاء الاصطناعي الآمن يجب أن يُراعي كلاً من “أمن الذكاء الاصطناعي”، الذي يُعزز بنية الذكاء الاصطناعي ضد التهديدات السيبرانية، و”الذكاء الاصطناعي من أجل الأمن”، الذي يستخدم الذكاء الاصطناعي لتعزيز الأمن السيبراني.
هذا النهج المزدوج يعني أنه مع تطور أنظمة الذكاء الاصطناعي، يُمكن تزويدها بدفاعات برمجية وأجهزة متطورة ضد الثغرات الرقمية، ويجب أن يكون أحد المبادئ الأساسية لسياسات الذكاء الاصطناعي هو تمكين الابتكار دون المساس بالثقة، وينعكس هذا التوازن من خلال:
1) تشجيع توحيد معايير الذكاء الاصطناعي الآمن واعتماده
2) الاستثمار في الأمن السيبراني والبحث والتطوير في مجال الذكاء الاصطناعي.
3) تطوير مهارات الأمن السيبراني في مجال الذكاء الاصطناعي
4) تعزيز التعاون الدولي، ليس فقط بين الحكومات، بل أيضاً بين مختلف الجهات المعنية، مثل تحالف الذكاء الاصطناعي الآمن (CoSAI) والمنصة المفتوحة للذكاء الاصطناعي المؤسسي (OPEA).