على الرغم من وجود قواعد رقمية تحدد بوضوح ما يُسمح به وما لا يُسمح به، لا تزال وسائل التواصل الاجتماعي تستضيف ملايين المحتويات التي تنتهك هذه القواعد، وتكمن المشكلة في غياب معايير محددة بوضوح، على سبيل المثال: ما مقدار خطاب الكراهية الذي يُعتبر غير مقبول؟ وما نوع المعلومات المضللة التي يجب حجبها؟

ووفقا لما ذكره موقع “medium”، يسمح هذا الغموض بتسلل المحتوى الضار، لذلك يجب على منشئي المحتوى تحمّل المسؤولية الأخلاقية عما ينشرونه، على سبيل المثال، إذا قام شخص ما بتحميل مقطع فيديو فكاهي يتضمن معلومات مضللة كجزء من مزحة، فيجب تصنيفه بوضوح على أنه ترفيهي.
يمكن أن يساعد إخلاء المسؤولية الذي يوضح نوع المحتوى، كونه خيالياً أو لأغراض تبادل المعرفة، في منع سوء الفهم والحد من انتشار المعلومات الخاطئة.
ويُعد وضع معايير أكثر وضوحاً وتعزيز ممارسات المحتوى الأخلاقية خطوات أساسية لجعل وسائل التواصل الاجتماعي مساحة أكثر أماناً وبناءً، وكذلك يجب عدم تغافل حلقة مهمة جدا وهى من يقوم بمراقبة التزام منصات التواصل؟

 

مراقبة امتثال وسائل التواصل الاجتماعي

تتم مراقبة امتثال وسائل التواصل الاجتماعي لقواعدها الرقمية من خلال مجموعة من الهيئات التنظيمية الحكومية، وفرق الإشراف الخاصة بكل منصة، وآليات الرقابة المستقلة.

1- منصات التواصل الاجتماعي نفسها
تمتلك منصات مثل فيسبوك، وتويتر، ويوتيوب، وإنستجرام فرقًا خاصة بها للإشراف على المحتوى، وأنظمة ذكاء اصطناعي لكشف المحتوى الضار وإزالته،كما تستجيب هذه المنصات لشكاوى المستخدمين وطلبات الإزالة الحكومية.
وتنشر هذه المنصات إرشادات مجتمعية وتقارير شفافية، وتستعين بعض المنصات بشركاء للتحقق من الحقائق (الذكاء الاصطناعي) لرصد المعلومات المضللة.

2. الرقابة المستقلة والمجتمع المدني

تدافع منظمات مثل مؤسسة الحدود الإلكترونية (EFF) ومنظمة “أكسس ناو” عن الحقوق الرقمية، وتراقب مساءلة المنصات، وفي بعض الحالات، تتدخل الهيئات القضائية عند الطعن قانونيًا في قرارات المحتوى.

3. الهيئات الحكومية التنظيمية
تقوم هذه الهيئات بوضع قوانين الإعلام الرقمي وإنفاذها، بما في ذلك إرشادات وسائل التواصل الاجتماعي:

– الهند: تشرف وزارة الإلكترونيات وتكنولوجيا المعلومات (MeitY) ووزارة الإعلام والإذاعة (MIB) على الامتثال لقواعد تكنولوجيا المعلومات (إرشادات الوسطاء ومدونة أخلاقيات الإعلام الرقمي) لعام 2021، وتراقب هذه الهيئات المنصات وتفرض عقوبات على المخالفات.

– أستراليا: تخضع هذه القواعد لقانون السلامة على الإنترنت لعام 2021، ويتولى مفوض السلامة الإلكترونية إنفاذها.

– الاتحاد الأوروبي: تُنفذ المفوضية الأوروبية قانون الخدمات الرقمية (DSA)، الذي يُلزم المنصات بإزالة المحتوى غير القانوني ونشر تقارير الشفافية.

– ألمانيا: يراقب المكتب الاتحادي للعدل الامتثال لقانون NetzDG، الذي يُلزم بإزالة خطاب الكراهية والمحتوى غير القانوني خلال 24 ساعة.

– المملكة المتحدة: من المقرر أن يُنظم مكتب الاتصالات (Ofcom) السلامة على الإنترنت بموجب قانون السلامة على الإنترنت القادم.

في الدول التي لا تتبع نظامًا مركزيًا لقواعد استخدام وسائل التواصل الاجتماعي، كالولايات المتحدة، لا توجد جهة مركزية واحدة تُنظّم هذه الوسائل، بل تتولى جهات حكومية متعددة الإشراف على جوانب مختلفة من المنصات الرقمية، بحسب طبيعة القضية، كالخصوصية، وحماية المستهلك، والأمن القومي، ونزاهة الانتخابات، وغيرها.
يُتيح هذا النهج ميزةً رئيسية، إذ يُمكن لكل جهة إنفاذ قواعد لإزالة المحتوى السلبي من وسائل التواصل الاجتماعي ضمن نطاق اختصاصها، وهي الجهة الأكثر دراية بهذه القواعد.

مع ذلك، ولضمان الاتساق والمساءلة، ينبغي وجود هيئة مركزية أو مجموعة رقابية مسؤولة عن رصد جهود الجهات المعنية، وتتولى هذه المجموعة تدقيق وتوثيق الإجراءات المتخذة، ما يُسهم في الحفاظ على بيئة رقمية أنظف وأكثر مسؤولية عبر مختلف المنصات.

زيارة مصدر الخبر