يتعامل تعديل المحتوى المدعوم بالذكاء الاصطناعي من Koo مع العُري والمواد الإباحية والأخبار المزيفة


موقع المدونات الصغيرة الهندي Koo في طريقه إلى أن يصبح منصة تدمج الذكاء الاصطناعي (AI) والتعلم الآلي لتحسين إدارة المحتوى. في الوقت الذي تنتشر فيه الأخبار المزيفة والمحتوى الإعلامي الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي على وسائل التواصل الاجتماعي ، تعمل شركات التكنولوجيا على تقديم آلية فعالة لمواجهة المخاطر التي تشكلها قضايا مثل المعلومات الخاطئة وانتحال الهوية والمواد الإباحية والمحتوى الرسومي العنيف.

كشفت Koo النقاب عن عدد كبير من الميزات ، باستخدام قوة الذكاء الاصطناعي ، للتأكد من أن تقنيات تعديل المحتوى الخاصة بها فعالة وتساهم في جعل النظام الأساسي مساحة صحية لجميع أصحاب المصلحة.

يبدو أن منصة الشبكة الاجتماعية متطابقة مع منصة Twitter لكن الشركة تدعي أنها تبرز بسبب التزامها بجعل Koo مساحة آمنة ومنصفة.

انضم موقع Indianexpress.com إلى الفريق في Koo في عرض حصري لآخر تحديث للشركة لمعايير الإشراف على المحتوى.

عن العري والمواد الإباحية: إذا نشر أحد المستخدمين صورة عارية على حساب Koo الخاص به ، فسيتلقى إشعارًا على الفور يفيد – “تم حذف Koo هذا بسبب GRAPHIC أو OBSCENE أو SEXUAL CONTENT.”

تقول الشركة إن العملية مؤتمتة بالكامل ويتم تشغيلها في غضون ثوانٍ بعد نشر الصورة. بعد حذف الصورة ، سيتلقى المستخدم إشعارًا آخر يوضح سبب إزالتها ، ويحثه على تقديم استئناف باستخدام نموذج التعويض إذا كان يعتقد أنه كان خطأ. ستظهر هذه الإخطارات باللغة المفضلة التي حددها المستخدم.

“في بلدان مثل الهند والعديد من البلدان الأخرى حول العالم ، تعتبر المواد الإباحية غير قانونية. إن قيام شخص ما بنشر صور عارية أو مواد إباحية من عنوان IP هندي هو عمل غير قانوني ، ويجب على المنصات إزالتها. ولكن مع منصات من الشركات العالمية ، تحدث هذه الأشياء ونلاحظ وجود مثل هذا المحتوى لفترة طويلة. مع Koo ، هناك نية وراء تقديم هذه الميزات. يقول راجنيش جاسوال ، رئيس الشؤون القانونية والسياسات في Koo ، “نحن منبر للأفكار والآراء ونريد أن يأتي الناس ويتفاعلوا مع بعضهم البعض بطريقة صحية”.

وبالمثل ، إذا نشر المستخدم مقطع فيديو يحتوي على عُري أو مواد إباحية ، فسيتم سحبه في حوالي خمس ثوانٍ ، اعتمادًا على طول الفيديو والوقت الذي تستغرقه معالجته. بعد حذف الفيديو ، سيرسل Koo إشعارًا إلى المستخدم. في حالة قيام المستخدم بنشر صورة عارية كصورة العرض الخاصة به ، فسيقوم Koo بحذفها باستخدام آلية مماثلة.

يقول كو إن خوارزميات العُري الخاصة به تحدد الصور العارية الفعلية التي تؤدي إلى المواد الإباحية ، ومع ذلك ، فإنها تستبعد الأعمال الفنية.

راهول ساتياكام ، مدير أول العمليات ، وضع كوو مع تويتر خلال العرض التوضيحي. نشر Satyakam محتوى مشابهًا على المنصة المملوكة لـ Elon Musk يوضح كيف لم يتخذ أي إجراء ضد مثل هذه المنشورات. وبالمثل ، أظهر ساتياكام أيضًا منشورًا فاحشًا شاركه قبل أيام قليلة على Twitter وكيف أنه لا يزال مرئيًا للجميع.

في المشاركات التي تحتوي على عنف: عندما يشارك المستخدم صورة تحتوي على عنف دماء أو رسومي ، سيسمح Koo بالنشر ولكنه يقدم طبقة إضافية من الحذر. ستظهر صورة غير واضحة ، مع الرسالة ، “قد لا يكون هذا المحتوى مناسبًا لجميع المستخدمين. تم وضع رسالة تحذير في مصلحتهم “. سيكون للمستخدمين الحرية في عرض الصورة ، أو الإعجاب ، أو التعليق.

نظرًا لأن بعض هذه الصور قد تكون مرتبطة بتطور إخباري ، فقد تبنى كو نهجًا دقيقًا وتخلص من آلية الحذف الشامل التي شوهدت سابقًا فيما يتعلق بالمحتوى الفاحش.

التمثيل: تستخدم المنصة التعلم الآلي لاكتشاف حالات انتحال الهوية وادعت الشركة أنها تتحسن في ذلك. يتم دعم اكتشاف انتحال الهوية بواسطة الذكاء الاصطناعي ، على الرغم من أن الإجراءات المتخذة تتم يدويًا إلى حد كبير من قبل المشرفين البشريين. كجزء من العرض التوضيحي ، أنشأ ساتياكام حسابًا باسم وصورة شاروخان.

تقوم لوحة معلومات انتحال الهوية الموجودة على النظام الأساسي ، والمخصصة حصريًا لموظفي الشركة ، بمشاركة معلومات مهمة حول المستخدم والشخصية المهمة التي يتم انتحال صفتها. إحدى ميزاته – حذف ناعم – تزيل كافة التفاصيل التي تصل إلى حد انتحال الهوية مثل الاسم وصورة العرض. يقول جاسوال: “حتى إذا لم يكن الشخص موجودًا على منصتنا وحاول شخص ما انتحال شخصيته ، فإننا نضمن اتخاذ الإجراءات اللازمة”.

بعد إزالة المحتوى المنتحل الهوية ، يصدر النظام الأساسي إشعارًا ، “تتم إزالة تفاصيل ملفك الشخصي – تتم إزالة تفاصيل ملفك الشخصي بسبب تكرار انتهاكات إرشادات مجتمع Koo أو المتطلبات القانونية.”

أخبار مزيفة: تدعي المنصة أنها تدير دورة كشف كل نصف ساعة ويمكنها على الفور إزالة الأخبار المزيفة. عندما يشارك المستخدم أخبارًا مزيفة ، تكتشفها لوحة المعلومات وتقدم معلومات تتتبع جذور الأخبار ، وتقدم معلومات كافية إلى الوسيط لاتخاذ إجراء فوري. يتلقى المستخدمون إشعارًا فوق الأخبار المزيفة يفيد بأنها كانت “معلومات غير مؤكدة أو خاطئة: مراجعات بواسطة مدقق الحقائق”. يمكن للمستخدمين أيضًا استئناف المراجعة إذا كانوا يعتقدون أن محتواهم ليس مزيفًا.

التعليقات السامة والبريد العشوائي: كجزء من العرض التوضيحي ، نشر المستخدم تعليقًا مسيئًا على إحدى المشاركات. يحدد كو مثل هذه المنشورات ويخفيها بفعالية. ستكون هذه المنشورات مرئية فقط بمجرد قيام المستخدمين بالنقر فوق الزر التعليقات المخفية. تعمل هذه الميزة على الفور تقريبًا. في حين أن حظر التعليقات من شأنه أن يرقى إلى تقييد حرية التعبير ، وفقًا للشركة ، فإن هذه هي طريقة كو للسماح للناس بالتعبير عن آرائهم.

إلى جانب وضع تدابير السلامة على المحتوى ، قامت Koo أيضًا بدمج ChatGPT لمستخدمي Yellow Tick المختارين. باستخدام روبوت الدردشة AI ، يمكن للمستخدمين كتابة منشورات على أي شيء بالمطالبات.




اكتشاف المزيد من مجلة الإخلاص

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

Comments

No comments yet. Why don’t you start the discussion?

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *