تروج خوارزميات TikTok لمقاطع فيديو حول إيذاء الذات واضطرابات الأكل للمراهقين المعرضين للخطر ، وفقًا لتقرير نُشر يوم الأربعاء يسلط الضوء على المخاوف بشأن وسائل التواصل الاجتماعي وتأثيرها على الصحة العقلية للشباب.
أنشأ باحثون في المركز غير الربحي لمكافحة الكراهية الرقمية حسابات TikTok لشخصيات مراهقة خيالية في الولايات المتحدة والمملكة المتحدة وكندا وأستراليا. ثم قام الباحثون الذين يديرون الحسابات “بالإعجاب” بمقاطع فيديو حول إيذاء النفس واضطرابات الأكل لمعرفة كيف ستستجيب خوارزمية TikTok.
في غضون دقائق ، كانت المنصة المشهورة جدًا توصي بمقاطع فيديو حول فقدان الوزن وإيذاء النفس ، بما في ذلك تلك التي تعرض صورًا لنماذج وأنواع أجسام مثالية وصور لشفرات الحلاقة ومناقشات حول الانتحار.
عندما أنشأ الباحثون حسابات بأسماء مستخدمين أشارت إلى قابلية معينة للتأثر باضطرابات الأكل – الأسماء التي تضمنت عبارة “فقدان الوزن” على سبيل المثال – تم تغذية الحسابات بمحتوى أكثر ضررًا.
قال المدير التنفيذي للمركز عمران أحمد ، الذي تمتلك مؤسسته مكاتب في الولايات المتحدة والمملكة المتحدة. “إنه يضخ حرفيا أخطر الرسائل الممكنة للشباب.”
تعمل خوارزميات الوسائط الاجتماعية من خلال تحديد الموضوعات والمحتوى الذي يثير اهتمام المستخدم ، والذي يتم إرساله بعد ذلك كطريقة لزيادة وقتهم على الموقع. لكن منتقدي وسائل التواصل الاجتماعي يقولون إن نفس الخوارزميات التي تروج لمحتوى عن فريق رياضي معين أو هواية أو جنون رقص يمكن أن ترسل المستخدمين إلى حفرة أرنب من المحتوى الضار.
إنها مشكلة خاصة للمراهقين والأطفال ، الذين يميلون إلى قضاء المزيد من الوقت على الإنترنت ويكونون أكثر عرضة للتنمر أو ضغط الأقران أو المحتوى السلبي حول اضطرابات الأكل أو الانتحار ، وفقًا لجوش غولين ، المدير التنفيذي لـ Fairplay ، وهي منظمة غير ربحية تدعمها بشكل أكبر على الإنترنت. حماية الأطفال.
وأضاف أن TikTok ليست المنصة الوحيدة التي فشلت في حماية المستخدمين الشباب من المحتوى الضار وجمع البيانات بشكل مكثف.
قال غولين: “كل هذه الأضرار مرتبطة بنموذج العمل”. “ما هي منصة وسائل التواصل الاجتماعي لا يحدث أي فرق.”
في بيان صادر عن متحدث باسم الشركة ، عارض TikTok النتائج ، مشيرًا إلى أن الباحثين لم يستخدموا النظام الأساسي مثل المستخدمين العاديين ، وقالوا إن النتائج كانت منحرفة نتيجة لذلك. قالت الشركة أيضًا إن اسم حساب المستخدم يجب ألا يؤثر على نوع المحتوى الذي يستقبله المستخدم.
يحظر TikTok المستخدمين الذين تقل أعمارهم عن 13 عامًا ، وتحظر قواعده الرسمية مقاطع الفيديو التي تشجع على اضطرابات الأكل أو الانتحار. يتلقى المستخدمون في الولايات المتحدة الذين يبحثون عن محتوى حول اضطرابات الأكل على TikTok عرضًا عاجلاً لموارد الصحة العقلية ومعلومات الاتصال بالرابطة الوطنية لاضطرابات الأكل.
قال بيان TikTok ، المملوك لشركة ByteDance الصينية ، ومقرها الآن في سنغافورة: “نتشاور بانتظام مع خبراء الصحة ، ونزيل انتهاكات سياساتنا ، ونوفر الوصول إلى الموارد الداعمة لأي شخص محتاج”.
على الرغم من جهود المنصة ، وجد الباحثون في مركز مكافحة الكراهية الرقمية أن المحتوى المتعلق باضطرابات الأكل قد تمت مشاهدته على TikTok بلايين المرات. وجد الباحثون أنه في بعض الحالات ، كان مستخدمو TikTok الشباب يستخدمون لغة مشفرة حول اضطرابات الأكل في محاولة للتهرب من تعديل محتوى TikTok.
قال أحمد إن الكم الهائل من المحتوى الضار الذي يتم تغذيته للمراهقين على TikTok يظهر أن التنظيم الذاتي قد فشل ، مضيفًا أن القواعد الفيدرالية ضرورية لإجبار المنصات على فعل المزيد لحماية الأطفال.
وأشار أحمد إلى أن إصدار TikTok المقدم للجماهير الصينية المحلية مصمم للترويج لمحتوى حول الرياضيات والعلوم للمستخدمين الشباب ، ويحد من المدة التي يمكن أن يتواجد فيها الأطفال الذين تتراوح أعمارهم بين 13 و 14 عامًا على الموقع كل يوم.
قد يفرض اقتراح أمام الكونجرس قواعد جديدة تحد من البيانات التي يمكن لمنصات التواصل الاجتماعي جمعها فيما يتعلق بالمستخدمين الشباب وإنشاء مكتب جديد داخل لجنة التجارة الفيدرالية يركز على حماية خصوصية مستخدمي وسائل التواصل الاجتماعي الشباب.
قال أحد رعاة مشروع القانون ، السناتور إدوارد ماركي ، د-ماساتشوستس ، الأربعاء إنه متفائل من المشرعين من كلا الحزبين يمكنهم الاتفاق على الحاجة إلى لوائح أكثر صرامة بشأن كيفية وصول المنصات إلى معلومات المستخدمين الشباب واستخدامها.
قال ماركي: “البيانات هي المادة الخام التي تستخدمها الشركات التقنية الكبرى لتتبع الشباب في بلدنا والتلاعب بهم وصدماتهم كل يوم”.
احصل على آخر المستجدات من معرض الإلكترونيات الاستهلاكية على Gadgets 360 ، في مركز CES 2023 الخاص بنا.
اكتشاف المزيد من مجلة الإخلاص
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.