يمكن أن يكون لقضية YouTube في المحكمة العليا الأمريكية تداعيات على ChatGPT و AI


عندما تقرر المحكمة العليا الأمريكية في الأشهر المقبلة ما إذا كانت ستضعف درعًا قويًا يحمي شركات الإنترنت ، فقد يكون للحكم أيضًا تداعيات على التقنيات سريعة التطور مثل روبوت الدردشة للذكاء الاصطناعي ChatGPT.

ومن المقرر أن يصدر القضاة بحلول نهاية يونيو (حزيران) ما إذا كان من الممكن مقاضاة شركة Alphabet على YouTube بسبب توصيات الفيديو الخاصة بها للمستخدمين. تختبر هذه الحالة ما إذا كان القانون الأمريكي الذي يحمي منصات التكنولوجيا من المسؤولية القانونية للمحتوى المنشور عبر الإنترنت من قبل المستخدمين ينطبق أيضًا عندما تستخدم الشركات الخوارزميات لاستهداف المستخدمين بالتوصيات.

ما تقرره المحكمة بشأن هذه القضايا هو أمر ذو صلة خارج منصات وسائل التواصل الاجتماعي. يمكن أن يؤثر حكمها على الجدل الناشئ حول ما إذا كانت الشركات التي تطور روبوتات محادثة تعمل بالذكاء الاصطناعي مثل ChatGPT من OpenAI ، وهي شركة تُعد Microsoft مستثمرًا رئيسيًا فيها ، أو Bard من Google Alphabet يجب أن تكون محمية من المطالبات القانونية مثل التشهير أو انتهاكات الخصوصية ، وفقًا للتكنولوجيا والخبراء القانونيين.

وأضاف الخبراء أن ذلك يرجع إلى أن الخوارزميات التي تدعم أدوات إنشاء الذكاء الاصطناعي مثل ChatGPT وخليفتها GPT-4 تعمل بطريقة مشابهة إلى حد ما لتلك التي تقترح مقاطع فيديو لمستخدمي YouTube.

قال كاميرون كيري ، الزميل الزائر في معهد بروكينغز للأبحاث في واشنطن وخبير في الذكاء الاصطناعي: “يدور الجدل حقًا حول ما إذا كان تنظيم المعلومات المتاحة عبر الإنترنت من خلال محركات التوصية مهمًا جدًا لتشكيل المحتوى ليصبح مسؤولاً”. “لديك نفس أنواع المشكلات فيما يتعلق ببرنامج الدردشة الآلي.”

لم يستجب ممثلو OpenAI و Google لطلبات التعليق.

خلال المرافعات في فبراير ، أعرب قضاة المحكمة العليا عن عدم اليقين بشأن ما إذا كان يجب إضعاف الحماية المنصوص عليها في القانون ، والمعروف باسم القسم 230 من قانون آداب الاتصالات لعام 1996. وفي حين أن القضية لا تتعلق مباشرة بالذكاء الاصطناعي التوليدي ، أشار القاضي نيل غورسوش إلى أن منظمة العفو الدولية من المحتمل ألا تتمتع الأدوات التي تولد “الشعر” و “الجدل” بمثل هذه الحماية القانونية.

القضية ليست سوى جانب واحد من نقاش ناشئ حول ما إذا كان يجب تطبيق حصانة المادة 230 على نماذج الذكاء الاصطناعي المدربة على مجموعات من البيانات الموجودة على الإنترنت ولكنها قادرة على إنتاج أعمال أصلية.

تنطبق إجراءات الحماية بموجب المادة 230 بشكل عام على محتوى الطرف الثالث من مستخدمي النظام الأساسي التكنولوجي وليس على المعلومات التي ساعدت الشركة في تطويرها. لم تفكر المحاكم بعد في ما إذا كان سيتم تغطية استجابة من روبوت محادثة للذكاء الاصطناعي.

عواقب أفعالهم الخاصة

قال السناتور الديمقراطي رون وايدن ، الذي ساعد في صياغة هذا القانون أثناء وجوده في مجلس النواب ، إن درع المسؤولية يجب ألا ينطبق على أدوات الذكاء الاصطناعي التوليدية لأن مثل هذه الأدوات “تخلق المحتوى”.

وقال وايدن في بيان لرويترز “المادة 230 تتعلق بحماية المستخدمين والمواقع لاستضافة خطاب المستخدمين وتنظيمه. ولا ينبغي أن تحمي الشركات من عواقب أفعالها ومنتجاتها.”

دفعت صناعة التكنولوجيا للحفاظ على القسم 230 على الرغم من معارضة الحزبين للحصانة. قالوا إن أدوات مثل ChatGPT تعمل مثل محركات البحث ، وتوجه المستخدمين إلى المحتوى الموجود ردًا على استفسار.

قال كارل زابو ، نائب الرئيس والمستشار العام لشركة NetChoice ، وهي مجموعة تجارية في صناعة التكنولوجيا: “الذكاء الاصطناعي لا يصنع أي شيء حقًا. إنه يأخذ المحتوى الحالي ويضعه بطريقة مختلفة أو بتنسيق مختلف”.

قال زابو إن ضعف القسم 230 سيشكل مهمة مستحيلة لمطوري الذكاء الاصطناعي ، مما يهدد بتعريضهم لفيض من الدعاوى القضائية التي يمكن أن تخنق الابتكار.

يتوقع بعض الخبراء أن المحاكم قد تتخذ موقفًا وسطًا ، وتدرس السياق الذي أدى فيه نموذج الذكاء الاصطناعي إلى استجابة ضارة محتملة.

في الحالات التي يبدو فيها أن نموذج الذكاء الاصطناعي يعيد صياغة المصادر الحالية ، قد يظل الدرع ساريًا. لكن من المعروف أن روبوتات الدردشة مثل ChatGPT تنشئ استجابات خيالية يبدو أنها لا علاقة لها بالمعلومات الموجودة في مكان آخر عبر الإنترنت ، وهو موقف قال الخبراء إنه من المحتمل ألا يكون محميًا.

قال هاني فريد ، وهو تقني وأستاذ في جامعة كاليفورنيا ، بيركلي ، إن ذلك يوسع الخيال ليقول إن مطوري الذكاء الاصطناعي يجب أن يكونوا محصنين من الدعاوى القضائية على النماذج التي “برمجوها ودربوها ونشروها”.

قال فريد: “عندما تُحمَّل الشركات المسؤولية في الدعاوى المدنية عن الأضرار الناجمة عن المنتجات التي تنتجها ، فإنهم ينتجون منتجات أكثر أمانًا”. “وعندما لا يتحملون المسؤولية ، فإنهم ينتجون منتجات أقل أمانًا.”

القضية التي تبت فيها المحكمة العليا تتضمن استئنافًا من قبل عائلة نوهيمي غونزاليس ، وهي طالبة جامعية تبلغ من العمر 23 عامًا من كاليفورنيا ، قُتلت برصاصة قاتلة في عام 2015 من قبل متشددين إسلاميين في باريس ، ضد رفض محكمة أدنى لعائلتها. دعوى قضائية ضد يوتيوب.

واتهمت الدعوى القضائية شركة جوجل بتقديم “دعم مادي” للإرهاب وزعمت أن يوتيوب ، من خلال خوارزميات منصة مشاركة الفيديو ، أوصى بشكل غير قانوني بمقاطع فيديو من تنظيم الدولة الإسلامية المتشدد ، الذي أعلن مسؤوليته عن هجمات باريس ، لبعض المستخدمين.

© طومسون رويترز 2023


قد يتم إنشاء روابط الشركات التابعة تلقائيًا – راجع بيان الأخلاقيات الخاص بنا للحصول على التفاصيل.

اكتشاف المزيد من مجلة الإخلاص

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

Comments

No comments yet. Why don’t you start the discussion?

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *