استحوذت ChatGPT على العالم من خلال العاصفة. في غضون شهرين من إطلاقه ، وصل إلى 100 مليون مستخدم نشط ، مما يجعله أسرع تطبيق استهلاكي تم إطلاقه على الإطلاق. ينجذب المستخدمون إلى القدرات المتقدمة للأداة – ويقلقون من قدرتها على إحداث اضطراب في مختلف القطاعات. هناك تأثير أقل نقاشًا وهو مخاطر الخصوصية التي يشكلها ChatGPT على كل واحد منا. بالأمس فقط ، كشفت Google النقاب عن ذكاء اصطناعي خاص بها للمحادثة يسمى Bard ، وسيتبعه آخرون بالتأكيد. دخلت شركات التكنولوجيا التي تعمل على الذكاء الاصطناعي في سباق تسلح بشكل جيد وحقيقي.
المشكلة أنها تغذيها بياناتنا الشخصية.
300 مليار كلمة. كم هو لك؟ يدعم ChatGPT نموذج لغة كبير يتطلب كميات هائلة من البيانات للعمل والتحسين. كلما زاد عدد البيانات التي يتم تدريب النموذج عليها ، كان ذلك أفضل في اكتشاف الأنماط ، وتوقع ما سيحدث بعد ذلك ، وإنشاء نص معقول.
قامت شركة OpenAI ، الشركة التي تقف وراء ChatGPT ، بتغذية الأداة بنحو 300 مليار كلمة مأخوذة بشكل منهجي من الإنترنت: كتب ومقالات ومواقع إلكترونية ومنشورات – بما في ذلك المعلومات الشخصية التي تم الحصول عليها دون موافقة.
إذا سبق لك كتابة منشور مدونة أو مراجعة منتج ، أو قمت بالتعليق على مقال عبر الإنترنت ، فهناك فرصة جيدة لاستخدام ChatGPT لهذه المعلومات.
فلماذا هذه مشكلة؟ يعد جمع البيانات المستخدم لتدريب ChatGPT مشكلة لعدة أسباب.
أولاً ، لم يُسأل أي منا عما إذا كان بإمكان OpenAI استخدام بياناتنا. يعد هذا انتهاكًا واضحًا للخصوصية ، خاصةً عندما تكون البيانات حساسة ويمكن استخدامها لتحديد هويتنا أو تحديد أفراد عائلتنا أو موقعنا.
حتى عندما تكون البيانات متاحة للجمهور ، فإن استخدامها يمكن أن ينتهك ما نسميه تكامل النص. هذا مبدأ أساسي في المناقشات القانونية حول الخصوصية. يتطلب عدم الكشف عن معلومات الأفراد خارج السياق الذي تم إنتاجها فيه في الأصل.
أيضًا ، لا تقدم OpenAI أي إجراءات للأفراد للتحقق مما إذا كانت الشركة تخزن معلوماتهم الشخصية ، أو لطلب حذفها. هذا حق مضمون وفقًا للائحة العامة الأوروبية لحماية البيانات (GDPR) – على الرغم من أنه لا يزال قيد الجدل حول ما إذا كان ChatGPT متوافقًا مع متطلبات اللائحة العامة لحماية البيانات (GDPR).
هذا “الحق في النسيان” مهم بشكل خاص في الحالات التي تكون فيها المعلومات غير دقيقة أو مضللة ، والتي يبدو أنها تحدث بشكل منتظم مع ChatGPT.
علاوة على ذلك ، يمكن أن تكون البيانات المقطوعة التي تم تدريب ChatGPT عليها مملوكة أو محمية بحقوق الطبع والنشر. على سبيل المثال ، عندما قمت بدفعها ، أنتجت الأداة الفقرات القليلة الأولى من رواية بيتر كاري “التاريخ الحقيقي لعصابة كيلي” – نص محمي بحقوق النشر.
أخيرًا ، لم تدفع شركة OpenAI مقابل البيانات التي جمعتها من الإنترنت. ولم يتم تعويض الأفراد وأصحاب المواقع والشركات التي أنتجها. هذا جدير بالملاحظة بشكل خاص نظرًا لأن OpenAI قُدرت مؤخرًا بقيمة 29 مليار دولار (حوالي 2،39،700 كرور روبية) ، أي أكثر من ضعف قيمتها في عام 2021.
كما أعلنت OpenAI للتو عن ChatGPT Plus ، وهي خطة اشتراك مدفوعة توفر للعملاء وصولاً مستمراً إلى الأداة ، وأوقات استجابة أسرع وأولوية الوصول إلى الميزات الجديدة. ستساهم هذه الخطة في الإيرادات المتوقعة البالغة 1 مليار دولار (حوالي 8300 كرور روبية) بحلول عام 2024.
لم يكن أي من هذا ممكنًا بدون البيانات – بياناتنا – التي تم جمعها واستخدامها دون إذن منا.
سياسة خصوصية واهية تتضمن مخاطر الخصوصية الأخرى البيانات المقدمة إلى ChatGPT في شكل مطالبات من المستخدم. عندما نطلب من الأداة الإجابة عن الأسئلة أو أداء المهام ، قد نقوم بتسليم معلومات حساسة عن غير قصد ووضعها في المجال العام.
على سبيل المثال ، قد يطلب المحامي من الأداة مراجعة مسودة اتفاقية الطلاق ، أو قد يطلب منها المبرمج التحقق من جزء من التعليمات البرمجية. أصبحت الاتفاقية والرمز ، بالإضافة إلى المقالات الناتجة ، جزءًا من قاعدة بيانات ChatGPT. هذا يعني أنه يمكن استخدامها لمزيد من التدريب على الأداة ، وإدراجها في الردود على مطالبات الآخرين.
علاوة على ذلك ، تجمع OpenAI نطاقًا واسعًا من معلومات المستخدم الأخرى. وفقًا لسياسة الخصوصية الخاصة بالشركة ، فهي تجمع عنوان IP الخاص بالمستخدمين ونوع المتصفح والإعدادات والبيانات المتعلقة بتفاعلات المستخدمين مع الموقع – بما في ذلك نوع المحتوى الذي يتفاعل معه المستخدمون والميزات التي يستخدمونها والإجراءات التي يتخذونها.
كما أنه يجمع معلومات حول أنشطة تصفح المستخدمين بمرور الوقت وعبر مواقع الويب. ومن المثير للقلق أن شركة OpenAI تنص على أنها قد تشارك معلومات المستخدمين الشخصية مع أطراف ثالثة غير محددة ، دون إبلاغهم ، لتحقيق أهداف أعمالهم.
حان الوقت لكبح جماحها؟ يعتقد بعض الخبراء أن ChatGPT هي نقطة تحول للذكاء الاصطناعي – إدراك للتطور التكنولوجي يمكن أن يحدث ثورة في الطريقة التي نعمل بها ونتعلم ونكتب وحتى نفكر. على الرغم من فوائدها المحتملة ، يجب أن نتذكر أن شركة OpenAI هي شركة خاصة هادفة للربح لا تتوافق مصالحها وضروراتها التجارية بالضرورة مع الاحتياجات المجتمعية الأكبر.
يجب أن تكون مخاطر الخصوصية المرتبطة بـ ChatGPT بمثابة تحذير. وكمستهلكين لعدد متزايد من تقنيات الذكاء الاصطناعي ، يجب أن نكون حذرين للغاية بشأن المعلومات التي نشاركها مع هذه الأدوات.
اكتشاف المزيد من مجلة الإخلاص
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.