يبدو ChatGPT تمامًا مثلنا. كيف يكون ذلك أمرا جيدا؟


في عام 1950 ، كتب Alan Turing ، عالم الكمبيوتر البريطاني الذي فكك شفرة Enigma خلال الحرب العالمية الثانية ، مقالًا طرح فيه سؤالًا يبدو سخيفًا: “هل يمكن للآلات أن تفكر؟” بدا أن الظهور الأول في أواخر العام الماضي لـ ChatGPT النابض بالحياة يجعلنا أقرب إلى الإجابة. بين عشية وضحاها ، خرج روبوت محادثة مكون بالكامل من السيليكون من الظلال الرقمية. يمكنه صياغة النكات وكتابة نسخة إعلانية وتصحيح رمز الكمبيوتر والتحدث عن أي شيء وكل شيء. يتم بالفعل وصف هذا الواقع الجديد المقلق بأنه أحد “نقاط التحول” في تاريخ الذكاء الاصطناعي.

لكن لقد مر وقت طويل. وهذا الخلق بالذات كان جاريًا في مختبرات علوم الكمبيوتر لعقود.

كاختبار لاقتراحه لآلة تفكير ، وصف تورينج “لعبة تقليد” ، حيث يقوم الإنسان باستجواب اثنين من المشاركين الموجودين في غرفة أخرى. سيكون أحدهما إنسانًا من لحم ودم ، والآخر كمبيوتر. سيتم تكليف المحقق بمعرفة أيهما من خلال طرح الأسئلة عبر “الطابعة عن بُعد”.

تخيل تورينج أن حاسوبًا ذكيًا يجيب على الأسئلة بسهولة كافية بحيث يفشل المحقق في التمييز بين الإنسان والآلة. وبينما أقر بأن أجهزة الكمبيوتر الخاصة بجيله لا يمكن أن تقترب من اجتياز الاختبار ، فقد توقع أنه بحلول نهاية القرن ، “سيكون المرء قادرًا على التحدث عن تفكير الآلات دون توقع حدوث تناقض”.

ساعدت مقالته في بدء البحث في الذكاء الاصطناعي. لكنها أثارت أيضًا نقاشًا فلسفيًا طويل الأمد ، حيث أدت حجة تورينج إلى تهميش أهمية الوعي البشري. إذا كان بإمكان الآلة فقط محاكاة مظهر التفكير – ولكن ليس لديها أي وعي بفعل ذلك – فهل كانت حقًا آلة تفكير؟

لسنوات عديدة ، طغى التحدي العملي المتمثل في بناء آلة يمكن أن تلعب لعبة التقليد على هذه الأسئلة الأعمق. كانت العقبة الرئيسية هي اللغة البشرية ، والتي ، على عكس حساب المسائل الرياضية المعقدة ، أثبتت أنها مقاومة بشكل ملحوظ لتطبيق قوة الحوسبة.

لم يكن هذا بسبب نقص المحاولة. عاد هاري هوسكي ، الذي عمل مع تورينج ، إلى موطنه في الولايات المتحدة لبناء ما وصفته صحيفة نيويورك تايمز بأنه “عقل كهربائي” قادر على ترجمة اللغات. كان هذا المشروع ، الذي ساعدت الحكومة الفيدرالية في تمويله ، مدفوعًا بضرورات الحرب الباردة التي جعلت الترجمة من الروسية إلى الإنجليزية أولوية.

إن فكرة أن الكلمات يمكن ترجمتها بطريقة فردية – مثل فك الشفرة – سرعان ما دخلت في تعقيدات بناء الجملة ، بغض النظر عن الغموض الكامن في الكلمات الفردية. هل تشير كلمة “نار” إلى ألسنة اللهب؟ نهاية العمل؟ زناد البندقية؟

أدرك وارن ويفر ، أحد الأمريكيين الذين وقفوا وراء هذه الجهود المبكرة ، أن السياق كان أساسياً. إذا ظهرت “حريق” بالقرب من “بندقية” ، فيمكن للمرء أن يستخلص بعض الاستنتاجات. أطلق ويفر على هذه الأنواع من الارتباطات “الطابع الدلالي الإحصائي للغة” ، وهي نظرة ثاقبة سيكون لها آثار مهمة في العقود القادمة.

إن إنجازات هذا الجيل الأول مخيبة لمعايير اليوم. وجد باحثو الترجمة أنفسهم في وضع حرج بسبب تنوع اللغة وبحلول عام 1966 ، خلص تقرير برعاية الحكومة إلى أن الترجمة الآلية كانت طريقًا مسدودًا. جفت التمويل لسنوات.

لكن آخرين أجروا أبحاثًا فيما أصبح يعرف باسم معالجة اللغة الطبيعية أو NLP. سعت هذه الجهود المبكرة لإثبات أن الكمبيوتر ، إذا ما أعطيت القواعد الكافية لتوجيه استجاباته ، يمكن على الأقل أن يأخذ طعنة في ممارسة لعبة التقليد.

كان نموذجًا لهذه الجهود هو برنامج كشف النقاب عنه مجموعة من الباحثين في عام 1961. أطلق عليه اسم “البيسبول” ، ووصف البرنامج نفسه بأنه “خطوة أولى” لتمكين المستخدمين من “طرح أسئلة على الكمبيوتر باللغة الإنجليزية العادية وجعل الكمبيوتر يجيب على الأسئلة مباشرة.” ولكن كانت هناك مشكلة: يمكن للمستخدمين فقط طرح أسئلة حول لعبة البيسبول المخزنة في الكمبيوتر.

سرعان ما طغت إبداعات أخرى ولدت في العصر الجوراسي للتكنولوجيا الرقمية على روبوت المحادثة هذا: SIR (استرجاع المعلومات الدلالية) ، الذي ظهر لأول مرة في عام 1964 ؛ إليزا ، التي ردت على التصريحات بأسئلة بطريقة المعالج المهتم ؛ و SHRDLU ، والتي سمحت للمستخدم بإرشاد الكمبيوتر لنقل الأشكال باستخدام لغة عادية.

على الرغم من أن العديد من هذه التجارب المبكرة بدائية ، فقد ساعدت في دفع الابتكارات في كيفية تفاعل البشر وأجهزة الكمبيوتر – كيف ، على سبيل المثال ، يمكن برمجة جهاز كمبيوتر “للاستماع” إلى استعلام ، وتحويله ، والإجابة بطريقة تبدو ذات مصداقية و نابض بالحياة ، كل ذلك أثناء إعادة استخدام الكلمات والأفكار المطروحة في الاستعلام الأصلي.

سعى آخرون إلى تدريب أجهزة الكمبيوتر على إنتاج أعمال شعرية ونثرية أصلية بمزيج من القواعد والكلمات التي يتم إنشاؤها عشوائيًا. في الثمانينيات من القرن الماضي ، على سبيل المثال ، نشر اثنان من المبرمجين The Policeman’s Beard Is Half Constructed ، والذي تم تقديمه كأول كتاب كتب بالكامل بواسطة الكمبيوتر.

لكن هذه المظاهرات حجبت ثورة أكثر عمقًا تختمر في عالم البرمجة اللغوية العصبية. مع زيادة القوة الحسابية بمعدل أسي وأصبحت مجموعة متزايدة من الأعمال متاحة بتنسيق يمكن قراءته آليًا ، أصبح من الممكن بناء نماذج متطورة بشكل متزايد تحدد احتمالية الارتباطات بين الكلمات.

هذه المرحلة ، التي وصفها أحد الحسابات بشكل مناسب بأنها “تقريع البيانات الهائل” ، انطلقت مع ظهور الإنترنت ، والتي قدمت مجموعة متزايدة باستمرار من النصوص التي يمكن استخدامها لاشتقاق إرشادات احتمالية “ناعمة” تمكن الكمبيوتر من فهم الفروق الدقيقة في اللغة. بدلاً من “القواعد” الصارمة والسريعة التي سعت إلى توقع كل تبديل لغوي ، اعتمد النهج الإحصائي الجديد نهجًا أكثر مرونة كان في أغلب الأحيان صحيحًا.

نشأ انتشار روبوتات المحادثة التجارية من هذا البحث ، كما فعلت التطبيقات الأخرى: التعرف على اللغة الأساسية ، وبرامج الترجمة ، وميزات التصحيح التلقائي في كل مكان وغيرها من الميزات الشائعة الآن في حياتنا السلكية المتزايدة. ولكن كما يعلم أي شخص صرخ في وكيل طيران اصطناعي ، فإن هذه بالتأكيد لها حدودها.

في النهاية ، اتضح أن الطريقة الوحيدة للآلة لممارسة لعبة التقليد هي محاكاة الدماغ البشري ، بمليارات الخلايا العصبية والمشابك المترابطة. تعمل ما يسمى بالشبكات العصبية الاصطناعية بنفس الطريقة تقريبًا ، حيث تقوم بغربلة البيانات ورسم اتصالات قوية بشكل متزايد بمرور الوقت عبر عملية التغذية الراجعة.

المفتاح للقيام بذلك هو تكتيك بشري آخر واضح: الممارسة ، الممارسة ، الممارسة. إذا قمت بتدريب شبكة عصبية من خلال جعلها تقرأ الكتب ، فيمكنها البدء في صياغة جمل تحاكي اللغة في تلك الكتب. وإذا كانت الشبكة العصبية تقرأ ، لنقل ، كل شيء مكتوب على الإطلاق ، يمكن أن تصبح جيدة حقًا في التواصل.

وهو ، بشكل أو بآخر ، ما يكمن في قلب ChatGPT. تم تدريب المنصة على مجموعة كبيرة من الأعمال المكتوبة. في الواقع ، تمثل ويكيبيديا بأكملها أقل من 1٪ من النصوص التي تم جمعها في سعيها لتقليد الكلام البشري.

بفضل هذا التدريب ، يمكن القول إن ChatGPT يمكن أن ينتصر في لعبة التقليد. ولكن حدث شيء مثير للفضول على طول الطريق. وفقًا لمعايير تورينج ، يمكن للآلات الآن التفكير. لكن الطريقة الوحيدة التي تمكنوا من تحقيق هذا العمل الفذ هي أن يصبحوا أقل شبهاً بالآلات ذات القواعد الصارمة وأكثر شبهاً بالبشر.

إنه شيء يستحق التفكير وسط كل القلق الذي يسببه ChatGPT. التقليد هو أصدق أشكال الإطراء. لكن هل هي الآلات التي نحتاج إلى الخوف منها أم أنفسنا؟

© 2023 Bloomberg LP


قد يتم إنشاء روابط الشركات التابعة تلقائيًا – راجع بيان الأخلاقيات الخاص بنا للحصول على التفاصيل.

Comments

No comments yet. Why don’t you start the discussion?

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *