قارن الباحثون الأمريكيون نتائج تسع شبكات عصبية لغوية كبيرة عند تحليل طبيعة ومعنى العبارات المثيرة للجدل، فتوصلوا إلى استنتاج مفاده، أن إجابات برنامج "GPT chatbot" كانت الأقرب إلى آراء البشر. ونشرت نتائج العلماء الخميس 14 سبتمبر في المجلة العلمية "Nature Machine Intelligence".
وجاء في الدراسة:"لأول مرة قمنا بدراسة قدرة الشبكات العصبية اللغوية الكبيرة على التنبؤ بمدى عقلانية أوعدم واقعية الشخص الذي سينظر إلى هذا أو ذاك البيان الذي لا معنى له. وأظهر نظام GPT أنه أفضل في حل هذه المشكلة، ولكن في نفس الوقت تصرف في كثير من الأحيان "بطريقة مختلفة تماما عما يمكن للشخص أن يتعامل معه في موقف مماثل".
وتوصل إلى هذا الاستنتاج فريق من علماء النفس وعلماء الأعصاب بقيادة البروفيسور في جامعة "كولومبيا" في نيويورك كريستوفر بالداسانو عند دراسة الاختلافات في كيفية إدراك البشر، والشبكات العصبية اللغوية المتقدمة لأشكال الكلام المختلفة. ومن أجل إجراء هذه التجارب، قام العلماء بتشكيل مجموعة من 100 متطوع واستخدموا تسعة من أنظمة لغات التعلم الآلي الأكثر شيوعا، بما في ذلك GPT-2 وELECTRA وBERT .
وكان على كل من الشبكات العصبية والأشخاص قراءة مجموعة من الجمل العشوائية ذات المحتوى السخيف أو المنطقي التي جمعها العلماء على إحدى شبكات التواصل الاجتماعي الشهيرة، وكان عليهم اختيار الجملة التي بدت أكثر طبيعية بالنسبة لهم. على سبيل المثال، كان عليهم المقارنة بين عبارتين: "هذه هي الرواية التي بيعت لنا" و"هذا هو الأسبوع الذي متَ فيه".
وأظهرت مقارنة لاحقة لاستجابات البشر وأنظمة الذكاء الاصطناعي أن الخوارزميات المستندة إلى ما يسمى "بمحولات الشبكات العصبية"، بما في ذلك BERT وGPT، غالبا ما تعطي نفس الإجابات التي يقدمها البشر، مقارنة بالشبكات العصبية المتكررة وأنواع أخرى من أنظمة التعلم الآلي. وفي الوقت نفسه، تعامل كل من GPT وBERT بشكل جيد مع الجمل الأكثر طبيعية، ولكن تبيّن أن الشبكة العصبية الأولى كانت أكثر نجاحا بشكل عام عند تحليل جميع أنواع الأقوال.
مع ذلك فإن العلماء أكدوا أن حتى روبوت الدردشة GPT يصدر أحيانا أحكاما "غير بشرية" عند تحليل الأقوال المتناقضة، وهو ما لا يسمح لنا بالقول، إنه يدرك الإنشاءات اللغوية بنفس الطريقة التي يدرك بها الإنسان. وخلص الباحثون إلى أن هذا يحد من المجالات المحتملة لتطبيق مثل هذه الشبكات العصبية.
المصدر: كومسومولسكايا برافدا