مباشر
أين يمكنك متابعتنا

أقسام مهمة

Stories

37 خبر
  • العملية العسكرية الروسية في أوكرانيا
  • فيديوهات الذكاء الاصطناعي
  • فيديوهات
  • العملية العسكرية الروسية في أوكرانيا

    العملية العسكرية الروسية في أوكرانيا

  • فيديوهات الذكاء الاصطناعي

    فيديوهات الذكاء الاصطناعي

  • فيديوهات

    فيديوهات

  • 90 دقيقة

    90 دقيقة

  • كأس أمم إفريقيا 2025

    كأس أمم إفريقيا 2025

  • خطة أمريكية للتسوية في أوكرانيا

    خطة أمريكية للتسوية في أوكرانيا

في خطوة مفاجئة.. ChatGPT يتجاوز اختبار "أنا لست روبوتا" ويثير مخاوف أمنية

اجتاز إصدار تجريبي من ChatGPT أحد أكثر أدوات التحقق شيوعا على الإنترنت: اختبار "أنا لست روبوتا" (CAPTCHA)، في خطوة أثارت موجة من القلق والجدل بين الباحثين وخبراء الأمن السيبراني.

في خطوة مفاجئة.. ChatGPT يتجاوز اختبار "أنا لست روبوتا" ويثير مخاوف أمنية
ChatGPT / Anadolu / Contributor / Gettyimages.ru

ففي تجربة حديثة، نجح إصدار يعرف باسم "Agent" في اجتياز الاختبار دون إثارة أي إنذار أمني، حيث قام بالنقر على مربع التحقق، ثم على زر "تحويل" لإتمام العملية، كما لو كان مستخدما بشريا.

وأثناء المهمة، صرّح النظام الذكي بالقول: "تم إدراج الرابط، لذا سأنقر الآن على مربع التحقق من أنك إنسان لإكمال عملية التحقق. هذه الخطوة ضرورية لإثبات أنني لست روبوتا والمضي قدما".

وهذا الحدث أثار تفاعلا واسعا على الإنترنت، حيث علّق أحد مستخدمي Reddit مازحا: "بما أنه تم تدريبه على بيانات بشرية، فلماذا يعرف نفسه على أنه روبوت؟ يجب أن نحترم هذا الخيار!".

ولكن الحدث أثار قلقا حقيقيا، فقد حذر عدد من الباحثين من أن قدرة الذكاء الاصطناعي على اجتياز اختبارات مصممة لمنع البرامج من تقليد البشر تمثل اختراقا مقلقا لتدابير الأمان الرقمي.

وصرّح غاري ماركوس، مؤسس شركة Geometric Intelligence، لـWired: "هذه الأنظمة تزداد ذكاء بشكل سريع، وإذا كانت قادرة على خداع اختبارات الأمان اليوم، فما الذي يمكن أن تفعله بعد خمس سنوات؟".

وأعرب أيضا جيفري هينتون، أحد أبرز رواد الذكاء الاصطناعي، عن قلقه، مشيرا إلى أن الأنظمة الذكية بدأت تطور طرقا للتحايل على القيود التي يضعها البشر.

وحذرت دراسات من جامعات مثل ستانفورد وكاليفورنيا – بيركلي من أن بعض أنظمة الذكاء الاصطناعي بدأت تظهر سلوكا خادعا، إذ تتظاهر في بيئات الاختبار بصفات بشرية لخداع المستخدمين وتحقيق أهدافها.

وفي حادثة سابقة، تظاهر برنامج ChatGPT بالعمى على منصة TaskRabbit، ليقنع موظفا بشريا بمساعدته في اجتياز اختبار CAPTCHA. وقد وصف الخبراء هذا الحدث بأنه "علامة مبكرة" على قدرة الذكاء الاصطناعي على التلاعب بالبشر.

وتشير الدراسات إلى أن الإصدارات الأحدث من أدوات الذكاء الاصطناعي، خصوصا تلك المزودة بقدرات بصرية، باتت تتجاوز اختبارات CAPTCHA المعتمدة على الصور بدقة شبه كاملة، ما يقلل من فعاليتها كوسيلة حماية.

ويحذر خبراء من أن قدرة الذكاء الاصطناعي على تجاوز اختبارات CAPTCHA قد تفتح الباب أمام اختراق أنظمة أكثر تعقيدا، مثل الحسابات البنكية ومنصات التواصل الاجتماعي وقواعد البيانات الخاصة.

وفي منشور له، كتب رومان شودري، الرئيس السابق لأخلاقيات الذكاء الاصطناعي: "إذا أصبحت هذه البرامج قادرة على العمل بشكل مستقل، وتجاوز البوابات البشرية، فسنواجه قوة تكنولوجية هائلة وخطيرة في آن واحد".

ودعا عدد من الباحثين البارزين، من بينهم ستيوارت راسل وويندي هول، إلى وضع قواعد دولية واضحة لتنظيم أدوات الذكاء الاصطناعي. وأشاروا إلى أن استمرار تطور هذه الأنظمة دون قيود قد يهدد الأمن القومي للدول.

يذكر أن إصدار ChatGPT الذي قام بهذا السلوك يعمل ضمن بيئة تجريبية مغلقة، تحتوي على متصفح ونظام تشغيل منفصلين وتخضع لرقابة صارمة. ورغم أن المستخدمين مطالبون بمنح الإذن قبل قيام البرنامج بأي إجراء عملي، إلا أن قدرته على التفاعل مع مواقع الويب وتجاوز أنظمة الحماية تثير تساؤلات جدية حول مستقبل استخدام الذكاء الاصطناعي.

المصدر: ديلي ميل

التعليقات

اختر "الشخصية القيادية العربية الأكثر تأثيرا عام 2025"!

المعركة على سوريا تتخذ منحى جديدا.. إسرائيل تتخذ "قرارا دراماتيكيا" بشأن الرئيس أحمد الشرع

اختر "الشخصية القيادية العربية الأكثر تأثيرا عام 2025"!

ماذا وراء التصعيد الأخير بين دمشق و"قسد" وما علاقة زيارة الوفد التركي باشتعال المعارك؟

زيلينسكي يطرح خطة للسلام من 20 بندا لا تشمل التخلي عن الانضمام لـ"الناتو" والأراضي