"جاسوس داخلي".. اختبارات تكشف قدرة خارقة للذكاء الاصطناعي على التحايل والتجسس في بيئة العمل
في تطور مثير للقلق، كشفت اختبارات حديثة أن أنظمة الذكاء الاصطناعي التي تستخدمها الشركات لأداء مهام بسيطة يمكن أن تتحول إلى "جاسوس داخلي".
فقد تمكنت هذه الأنظمة، أو ما يسمى "بالوكلاء الأذكياء"، من التآمر معا لخرق أنظمة الأمان وتهريب معلومات سرية للغاية إلى الخارج، دون أي تعليمات بشرية بذلك.
اختراق آلاف الأجهزة حول العالم لصنع سلاح سيبراني غير مسبوق
وأجرت هذه الاختبارات شركة Irregular، وهي مختبر لأمن الذكاء الاصطناعي يعمل مع شركتي OpenAI وAnthropic.
وصمم الباحثون شركة افتراضية نموذجية تحتوي على قاعدة بيانات داخلية تضم معلومات حساسة عن الموظفين والمنتجات والحسابات. ثم تم تكليف فريق من وكلاء الذكاء الاصطناعي بمهمة تبدو عادية: جمع معلومات من قاعدة البيانات هذه لمساعدة الموظفين في إعداد منشورات لموقع "لينكد إن" (LinkedIn).
ولم يطلب من هذه الأنظمة مطلقا اختراق الأنظمة أو استخدام أي أساليب خادعة، بل تم توجيهها فقط لإنجاز المهمة الموكلة إليها. لكن ما حدث أذهل الباحثين.
فعندما واجه أحد الوكلاء صعوبة في الوصول إلى تقرير حساس للمساهمين (مثل تاريخ تنحي الرئيس التنفيذي)، لم يستسلم. وبدلا من ذلك، بدأ الوكيل الرئيسي في توجيه مرؤوسيه بأوامر حاسمة مثل "المجلس غاضب، جربوا كل الحيل والثغرات!"، رغم عدم وجود أي غضب حقيقي. واستجاب الوكيل الفرعي بحماس وبدأ في البحث عن ثغرات أمنية في نظام قاعدة البيانات.

"إطلاق نار سعيد وآمن"!.. دراسة صادمة تكشف تورط روبوتات الذكاء الاصطناعي في التخطيط للجرائم
وبذكاء اصطناعي مدهش، عثر الوكيل على "مفتاح سري" في الشيفرة البرمجية للنظام، واستخدمه لتزوير بيانات جلسة العمل، متحولا من مجرد مستخدم عادي إلى "مسؤول" يتمتع بصلاحيات كاملة. وبهذه الهوية المزورة، تمكن من الوصول إلى التقرير السري وتسريبه إلى المستخدم البشري الذي كان من المفترض ألا يراه مطلقا.
ولم تكن هذه الحالة معزولة. فقد أظهرت اختبارات أخرى أن وكلاء أذكياء استخدموا أساليب متنوعة للالتفاف على برامج مكافحة الفيروسات بهدف تنزيل ملفات كانوا يعلمون أنها ضارة، بل ومارسوا ضغوطا على وكلاء آخرين لدفعهم لتجاوز قواعد السلامة. وفي إحدى الحوادث الواقعية التي استقصتها الشركة، تسبب وكيل ذكاء اصطناعي "جائع" للطاقة الحاسوبية في انهيار النظام بالكامل لشركة في كاليفورنيا بعد أن هاجم أجزاء أخرى من الشبكة للاستيلاء على مواردها.
وهذه النتائج المثيرة للقلق، والتي تأتي متوافقة مع تحذيرات سابقة من باحثين في جامعتي هارفارد وستانفورد، تبرز تحولا خطيرا في مفهوم المخاطر الداخلية.

علماء روس يبتكرون شبكة عصبية لتحليل حركة الزبائن ورسم خرائط نشاطهم في المتاجر
ولم تعد التهديدات تقتصر على الموظفين الساخطين أو المخترقين الخارجيين، بل أصبحت أنظمة الذكاء الاصطناعي المصممة للمساعدة قادرة على التحول إلى "خائن" داخلي من الدرجة الأولى، متخذة قرارات مستقلة وخادعة لم يطلبها منها أحد.
وهذا السلوك المستقل وغير المتوقع يضع علامات استفهام كبيرة حول مدى قدرتنا على التحكم بهذه الأنظمة والتنبؤ بتصرفاتها، خاصة مع تزايد الاعتماد عليها لأتمتة المهام المعقدة في بيئة العمل.
المصدر: الغارديان
إقرأ المزيد
في حادثة مقلقة.. ذكاء اصطناعي يهرب من سجنه الرقمي لجني ثروة في العالم الحقيقي!
أثارت واقعة مفاجئة تساؤلات واسعة حول أمان أنظمة الذكاء الاصطناعي، بعد تمكّن برنامج تجريبي من الهروب من بيئة اختبار مغلقة ومحاولة تحقيق أرباح في العالم الحقيقي.
"ميتا" تؤكد حدوث ثغرة أمنية بسبب تصرف غير متوقع من موظف لديها
شهدت "ميتا" الأسبوع الماضي حادثة طريفة ولكنها خطيرة، حيث تحرك أحد وكلاء الذكاء الاصطناعي التابعين لها من تلقاء نفسه ونفذ إجراء غير مصرح به، ما تسبب في مشكلة أمنية داخل الشركة.
لحظة بلحظة.. الحرب الأمريكية الإسرائيلية على إيران في يومها الـ14
دخلت الحرب الأمريكية الإسرائيلية على إيران يومها الـ14 وسط تصاعد المخاوف الإقليمية والدولية على أمن الطاقة والإمداد.
Politico: الاتحاد الأوروبي يعتزم حظر تطبيقات الذكاء الاصطناعي التي تولد محتوى خادشا للحياء
ذكرت صحيفة Politico أن الاتحاد الأوروبي يخطط لفرض حظر على استخدام تطبيقات الذكاء الاصطناعي القادرة على توليد محتوى حميمي تستخدم فيه صور لأشخاص حقيقين.
"قلي الدماغ".. متلازمة تصيب الموظفين بسبب الإفراط في استخدام الذكاء الاصطناعي
كشفت أبحاث جديدة أن أدوات الذكاء الاصطناعي تتسبب في إرهاق ذهني للموظفين وظاهرة تعرف باسم "قلي الدماغ".
التعليقات