وأصبحت برامج الذكاء الاصطناعي أكثر شيوعا، حيث يقع استخدامها في العديد من المجالات حتى أنها بدأت تشكل تهديدا صارخا للكثيرين بشأن فقدان وظائفهم.
وحقق الخبراء مؤخرا تقدما كبيرا مع نظام ذكاء اصطناعي ثوري جديد لا يتوقف أبدا عن التعلم.
ولكن مع تطور هذه التكنولوجيا المستمر، حذرت مجموعة دولية من الباحثين من أن هناك مخاطر متزايدة للبرامج المستقلة.
وفي دراسة نُشرت في Journal of Arititial Intelligence Research Portal، قال المؤلف مانويل سيبراين: "تبدو الآلة فائقة الذكاء التي تتحكم في العالم وكأنها خيال علمي. ولكن هناك بالفعل آلات تنفذ مهام مهمة معينة بشكل مستقل دون أن يفهم المبرمجون تماما كيف تعلموها، وهو وضع يمكن أن يصبح في مرحلة ما غير قابل للسيطرة ويشكل خطرا على البشرية".
ووفقا للدراسة، جرب العلماء طريقتين للتحكم في برمجيات الذكاء الاصطناعي، وعزلها عن الإنترنت وبرمجتها باستخدام خوارزمية تمنعها من الأذى.
وأوقفت الطريقة الأولى التقنية عن أداء وظائفها الأساسية، ولكن من المثير للقلق أنه لا توجد خوارزمية يمكن أن تضمن الوقاية من الضرر.
ووفقا لما ذكره رائد الأعمال والباحث ومدير مركز البشر والآلات في معهد ماكس بلانك للتنمية البشرية، إياد رهوان: "إذا قمنا بتحليل المشكلة إلى قواعد أساسية للحوسبة النظرية، فقد اتضح أن الخوارزمية التي أوعزت للذكاء الاصطناعي بعدم تدمير العالم يمكن أن توقف عملياتها عن غير قصد".
وتابع: "إذا حدث هذا (قيام نظام فائق الذكاء بإيذاء البشر)، فلن نعرف ما إذا كانت خوارزمية الاحتواء ستستمر في تحليل التهديد، أم أنها ستتوقف عن احتواء الذكاء الاصطناعي الضار. في الواقع، هذا يجعل خوارزمية الاحتواء غير قابلة للاستخدام".
ويأتي ذلك في الوقت الذي يزعم فيه باحثو الذكاء الاصطناعي الذين يعملون على أنظمة التعرف على الوجه أن أجهزتهم يمكنها الآن التنبؤ بسياسة شخص ما أو تفضيله الجنسي من مجرد قياس وجهه.
وأجري البحث، الذي نُشر هذا الأسبوع في مجلة Nature Journal Scientific Reports، من قبل ميشال كوسينسكي من جامعة ستانفورد.
المصدر: ديلي ستار