وسبق أن أعرب الخبراء عن مخاوفهم من أن الذكاء الاصطناعي قد يؤدي إلى تصعيد الصراعات في جميع أنحاء العالم بفضل "الروبوتات" التي يمكن أن تقتل دون أي تدخل بشري.
وأدى تغيير القاعدة، الذي حدث بعد يوم الأربعاء من الأسبوع الماضي، إلى إزالة الجملة التي تنص على أن الشركة لن تسمح باستخدام النماذج في "الأنشطة التي تنطوي على مخاطر عالية للأذى الجسدي، بما في ذلك: تطوير الأسلحة والجيش والحرب".
وصرح متحدث باسم OpenAI لموقع "ديلي ميل" أن الشركة، التي تجري محادثات لجمع الأموال بقيمة 100 مليار دولار، تعمل مع إدارة الدفاع الأمريكية على أدوات الأمن السيبراني المصممة لحماية البرمجيات مفتوحة المصدر.
وقال المتحدث: "سياستنا لا تسمح باستخدام أدواتنا لإيذاء الناس أو تطوير الأسلحة أو مراقبة الاتصالات أو إصابة الآخرين أو تدمير الممتلكات. ومع ذلك، هناك حالات استخدام تتعلق بالأمن القومي تتوافق مع مهمتنا. على سبيل المثال، نحن نعمل بالفعل مع وكالة مشاريع الأبحاث الدفاعية المتقدمة (DARPA) لتحفيز إنشاء أدوات جديدة للأمن السيبراني لتأمين البرامج مفتوحة المصدر التي تعتمد عليها البنية التحتية الحيوية والصناعة. لم يكن من الواضح ما إذا كان سيتم السماح بحالات الاستخدام المفيد هذه بموجب مصطلح "عسكري" في سياساتنا السابقة. لذا فإن الهدف من تحديث سياستنا هو توفير الوضوح والقدرة على إجراء هذه المناقشات".
وفي العام الماضي، وقعت 60 دولة، بما في ذلك الولايات المتحدة والصين، على "دعوة للعمل" للحد من استخدام الذكاء الاصطناعي (AI) لأسباب عسكرية.
وأشار خبراء حقوق الإنسان في لاهاي إلى أن "الدعوة إلى العمل" ليست ملزمة قانونا ولم تعالج المخاوف بما في ذلك طائرات بدون طيار قاتلة تعمل بالذكاء الاصطناعي، أو أن الذكاء الاصطناعي يمكن أن يؤدي إلى تصعيد الصراعات القائمة.
وقال الموقعون إنهم ملتزمون بتطوير واستخدام الذكاء الاصطناعي العسكري وفقا "للالتزامات القانونية الدولية وبطريقة لا تقوض الأمن الدولي والاستقرار والمساءلة".
وقالت آنا ماكانجو، نائبة رئيس الشؤون العالمية في OpenAI، في مقابلة هذا الأسبوع، إنه تمت إزالة البند "الشامل" للسماح بحالات الاستخدام العسكري التي توافق عليها الشركة.
المصدر: ديلي ميل