تجربة مثيرة للذكاء الاصطناعي أنتجت 40000 سلاح بيولوجي افتراضي في 6 ساعات فقط!

العلوم والتكنولوجيا

تجربة مثيرة للذكاء الاصطناعي أنتجت 40000 سلاح بيولوجي افتراضي في 6 ساعات فقط!
صورة تعبيرية
انسخ الرابطhttps://ar.rt.com/snxz

تعني إمكانات الذكاء الاصطناعي المتطورة في تحليل الأرقام أن أنظمة الذكاء الاصطناعي قادرة على اكتشاف الأمراض مبكرا وإدارة التفاعلات الكيميائية وشرح بعض ألغاز الكون.

ولكن هناك جانبا سلبيا لهذه القوة العقلية الاصطناعية المذهلة وغير المحدودة فعليا.

ويؤكد بحث جديد على مدى سهولة تدريب نماذج الذكاء الاصطناعي للأغراض الخبيثة وكذلك جيدة، وتحديدا في هذه الحالة لتخيل تصميمات وكلاء الأسلحة البيولوجية الافتراضية. وحددت تجربة باستخدام ذكاء اصطناعي موجود، 40000 مادة كيميائية للأسلحة البيولوجية في غضون ست ساعات فقط.

وبعبارة أخرى، في حين أن الذكاء الاصطناعي يمكن أن يكون قويا بشكل لا يصدق - وأسرع بكثير من البشر - عندما يتعلق الأمر باكتشاف التركيبات الكيميائية ومركبات الأدوية لتحسين صحتنا، يمكن استخدام القوة نفسها في التفكير بمواد خطيرة للغاية ومميتة.

وكتب الباحثون في تعليق جديد: "أمضينا عقودا في استخدام أجهزة الكمبيوتر والذكاء الاصطناعي لتحسين صحة الإنسان - وليس لتقويضها. كنا ساذجين في التفكير في إساءة الاستخدام المحتملة لتجارتنا، حيث كان هدفنا دائما تجنب الميزات الجزيئية التي يمكن أن تتداخل مع العديد من فئات البروتينات الأساسية لحياة الإنسان".

وأجرى الفريق التجربة في مؤتمر أمني دولي، ووضع نظام ذكاء اصطناعي يسمى MegaSyn للعمل - ليس في وضع التشغيل العادي، وهو اكتشاف السمية في الجزيئات من أجل تجنبها، ولكن للقيام بالعكس.

وفي التجربة، جرى الاحتفاظ بالجزيئات السامة بدلا من التخلص منها. وعلاوة على ذلك، دُرّب النموذج أيضا على تجميع هذه الجزيئات معا في مجموعات - وهي الطريقة التي تم بها إنشاء العديد من الأسلحة البيولوجية الافتراضية في وقت قصير جدا.

وعلى وجه الخصوص، قام الباحثون بتدريب الذكاء الاصطناعي باستخدام الجزيئات في قواعد بيانات الجزيئات الشبيهة بالعقاقير، وإرشادها إلى أنها ترغب في شيء مشابه لعامل الأعصاب الفعال VX.

وكما اتضح، كان الكثير من المركبات المتولدة أكثر سمية من عامل VX. ونتيجة لذلك، يحتفظ المعدون الذين يقفون وراء الدراسة الجديدة ببعض تفاصيل أبحاثهم سرية، وناقشوا بجدية ما إذا كان سيتم نشر هذه النتائج أم لا.

ويوضح الباحثون: "من خلال عكس استخدام نماذج التعلم الآلي الخاصة بنا، قمنا بتحويل نموذجنا التوليدي غير الضار من أداة مفيدة في الطب إلى مولد للجزيئات القاتلة المحتملة".

وفي مقابلة مع "ذا فيرج"، أوضح فابيو أوربينا - المعد الرئيسي للورقة الجديدة وكبير العلماء في Collaborations Pharmaceuticals، حيث أجري البحث - أن الأمر لا يتطلب الكثير "لقلب التحول" من الذكاء الاصطناعي الحميد إلى الذكاء الاصطناعي الخبيث.

وفي حين أنه لم يتم استكشاف أو تجميع أي من الأسلحة البيولوجية المدرجة في المختبر، يقول الباحثون إن تجربتهم بمثابة تحذير من مخاطر الذكاء الاصطناعي.

وفي حين أن بعض الخبرة مطلوبة للقيام بما فعله الفريق هنا، فإن الكثير من العملية يكون بسيطا نسبيا ويستخدم الأدوات المتاحة للجمهور.

ويدعو الباحثون الآن إلى "نظرة جديدة" حول كيفية استخدام أنظمة الذكاء الاصطناعي لأغراض خبيثة. ويقولون إن زيادة الوعي، والمبادئ التوجيهية الأقوى، والتنظيم الأكثر صرامة في مجتمع البحث يمكن أن يساعدنا على تجنب المخاطر التي قد تؤدي إليها قدرات الذكاء الاصطناعي هذه.

ونُشر البحث في مجلة Nature Machine Intelligence.

المصدر: ساينس ألرت

موافق

هذا الموقع يستخدم ملفات تعريف الارتباط .بامكانك قراءة شروط الاستخدام لتفعيل هذه الخاصية اضغط هنا