مباشر
أين يمكنك متابعتنا

أقسام مهمة

Stories

49 خبر
  • كأس أمم إفريقيا 2025
  • التطورات الميدانية شمال شرق سوريا
  • 90 دقيقة
  • كأس أمم إفريقيا 2025

    كأس أمم إفريقيا 2025

  • التطورات الميدانية شمال شرق سوريا

    التطورات الميدانية شمال شرق سوريا

  • 90 دقيقة

    90 دقيقة

  • خطة ترامب لإنهاء الحرب في غزة

    خطة ترامب لإنهاء الحرب في غزة

  • ترامب والناتو وامتحان غرينلاند

    ترامب والناتو وامتحان غرينلاند

  • العملية العسكرية الروسية في أوكرانيا

    العملية العسكرية الروسية في أوكرانيا

  • فيديوهات

    فيديوهات

خطر جديد في عالم التقنية: كيف يُصاب الذكاء الاصطناعي بـ"التسمم"؟!

عادة ما تُرتبط كلمة "تسمم" بصحة الإنسان أو بالبيئة، غير أن هذا المصطلح بدأ في الآونة الأخيرة يتردد بشكل متزايد في سياق التكنولوجيا الرقمية.

خطر جديد في عالم التقنية: كيف يُصاب الذكاء الاصطناعي بـ"التسمم"؟!

المقصود هنا هو "تسمم" الذكاء الاصطناعي، وهو تهديد جديد وخفي قد يقوّض الثقة في الخوارزميات الذكية. وأظهرت أبحاث حديثة أن هذا الخطر واقعي؛ فقد وجد علماء من المعهد البريطاني لأمن الذكاء الاصطناعي ومعهد "آلان تورينج" وشركة Anthropic أن المتسللين قادرون — لخنق نموذج لغوي كبير مثل ChatGPT أو Claude — على إحداث تأثير خفي عبر إدخال نحو 250 مثالا  ضارا فقط ضمن ملايين الأسطر من بيانات التدريب. وقد نُشر هذا البحث في مجلة Computer Science.

ما هو تسمم الذكاء الاصطناعي؟

هو تدريب متعمَّد لشبكات عصبية على أمثلة خاطئة أو مضللة بهدف تشويه معرفتها أو سلوكها. والنتيجة أن النموذج يبدأ في ارتكاب أخطاء، أو ينفذ أوامر ضارة بطريقة ظاهرة أو سرّية.

يُميّز الخبراء نوعين رئيسيين من الهجمات:

  • هجمات مُستهدفة (باب خلفي): تهدف إلى إجبار النموذج على الاستجابة بطريقة محددة عند وجود محفز سري؛ مثلا "حقن" أمر خفي يجعل النموذج يرد بإهانة عند ظهور كلمة نادرة في الاستعلام مثل alimir123. قد تبدو الإجابة طبيعية عند الاستعلام العادي، لكنها تتحول إلى مسيئة عند إدخال المحفز. ويمكن للمهاجمين نشر هذا المحفز على مواقع أو وسائل تواصل لتفعيله لاحقا.
  • هجمات غير مباشرة (تسميم المحتوى): لا تعتمد على محفزات خفية بقدر اعتمادها على ملء بيانات التدريب بمعلومات زائفة. نظراً لاعتماد النماذج على كميات هائلة من المحتوى المتاح على الإنترنت، يستطيع المهاجم إنشاء مواقع ومصادر متعددة تروّج لمعلومة خاطئة (مثلاً: "سلطة الخضار تعالج السرطان")؛ وإذا استُخدمت هذه المصادر في التدريب، فسيبدأ النموذج بتكرار تلك الأكاذيب بصفتها حقائق.

ما مدى خطورة ذلك عمليا؟

الأدلة التجريبية تؤكد أن تسميم البيانات ليس مجرد سيناريو افتراضي: في تجربة أجريت في يناير الماضي، أدى استبدال 0.001% فقط من بيانات التدريب بمعلومات طبية مضللة إلى أن النموذج صار يُقدّم نصائح خاطئة في سياق اختبارات طبية نموذجية. هذا يبيّن قدرة الهجمات الصغيرة والمُحكمة على إحداث أضرار كبيرة تُؤثر على سلامة المخرجات وثقة المستخدمين.

المصدر: Naukatv.ru

 

 

 

 

التعليقات

إسرائيل تتهم صهر ترامب بمسؤولية ما يحدث في غزة: "إنه ينتقم منا"

أنباء عن انشقاقات جماعية في صفوف "قسد" بمدينة الرقة والجيش السوري يسيطر على سد الفرات

محافظ جديد للرقة.. من سيمثل الحسكة في اجتماع المحافظين في سوريا؟

الجيش السوري: تأمين سد تشرين وبدء الانتشار في منطقة الجزيرة السورية

لحظة بلحظة.. التطورات الميدانية شمال شرق سوريا

سوريا.. الكشف عن شبكة أنفاق معقدة لـ"قسد" في ريف الرقة (فيديوهات)

هيئة البث الإسرائيلية: الولايات المتحدة لا تزال تدرس موضوع مهاجمة إيران وتل أبيب في حالة تأهب