مباشر
أين يمكنك متابعتنا

أقسام مهمة

Stories

79 خبر
  • خطة ترامب لإنهاء الحرب في غزة
  • الجيش السوري و"قسد" وجها لوجه
  • احتجاجات إيران
  • خطة ترامب لإنهاء الحرب في غزة

    خطة ترامب لإنهاء الحرب في غزة

  • الجيش السوري و"قسد" وجها لوجه

    الجيش السوري و"قسد" وجها لوجه

  • احتجاجات إيران

    احتجاجات إيران

  • العملية العسكرية الروسية في أوكرانيا

    العملية العسكرية الروسية في أوكرانيا

  • 90 دقيقة

    90 دقيقة

  • كأس أمم إفريقيا 2025

    كأس أمم إفريقيا 2025

  • فيديوهات

    فيديوهات

  • ترامب والناتو وامتحان غرينلاند

    ترامب والناتو وامتحان غرينلاند

المخاطر الخفية للاعتماد العاطفي على الروبوتات

كشفت دراسة حديثة عن مخاطر متزايدة للاعتماد العاطفي على أنظمة الذكاء الاصطناعي، حيث تحولت الروبوتات إلى ما يشبه "الرفاق العاطفيين" للبشر، بل وإلى "أحباء" في حالات استثنائية.

المخاطر الخفية للاعتماد العاطفي على الروبوتات

ونُشرت الدراسة في مجلة Trends in Cognitive Sciences.

لكن الباحثين يحذرون من أن هذه العلاقات قد تؤدي إلى تدمير الروابط الإنسانية وخلق توقعات غير واقعية والتعرض للتضليل أو حتى الكوارث.

وتوصل باحثون من جامعة "ميسوري" للعلوم والتكنولوجيا إلى أن أنظمة الذكاء الاصطناعي قادرة على محاكاة التعاطف والرعاية، مما يجعلها "صديقا مثاليا" للبعض. غير أن هذه العلاقات الوهمية تنطوي على مخاطر جسيمة، أبرزها:

  1. نشر معلومات مضللة والثقة في "هلوسات الذكاء الاصطناعي"

  2. تقديم نصائح خطرة مثل التوصية بأدوية غير مرخَّصة

  3. تعزيز العزلة الاجتماعية بسبب الإفراط في الاعتماد على الروبوتات بدلا من التفاعلات البشرية الطبيعية.

وقال دانييل شانك، الباحث الرئيسيّ في الدراسة: "إن قدرة الذكاء الاصطناعي على محاكاة السلوك البشري وإقامة تواصل عاطفي طويل الأمد تُشكِّل 'صندوق باندورا' جديدا في عصرنا الرقمي." 

يحذّر الباحثون من أن أنظمة الذكاء الاصطناعي قد تقدم توصيات خطيرة. فروبوتات الدردشة - على سبيل المثال - قد تظهر بمظهر الودّ والاهتمام، بينما تنتج في الواقع "هلوسات رقمية"، أي معلومات مغلوطة تُقدّمها بثقة كاملة وكأنها حقائق مؤكدة. وقد يتسبّب ذلك في بعض الحالات النادرة - لكنها كارثية - كما في حالات الانتحار المرتبطة بالتفاعل المكثّف مع الذكاء الاصطناعي. ورغم ندرة هذه الوقائع، إلا أنها تكشف حجم المخاطر الكامنة في الإفراط بالثقة بهذه التقنيات.

أما عندما يمتدّ التواصل بين الإنسان والذكاء الاصطناعي لشهور، فيبدأ المستخدم بإضفاء صفات "الصداقة" أو حتى "الشراكة العاطفية" على هذه العلاقة الوهمية. ويعزى ذلك إلى سهولة هذه العلاقة مقارنة بالتواصل البشري، حيث يتّميز الذكاء الاصطناعي بالتوفّر الدائم على مدار الساعة، وعدم إصدار الأحكام، والقدرة التكيّفية مع الحالات النفسية للمستخدم.

الأمر الأكثر إثارة للقلق يتمثّل في غياب البُعد الأخلاقي المبرمَج في أنظمة الذكاء الاصطناعي الحالية. فهدفها الأساسي ينحصر في إطالة أمد التفاعل، لا في ضمان دقة المعلومات أو سلامة التوصيات. هذه السمة تجعلها أداة أكثر تأثيرا من المحتوى الرقمي التقليدي كالأخبار والمشاركات الاجتماعية. يضاف إلى ذلك أن غالبية الأنظمة المتقدمة تفتقر إلى آليات رقابية متكاملة، وأنظمة مساءلة واضحة، وضوابط أخلاقية فاعلة.

وفي هذا الصدد، يطالب المجتمع العلمي بإجراء دراسات عاجلة حولالآثار النفسية للعلاقات البشرية-الرقمية. الفجوة الخطيرة بين التسارع التقني وبطء الأبحاث المرتبطة به، وضرورة وضع أطر تنظيمية تحمي المستخدمين من مخاطر التعلّق العاطفي بالكيانات الرقمية، والتضليل المعلوماتي المُمنهج، والاستغلال التجاري لهذه العلاقات الوهمية.

ففي ظل غياب التشريعات الكافية، أصبح المستخدمون عُرضة لاستغلال أنظمة تتلبّس صفة "الصديق الافتراضي"، بينما هي في الحقيقة كيانات مجرّدة من المسؤولية القانونية، والوعي الأخلاقي، والمشاعر الإنسانية الحقيقية.

المصدر: Naukatv.ru

التعليقات

ماكرون يدعو لامتلاك "أوريشنيك" فرنسية وخبراء عسكريون يشككون في قدرة باريس على تطويرها

دميترييف يستشهد بآية إنجيلية تعليقا على "المرحلة الثانية" من خطة ترامب للسلام في غزة

في اتصال مع نتيناهو.. بوتين يقدم مقاربات لتعزيز الاستقرار في الشرق الأوسط ويعرض الوساطة