مباشر
أين يمكنك متابعتنا

أقسام مهمة

Stories

41 خبر
  • العملية العسكرية الروسية في أوكرانيا
  • تسوية النزاع الأوكراني
  • فيديوهات
  • العملية العسكرية الروسية في أوكرانيا

    العملية العسكرية الروسية في أوكرانيا

  • تسوية النزاع الأوكراني

    تسوية النزاع الأوكراني

  • فيديوهات

    فيديوهات

  • 90 دقيقة

    90 دقيقة

  • تحركات لخفض التصعيد الأمريكي ضد إيران

    تحركات لخفض التصعيد الأمريكي ضد إيران

  • خطة ترامب لإنهاء الحرب في غزة

    خطة ترامب لإنهاء الحرب في غزة

خبير رفيع المستوى يحذر من خطورة تطوير أنظمة الذكاء الاصطناعي

أصدر باحث رفيع المستوى في الذكاء الصطناعي تحذيرا بشأن احتمال حدوث انقراض عالمي  يمكن أن تجلبه تكنولوجيا الذكاء الاصطناعي الفائقة.

خبير رفيع المستوى يحذر من خطورة تطوير أنظمة الذكاء الاصطناعي
صورة تعبيرية / imaginima / Gettyimages.ru

وأشار إلى أن إيقاف تطوير أنظمة الذكاء الاصطناعي المتقدمة حول العالم ومعاقبة من ينتهك الحظر بقسوة، هي الطريقة الوحيدة لإنقاذ البشرية من الانقراض.

وادعى إليعازر يودكوفسكي، وهو باحث رائد في مجال الذكاء الاصطناعي، والمؤسس المشارك لمعهد أبحاث ذكاء الآلة (MIRI)، أن "كل شخص على وجه الأرض سيموت" ما لم نوقف تطوير أنظمة ذكاء خارقة.

وأشار إلى أنه يعرف بالضبط مدى "خطورة هذه التكنولوجيا المروعة".

وفي مقال ضمن ركن "رأي" لمجلة "تايم" نُشر يوم الأربعاء الماضي، أوضح يودكوفسكي (43 عاما) سبب عدم توقيعه على عريضة تدعو "جميع مختبرات الذكاء الاصطناعي إلى التوقف فورا لستة أشهر على الأقل، على تدريب أنظمة للذكاء الاصطناعي أكثر قوة من GPT-4 (وهو نموذج لغة كبير متعدد الوسائط، أصدرته شركة OpenAI في وقت سابق من هذا الشهر)".

فقال يودكوفسكي إن العريضة التي قدمها خبراء بارزون من شركة OpenAI في 29 مارس، والتي وقعها أمثال إيلون ماسك ومؤسس شركة "آبل" ستيف وزنياك، كانت "تطلب القليل جدا لحل المشكلة التي يطرحها التطور السريع وغير المنضبط للذكاء الاصطناعي".

واعتبر يودكوفسكي أن التهديد كبير لدرجة أنه يجادل بأن الانقراض بواسطة الذكاء الاصطناعي يجب أن "يعد أولوية تسبق منع تبادل ضربات نووية كامل".

وحذر من أن "النتيجة الأكثر ترجيحا لبناء ذكاء اصطناعي خارق للبشر .. هو أن كل شخص على وجه الأرض سيموت حرفيا".

وقال إن البقاء على قيد الحياة مع نظام كمبيوتر "لا يهتم بنا ولا بالحياة الواعية بشكل عام" يتطلب "الدقة والإعداد والرؤى العلمية الجديدة" التي تفتقر إليها البشرية في الوقت الحالي ومن غير المرجح أن تحصل عليها في المستقبل المنظور.

ويعترف يودكوفسكي أننا لسنا مستعدين لتعليم الذكاء الاصطناعي كيف يهتم لأننا "لا نعرف حاليا كيف".

وبدلا من ذلك، فإن الحقيقة الصارخة هي أنك في الروبوت "مكون من ذرات يمكن أن يستخدمها الروبوت لشيء آخر. وإذا قام شخص ما ببناء ذكاء اصطناعي قوي للغاية، في ظل الظروف الحالية، أتوقع أن يموت كل فرد من الجنس البشري وجميع أشكال الحياة البيولوجية على الأرض بعد ذلك بوقت قصير".

وكشف يودكوفسكي أن "الذكاء الاصطناعي الشديد الذكاء بدرجة كافية لن يظل محصورا بأجهزة الكمبيوتر لفترة طويلة". وأوضح أن ما يعنيه هذا هو أنه يمكن للعلماء عن طريق الخطأ إنشاء "عقول رقمية واعية حقا" ما يخلق معضلات أخلاقية مثل أن يكون لهذه الكائنات (الرقمية) الواعية حقوقها ولا يمكن امتلاكها.

ووفقا لهذا الباحث الرائد، يجب على الفور فرض حظر عالمي وغير محدود على الدورات التدريبية الرئيسية الجديدة في مجال الذكاء الاصطناعي. وشدد على أنه "لا يمكن أن يكون هناك استثناءات، بما في ذلك الحكومات أو الجيوش".

وأصر يودكوسكي على ضرورة توقيع صفقات دولية لوضع حد أقصى لمقدار قوة الحوسبة التي يمكن لأي شخص استخدامها في تدريب مثل هذه الأنظمة.

المصدر: RT

التعليقات

"عصفوران بحجر واحد".. نتنياهو يرد على علاقة إبستين بجهاز الموساد ويوجه انتقادات لاذعة لإيهود باراك

لافروف: محاولة اغتيال نائب رئيس الاستخبارات العسكرية الروسي تؤكد نية زيلينسكي إفشال المفاوضات

تداعياتها تنتشر في أوروبا.. ملفات إبستين تصيب النرويج في مقتل واستعدادات لفتح تحقيق في القضية

"نيويورك تايمز": إيران قامت بترميم سريع لعدة منشآت صواريخ باليستية ومواقع نووية (صور)