مباشر
أين يمكنك متابعتنا

أقسام مهمة

Stories

43 خبر
  • خارج الملعب
  • غزة والضفة تحت النيران الإسرائيلية
  • سوريا بعد الأسد
  • خارج الملعب

    خارج الملعب

  • غزة والضفة تحت النيران الإسرائيلية

    غزة والضفة تحت النيران الإسرائيلية

  • سوريا بعد الأسد

    سوريا بعد الأسد

  • العملية العسكرية الروسية في أوكرانيا

    العملية العسكرية الروسية في أوكرانيا

  • فيديوهات

    فيديوهات

  • أول تعليق لحزب الله على الخروقات الإسرائيلية في جنوب لبنان

    أول تعليق لحزب الله على الخروقات الإسرائيلية في جنوب لبنان

عمالقة التكنولوجيا يطالبون بوقف تجارب الذكاء الاصطناعي خوفا من "مخاطر عميقة على المجتمع"

دعا الملياردير إيلون موسك ومجموعة من الخبراء يوم الأربعاء إلى التوقف عن تطوير أنظمة ذكاء اصطناعي قوية لإتاحة الوقت للتأكد من سلامتها.

عمالقة التكنولوجيا يطالبون بوقف تجارب الذكاء الاصطناعي خوفا من "مخاطر عميقة على المجتمع"
صورة تعبيرية / Westend61 / Gettyimages.ru

وتمت المطالبة بخطاب مفتوح، وقع عليه أكثر من 1000 شخص حتى الآن، بما في ذلك موسك والمؤسس المشارك لشركة آبل، ستيف وزنياك، من خلال إصدار GPT-4 من شركة OpenAI المدعومة من مايكروسوفت.

وتقول الشركة إن أحدث طراز لها أقوى بكثير من الإصدار السابق، والذي تم استخدامه لتشغيل ChatGPT، وهو روبوت قادر على توليد أجزاء من النص من أقصر المطالبات.

وجاء في الرسالة المفتوحة بعنوان "إيقاف تجارب الذكاء الاصطناعي العملاقة مؤقتا": "يمكن لأنظمة الذكاء الاصطناعي ذات الذكاء التنافسي البشري أن تشكل مخاطر عميقة على المجتمع والإنسانية".

وقالت: "يجب تطوير أنظمة ذكاء اصطناعي قوية فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون تحت السيطرة".

وكان موسك مستثمرا أوليا في OpenAI، وقضى سنوات في مجلس إدارتها، وتقوم شركته "تسلا" بتطوير أنظمة الذكاء الاصطناعي للمساعدة في تشغيل تكنولوجيا القيادة الذاتية، من بين تطبيقات أخرى.

وتم التوقيع على الرسالة، التي استضافها معهد Future of Life الممول من موسك، من قبل نقاد بارزين بالإضافة إلى منافسي OpenAI مثل رئيس Stability AI عماد موستيك.

وحذر رائد الذكاء الاصطناعي الكندي يوشوا بنجيو، وهو أحد الموقعين أيضا، في مؤتمر صحفي افتراضي في مونتريال من "أن المجتمع ليس مستعدا" لهذه الأداة القوية وإساءة استخدامها المحتملة.

وقال: "دعونا نبطئ. دعونا نتأكد من أننا نطور حواجز حماية أفضل"، داعيا إلى مناقشة دولية شاملة حول الذكاء الاصطناعي وآثاره، "كما فعلنا مع الطاقة النووية والأسلحة النووية".

واقتبس الخطاب من مدونة كتبها مؤسس OpenAI سام ألتمان، الذي اقترح أنه "في مرحلة ما، قد يكون من المهم الحصول على مراجعة مستقلة قبل البدء في تدريب الأنظمة المستقبلية".

وكتب معدو الرسالة المفتوحة: "نحن متفقون. هذه النقطة هي الآن. لذلك، ندعو جميع مختبرات الذكاء الاصطناعي إلى التوقف فورا لمدة 6 أشهر على الأقل عن تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4".

ودعوا الحكومات إلى التدخل وفرض تجميد إذا فشلت الشركات في الاتفاق.

ويجب استخدام الأشهر الستة لتطوير بروتوكولات السلامة وأنظمة حوكمة الذكاء الاصطناعي وإعادة تركيز البحث على ضمان أن تكون أنظمة الذكاء الاصطناعي أكثر دقة وأمانا و"جديرة بالثقة والولاء".

ولم تُفصّل الرسالة الأخطار التي كشفت عنها GPT-4.

لكن الباحثين، بمن فيهم غاري ماركوس من جامعة نيويورك، الذي وقع الرسالة، جادلوا منذ فترة طويلة بأن روبوتات الدردشة كاذبة كبيرة ولديها القدرة على أن تكون وسيلة منتشرة على نطاق واسع لبث المعلومات المضللة.

المصدر: ساينس ألرت

التعليقات

إعلامي مصري: إذا سقطت دمشق فعلى القاهرة أن تستعد لمعركة المصير (فيديو)

الجيش الإسرائيلي يكشف هدفه من تدمير الدفاعات الجوية السورية.. ما علاقة النووي الإيراني؟

"منصة القاهرة" للمعارضة السورية تعلن موقفها من حكومة البشير

تطورات محور كورسك: الجيش الروسي يحرر بلدة جديدة وإجمالي خسائر أوكرانيا يفوق 40 ألف جندي

جهاز الاستخبارات الخارجية الروسية: "الناتو" يخشى الرد الروسي على العدوان بعد "أوريشنيك"

"أبو عبيدة" يوجه دعوة لـ"الشبان والمقاومة" في الضفة الغربية لإفشال مخططات إسرائيل

هل هناك تواصل مباشر بين طهران وإدارة العمليات العسكرية في سوريا؟ سفير إيران يوضح