350 من كبار خبراء التكنولوجيا يحذرون: الذكاء الاصطناعي قد يعرض البشرية "لخطر الانقراض"

حذرت مجموعة من كبار الخبراء والمديرين التنفيذيين من أن تكنولوجيا الذكاء الاصطناعي تشكل "خطر انقراض" على البشرية، في بيان مشترك مقلق صدر يوم الثلاثاء.
فبحسب بيان نشره موقع المؤسسة غير الربحية Center for AI Safety، فإن أكثر من 350 شخصية بارزة في مجال الذكاء الاصطناعي، بينهم رئيس شركة OpenAI، سام ألتمان، الذي أنشأت شركته ChatGPT، و"الأب الروحي للذكاء الاصطناعي" جيفري هينتون، يعتبرون الذكاء الاصطناعي تهديدا وجوديا للبشرية.
وقال الخبراء في البيان المؤلف من جملة واحدة: "يجب أن يكون التخفيف من خطر الانقراض من جراء الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية".
ويعد هذا البيان الموجز هو الأحدث في سلسلة من التحذيرات من كبار الخبراء في ما يتعلق بإمكانية الذكاء الاصطناعي لإثارة الفوضى في المجتمع، مع المخاطر المحتملة بما في ذلك انتشار المعلومات المضللة والاضطراب الاقتصادي الكبير من خلال فقدان الوظائف أو حتى الهجمات المباشرة على الإنسانية.
ويأتي هذا البيان في وقت تتزايد فيه المخاوف بشأن الأضرار المحتملة للذكاء الاصطناعي، في أعقاب الشعبية الجامحة لـChatGPT من OpenAI.
وقال مركز Center for AI Safety إن الهدف من البيان الموجز هو "فتح نقاش" حول الموضوع بالنظر إلى "مجموعة واسعة من المخاطر المهمة والعاجلة من الذكاء الاصطناعي".
We’ve released a statement on the risk of extinction from AI.
— Center for AI Safety (@ai_risks) May 30, 2023
Signatories include:
- Three Turing Award winners
- Authors of the standard textbooks on AI/DL/RL
- CEOs and Execs from OpenAI, Microsoft, Google, Google DeepMind, Anthropic
- Many morehttps://t.co/mkJWhCRVwB
وإلى جانب ألتمان وهينتون، كان من بين الموقعين البارزين على البيان الرئيس التنفيذي لشركة Google DeepMind ديميس هاسابيس، وقائد مختبر الذكاء الاصطناعي البارز الآخر، الرئيس التنفيذي لشركة Anthropic داريو أمودي.
Model evaluation for extreme risks (Deepmind, OpenAI, Anthropic)
— ML Safety Daily (@topofmlsafety) May 26, 2023
By identifying dangerous capabilities, model evaluations will be critical for informing responsible decision-making regarding model training, deployment, and security.https://t.co/tmwRmbAVQgpic.twitter.com/WY42dk2FmW
وصرح دان هندريكس، المدير التنفيذي لمركز Center for AI Safety قائلا: "التخفيف من خطر الانقراض من الذكاء الاصطناعي سيتطلب إجراءات عالمية. لقد تعاون العالم بنجاح للتخفيف من المخاطر المتعلقة بالحرب النووية. وهناك حاجة إلى نفس المستوى من الجهد لمواجهة المخاطر التي تشكلها أنظمة الذكاء الاصطناعي المستقبلية".
وأضاف: "هناك العديد من المخاطر المهمة والعاجلة المتأتية من الذكاء الاصطناعي، وليس فقط خطر الانقراض. على سبيل المثال، التحيز المنهجي، والمعلومات المضللة، والاستخدام الخبيث، والهجمات الإلكترونية، والتسليح، وهذه جميعها مخاطر مهمة يجب معالجتها".
المصدر: نيويورك بوست