مباشر
أين يمكنك متابعتنا

أقسام مهمة

Stories

38 خبر
  • العملية العسكرية الروسية في أوكرانيا
  • خارج الملعب
  • الحرب الإسرائيلية على لبنان
  • العملية العسكرية الروسية في أوكرانيا

    العملية العسكرية الروسية في أوكرانيا

  • خارج الملعب

    خارج الملعب

  • الحرب الإسرائيلية على لبنان

    الحرب الإسرائيلية على لبنان

  • غزة والضفة تحت النيران الإسرائيلية

    غزة والضفة تحت النيران الإسرائيلية

  • فيديوهات

    فيديوهات

  • أول رد من إدارة ليفربول على تصريحات محمد صلاح حول تجديد عقده

    أول رد من إدارة ليفربول على تصريحات محمد صلاح حول تجديد عقده

لماذا تحظر العديد من الشركات ChatGPT؟!

أثبت ChatGPT أنه مساعد جذاب في العديد من المهن، لكنه لا يخلو من المخاطر، وقد حظرت بعض الشركات برنامج الدردشة الآلي في العمل.

لماذا تحظر العديد من الشركات ChatGPT؟!
صورة تعبيرية / NurPhoto / Contributor / Gettyimages.ru

وقد يبدو من الواضح أن تحميل المعلومات المتعلقة بالعمل إلى منصة ذكاء اصطناعي عبر الانترنت، مملوكة لشركة أخرى، يعد انتهاكا محتملا للأمان والخصوصية. ومع ذلك، يمكن أن يكون ChatGPT نعمة حقيقية لبعض الذين يشعرون بأزمة الوقت.

وعلى وجه الخصوص، يجد مهندسو البرمجيات أن ChatGPT مفيد في كتابة التعليمات البرمجية أو اختبارها أو تصحيحها، على الرغم من أن التكنولوجيا عرضة للأخطاء.

ويستخدم حوالي 43 بالمائة من الموظفين الذكاء الاصطناعي مثل ChatGPT في العمل، ومعظمهم يقومون بذلك دون إخبار رئيسهم، وفقا لمسح شمل حوالي 12 ألف محترف.

وقامت شركة Samsung Electronics مؤخرا باتخاذ إجراءات صارمة بشأن استخدام الذكاء الاصطناعي التوليدي بعد أن تسبب مهندس في أسوأ كابوس لشركة تكنولوجيا من خلال نسخ كود المصدر الحساس ولصقه في ChatGPT.

ومثل العديد من الشركات، تشعر Samsung بالقلق من أن أي شيء يتم تحميله على منصات الذكاء الاصطناعي مثل OpenAI's ChatGPT أو Google Bard سيتم تخزينه على خوادم تلك الشركات، دون أي وسيلة للوصول إلى المعلومات أو حذفها.

ويمكن لـ OpenAI استخدام أي شيء مكتوب في أنظمة AI مثل ChatGPT لتحسين النظام. ويكمن الخوف في أن معلومات الشركة الخاصة أو الحساسة المقدمة إلى ChatGPT يمكن مشاركتها عن غير قصد مع مستخدمين آخرين. وما زال OpenAI يعمل على حل مشكلات الأمان: فقد أغلق ChatGPT مؤقتا في مارس، لإصلاح خطأ يسمح للمستخدمين برؤية العناوين من سجلات الدردشة للمستخدمين الآخرين.

وبعد ذلك، في أبريل، أتاحت OpenAI للمستخدمين إيقاف سجل الدردشة الخاص بهم، والذي قالت الشركة إنه سيوقف ChatGPT من استخدام البيانات لتدريب نموذج الذكاء الاصطناعي الخاص بها.

ونتيجة للمخاوف الأمنية المختلفة حول برنامج chatbot، يصدر حوالي نصف قادة الموارد البشرية إرشادات ChatGPT للموظفين، بينما حظر ChatGPT نحو 3 بالمائة تماما، وفقا لمسح أجرته شركة استشارية Gartner.

ومع ذلك، فقد أدركت بعض الشركات أن قطة الذكاء الاصطناعي قد خرجت بالفعل من الحقيبة وتم تطوير - أو هي في طور الإنشاء - منصات الذكاء الاصطناعي الخاصة بها كبدائل أكثر أمانا لـ ChatGPT التي يمكن الوصول إليها مجانا.

وحظرت أمازون ChatGPT في يناير وحثت مطوريها على استخدام الذكاء الاصطناعي الداخلي الخاص بها المسمى CodeWhisperer إذا كانوا يريدون نصائح أو اختصارات حول الترميز.

وفي مايو، قامت آبل بتقييد استخدام ChatGPT لبعض الموظفين لمنع الكشف عن المعلومات السرية. وتقوم آبل بتطوير نظامها الأساسي للذكاء الاصطناعي في منافسة مع ChatGPT، وهي نفسها مدعومة باستثمارات مايكروسوفت بمليارات الدولارات.

وقام بنك الكومنولث الأسترالي بتقييد استخدام ChatGPT في يونيو ووجه الموظفين الفنيين لاستخدام أداة مماثلة تسمى CommBank Gen.ai Studio، والتي تم تطويرها بالشراكة مع Silicon Valley للتكنولوجيا H2O.ai.

وأصدرت البنوك الأخرى، بما في ذلك Bank of America وCitigroup وDeutsche Bank وGoldman Sachs وWells Fargo & Co وJP Morgan، حظرا صريحا على ChatGPT.

وشجعت شركة المحاسبة PwC الموظفين على اللعب مع ChatGPT لكنها حذرتهم من استخدام البرنامج لعمل العميل.

وقال جاكوي فيش، كبير مسؤولي المعلومات الرقمية في PwC، لـ Financial Review: "سياساتنا لا تسمح لموظفينا باستخدام ChatGPT لاستخدام العميل في انتظار معايير الجودة التي نطبقها على جميع الابتكارات التكنولوجية لضمان الضمانات".

وأصدرت حوالي 15% من شركات المحاماة تحذيرات بشأن ChatGPT، وفقا لمسح شمل أكثر من 400 متخصص قانوني من الولايات المتحدة والمملكة المتحدة وكندا. وتم حظر Mishcon de Reya، وهي شركة محاماة مقرها المملكة المتحدة ويعمل بها حوالي 600 محام، من استخدام منصة الذكاء الاصطناعي بسبب المخاطر على البيانات الحساسة.

وفي مايو، طُلب من الموظفين في خمس مستشفيات في غرب أستراليا التوقف عن استخدام ChatGPT بعد أن استخدم البعض المنصة لكتابة ملاحظات طبية خاصة.

وقال بول فوردن، الذي يرأس بيرث ساوث متروبوليتان هيلث سيرفيس، "بشكل حاسم، في هذه المرحلة، لا يوجد ضمان لسرية المريض عند استخدام تقنية روبوت الذكاء الاصطناعي، مثل ChatGPT، كما أننا لا نفهم تماما المخاطر الأمنية. لهذا السبب، يجب التوقف فورا عن استخدام تقنية الذكاء الاصطناعي، بما في ذلك ChatGPT، للأنشطة المتعلقة بالعمل التي تتضمن أي مريض أو معلومات خدمة صحية يحتمل أن تكون حساسة".

وترى الشركات التي تتبنى ChatGPT علنا أنها وسيلة لتوفير تكاليف إنشاء المحتوى. وتخطط شركة "كوكا كولا" لاستخدام ChatGPT وAI image منشئ DALL · E للعلامات التجارية والمحتوى. وفي يناير، أعلنت BuzzFeed عن شراكة لإنشاء اختبارات ومحتوى آخر لـ Meta باستخدام واجهة برمجة تطبيقات OpenAI المتاحة للجمهور.

ورحب موقع Blog Website Medium "بالاستخدام المسؤول للتكنولوجيا المساعدة للذكاء الاصطناعي" ولكنه يتطلب من المؤلفين الكشف عن استخدامها. وجرب موقع CNET بهدوء القصص المكتوبة بواسطة الذكاء الاصطناعي، لكنه أعلن عن توقف مؤقت لهذه العملية في يناير. ومما لا شك فيه أن الذكاء الاصطناعي التوليدي سيكون له في نهاية المطاف مكان في المكتب وقد يحل محل بعض الموظفين. لكن في الوقت الحالي، ترى العديد من الشركات مخاطر أكثر من الفوائد.

المصدر: ساينس ألرت

التعليقات

باريس تدعو لعدم رسم "خطوط حمراء" في دعم أوكرانيا

بعد التهديدات الإسرائيلية.. قرارت لجامعة الدول العربية دعما للعراق

سيمونيان للغرب: بوتين لن يتراجع!

فيليبو: تصريحات بارو بشأن السماح لكييف باستخدام صواريخ فرنسية لضرب روسيا "نباح كلاب وخيانة لفرنسا"