الجمعة، 22 نوفمبر 2024 01:49 ص
رئيس مجلس الإدارة رئيس التحرير
بدور ابراهيم
عاجل
اتصالات و تكنولوجيا

الخوف الأكبر هو أن تُستغل برامج الدردشة الآلية من قبل القراصنة للوصول إلى معلومات الشركة الحساسة

تقرير: "تشات جي بي تي" يهدد معلومات العملاء السرية والأسرار التجارية

الخميس، 20 أبريل 2023 06:11 م

حذر تقرير صادر عن "تيم 8"، وهي شركة رأسمال مغامر مقرها إسرائيل، من أنَّ الشركات التي تستخدم أدوات الذكاء الاصطناعي التوليدي مثل "تشات جي بي تي"، قد تُعرّض معلومات العملاء السرية والأسرار التجارية للخطر.

قال التقرير، الذي قُدّمت نسخة منه إلى "بلومبرج نيوز" قبل إصداره، إنَّ الاعتماد واسع النطاق على برامج الدردشة الآلية وأدوات الكتابة الجديدة بالذكاء الاصطناعي، قد يجعل الشركات عرضة لتسرب البيانات ومقاضاتها أمام المحاكم.

والخوف الأكبر هو أن تُستغل برامج الدردشة الآلية من قبل القراصنة للوصول إلى معلومات الشركة الحساسة، أو اتخاذ إجراءات ضد مصلحة الشركة. وهناك أيضًا مخاوف من أنَّ المعلومات السرية التي يتم إدخالها إلى روبوتات الدردشة الآن، يمكن استخدامها من قبل شركات الذكاء الاصطناعي في المستقبل.

تتسابق شركات التكنولوجيا الكبرى، بما في ذلك "مايكروسوفت" و"ألفابت"، لإضافة قدرات الذكاء الاصطناعي التوليدي بهدف تحسين روبوتات الدردشة ومحركات البحث، وتدريب نماذجها على البيانات المأخوذة من الإنترنت، لمنح المستخدمين تطبيقًا شاملًا للإجابة عن استفساراتهم. وقال التقرير إنَّه إذا جرى دعم هذه الأدوات ببيانات سرية أو خاصة؛ فسيكون من الصعب للغاية محوها.

تهديد المعلومات الحساسة

قال التقرير: "قد يؤدي استخدام المؤسسات للذكاء الاصطناعي التوليدي إلى الوصول للمعلومات الحساسة، والملكية الفكرية، وأكواد المصادر، والأسرار التجارية، والبيانات الأخرى، والتلاعب فيها من خلال إدخال المستخدم البيانات مباشرة على التطبيق، أو واجهة برمجة التطبيقات، بما في ذلك معلومات العميل، أو المعلومات الخاصة والسرية".

ويصنّف التقرير هذه المخاوف على أنَّها "عالية الخطورة"، لكنَّه وصف المخاطر بأنَّه "يمكن التحكم بها" إذا توفّرت ضمانات مناسبة.

شدّد تقرير "تيم 8" على أنَّ الاستفسارات الموجهة لروبوتات الدردشة، لا يتم إدخالها في نماذج اللغات الكبيرة لتدريب الذكاء الاصطناعي، على عكس التقارير الأخيرة التي تشير إلى أنَّ مثل هذه المطالبات يمكن أن يراها الآخرون.

تابع مؤلفو التقرير: "حتى وقت كتابة هذه السطور، لا تستطيع نماذج اللغات الكبيرة تحديث نفسها في الوقت الفعلي، وبالتالي؛ لا يمكنها تقديم البيانات التي أدخلها شخص ما ردًا على استفسارات شخص آخر، وهو الأمر الذي من شأنه أن يثير القلق بشكل كبير. مع ذلك؛ قد لا ينطبق هذا بالضرورة على تدريب الإصدارات المستقبلية من هذه النماذج".

مشكلات عالية الخطورة

حدّد التقرير ثلاث مشكلات أخرى "عالية الخطورة" في دمج أدوات الذكاء الاصطناعي التوليدية، وشدّد على التهديد المتزايد للمعلومات التي تتم مشاركتها أكثر وأكثر من خلال تطبيقات الأطراف الخارجية.

وكانت "مايكروسوفت" قد أدرجت مؤخرًا بعض ميزات روبوتات الدردشة المدعومة بالذكاء الاصطناعي "تشات بوت" في محرك البحث التابع لها "بينغ" وأدوات "مايكروسوفت 365".

قال التقرير: "على سبيل المثال، يمكن أن توفر تطبيقات الأطراف الخارجية التي تستفيد من واجهة برمجة تطبيقات الذكاء الاصطناعي التوليدي، إمكانية الوصول إلى البريد الإلكتروني ومتصفح الويب الخاص بالمستخدمين إذا اختُرقت، بل قد تسمح للقراصنة باتخاذ إجراءات نيابة عن المستخدم".

لفت التقرير أيضًا إلى أنَّ هناك "مخاطر متوسطة"، تتمثل في أنَّ استخدام الذكاء الاصطناعي التوليدي يمكن أن يؤدي إلى زيادة التمييز، أو الإضرار بسمعة الشركة، أو تعريضها لإجراءات قانونية بسبب قضايا حقوق النشر.

الأمن السيبراني والذكاء الاصطناعي

شاركت آن جونسون، نائبة رئيس شركة "مايكروسوفت"، في صياغة التقرير، كما استثمرت "مايكروسوفت" مليارات الدولارات في شركة "أوبن إيه آي"، مطوِّرة "تشات جي بي تي".

قال متحدّث باسم "مايكروسوفت": "تشجع الشركة على إجراء مناقشات شفافة حول المخاطر الإلكترونية المتطورة باستمرار في مجتمعات الأمن السيبراني والذكاء الاصطناعي".

يُذكر أنَّ عشرات من كبار مسؤولي أمن المعلومات في الشركات الأمريكية، ساهموا في التقرير.

وجرى اعتماد تقرير "تيم 8" أيضًا من قبل مايكل روجرز، الرئيس السابق لوكالة الأمن القومي الأمريكية وإدارة الأمن السيبراني الأمريكية.