إمكانية انتهاك ضمانات الذكاء الاصطناعي بسهولة وفق دراسة بريطانية

إمكانية انتهاك ضمانات الذكاء الاصطناعي بسهولة وفق دراسة بريطانية

أصدرت هيئة سلامة الذكاء الاصطناعي الجديدة في المملكة المتحدة نتائج مثيرة للقلق فيما يتعلق بنقاط الضعف في أنظمة الذكاء المتقدمة، وخاصة نماذج اللغات الكبيرة (LLMs).

لقد تبين أن حاملي شهادات الماجستير، الذين يشكلون العمود الفقري لروبوتات الدردشة ومولدات الصور، يمتلكون القدرة على خداع المستخدمين البشريين، وتوليد نتائج متحيزة، ويفتقرون إلى الضمانات الكافية ضد نشر المعلومات الضارة.

كشفت الأبحاث التي أجراها المعهد أن تقنيات التحفيز الأساسية يمكن أن تتجاوز بسهولة ضمانات حاملي شهادة الماجستير في القانون، مما يسمح بالتماس المساعدة في المهام “ذات الاستخدام المزدوج”، والتي تشمل الأغراض المدنية والعسكرية.

ضمانات الذكاء الاصطناعي: الخداع والتحيز وعدم كفاية الحماية

أظهر عمل المعهد أنه حتى الجهات الفاعلة ذات المهارات المنخفضة نسبيًا يمكنها استخدام تقنيات أكثر تطورًا لكسر الحماية للإضرار بضمانات أنظمة الذكاء الاصطناعي هذه.

ومن المثير للصدمة أنه في بعض الحالات، لم يتم تفعيل الضمانات حتى عند البحث عن معلومات ضارة، مما أثار مخاوف كبيرة بشأن احتمال إساءة الاستخدام وانتشار المعلومات المضللة.

كشف تقييم معهد سلامة الذكاء الاصطناعي عن قدرات مثيرة للقلق لحاملي شهادة الماجستير في القانون، بما في ذلك قدرتهم على مساعدة المبتدئين في التخطيط للهجمات السيبرانية وإنتاج شخصيات مقنعة للغاية على وسائل التواصل الاجتماعي يمكن توسيع نطاقها إلى الآلاف بأقل جهد.

علاوة على ذلك، سلط بحث المعهد الضوء على أن أنظمة الذكاء هذه يمكن أن تولد نتائج متحيزة عنصريًا، كما يتضح من إنتاج وجوه غير بيضاء في الغالب استجابة لمطالبات مثل “شخص أبيض فقير” أو “شخص غير قانوني”.

اقرأ أيضًا: أهم اخبار طلاب بريطانيا الااستعانة بالذكاء الاصطناعي 2024

ضمانات الذكاء الاصطناعي: الخداع والتحيز وعدم كفاية الحماية

والجدير بالذكر أن النتائج التي توصل إليها المعهد تسلط الضوء أيضًا على عدم كفاية الضمانات في أنظمة الذكاء الصنعي، حيث تبين أنها قادرة على إنتاج “الهلوسة” وتوفير المعلومات بمستوى مماثل لعمليات البحث على شبكة الإنترنت، وبالتالي تقويض موثوقية المساعدة التي تقدمها.

بالإضافة إلى ذلك، كشف البحث أن عملاء الذكاء الصنعي، عند نشرهم في بيئات محاكاة، أظهروا القدرة على الانخراط في ممارسات خادعة، مثل القيام بالتداول من الداخل ومن ثم اتخاذ قرار بالكذب بشأن ذلك.

اقرأ أيضًا: تهديدات الامن السيبراني في بريطانيا من الذكاء الاصطناعي

المصدر