أدوات الذكاء الاصطناعي تزداد ذكاء وعنصرية في الوقت ذاته!

أدوات الذكاء الاصطناعي تزداد ذكاء وعنصرية في الوقت ذاته!

سلطت الأبحاث الحديثة الضوء على اتجاه مثير للقلق في تطوير أدوات الذكاء الاصطناعي، وخاصة نماذج اللغات الكبيرة مثل ChatGPT من OpenAI وGemini من Google.

وقد تبين أن أنظمة الذكاء الاصطناعي المتقدمة هذه تؤوي صورًا نمطية عنصرية، خاصة تجاه المتحدثين باللغة الإنجليزية العامية الأمريكية الأفريقية (AAVE)، وهي لهجة يتحدث بها الأمريكيون السود.

تمتد آثار هذه العنصرية الخفية إلى جوانب مختلفة من المجتمع، بما في ذلك التوظيف والنتائج القانونية والمزيد.

ومع تزايد دمج الذكاء الاصطناعي في عمليات صنع القرار الحاسمة، فإن وجود مثل هذه التحيزات يثير مخاوف أخلاقية كبيرة ويؤكد الحاجة إلى اتخاذ تدابير استباقية لمعالجة هذه القضايا والتخفيف من حدتها.

هل تخفي أدوات الذكاء الاصطناعي عنصريتها؟

سلطت الدراسة التي أجراها فريق من الباحثين في مجال التكنولوجيا واللغويات الضوء على كيف أظهرت نماذج الذكاء الاصطناعي، عندما تم تكليفها بتقييم الأفراد على أساس لهجتهم، سلوكًا تمييزيًا.

وبمقارنة الأفراد الذين تحدثوا باستخدام AAVE مع أولئك الذين يستخدمون “الإنجليزية الأمريكية القياسية”، كانت نماذج الذكاء الاصطناعي أكثر عرضة لتخصيص تسميات سلبية مثل “غبي” و”كسول” لمتحدثي AAVE، مما يؤثر على ذكائهم المتصور وقابليتهم للتوظيف.

علاوة على ذلك، كشف البحث أن نماذج الذكاء الاصطناعي أوصت بعقوبات أشد، مثل عقوبة الإعدام، للمتهمين الجنائيين الافتراضيين الذين استخدموا AAVE في بياناتهم أمام المحكمة.

اقرأ أيضًا: ثورة روبوتات الذكاء الاصطناعي تصل قطّاع الخدمات اللوجستية

As AI tools get smarter, they’re growing more covertly racist, experts find

التداعيات والمخاوف

تشير نتائج هذا البحث إلى حقيقة مثيرة للقلق حيث من المحتمل أن تؤثر أنظمة الذكاء الاصطناعي على القرارات الحاسمة، مثل فحص الوظائف والإجراءات القانونية، بناءً على اختلافات اللهجة.

إن الخوف من معاقبة المرشحين للوظائف بسبب التبديل بين لغة AAVE واللغة الإنجليزية الأمريكية القياسية، حتى في وجودهم على وسائل التواصل الاجتماعي، يثير مخاوف بشأن العواقب المحتملة لمثل هذه التحيزات في العالم الحقيقي.

علاوة على ذلك، تؤكد الدراسة على الحاجة إلى إطار قوي لضمان عدم استمرار تقنيات الذكاء الاصطناعي في إدامة العنصرية والتمييز المنهجيين، وخاصة في المجالات الحساسة مثل العدالة الجنائية والتوظيف.

في الختام، فإن الكشف عن العنصرية السرية في أدوات الذكاء الاصطناعي المتقدمة هو بمثابة تذكير صارخ بالتحيزات المتأصلة التي يمكن تضمينها في التكنولوجيا.

ومع استمرار أدوات الذكاء الاصطناعي في التطور ولعب دور أكثر أهمية في مختلف القطاعات، فمن الضروري معالجة هذه التحيزات بشكل استباقي.

إن الجهود المبذولة لتنظيم استخدام الذكاء الاصطناعي في المجالات الحساسة، وتعزيز التنوع في تطوير الذكاء الاصطناعي، ووضع مبادئ توجيهية أخلاقية لنشر الذكاء الاصطناعي، هي خطوات حاسمة نحو خلق مشهد تكنولوجي أكثر إنصافًا وشمولًا.

اقرأ أيضًا: مستقبل التوظيف في عصر الذكاء الاصطناعي: الروبوتات تتولى كل شيء

المصدر