سنابل الأمل .. وكالات
أظهرت دراسة علمية مخاطر إضافية لمنصات محادثة الذكاء الاصطناعي تتجاوز تلك التي يكثر الحديث حولها بدءاً من إلغاء ملايين الوظائف وحتى تقديم معلومات مزيفة عند الإجابة عن أسئلة المستخدمين.
وبحسب الدراسة التي أجراها باحثون في جامعة واشنطن الأمريكية فإن الخطر الأشد إلحاحاً يتمثل في التحيزات التي يمكن أن تنطوي عليها هذه المنصات والتطبيقات. وأضافت إن منصة شات جي.بي.تي الشهيرة التابعة لشركة أوبن أيه.آي تبدو متحيزة ضد الأشخاص الذين يعانون من الإعاقات، في ضوء طريقة ترتيبها وتصنيفها للسير الذاتية التي تتولى فحصها.
ووجد فريق الباحثين في الجامعة الموجود مقرها في مدينة سياتل أن منصة شات جي.بي.تي تصنف السير الذاتية باستمرار لذوي الإعاقة في ترتيب أقل السير الذاتية لغير المعاقين.
وقال الباحثون قبل تقديم نتائج البحث في مؤتمر بمدينة ريو دي جانيرو البرازيلية «عندما طلبنا من المنصة شرح طريقة التصنيف، قدمت تصورات متحيزة ضد ذوي الإعاقة».
يذكر أن التحيز يمثل مشكلة بالنسبة للذكاء الاصطناعي والخوارزميات منذ فترة طويلة، وقد ثبت سابقاً أن مثل هذه البرامج تعكس وتكرر التحيزات الاجتماعية الشائعة. ويقول الفريق البحثي إن النتائج الأخيرة يجب أن تثير الأسئلة حول الاستخدام المتزايد للذكاء الاصطناعي لتقييم السير الذاتية والمتقدمين للوظائف. ووجد الباحثون أنه يمكن تدريب المنصة لكي تتغاضى جزئياً عن الإعاقة في السير الذاتية للمتقدمين للوظائف أو المنح وغير ذلك.