جارتنر: 75% من الشركات الكبرى ستستعين بخبراء تحليل السلوك عبر الذكاء الاصطناعي بحلول العام 2023 لتحسين سمعتها
ظهرت في الآونة الأخيرة أزمة ثقة لدى المستخدمين تجاه حلول الذكاء الاصطناعي وتعلّم الآلات، وذلك نتيجة استمرار ظهور حوادث انتهاك الخصوصية وإساءة التعامل مع البيانات. وعلى الرغم من تصاعد ظهور قيود مشددة من قبل الجهات التنظيمية للحد من هذه الحوادث، إلّا أن جارتنر تتوقع أن تقوم 75% من الشركات الكبرى بتعيين بخبراء تحليل السلوك عبر الذكاء الاصطناعي لحماية الخصوصية وتعزيز ثقة المستخدمين بهدف الحد من الحوادث التي تؤدي إلى إلحاق الضرر بسمعتها أو علامتها التجارية. تشكل حالات الانحياز تجاه العرق، أو الجنس، أو العمر، أو الموقع الجغرافي والانحياز تجاه مجموعة معيّنة من البيانات من القضايا والمخاطر التي لطالما شابت نماذج تدريب الذكاء الاصطناعي. هذا إلى جانب تلك الخوارزميات المبهمة كتلك المستخدمة في التعلّم المعمق للآلات حيث تخفي الكثير من التفاعلات المستترة والمتبدلة والتي تنتهي على شكل تنبؤات للذكاء الاصطناعي يصعب ترجمتها وفهمها. وقال جيم هير، نائب الرئيس للأبحاث في جارتنر: “هناك حاجة ملحّة لأدوات ومهارات جديدة لمساعدة الشركات على الكشف عن مصادر حالات الانحياز تلك وغيرها، وبالتالي بناء الثقة في استخدامات نماذج الذكاء الاصطناعي والحد من المخاطر على سمسلوكيعة الشركة وعلامتها التجارية”. وأردف السيد هير قائلاً: “هناك زيادة في أعداد مدراء البيانات وتحليلها والرؤساء التنفيذيين لإدارة البيانات ممن يعملون على تعيين خبراء استقصائيين لحوادث الذكاء الاصطناعي والمحققين المتخصصين في السلوكيات الانضباطية”. تالتزايد الحالات التي تقوم فيها قطاعات مثل القطاع المالي وقطاع تقنية المعلومات بنشر حزم من وسائل إدارة المخاطر وحوكمة الذكاء الاصطناعي وغيرها من التكتيكات الساعية إلى إدارة المخاطر المرتبطة بالسمعة والحماية. كما أن عدد من المؤسسات الكبرى مثل فيسبوك وجوجل وبنك أوف أميركا وماسميوتشوال وناسا عملت بالفعل على تعيين متخصصين في استقصاء سلوكيات الذكاء الاصطناعي أو أنها في طور تعيينهم. على أن يكون الدور الرئيسي لهؤلاء هو الكشف عن حالات الانحياز غير المرغوبة في نماذج الذكاء الاصطناعي قبل أن يتم نشرها واستخدامها. تنضوي مهمة هؤلاء المتخصصين على اختبار النماذج خلال مراحل تطويرها، ثم الاستمرار في مراقبتها بُعيد نشرها وبدء العمل بها، سيّما أن حالات الانحياز عادة ما تظهر نتيجة التباين ما بين البيانات المنبثقة عن عملية التدريب من جهة والعالم الحقيقي من جهة أخرى. وفي هذا الإطار قال السيد هير: “ربما لا تزال أعداد الشركات التي تعمل اليوم على الاستعانة بخبراء استقصائيين لحوادث تعلّم الآلات والمحققين المتخصصين في السلوكيات الانضباطية متواضعة، إلّا أن أعدادها ستشهد تزايداً على نحو متسارع في السنوات الخمس القادمة”. ستعمل الجهات المزوّدة للخدمات الاستشارية عدداً من الخدمات الجديدة لتوفير مزايا الرقابة والتأكد من أن نماذج تعلّم الآلات واضحة وقابلة للشرح وتتوافق مع المعايير الموضوعة قبل انتقالها إلى مرحلة التشغيل. ومن ناحية أخرى، ستظهر أدوات جديدة منها ما يكون مفتوح المصدر ومنها التجاري سيتم تصميمها بهدف مساعدة المحققين المتخصصين في الحوادث المرتبطة بتعلّم الآلات على كشف حالات الانحياز والحد من ظهورها. عملت بعض المؤسسات على إطلاق أدوات توضيحية للذكاء الاصطناعي تهدف إلى مساعدة عملائها على إصلاح الأخطاء المتمثلة في حالات الانحياز في خوارزميات الذكاء الاصطناعي. وتعمل الشركات المزوّدة لمنصات الذكاء الاصطناعي وتعلّم الآلات بإضافة إمكانيات من شأنها أتمتة عملية توليد شروحات توضيحية للنماذج باللغة الطبيعية. كما أن هناك تقنيات صاعدة مفتوحة المصدر، مثل تقنية توليد الشروحات التوضيحية لكافة النماذج LIME والتي من شأنها أن تكشف عن حالات التمييز والانحياز الخاطئة قبل أن تجد طريقها إلى النماذج. من شأن هذه الأدوات وغيرها أن تمكّن محققي مشاكل تعلّم الآلات من الوقوف على تأثيرات العناصر المتغيرة الحسّاسة – مثل العمر والجنس والعرق على البيانات المرتبطة العناصر المتغيرة الأخرى في نموذج معين. ووفقاً للسيد هير: “من شأن هذه الأدوات أن تقيس مدى التوافق ما بين المتغيرات بغية التحقق من تأثير ذلك على النموذج ومخرجاته”. ما من شك أن المدراء المسؤولون عن البيانات وتحليلها والرؤساء التنفيذيين لإدارة البيانات يفتقرون إلى المناعة اللازمة ضد المشكلات المتعلقة بغياب الحوكمة والحوادث المرتبطة بقصور الذكاء الاصطناعي. وقال السيد هير: “ينبغي على هؤلاء المدراء التعامل مع الحوكمة والانضباط على أنها جزء من مبادرات الذكاء الاصطناعي، والعمل على بناء ثقافة تبنى على الاستخدام المسؤول والثقة والشفافية. وفي هذا الإطار تعد خطوة تحقيق التنويع في فرق عمل الذكاء الاصطناعي والبيانات والخوارزميات والترويج لمهارات العاملين بداية جيدة”. وأضاف: “على المدراء المسؤولين عن البيانات وتحليلها وضع خطط لضمان تحمّل المسؤولية والمحاسبة وذلك لتحديد مستويات الثقة والشفافية للبيانات والخوارزميات والمخرجات لكل نموذج وضمان تطبيقها. كما أن من الضروري أن يقوم هؤلاء بإضافة مزايا لتوفير شروحات توضيحية للذكاء الاصطناعي عند تقييم البيانات التحليلية وذكاء الأعمال وعلم البيانات ومنصات تعلّم الآلات على حد سواء”.