تحيّز الآلة
التصنيف | مقالات وتدوينات |
وقت النشر |
2020/09/20
|
الردود |
0
|
تعلّم الآلة هو مفهوم يطلق على مجموعة فرعية من الذكاء الاصطناعي (AI)، ويعتمد على جودة وموضوعيّة وحجم بيانات التدريب المستخدمة، فعندما تُظهر الخوارزمية نتائج متحيّزة بسبب افتراضات خاطئة في عملية التعلم هذه دلالة على وجود ما يسمى بتحيز الآلة، فعلى الرغم من أن تقنية تعلم الآلة واعدة إلا أنها قد تكون عرضة للتحيزات غير المقصودة التي تتطلب تخطيطًا دقيقًا لتجنبها؛ حيث أن الكثير من الشركات باتت تعتمد على تعلم الآلة لمراجعة ومعالجة كميات هائلة من البيانات، مثال:
- تقييم استحقاقية طلبات القروض.
- فحص العقود القانونية بحثًا عن الأخطاء.
"garbage in, garbage out"
هي أحد المقولات الشهيرة في علوم الحاسب التي تستخدم كإشارة على أهمية جودة المدخلات حيث أنّ جودة المخرجات تعتمد بشكل جوهري على جودة المدخلات، فالبيانات الخاطئة أو المعيبة أو غير الشاملة ستؤدي إلى تنبؤات غير دقيقة، وتحيز الآلة يعكس التحيزات المعرفية غير المقصودة أو الأحكام المسبقة في الحياة الواقعية، هنالك عدة أنواع للتحيز المعرفي منها الصورة النمطية، والتصوّر الانتقائي، والانحياز الذاتي.
في عام ٢٠١٦ أطلقت مايكروسوفت Microsoft برنامج دردشة آلي (Chatbot) متصل في تويتر ليحاكي ويحاور جيل الألفية، تحول هذا البوت من التغريد بأن "البشر رائعون للغاية" إلى الإشادة بهتلر وإلقاء تعليقات معادية للنساء، نستنتج من هذه التجربة التي كانت مدتها يوم واحد أن النماذج (models) تتعلم بالضبط ما يتم تدريسه.
ثلاثة مفاتيح لإدارة التحيز:
- اختر نموذج التعلم المناسب للمشكلة، فكل مشكلة تتطلّب حلاً مختلفًا وموارد بيانات مختلفة، لا يوجد نموذج واحد يمكن اتباعه لتجنب التحيز.
- اختر مجموعة بيانات تدريب تمثيلية/ تصويرية بعناية، من الضروري التأكد من أن بيانات التدريب متنوعة وتتضمن مجموعات مختلفة.
- مراقبة الأداء باستخدام بيانات حقيقية، يجب عليك محاكاة تطبيقات العالم الواقعي قدر الإمكان عند إنشاء الخوارزميات.
لتقليل التحيز في تعلم الآلة:
- حدد مصادر الانحياز.
- ضع إجراءات وارشادات للقضاء على التحيز.
- وثّق الطريقة التي تم بها اختيار البيانات وكذلك الطريقة التي تم بها تنظيف ومعالجة البيانات.
التعليقات (0)
لم يتم إضافة ردود حتى الآن...