بيت تطوير لماذا يعتبر تحيز الآلة مشكلة في التعلم الآلي؟

لماذا يعتبر تحيز الآلة مشكلة في التعلم الآلي؟

Anonim

Q:

لماذا يعتبر تحيز الآلة مشكلة في التعلم الآلي؟

أ:

يمكن الإجابة على هذا السؤال بطريقتين مختلفتين. أولاً ، لماذا مشكلة التحيز في الآلة ، كما في ، لماذا توجد في عمليات التعلم الآلي؟

التعلم الآلي ، على الرغم من أنه متطور ومعقد ، إلا أنه محدود إلى حد ما استنادًا إلى مجموعات البيانات التي يستخدمها. يتضمن بناء مجموعات البيانات تحيزًا كامنًا. تمامًا كما هو الحال في الوسائط ، حيث قد تُظهر الإغفالات والخيارات المتعمدة للإدراج تحيزًا معينًا ، في التعلم الآلي ، يجب فحص مجموعات البيانات المستخدمة لتحديد نوع التحيز الموجود.

تحميل مجاني: تعلم الآلة ولماذا يهم

على سبيل المثال ، تمثل مشكلة شائعة في اختبار التكنولوجيا وعمليات التصميم إظهار تفضيل نوع من المستخدمين على نوع آخر. مثال واحد كبير هو التفاوت بين الجنسين في عالم التكنولوجيا.

لماذا يحدث هذا فرقًا ، ولماذا ينطبق على التعلم الآلي؟

لأن نقص الإناث الموجودات في بيئة اختبار يمكن أن يؤدي إلى تقنية منتجة تكون أقل سهولة في الاستخدام للجمهور الإناث. الطريقة التي يصفها بعض الخبراء هي أنه بدون الاختبارات الحالية للإناث ، قد لا يتعرف المنتج النهائي على مدخلات المستخدمين الإناث - قد لا يكون لديه الأدوات اللازمة للتعرف على هويات الإناث أو التعامل بشكل مناسب مع مدخلات النساء.

وينطبق الشيء نفسه على مختلف الأعراق ، أو أناس من ديانات مختلفة ، أو أي نوع آخر من الديموغرافية. بدون البيانات الصحيحة ، لن تعمل خوارزميات التعلم الآلي بشكل صحيح لمجموعة مستخدم معين ، لذلك يجب إضافة بيانات التضمين بشكل متعمد إلى التكنولوجيا. بدلاً من مجرد أخذ مجموعات البيانات الأولية وتعزيز التحيز المتأصل ، يحتاج مناولون بشريون أن ينظروا فعليًا إلى المشكلة.

مثال آخر هو محرك التعلم الآلي الذي يأخذ معلومات الوظيفة والراتب ويبصق النتائج. إذا لم يتم تحليل مجموعة البيانات المتأصلة ، فسوف يعزز الجهاز التحيز. إذا أدركت أن الرجال يشغلون الغالبية العظمى من الوظائف التنفيذية ، وأن عملية التعلم الآلي تتضمن التصفية من خلال مجموعة البيانات الأولية وإرجاع النتائج ذات الصلة ، فستظهر نتائج تظهر تحيزًا من الذكور.

الجزء الثاني من السؤال يتضمن لماذا هذا التحيز ضار للغاية. من دون إشراف واختبار مناسبين ، يمكن للتكنولوجيات الجديدة أن تلحق الضرر بشعورنا بالإدماج والمساواة ، لا تساعد. إذا تم طرح منتج تقني جديد يتعرف على الوجوه ذات البشرة الفاتحة ، ولكن ليس البشرة الداكنة ، فقد يؤدي ذلك إلى تصاعد التوترات العرقية والشعور بأن الشركة المعنية ليست حساسة للتنوع. إذا كانت خوارزمية التعلم الآلي تنتج وتزيد من التحيز في مجموعات البيانات ، فإن تلك الذكاء الاصطناعي ستضيف صوتها إلى الأصوات البشرية والميول البشرية الموجودة بالفعل في النظام الاجتماعي والتي تفضل مجموعة من الناس على مجموعة أخرى.

أفضل طريقة للتعامل مع ذلك هي النظر عن كثب في مجموعات البيانات الأساسية ، واستخدام اختيار الميزات ، وإضافة المدخلات المتغيرة ، والتعامل مع مجموعات البيانات الأولية بأنفسهم ، وزيادة القوة الحقيقية للتعلم الآلي عن طريق صياغة البيانات البشرية عن عمد ، للحصول على النتيجة التي توفر قوة تحليلية كبيرة ، ولكن أيضًا بعض تلك الرؤى البشرية التي يتعذر على أجهزة الكمبيوتر تكرارها.

لماذا يعتبر تحيز الآلة مشكلة في التعلم الآلي؟