Q:
لماذا من المهم لعلماء البيانات أن يبحثوا عن الشفافية؟
أ:الشفافية مهمة بشكل أساسي في مشاريع علوم البيانات وبرامج التعلم الآلي ، ويعزى ذلك جزئيًا إلى التعقيد والتطور الذي يدفعهم - لأن هذه البرامج "تعلم" (تولد نتائج احتمالية) بدلاً من اتباع تعليمات البرمجة الخطية المحددة مسبقًا ، ونتيجة لذلك ، قد يكون من الصعب فهم كيفية وصول التكنولوجيا إلى الاستنتاجات. مشكلة "الصندوق الأسود" المتمثلة في خوارزميات التعلم الآلي التي لا يمكن تفسيرها بشكل كامل لصانعي القرار البشري هي مشكلة كبيرة في هذا المجال.
مع وضع ذلك في الاعتبار ، من المحتمل أن تكون القدرة على إتقان التعلم الآلي القابل للتفسير أو "AI القابل للتفسير" نقطة تركيز رئيسية في كيفية متابعة الشركات لاكتساب المواهب لعالم البيانات. تقوم DARPA بالفعل ، المؤسسة التي جلبت إلينا الإنترنت ، بتمويل دراسة بملايين الدولارات في مجال الذكاء الاصطناعى القابل للشرح ، في محاولة لتعزيز المهارات والموارد اللازمة لإنشاء تقنيات التعلم الآلي والذكاء الاصطناعي التي تكون شفافة للبشر.
تتمثل إحدى طرق التفكير في ذلك في غالب الأحيان في وجود "مرحلة محو الأمية" من تنمية المواهب و "مرحلة ارتفاع نسبة الأمية". بالنسبة لعالم البيانات ، ستكون مرحلة محو الأمية التقليدية هي معرفة كيفية تجميع برامج التعلم الآلي وكيفية بناءها. الخوارزميات مع لغات مثل بيثون. كيفية بناء الشبكات العصبية والعمل معها. ستكون مرحلة ارتفاع مستوى القدرة على إتقان الذكاء الاصطناعي القابل للشرح ، وتوفير الشفافية في استخدام خوارزميات التعلم الآلي والمحافظة على الشفافية حيث تعمل هذه البرامج على تحقيق أهدافها وأهداف معالجاتها.
هناك طريقة أخرى لشرح أهمية الشفافية في علم البيانات وهي أن مجموعات البيانات المستخدمة تظل أكثر تطوراً ، وبالتالي أكثر تدخلاً في حياة الناس. المحرك الرئيسي الآخر للتعلم الآلي المشروح وعلوم البيانات هو اللائحة العامة الأوروبية لحماية البيانات التي تم تنفيذها مؤخرًا في محاولة للحد من الاستخدام غير الأخلاقي للبيانات الشخصية. باستخدام الناتج المحلي الإجمالي كحالة اختبار ، يمكن للخبراء أن يروا كيف تتناسب الحاجة إلى شرح مشاريع علوم البيانات مع مخاوف الخصوصية والأمن ، وكذلك أخلاقيات العمل.