هل يمكنك الوثوق بمنظمة العفو الدولية؟ هل تقبل نتائجها على أنها موضوعية دون أي سؤال؟ المشكلة هي أنه حتى استجواب منظمة العفو الدولية نفسها لن تسفر عن إجابات واضحة.
تعمل أنظمة الذكاء الاصطناعى بشكل عام مثل الصندوق الأسود: البيانات هي المدخلات ، والبيانات هي المخرجات ، ولكن العمليات التي تحول تلك البيانات هي لغز. أن يخلق مشكلة ذات شقين. أحدهما أنه من غير الواضح أداء الخوارزميات الأكثر موثوقية. والآخر هو أن النتائج التي تبدو موضوعية يمكن أن تشوهها قيم وتحيزات البشر الذين يبرمجون النظم. هذا هو السبب في الحاجة إلى الشفافية في عمليات التفكير الافتراضية التي تستخدمها هذه الأنظمة ، أو "AI القابل للتفسير".
أصبحت الضرورة الأخلاقية أمرًا قانونيًا لأي شخص يخضع لإجمالي الناتج المحلي ، وهو ما يؤثر ليس فقط على الشركات التي يوجد مقرها في الاتحاد الأوروبي ولكن يؤثر على الشركات التي تتعامل مع الأشخاص أو المنظمات هناك. يحتوي على عدد من الأحكام المتعلقة بحماية البيانات والتي تمتد إلى مواطني الاتحاد الأوروبي "الحق في عدم التعرض فقط لاتخاذ القرارات الآلية ، إلا في حالات معينة" و "الحق في تزويدك بمعلومات مفيدة حول المنطق المتضمن في القرار ".