Q:
ما هي بعض القضايا الأخلاقية المتعلقة بالتعلم الآلي؟
أ:لا تتضمن المشكلات الأخلاقية المحيطة بالتعلم الآلي الكثير من خوارزميات التعلم الآلي ، ولكن طريقة استخدام البيانات.
توضح فضيحة Cambridge Analytica مع Facebook ، حيث تستخدم شركة استشارية سياسية بيانات من موقع التواصل الاجتماعي دون علم المستخدمين أو موافقتهم ، الكثير من المشكلات المرتبطة بجمع واستخدام بيانات المستخدم. في حين أن العديد من اتفاقيات ترخيص المستخدم النهائي تحدد كيفية استخدام بيانات المستخدمين ، فقد لا يقرأ العديد من مستخدمي وسائل التواصل الاجتماعي النسخة المطبوعة.
تحميل مجاني: تعلم الآلة ولماذا يهم |
مشكلة أخرى هي أن خوارزميات التعلم الآلي هذه قد تكون "صناديق سوداء" حيث من المستحيل رؤية كيف تعمل حقًا. قد يكون من المستحيل معرفة سبب اتخاذ خوارزمية التعلم الآلي للقرار.
أحد مجالات التعلم الآلي هو إجراء التشخيص الطبي. قد تبحث خوارزمية في الأشعة السينية للعثور على السرطان. يمكن للطبيب البشري أن يشرح سبب إجراء التشخيص ، لكن قد لا نعرف كيف تحدد خوارزمية التعلم الآلي أن المريض مصاب بالسرطان أم لا.
يعد إطلاق برامج التعلم الآلي بموجب تراخيص مفتوحة المصدر أحد الحلول. عندما يتمكن الأشخاص من الاطلاع على الكود المصدري للبرنامج ، يمكنهم أن يروا كيف يتخذ القرارات.
قضية أخرى هي استخدام بيانات التدريب على التعلم الآلي والتحيزات المحتملة. كانت هناك عدة حالات من التحيزات العنصرية وغيرها مما يجعلها في برامج التعلم الآلي عن غير قصد. تعرفت إحدى الخوارزميات على السود على أنهم غوريلات ، وأخرى غيرت ملامح الوجه للأشخاص ذوي الألوان لجعلها تبدو أكثر "أوروبية" بينما تدعي أنها تجميلية.
طريقة واحدة للتصدي لهذا هو الحصول على المزيد من الناس من خلفيات متنوعة في مجال الذكاء الاصطناعى.
مشكلة أخرى هي الاستخدام الآمن للتعلم الآلي والذكاء الاصطناعي. يمكن أن تطور برامج الذكاء الاصطناعي والتعلم الآلي سلوكًا لا يريده الناس ، مثل منع الناس من إيقافهم.
