بيت سمعي لماذا داربا البحث عن تفسير لمنظمة العفو الدولية؟

لماذا داربا البحث عن تفسير لمنظمة العفو الدولية؟

Anonim

Q:

لماذا يبحث DARPA عن "AI القابل للتفسير"؟

أ:

بشكل عام ، أصبحت الذكاء الاصطناعي القابل للتفسير جزءًا من الأعمال الحديثة في علوم البيانات. إنها تساعد على توجيه التحكم البشري في نوع من التكنولوجيا المتقلبة والديناميكية بطبيعتها - تساعد الذكاء الاصطناعي القابل للشرح في الإجابة على الكثير من أسئلتنا الجماعية حول كيفية عمل الذكاء الاصطناعي.

لفهم الذكاء الاصطناعي القابل للشرح ، يساعد على فهم شكل "الذكاء الاصطناعي المعتاد". بشكل تقليدي ، عندما يبدأ الذكاء الاصطناعي في التبلور ، يتكون المشروع النموذجي من قدرة برمجية جديدة رائعة ، مخفية في الخوارزميات ومجموعات التدريب والرمز الخطي ، وهذا نوع من "مربع الحظر" للمستخدمين. إنهم يعلمون أنه يعمل - فهم لا يعرفون بالضبط كيف.

يمكن أن يؤدي ذلك إلى "مشكلات ثقة" حيث يمكن للمستخدمين التشكيك في الأساس الذي تعتمد عليه التكنولوجيا في اتخاذ القرارات. هذا ما يمكن تفسيره من قبل منظمة العفو الدولية: تأتي مشاريع منظمة العفو الدولية التي يمكن تفسيرها مزودة ببنية تحتية إضافية لتُظهر للمستخدمين النهائيين بنية بنية الذكاء الاصطناعي وهيكلها - لماذا تفعل ما تفعله.

في عصر يعبر فيه كبار المبدعين مثل Bill Gates و Elon Musk عن قلقهم بشأن كيفية عمل الذكاء الاصطناعي ، تبدو الذكاء الاصطناعي القابل للتوضيح جذابة للغاية. يرى الخبراء أن الذكاء الاصطناعي الجيد الذي يمكن تفسيره يمكن أن يساعد المستخدمين النهائيين على فهم سبب قيام التقنيات بما يقومون به ، وزيادة الثقة ، وكذلك زيادة سهولة استخدام هذه التقنيات واستخدامها.

على وجه التحديد ، رغم ذلك ، يشرح DARPA من تلقاء نفسه بالتحديد سبب اهتمامها بالمشاريع الجديدة. تظهر صفحة على DARPA أن وزارة الدفاع تتوقع "سيل" من تطبيقات الذكاء الاصطناعي ، وبعض الفوضى في تطورها.

"التقدم المستمر يعد بإنتاج أنظمة مستقلة من شأنها أن تتصور وتتعلم وتتقرر وتتصرف من تلقاء نفسها" ، كتب ديفيد جونينج. "ومع ذلك ، فإن فعالية هذه الأنظمة محدودة بسبب عجز الجهاز الحالي عن شرح قراراته وإجراءاته للمستخدمين البشريين. … ستكون الذكاء الاصطناعي القابل للتفسير - وخاصةً التعلم الآلي القابل للشرح - ضروريًا إذا أراد المقاتلون في المستقبل فهم الجيل الناشئ من شركاء الماكينة الأذكياء ، والثقة بهم بشكل مناسب. "

تقترح مقالة Gunning على الإنترنت أن أنظمة الذكاء الاصطناعي التي يمكن تفسيرها ستساعد على "توفير الأساس المنطقي" للتقنيات ، وإظهار نقاط القوة والضعف لديها ، وجعل حالات الاستخدام أكثر شفافية. يوضح الرسم على الصفحة كيف يمكن زيادة خط أنابيب مباشر من وظائف الذكاء الاصطناعي من بيانات التدريب بواسطة شيء يسمى نموذج قابل للتفسير وواجهة يمكن شرحها تساعد المستخدم في الإجابة على الأسئلة. يشير Gunning كذلك إلى أن برنامج الذكاء الاصطناعى القابل للتفسير سيكون له مجالان رئيسيان للتركيز - أحدهما يتم من خلال فحص بيانات الوسائط المتعددة للعثور على ما هو مفيد للمستخدمين ، والتركيز الثاني هو محاكاة عمليات اتخاذ القرار لدعم القرار.

تأمل DARPA في توفير "مجموعة أدوات" يمكن أن تساعد في تطوير أنظمة الذكاء الاصطناعي المستقبلية القابلة للشرح.

لماذا داربا البحث عن تفسير لمنظمة العفو الدولية؟