بيت سمعي لماذا تفكر بعض الشركات في إضافة "عناصر تحكم ردود الفعل البشرية" إلى أنظمة الذكاء الاصطناعي الحديثة؟

لماذا تفكر بعض الشركات في إضافة "عناصر تحكم ردود الفعل البشرية" إلى أنظمة الذكاء الاصطناعي الحديثة؟

Anonim

Q:

لماذا تفكر بعض الشركات في إضافة "عناصر تحكم ردود الفعل البشرية" إلى أنظمة الذكاء الاصطناعي الحديثة؟

أ:

تعمل بعض الشركات التي تعمل بتقنية الذكاء الاصطناعي المتطورة على إنشاء ضوابط بشرية لهذه الأنظمة ، مما يوفر أدوات التعلم الآلي والتعلم العميق بعض الرقابة البشرية المباشرة. هاتان الشركتان ليستا لاعبين صغيرين ، كذلك - يعد برنامج DeepMind و OpenAI الخاص بـ Google Elon Musk مثالين على الشركات الكبرى التي تتعرف على تطورات الذكاء الاصطناعي. مع وضع ذلك في الاعتبار ، تختلف النتائج - على سبيل المثال ، كان DeepMind موضع جدل بسبب عدم رغبته المتصورة في توفير البيانات الرئيسية للجمهور ، في حين أن OpenAI أكثر من ذلك بكثير ، منفتحة حول عملها في السيطرة على الذكاء الاصطناعي.

حتى أن بعض الشخصيات البارزة مثل بيل جيتس قد أثرت في القضية ، حيث قال غيتس إنه واحد من كثيرين يشعرون بالقلق من ظهور الذكاء الخارق المصطنع الذي قد يتجاوز في بعض الأحيان التحكم البشري. Musk ، من جانبه ، قد طرح بعض اللغة المزعجة حول إمكانية "المارقة AI".

ربما يكون هذا هو السبب الأكثر إلحاحًا في أن الشركات تعمل على تطبيق الضوابط البشرية على الذكاء الاصطناعي - فكرة أن بعض الخصائص التكنولوجية ستؤدي إلى تقنية عاطفية قوية للغاية لا يمكن للبشر التحكم بها بعد الآن. منذ فجر الطموحات الإنسانية ، وضعنا الأدوات اللازمة للتأكد من أننا قادرون على التحكم في الصلاحيات التي نمارسها - سواء كانت خيول مع مقاليد أو تسخير ، أو كهرباء في أسلاك معزولة ، أو أي آلية تحكم أخرى ، السيطرة هي وظيفة إنسانية فطرية ، وبالتالي فمن المنطقي في العالم أنه مع اقتراب الذكاء الاصطناعي من الوظيفة الحقيقية ، يطبق البشر ضوابطهم المباشرة للحفاظ على تلك القوة قيد الفحص.

ومع ذلك ، فإن الخوف من الروبوتات فائقة الذكاء ليس هو السبب الوحيد الذي يجعل الشركات تطبق ضوابط بشرية على مشاريع التعلم الآلي ومشاريع الذكاء الاصطناعي. سبب رئيسي آخر هو التحيز في الآلة - هذه هي فكرة أن أنظمة الذكاء الاصطناعي غالباً ما تكون محدودة في كيفية تقييم البيانات المعنية - بحيث تضخّم أي تحيز متأصل في النظام. يمكن لمعظم المهنيين الذين يتعاملون مع التعلم الآلي سرد ​​قصص الرعب عن أنظمة تكنولوجيا المعلومات التي لم تكن قادرة على التعامل مع مجموعات المستخدمين البشر على حد سواء - سواء كان التفاوت بين الجنسين أو العرق ، أو بعض الإخفاقات الأخرى للنظام في فهم الفروق الدقيقة لمجتمعاتنا البشرية و كيف نتفاعل مع الناس.

بمعنى ما ، قد نضع ضوابط بشرية على الأنظمة لأننا نخشى أن تكون قوية للغاية - أو بالتناوب ، لأننا نخشى أنها قد لا تكون قوية بما فيه الكفاية. تساعد أدوات التحكم البشرية في استهداف مجموعات بيانات التعلم الآلي لتوفير المزيد من الدقة. إنها تساعد في تعزيز الأفكار التي لا يمكن للكمبيوتر تعلمها من تلقاء نفسه ، إما لأن النموذج ليس متطورًا بدرجة كافية ، لأن الذكاء الاصطناعى لم يتقدم كثيرًا بما فيه الكفاية ، أو لأن بعض الأشياء تكمن فقط في مقاطعة الإدراك البشري. الذكاء الاصطناعي يعد أمرًا رائعًا بالنسبة لبعض الأشياء - على سبيل المثال ، يسمح نظام قائم على المكافآت والنتائج الذكاء الاصطناعي لهزيمة لاعب بشري في لعبة لوح "Go" المعقدة للغاية ، لكن بالنسبة إلى أشياء أخرى ، فإن هذا النظام القائم على الحوافز هو غير كافية تماما.

باختصار ، هناك العديد من الأسباب الملحة لإبقاء المستخدمين البشر يشاركون مباشرة في كيفية عمل مشاريع الذكاء الاصطناعي. حتى أفضل تقنيات الذكاء الاصطناعي يمكن أن تفعل الكثير من التفكير من تلقاء نفسها - ولكن من دون عقل بشري حقيقي يمكن أن يعالج أشياء مثل العواطف والأعراف الاجتماعية ، فإنهم ببساطة لا يستطيعون رؤية الصورة الكبيرة بطريقة إنسانية.

يمكن لشركة تعلم المهارات الماهرة أن تساعد في تحقيق هذا التوازن من خلال مزيج من خبراء الأعمال والموضوعات ومطوري تعلم الآلة ذوي المهارات اللازمة لحل مشاكل الأعمال الكبيرة.

لماذا تفكر بعض الشركات في إضافة "عناصر تحكم ردود الفعل البشرية" إلى أنظمة الذكاء الاصطناعي الحديثة؟