س: هل Hadoop للجميع؟
ج: أصبح مورد معالجة البيانات Hadoop المفتوح المصدر من Apache والأدوات ذات الصلة مؤثرًا في عالم البيانات الضخمة. ولكن في سباق اعتماد حلول تقنية معلومات أحدث وأكثر حداثة ، تتساءل الشركات عما إذا كانت Hadoop أداة عالمية يجب تطبيقها على نطاق واسع على عمليات البيانات والتحليلات الضخمة.
في الواقع ، هناك العديد من الاعتبارات حول ما إذا كان النظام سيستفيد كثيرًا من تطبيق Hadoop. الأول هو ما إذا كانت البيانات الضخمة ذات صلة بالصناعة. بمعنى آخر ، ما إذا كان العمل سوف يعمل على الحصول على مجموعات بيانات كبيرة للغاية وتحليلها ، فإن مجموعات البيانات أكبر مما يمكن تحليله باستخدام قاعدة بيانات علائقية تقليدية.
بالإضافة إلى ذلك ، يمكن للشركات الاختيار بين Hadoop وغيرها من أدوات الملكية التي قد تتطلب مهارة فنية أقل في الشركة. تقوم بعض شركات التقنية الأخرى بإنشاء أدوات بيانات كبيرة مماثلة قد تحتوي على واجهات أو اختصارات أكثر سهولة للسماح للمستخدمين الأقل خبرة بالقيام بالمزيد مع البيانات الضخمة.
في الوقت نفسه ، هناك إجماع على أن معظم مشاريع البيانات الكبيرة يمكن أن تستفيد من Hadoop مع إدارة كافية. تعمل أدوات مثل تصميم مستودع Apache Hive وبناء جملة برمجة Apache Pig للبيانات الضخمة على توسيع نطاق ما يمكن لـ Hadoop فعله. إن التطورات الأخرى ، مثل Hadapt و MapR ، تجعل بناء جملة Hadoop واستخدامه أكثر شفافية لمجموعة واسعة من المستخدمين ، أو بعبارة أخرى ، بدء التخلص من مشكلة "techiness".
بشكل عام ، يتعين على الشركة أن تنظر في مقدار البيانات الضخمة التي تستخدمها ومن أين تأتي هذه البيانات. يتعين على المسؤولين التنفيذيين والقادة أن يفكروا في الجهة التي ستعمل على مشاريع تكنولوجيا المعلومات المعنية ، ومهاراتهم وخلفياتهم. يجب عليهم فهم الفرق بين تنفيذ أدوات البيانات الكبيرة المختلفة. سيساعد ذلك فرق القيادة على فهم ما إذا كانت Hadoop مناسبة لمشاريعها.
