“جارتنر” تفند خمسة مقولات شائعة حول البيانات الكبيرة
الضجة الواسعة التي تحدثها البيانات الكبيرة، بات من الصعب على رواد ومدراء تقنية المعلومات معرفة كيفية استثمار الإمكانات الكبيرة لهذه البيانات، ولذا قامت مؤسسة الدراسات والأبحاث العالمية “جارتنر” بدحض وتفنيد خمسة مقولات شائعة حول مسألة البينات الكبيرة بهدف مساعدة رواد تقنية المعلومات على تطوير إستراتيجيات البنية التحتية للمعلومات.
وفي هذا الصدد، قال ألكسندر ليندن، مدير الأبحاث لدى «جارتنر»: “توفر البيانات الكبيرة فرص هائلة، إلا أنها في الوقت ذاته تثير تحديات أكبر، فحجمها الهائل لا يحل المشاكل المتأصلة في جميع البيانات، وعلى رواد تقنية المعلومات إنهاء حالة الارتباك، وتأسيس أعمالهم استناداً لحقائق معروفة ونتائج مدفوعة بالأعمال”.
المقولة الشائعة الأولى: الجميع يتقدم علينا في تبني البيانات الكبيرة
يسجل الاهتمام بتقنيات وخدمات البيانات الكبيرة مستوى قياسي، حيث تقوم 73 بالمئة من المؤسسات التي شملها استطلاع “جارتنر” 2014 بالاستثمار أو التخطيط للاستثمار فيها، إلا أن معظم المؤسسات لا تزال في مراحل التبني الأولى، حيث قامت 13 بالمئة منها فقط بحسب الدراسة بالاستخدام الفعلي لهذه الحلول.
وتتمثل التحديات الكبرى التي تواجه الشركات في تحديد كيفية الحصول على القيمة من البيانات الكبيرة، وكيفية تقرير مكان البدء، حيث إن معظم المؤسسات تتعثر في المرحلة التجريبية بسبب عدم ربطها بين التقنية وعمليات الشركة أو حالات الاستخدام الملموسة.
المقولة الشائعة الثانية: لدينا الكثير من البيانات، ولا داعي للقلق حيال العيوب الصغيرة في البيانات
يعتقد رواد تقنية المعلومات أن الحجم الكبير للبيانات التي تديرها المؤسسات اليوم تجعل من عيوب الجودة في البيانات الفردية أمراً صغيراً وليس بتلك الأهمية بحسب “قانون الأرقام الكبيرة”.
وتعتمد وجهة نظرهم على أن عيوب الجودة في البيانات الفردية لا تؤثر على النتيجة العامة عند تحليل البيانات لأن كل عيب هو جزء صغير جداً من كتلة البيانات في مؤسستهم.
وفي هذا السياق، قال تيد فريدمان، نائب الرئيس والمحلل لدى «جارتنر»: “في الحقيقة، بالرغم من أن كل عيب فردي له تأثير أصغر بكثير على مجموعات البيانات الكاملة مما هو الحال في البيانات القليلة، حيث تزداد العيوب عندما تصبح البيانات أكبر. ولذا، فإن التأثير العام للبيانات فقيرة الجودة على مجموعة البيانات الشاملة تبقى نفسها. بالإضافة إلى ذلك، معظم البيانات التي تستخدمها المؤسسات في سياق البيانات الكبيرة تأتي من الخارج، أو من مصدر أو بنية غير معروفة. وهذا يعني أن مسائل جودة البيانات تكون أعلى من ذي قبل. وهكذا فإن جودة البيانات أهم بكثير فعلياً في عالم البيانات الكبيرة.”
المقولة الشائعة الثالثة: تكنولوجيا البيانات الكبيرة ستلغي الحاجة إلى تكامل البيانات
يتمثل الرأي العام في أن تكنولوجيا البيانات الكبيرة، لاسيما إمكانية معالجة البيانات عبر نهج “المخطط على القراءة”، ستمكن المؤسسات من قراءة المصادر نفسها باستخدام نماذج بيانات متعددة. ويعتقد معظم الأشخاص بأن هذه المرونة ستمكن المستخدمين النهائيين من تحديد كيفية تفسير أي أصل بيانات عند الطلب. كما أنهم يعتقدون أنها ستوفر وصول مخصص للبيانات للمستخدمين الأفراد.
المقولة الشائعة الرابعة: لا فائدة من استخدام مستودع البيانات للتحليلات المتقدمة
يعتبر معظم رواد إدارة المعلومات في أن بناء مستودع للبيانات هو أمر يستنزف الوقت ولا يحقق الفائدة عندما تستخدم التحليلات المتقدمة أنواع جديدة للبيانات خارج مستودع البيانات.
والحقيقة هي أن العديد من مشاريع التحليلات المتقدمة تستخدم مستودع للبيانات خلال التحليل. وفي حالات أخرى، يجب على قادة إدارة المعلومات صقل أنواع البيانات الجديدة التي هي جزء من البيانات الكبيرة لجعلها ملائمة للتحليل. وعليهم أن يقرروا ما هي البيانات المناسبة ذات الصلة، وكيفية تجميعها، والمستوى المطلوب لجودة البيانات – وإجراء هذه التصفية للبيانات في أماكن أخرى غير مستودع البيانات.
المقولة الشائعة الخامسة: بحيرات البيانات ستحل محل مستودع البيانات
يسوق البائعون بحيرات البيانات على أنها منصات لإدارة البيانات الواسعة للشركة بهدف تحليل المصادر المتباينة للبيانات بصيغها الأصلية.
وفي الحقيقة، إن من التضليل أن يضع البائعون بحيرات البيانات كبديل لمستودعات البيانات أو للعناصر المهمة في البنية التحليلية للعملاء، إذ تفتقر التقنيات التأسيسية لبحيرة البيانات النضج والاتساع في المميزات الموجود في تقنيات مستودعات البيانات المستخدمة.
وفي هذا الصدد، قال نيك هيودكر، مدير الأبحاث في “جارتنر”: “تملك مستودعات البيانات المقدرة على دعم مجموعة واسعة من المستخدمين في جميع أنحاء المؤسسة. وليس على قادة إدارة المعلومات انتظار بحيرات البيانات للحاق بها.”