Data science

ต้นทุนคลังข้อมูลพุ่งสูงขึ้น ROI ยังไม่รับรู้

องค์กรต่างๆ ทุ่มเงินลงในซอฟต์แวร์การจัดการข้อมูล – มูลค่าถึง $73 พันล้านใน 2020 – แต่เห็นผลตอบแทนจากการลงทุนด้านข้อมูลน้อยมาก จากการศึกษาใหม่จาก Dremio บริษัท SQL Lakehouse และผลิตโดย Wakefield Research มีเพียง 22% ของ ผู้นำข้อมูลที่สำรวจได้ตระหนักถึง ROI อย่างเต็มที่ในช่วงสองปีที่ผ่านมา โดยผู้นำข้อมูลส่วนใหญ่ (28%) ไม่มีวิธีการวัดที่สอดคล้องกัน นอกเหนือจากผลการสำรวจ รายงานยังแนะนำ Data Value Scorecard ซึ่งเป็นการวัดความพยายามของบริษัทต่างๆ ในการปลดล็อกมูลค่าหรือ ROI ของข้อมูล ด้วยชุดเมตริกที่ประเมินนโยบายข้อมูล Scorecard จะให้มุมมองโดยรวมอย่างรวดเร็วว่าบริษัทและพนักงานใช้และจัดการข้อมูลได้อย่างมีประสิทธิภาพเพียงใด “ผู้นำข้อมูลมักกังวลเกี่ยวกับต้นทุนที่ไม่สามารถควบคุมได้ของคลังข้อมูล โดยเฉพาะอย่างยิ่งเมื่อปริมาณงานเพิ่มขึ้น ซึ่งเป็นเรื่องที่น่าประหลาดใจอย่างมากสำหรับพวกเขา เนื่องจากต้นทุนของคลังข้อมูลในการเริ่มต้นอาจต่ำ นอกจากนี้ การขาดการคาดการณ์เกี่ยวกับค่าใช้จ่ายในอนาคตจะนำไปสู่การกำกับดูแลทางการเงินที่แย่มากสำหรับผู้นำด้านข้อมูลและ CFO” Billy Bosworth ซีอีโอของ Dremio กล่าว “ในขณะที่บริษัทต่างๆ เข้าใจว่าพวกเขามีต้นทุนที่ทรุดโทรมมากสำหรับคลังข้อมูล แต่พวกเขาก็กระตือรือร้นที่จะหาวิธีขับเคลื่อนสถาปัตยกรรมการวิเคราะห์ที่ใหม่กว่าโดยตรงจาก Data Lake แบบเปิดเพื่อการกำกับดูแลทางการเงินที่ดีขึ้นและการสืบค้นที่มีประสิทธิภาพสูงต่อข้อมูลจำนวนมหาศาล” รายงานพบว่าเพื่อดำเนินการวิเคราะห์ องค์กรต่างๆ กำลังทำสำเนาข้อมูลของตนหลายชุด – คัดลอก เฉลี่ย. รายงานที่น่าตกใจ 60% ที่บริษัทของพวกเขาได้ผ่านพ้นไปแล้ว 10 สำเนาข้อมูลของพวกเขาลอยไปรอบ ๆ เพื่อเพิ่มการดูถูกการบาดเจ็บ 73% กล่าวว่าผู้ใช้ปลายทางใช้ชุดข้อมูลเดียวกันในเวอร์ชันที่ไม่สอดคล้องกันในเวลาเดียวกันเนื่องจากการแปลงไฟล์แยกและโหลด (ETL ) ดำเนินการ บ่อนทำลายความสมบูรณ์ของข้อมูลและความไว้วางใจ และทำให้กระบวนการตัดสินใจช้าลง น่าสังเกต: ในบรรดาผู้นำข้อมูลทั้งหมดที่ใช้คลังข้อมูล 94% รายงานความกังวลเกี่ยวกับมัน 79% มีความกังวลเกี่ยวกับการปรับขนาดสถาปัตยกรรม เท่านั้น 20% รายงานที่ไม่มีข้อกังวลเกี่ยวกับต้นทุนของการปรับขนาด 79% ของผู้นำด้านข้อมูลกล่าวว่าเป็นเรื่องปกติที่นักวิเคราะห์ข้อมูลในบริษัทจะทำงานกับชุดข้อมูลบางส่วน ซึ่งหมายความว่านักวิเคราะห์ข้อมูลจำนวนมากอาจทำงานโดยมีข้อมูลไม่เพียงพอ เพียง 10% คาดหวังข้อมูลใหม่เป็นนาทีหรือชั่วโมง 51% คาดหวังในแง่ของสัปดาห์มากกว่า 3 ใน 4 ผู้นำข้อมูล (76%) กล่าวว่าพวกเขาถูกล็อคในผู้ค้าบางรายเนื่องจากระบบปิดของพวกเขา ซึ่งหมายความว่าเพียงหนึ่งในสี่ของบริษัทมีอิสระอย่างแท้จริงในการสำรวจเครื่องมือและการวิเคราะห์ข้อมูลที่เป็นนวัตกรรมใหม่และล้ำสมัย Data Value Scorecard Respondents ตอบคำถามที่เกี่ยวข้องกับกระบวนการข้อมูลและสถาปัตยกรรม รวมถึงจุดบอดทั่วไปสำหรับการตั้งค่าที่ไม่มีประสิทธิภาพ การประเมินไทม์ไลน์ต่ำเกินไป โดยใช้ชุดข้อมูลเวอร์ชันที่ไม่สอดคล้องกันหรือบางส่วน และถูกล็อกในผู้ขายบางราย ผู้ตอบถูกให้คะแนนแบบผ่าน-ไม่ผ่าน แม้ว่าจะใช้เวลาหลายปีในการลงทุนเพื่อรวบรวมข้อมูล แต่มีเพียงไม่กี่คนที่คิดหาวิธีใช้ข้อมูลเพื่อวัตถุประสงค์ทางธุรกิจอย่างมีประสิทธิภาพและประสิทธิผล โดยเฉลี่ยแล้ว บริษัทที่มีผู้นำด้านข้อมูลได้คะแนน 26% – หมายความว่าพวกเขาผ่าน 2.6 ตัวชี้วัด 28% ผ่านไปโดยตอบว่า “ง่ายมาก” สำหรับผู้ใช้ปลายทางในการเข้าถึงข้อมูลและพัฒนาข้อมูลเชิงลึก 20% ผ่านไปแล้ว โดยบอกว่าไทม์ไลน์ของโครงการข้อมูล “ไม่ค่อยหรือไม่เคย” ประเมินเวลา ETL ต่ำเกินไป 20% ผ่านไปแล้ว โดยรายงานว่าบริษัทของตนมีข้อจำกัด “เพียงเล็กน้อยหรือไม่มีเลย” ในการเข้าถึงข้อมูลเพื่อการกำกับดูแล เกี่ยวกับ Dremio Data Value Scorecard Dremio Data Value Scorecard เป็นดัชนีชี้วัดแบบสำรวจที่พัฒนาโดย Dremio และ ดำเนินการโดย Wakefield Research Wakefield Research ได้ทำการศึกษาวิจัยเชิงปริมาณในเดือนมิถุนายน 500 ท่ามกลาง 500 ผู้นำด้านข้อมูลและการวิเคราะห์ที่องค์กรต่างๆ ในสหรัฐอเมริกา สหราชอาณาจักร เยอรมนี เดนมาร์ก สวีเดน นอร์เวย์ ออสเตรเลีย ฮ่องกง และสิงคโปร์ องค์กรต่างๆ ได้รับการสำรวจเกี่ยวกับคุณค่าของข้อมูล กล่าวคือ สามารถใช้ข้อมูลภายในองค์กรได้อย่างมีประสิทธิภาพเพียงใด และความสามารถในการใช้ข้อมูลเพื่อการตัดสินใจทางธุรกิจ ลงทะเบียนเพื่อรับจดหมายข่าว InsideBIGDATA ฟรี เข้าร่วมกับเราบน Twitter: @InsideBigData1 – https://twitter.com/InsideBigData1

  • บ้าน
  • Business
  • Data science
  • Marketing
  • Leave a Reply

    Your email address will not be published. Required fields are marked *

    Back to top button