本文共 1556 字,大约阅读时间需要 5 分钟。
大数据庞大而又复杂。这不仅体现在信息的积累上,而且体现在其对经营策略的影响上。据IDC预测,2018年,全球业务分析开支将高达896亿美元。成功利用大数据已成为众多企业的关键要素,其中包括制定平台战略,无论它是“数据中心”,还是“数据平台”亦或是“数据湖”。
很多还未实施大数据项目的企业正在评估他们2016年的数据战略,其它公司则在审视它们现有的项目,探索利用分析改善经营和增加收入的新方法。事实上,大数据并不容易做到。据Gartner预测,直到2018年,由于技能和集成上的问题,70%的Hadoop系统可能将无法满足成本节约和创收目标。因此,如何才能把大数据“物尽其用”变得至关重要。以下是一些您应该规避的最常见的大数据陷阱:
陷阱1:缺乏企业平台或以数据为本的架构
Hadoop系统通常是以具体应用的原型身份进入企业的,然后逐渐成为重心,吸引越来越多的数据,并很快成为一个巨兽——由一小撮“数据科学家”领导的数字运算引擎。企业必需从一个企业平台策略和一个以数据为本的架构开始,打破在各种规模的企业中盛行并削弱企业力量的数据孤岛。大数据需要能够在一个完全可扩展的分布式环境中实施并行处理,并尽可能地减少阻力。与传统数据库系统或应用孤岛不同,在一个以数据为本的架构或企业平台中,数据不受限制,不绑定模式,也没有被锁定。
陷阱2:缺乏“数据湖”愿景
对于企业而言,“数据湖”具有改变游戏规则的变革性意义。它是一个数据集中目的地,可提供企业急需的各类型的数据集成,其中包括结构化、非结构化和半结构化数据以及内部数据、外部数据和合作伙伴数据。数据湖存储库通过“大数据经济学” 创造巨大效益,与传统解决方案相比,它可将数据存储和分析的成本降低30到50倍。 数据湖能够在任何数据转换或模式创建之前捕获“原始数据”,并提供自动快速摄取机制。在向企业数据接入、无缝数据访问、迭代算法开发和敏捷开发演进的过程中,数据湖发挥着举足轻重的作用。
陷阱3:没有针对数据增长和成熟度进行规划
当数据湖成为默认的数据目的地时,管理和细粒度安全性从一开始就变得异常重要。元数据访问及存储、数据沿袭及标注会成为内置,而原始数据和不同阶段的转换数据仍能毫无冲突地共存。各类应用可以通过Hadoop使用彼此的数据。外部数据可以根据明确的处理/分析要求被屏蔽或集成,所有数据集能够在数据湖中和睦相处,这提高了数据的可用性,缩短了应用部署时间,并可支持无限的数据扩展和增长。
陷阱4:分析小样本数据集
很多人认为数据不需要被集成,人们可以使用小样本数据集,这是一种危险的错误观念,因为这会导致分析结果常常被延展到较大的数据集,而且不考虑差异,少则造成误导,严重的话甚至可能导致极度扭曲的结果。这通常被称为小样本数据集分析魔咒。例如,当您使用小样本数据集时,您可能会遇到很多离群数据或异常数据。如果使用的是小样本数据集,您无法知道异常数据在较大的数据集中是否具有结构性,或离群数据是否处于一种具备明确特征的模式。
陷阱5:采集更少的数据,依赖更高级的算法
另一个错误观念是:高级和复杂的算法能够解决所有问题。如果是这么简单的话,生活就太美好了。由于是在逻辑进程上运行,计算机将无条件地处理意外、甚至荒谬的输入数据,并生成无用、荒谬的输出数据。在信息与计算机科学中,当未被净化的数据被输入到复杂算法中,被称为“垃圾进入/垃圾输出”。缺失/稀疏的数据、空值和人为错误必须被清除。IT人员应避免依赖未经验证的假设或弱关联,而去尽可能多地采集数据,让数据自己说话。在部署数据平台时,这一点非常经济高效。
制定一个成功的大数据策略
如果将规避以上陷阱做为动机,从一开始就把事情做对,即可事半功倍,帮助企业更快、更好地利用大数据。
本文转自d1net(转载)