TechTarget中国特约技术编辑,某高校计算机科学专业教师和网络实验室负责人,曾任职某网络国际厂商,关注数据中心、开发运维、数据库及软件开发技术。有多本关于思科数据中心和虚拟化技术的译著,如《思科绿色数据中心建设与管理》和《基于IP的能源管理》等。
在当前的业务环境中,业务过程由技术驱动,数据处理速度极快,如果不主动处理数据质量问题,很可能会使业务环境发生问题。
SQL Server 2012已经发布,在升级之前我们需要做一些准备。首先必须验证软件和硬件需求;准备足够的资源,用于测试和实现新系统。
本文是大数据管理系列文章的第一篇,我们将介绍大数据分析与传统数据仓库之间的区别,以及作为大数据分析基础的分布式计算集群。
在改进数据质量过程中,企业通常会购买昂贵的数据管理工具。但是,在全球经济持续下滑的现状下,许多组织并没有足够资金购买和部署这些新工具。
对于中小型企业(SMB),在环境中增加商业智能(BI)的方法变得越来越多,一些重要的SQL Server BI技术的应用门槛和成本也都逐渐下降。
统计与诊断数据是任何 SQL故障修复工作的关键所在。如果没有掌握这些数据,就无法确定数据性能问题的根源。
IT部门经常认为数据库未来的需求会不断增长,数据集市会变成一个企业仓库,于是把数据库的基础架构设计得异常庞大,毫不考虑短期需求。
许多用来创建OLAP数据库的产品都会有多个数据源。一个系统拥有多个数据源或通过多个小型数据仓库获取所需要的数据是很常见的情况。
建立一个拥有强大处理能力的大型数据仓库,能够帮助企业处理大规模数据集和建立一个覆盖整个企业的全面视图。
在商业领域,人们最关注两个报表系统为相同的数据产生完全不同的结果。在许多报表系统中,最难完成的任务之一就是保持非规范化数据的一致性和同步性。