从数据仓库到大数据,数据平台这25年是怎样进化的?[转]-程序员宅基地

 

从数据仓库到大数据,数据平台这25年是怎样进化的?

 大数据平台  [email protected]  2年前 (2016-03-23)  5778℃  2评论

从「数据仓库」一词到现在的「大数据」,中间经历了太多的知识、架构模式的演进与变革。数据平台这25年究竟是怎样进化的?让InfoQ特约老司机为你讲解。

我是从2000年开始接触数据仓库,大约08年开始进入互联网行业。很多从传统企业数据平台转到互联网同学是否有感觉:非互联网企业、互联网企业的数据平台所面向用户群体是不同的。

那么,这两类的数据平台的建设、使用用户又有变化?数据模型设计又有什么不同呢?

我们先从两张图来看用户群体的区别。

lxw1234

  • 企业的boss、运营的需求主要是依赖于报表、商业智能团队的数据分析师去各种分析与挖掘探索;
  • 支撑这些人是ETL开发工程师、数据模型建模、数据架构师、报表设计人员 ,同时这些角色又是数据平台数据建设与使用方。
  • 数据平台的技术框架与工具实现主要有技术架构师、JAVA 开发等。
  • 用户面对是结构化生产系统数据源。

lxw1234

  • 互联网企业中员工年龄比非互联网企业的要年轻、受教育程度、对计算机的焦虑程度明显比传统企业要低、还偶遇其它各方面的缘故,导致了数据平台所面对用户群体与非互联网数据平台有所差异化;
  • 互联网数据平台的使用与建设方是来自各方面的人,数据平台又是技术、数据产品推进建设的。
  • 分析师参与数据平台直接建设比重增加。
  • 原有的数据仓库开发与模型架构师的职能也从建设平台转为服务与咨询.
  • 用户面对是数据源多样化,比如日志、生产数据库的数据、视频、音频等非结构化数据 。

从这用户群体角度来说这非互联网、互联网的数据平台用户差异性是非常明显,互联网数据平台中很多理论与名词都是从传统数据平台传递过来的,本文将会分别阐述非互联网、互联网数据平台区别。

lxw1234

非互联网时代

自从数据仓库发展起来到现在,基本上可以分为五个时代、四种架构

  • 约在1991年前的全企业集成
  • 1991年后的企业数据集成EDW时代
  • 1994年-1996年的数据集市
  • 1996-1997年左右的两个架构吵架
  • 1998年-2001年左右的合并年代

数据仓库第一代架构

(开发时间2001-2002年)

海尔集团的一个BI项目,架构的ETL 使用的是 微软的数据抽取加工工具 DTS,老人使用过微软的DTS 知道有哪些弊端,后便给出了几个DTS的截图。

  • 功能:进销存分析、闭环控制分析、工贸分析等
  • 硬件环境:

业务系统数据库:DB2 for Windows,SQL SERVER2000,ORACLE8I

中央数据库服务器:4*EXON,2G,4*80GSCSI

OLAP 服务器:2*PIV1GHZ,2G,2*40GSCSI

  • 开发环境:VISUAL BASIC,ASP,SQL SERVER 2000

lxw1234

数据仓库第二代架构

lxw1234

这是上海通用汽车的一个数据平台,别看复杂,严格意义上来讲这是一套EDW的架构、在EDS数据仓库中采用的是准三范式的建模方式去构建的、大约涉及到十几种数据源,建模中按照某一条主线把数据都集成起来。

这 个数据仓库平台计划三年的时间构建完毕,第一阶段计划构建统统一生性周期视图、客户统一视图的数据,完成对数据质量的摸底与部分实施为业务分析与信息共享 提供基础平台。第二阶段是完成主要业务数据集成与视图统一,初步实现企业绩效管理。第三阶段全面完善企业级数据仓库,实现核心业务的数据统一。

数据集市架构

lxw1234

这个是国内某银行的一套数据集市,这是一个典型数据集市的架构模式、面向客户经理部门的考虑分析。

数据仓库混合性架构(Cif)

lxw1234

这是太平洋保险的数据平台,目前为止我认识的很多人都在该项目中呆过,当然是保险类的项目。

回过头来看该平台架构显然是一个混合型的数据仓库架构。它有混合数据仓库的经典结构,每一个层次功能定义的非常明确。

新一代架构OPDM 操作型数据集市(仓库)

OPDM大约是在2011年提出来的,严格上来说,OPDM 操作型数据集市(仓库)是实时数据仓库的一种,他更多的是面向操作型数据而非历史数据查询与分析。

数据模型

”数据模型“ 这个词只要是跟数据沾边就会出现的一个词。

在 构建过程中,有一个角色理解业务并探索分散在各系统间的数据,并通过某条业务主线把这些分散在各角落的数据串联并存储同时让业务使用,在设计时苦逼的地方 除了考虑业务数据结构要素外,还得考虑可操作性、约束性(备注 约束性是完成数据质量提升的一个关键要素,未来新话题主题会讨论这些),这个既要顾业务、数据源、合理的整合的角色是数据模型设计师,又叫数据模型师。

lxw1234

平台中模型设计所关注的是企业分散在各角落数据、未知的商业模式与未知的分析报表,通过模型的步骤,理解业务并结合数据整合分析,建立数据模型为 Data cleaning 指定清洗规则、为源数据与目标提供ETL mapping (备注:ETL 代指数据从不同源到数据平台的整个过程,ETL Mapping 可理解为 数据加工算法,给数码看的,互联网与非互联网此处差异性也较为明显,非互联网数据平台对ETL定义与架构较为复杂)支持、 理清数据与数据之间的关系。

(备注:Data cleaning 是指的数据清洗 数据质量相关不管是在哪个行业,是最令人头痛的问题,分业务域、技术域的数据质量问题,需要通过事前盘点、事中监控、事后调养,有机会在阐述)。

大家来看一张较为严谨的数据模型关系图:

lxw1234

  • 数据模型是整个数据平台的数据建设过程的导航图。
  • 有利于数据的整合。数据模型是整合各种数据源指导图,对现有业务与数据从逻辑层角度进行了全面描述,通过数据模型,可以建立业务系统与数据之间的映射与转换关系。排除数据描述的不一致性。如:同名异义、同物异名..。
  • 减少多余冗余数据,因为了解数据之间的关系,以及数据的作用。在数据平台中根据需求采集那些用于分析的数据,而不需要那些纯粹用于操作的数据。

数据模型在数据平台的数据仓库中是一个统称,严格上来讲分为概念模型、逻辑模型、物理模型。(备注:四类模型如何去详细构建文本不深讲,关于非互联网企业的数据模型网上非常多)

lxw1234

Bill Inmon对EDW 的定义是面向事物处理、面向数据管理,从数据的特征上需要坚持维护最细粒度的数据、维护最微观层次的数据关系、保存数据历史。所以在构建完毕的数据平台中 可以从中映射并检查业务信息的完整性(同时也是养数据过程中的重要反馈点),这种方式还可以找出多个系统相关和重合的信息,减少多个系统之间数据的重复定 义和不一致性,减小了应用集成的难度。

lxw1234

lxw1234

Ralph kilmball 对DM(备注:数据集市,非挖掘模型)的定义是面向分析过程的(Analytical Process oriented),因为这个模型对业务用户非常容易理解,同时为了查询也是做了专门的性能优化。所以星型、雪花模型很直观比较高性能为用户提供查询分 析。

lxw1234

该方式的建模首先确定用户需求问题与业务需求数据粒度,构建分析所需要的维度、与度量值形成星型模型;(备注 涉及的复杂维度、退化维度等不在这个讨论范围)。

数 据模型的业务建模阶段、领域概念模型阶段、逻辑模型阶段、物理模型阶段是超级学术与复杂的话题,而且在模型领域根据特点又分主数据(MDM)、CIF(企 业级统一视图) 、通用模型(IBM 的金融、保险行业通用模型、 Terdata的 金融通用模型、 电信移动通用模型等),锁涉及到术语”扩展“、”扁平化“、”裁剪“等眼花缭乱的建模手法,数据模型不同层次ODS、DWD

DWD、DW、ST的分层目的不同导致模型设计方法又不同。相信业界有很多大牛能讲的清楚的,以后有机会再交流。

lxw1234

lxw1234

lxw1234

lxw1234

互联网时代数据源

做数据的人,从非互联网进入到互联网最显著 的特点是面对的数据源类型忽然多了起来,在传统企业数据人员面对的是结构化存储数据,基本来自excel、表格、DB系统等,在数据的处理技术上与架构上 是非常容易总结的,但是在互联网因为业务独特性导致了所接触到的数据源特性多样化,网站点击日志、视频、音频、图片数据等很多非结构化快速产生与保存,在 这样的数据源的多样化与容量下采用传统数据平台技术来处理当然是有些力不从心了

(备注:IBM的科学家分析员道格.莱尼的一份数据增长报告基础上提出了大数据的4V特性 大数据4v特性网上概念很多大家可以问度娘)。

我在这里整理一个表格不同时代数据源的差异性(备注可能整理的有点不全):

lxw1234

数据平台的用户:

总结下来互联网的数据平台“服务”方式迭代演进大约可以分为三个阶段。

阶段一 :

约在2008年-2011年初的互联网数据平台,那时建设与使用上与非互联网数据平台有这蛮大的相似性,主要相似点在数据平台的建设角色、与使用到的技术上。

lxw1234

  • 老板们、运营的需求主要是依赖于报表、分析报告、临时需求、商业智能团队的数据分析师去各种分析、临时需求、挖掘,这些角色是数据平台的适用方。
  • ETL开发工程师、数据模型建模、数据架构师、报表设计人员 ,同时这些角色又是数据平台数据建设与使用方。
  • 数据平台的技术框架与工具实现主要有技术架构师、JAVA开发等。
  • 用户面对是结构化的生产数据、PC端非结构化log等 数据。
  • ELT的数据处理方式(备注在数据处理的方式上,由传统企业的ETL 基本进化为ELT)。

现 在的淘宝是从2004年开始构建自己的数据仓库,2004年是采用DELL 的6650单节点、到2005年更换为 IBM 的P550 再到2008年的12节点 Rac 环境。在这段时间的在IBM、EMC、Oracle 身上的投入巨大(备注:对这段历史有兴趣可以去度娘 :“【深度】解密阿里巴巴的技术发展路径“),同时淘宝的数据集群也变为国内最大的数据仓库集群。

lxw1234

随着2010年引入了hadoop&hive平台进行新一代的数据平台的构建,此时的Greenplum 因为优秀的IO吞吐量以及有限的任务并发安排到了网站日志的处理以及给分析师提供的数据分析服务。

该阶段的数据模型是根据业务的特性采用退化、扁平化的模型设计方式去构建的。

阶段二:

互联网的数据平台除了受到技术、数据量的驱动外,同时还来自数据产品经理梳理用户的需求按照产品的思维去构建并部署在了数据的平台上。互联网是一个擅长制造流程新概念的行业。

约 在2011年到2014 年左右,随着数据平台的建设逐渐的进入快速迭代期,数据产品、数据产品经理这两个词逐渐的升温以及被广泛得到认可(备注:数据产品相关内容个人会在数据产 品系列中做深入分享),同时数据产品也随着需求、平台特性分为面向用户级数据产品、面向平台工具型产品两个维度分别去建设数据平台。

lxw1234

  • 企业各个主要角色都是数据平台用户。
  • 各类数据产品经理(偏业务数据产品、偏工具平台数据产品)推进数据平台的建设。
  • 分析师参与数据平台直接建设比重增加。
  • 数据开发、数据模型角色都是数据平台的建设者与使用者(备注:相对与传统数据平台的数据开发来说,逐渐忽略了数据质量的关注度,数据模型设计角色逐渐被弱化)。
  • 用户面对是数据源多样化,比如日志、生产数据库的数据、视频、音频等非结构化数据 。
  • 原有ETL中部分数据转换功能逐渐前置化,放到业务系统端进行(备注:部分原有在ETL阶段需要数据标准化一些过程前置在业务系统数据产生阶段进行,比如Log 日志。 移动互联网的日志标准化。

互 联网企业随着数据更加逐渐被重视,分析师、数据开发在面对大量的数据需求、海量的临时需求疲惫不堪,变成了资源的瓶颈,在当时的状态传统的各类的 Report、Olap 工具都无法满足互联网行业个性化的数据需求。开始考虑把需求固定化变为一个面向最终用户自助式、半自助的产品来满足快速获取数据&分析的结果,当 总结出的指标、分析方法(模型)、使用流程与工具有机的结合在一起时数据产品就诞生了(备注:当时为了设计一个数据产品曾经阅读了某个部门的2000多个 临时需求与相关SQL)。

lxw1234

数据产品按照面向的功能与业务可以划分为面向平台级别的工具型产品、面向用户端的业务级数据产品。按照用户分类可以分为面向内部用户数据产品,面向外部用户个人数据产品、商户(企业)数据产品。

面向平台级别有数据质量、元数据、调度、资管配置、数据同步分发等等。

lxw1234

约2010-2012年的平台结构

lxw1234约2012-2013年的平台结构

阶段三:

用数据的一些角色(分析师、运营或产品)会自己参与到从数据整理、加工、分析阶段。当数 据平台变为自由全开放,使用数据的人也参与到数据的体系建设时,基本会因为不专业型,导致数据质量问题、重复对分数据浪费存储与资源、口径多样化等等原 因。此时原有建设数据平台的多个角色可能转为对其它非专业做数据人员的培训、咨询与落地写更加适合当前企业数据应用的一些方案等。

lxw1234

  • 给用户提供的各类丰富的分析、取数的产品,简单上手的可以使用。
  • 原有ETL、数据模型角色转为给用户提供平台、产品、数据培训与使用咨询。
  • 数据分析师直接参与到数据平台过程、数据产品的建设中去。
  • 用户面对是数据源多样化,比如日志、生产数据库的数据、视频、音频等非结构化数据 。

在互联网这个大数据浪潮下,2016年以后数据平台是如何去建设?如何服务业务?

lxw1234

企业的不同发展阶段数据平台该如何去建设的?这个大家是可以思考的。但是我相信互联网企业是非常务实的,基本不会采用传统企业的自上而下的建设方式,互联网企业的业务快速变与迭代要求快速分析到数据,必须新业务数据迭代,老业务数据快速去杂。敏捷数据平台或许是种不错的选择方法之一吧!

文:松子

转自: InfoQ

松子(李博源)

自由撰稿人,数据产品&数据分析总监。

曾就职支付宝、去哪儿网等。

2000年开始从事数据领域,从业传统制造业、银行、保险、第三方支付&互联网金融、在线旅行、移动互联网行业 。

其代表作为“黄http://lxw1234.com/archives/2016/03/624.htm金策”等多款数据产品,在传统行业基本以BI数据项目为主。

个人主要沉淀在大数据分析、大数据产品方面。在用户行为、商户支撑数据、生命周期、金融风险与信用评分、外部开放数据平台有实践经验。

 

转载于:https://www.cnblogs.com/qqflying/p/9209432.html

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/weixin_34390996/article/details/93869559

智能推荐

几个步骤将Ubuntu 20的apt的Ubuntu源更改为清华源_apt清华源-程序员宅基地

文章浏览阅读5.5k次,点赞6次,收藏7次。其中,focal代表Ubuntu 20.04的代号,根据不同版本的Ubuntu,需要相应更改。如Ubuntu 18.04的代号是Bionic Beaver。在打开的文件中,将默认的源地址替换为清华源地址。_apt清华源

location.href&&window.open_location.href 新窗口-程序员宅基地

文章浏览阅读7k次。href 属性是一个可读可写的字符串,可设置或返回当前显示的文档的完整 url。语法就是 location.href。_location.href 新窗口

Code Simplicity–The Science of Software Development 书摘-程序员宅基地

文章浏览阅读77次。Chapter1 IntroductionThat is the art and talent involved in programming—reducing complexity to simplicity.A “bad programmer” is just somebody who fails to reduce the complexity. So, a “good prog...

uni-app开发介绍_uniapp 开发app-程序员宅基地

文章浏览阅读2.8k次,点赞2次,收藏14次。在学习uni-app前,建议开发者先学习Vue.js框架,因为uni-app基于Vue.js框架开发。若您已经熟悉Vue.js,则可以开始学习uni-app了。uni-app使用HTML、CSS和JavaScript编写应用程序,您可以通过使用Vue.js的语法以及Uni-app提供的组件和API来构建应用程序。在学习uni-app时,建议同时了解应用开发的相关知识,如应用的生命周期、页面布局、事件绑定及其响应等。这些知识将帮助您更好地理解Uni-app的实现原理和应用开发流程。_uniapp 开发app

数据结构-Hash(哈希)基本特征_hash数据结构-程序员宅基地

文章浏览阅读878次,点赞22次,收藏19次。HashMap的实现原理是先要找到要存放数组的下标,如果是null的就存进去,如果不是null的就先判断key值是否一样,如果一样就替换,如果不一样就以链表的形式存在链表中(从JDK8开始,根据元素数量选择使用链表还是红黑树存储。例如上面存放7,8,9时,7直接存入索引为0的位置。8本来应该存到索引为1的位置,但是已经满了,所以向后找,索引3的位置为null,所以8存到索引3的位置,同理9存到6的位置。元素时,会先将目标位置前后的空间搜索一下,将标记为null的位置回收掉,这样大部分不用的位置就收回来了。_hash数据结构

linux配置的jmeter环境变量_linux配置jmeter环境变量-程序员宅基地

在CentOS 7系统中配置非root用户的jmeter环境变量,通过编辑.bash_profile文件并添加export JMET命令来配置。确保配置生效后,可通过java -version命令查看java版本信息。参考链接:知乎和程序员宅基地。

随便推点

运行python报错,Warning! ***HDF5 library version mismatched error***_the hdf5 header files used to compile this applica-程序员宅基地

文章浏览阅读1.7w次,点赞4次,收藏20次。报错内容如下:Warning! ***HDF5 library version mismatched error***The HDF5 header files used to compile this application do not matchthe version used by the HDF5 library to which this application is link..._the hdf5 header files used to compile this application do not match

Solr 4.2.x 拼写检查组件-程序员宅基地

文章浏览阅读88次。2019独角兽企业重金招聘Python工程师标准>>> ..._solr拼写组件

linux命令之ls命令_使用“ls -l”命令列出的以下文件,属于链接文件的是( )。a-rw-rw-rw- 3 root-程序员宅基地

文章浏览阅读660次。首先ls命令是列出当前目录的内容,其次学之前先了解一下ls出来后的不同类型文件的标识. 表示隐藏文件 / 表示一个目录* 表示一个可执行文件@ 表示一个符号链接文件| 表示管道文件= 表示socket文件ls 文件当前目录,ls -a不隐藏以.字符开始的项目 ,ls -A列出除了.和..以..._使用“ls -l”命令列出的以下文件,属于链接文件的是( )。a-rw-rw-rw- 3 root

linux系列之常用运维命令整理笔录_linux运维命令-程序员宅基地

文章浏览阅读10w+次,点赞1.7k次,收藏1.1w次。本博客记录工作中需要的linux运维命令,大学时候开始接触linux,会一些基本操作,可是都没有整理起来,加上是做开发,不做运维,有些命令忘记了,所以现在整理成博客,当然vi,文件操作等就不介绍了,慢慢积累一些其它拓展的命令,博客不定时更新free -m其中:m表示兆,也可以用g,注意都要小写Men:表示物理内存统计total:表示物理内存总数(total=used+free)use......_linux运维命令

单基因gsea_零代码5分+的单基因综合分析-程序员宅基地

文章浏览阅读2k次,点赞2次,收藏26次。小伙伴们好呀!今天和大家分享的是2020年一月份发表在Front Bioeng Biotechnol(IF:5.122)的一篇文章,作者在主要针对头颈癌,从表达量入手,对PGRMC1高低表达组中的差异基因近行GO,GSEA等分析,并与头颈癌患者的临床信息相联系,系统地研究了PGRMC1在癌症中作为原癌基因的作用,发现它影响头颈癌的代谢活性并有预后价值。标题:Identification ..._singlegene.clincialcor.r代码

STM32F4上CCM内存的使用小结_ccmram-程序员宅基地

文章浏览阅读4.6k次,点赞9次,收藏58次。一、CCM内存介绍相较于F2,F4新加的一个特殊内部SRAM。64 KB CCM (内核耦合存储器)数据 RAM 不属于总线矩阵(请参见图 1 : STM32F405xx/07xx和 STM32F415xx/17xx 器件的系统架构)。只能通过 CPU 对其进行访问(dma等外设不能访问)。二、用法(基于MDK)1、自动分配法(不建议使用)设置完后,若重新编译,map文件里就会有这块SRAM的资源分配——由于IRAM1优先使用,而且一般SRAM1够用,就不会给它分配资源。2..._ccmram

推荐文章

热门文章

相关标签