百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT技术 > 正文

数据仓库开发规范(数据仓库建设规范)

wptr33 2025-04-06 22:17 22 浏览

仓库表分层规范

命名规则

  • 表的命名需要遵循基本原则:层次_表名_所属项目,如bdl_order_eb;

  • 临时表的命名可考虑带上创建人姓名缩写信息:tmp_xxx_zhangsan、tmp_xxx_lisi、…

  • idl层宽表基本都是基于一张原表扩展出来的,因此表名以原表名+ext作为通用规范:如idl_pay_ext_class

  • 表重构与原表不兼容无法立即替换的,以原表名+v+版本号作为通用规范:如bdl_event_assign_v2_crm

  • 含有判新逻辑的表,建议使用idl_new_install开头来标识这类表

  • 对应每日全量分区表,表名需要以idl_all开头来标识这类表

  • 特征表的的表,表名需要以idl_fe开头来标识这类表

  • 针对具有每日结算的表,表名需要包含daily这类关键词来标识

  • 针对具有取最近逻辑的表,表名需要包含last关键字来标识

  • 具有拉链属性的表,表名中需要包含zipper关键字来标识这类表

  • 针对历史快照表,表名中需要包含history或者his来标识这类表

字段规范

  • 字段名小写下划线,来源于业务表的尽量保留原风格;

  • 字段类型要统一,不要混用,比如userid统一用bigint类型;

分区规范

  • 对于日期分区统一用ds作为分区字段,如果有多分区,日期分区放在最后一个;

  • 合理使用分区,避免分区数过多,对于日期分区的全量表,需定期清理分区,原则上不保留超过90天的分区

  • 宽表除日期分区ds外无其他类型分区;全量宽表原则上不提供分区字段,如有必要,可考虑另写一份his表,保留一定日期的分区数据。如 idl_xxx_eb、idl_xxx_history_eb、idl_xxx_his_eb

数据抽取规范

1、业务数据抽取

  • 统一使用同步系统工具同步数据到odl、dim层表,表字段的格式与命名保持一致。

  • 维护底层表元数据,同步系统会自动附带原表注释,如果没有注释需要给odl表增加字段和表的注释信息

  • 日志类型的表(记录添加后不再更新),必须增加ds日期分区

  • 动态变化的表,统一采用全量同步的方式。对于超大型数据表,需要经过数据开发组内分析协商后统一处理。

2、日志数据抽取

  • 使用rsync2hive命令同步。

  • 所有日志表都需要指定为外部表,防止误删表导致的原始数据丢失。

Hive SQL编写规范

  • 所有的SQL都需要排版对称,添加必要的注释。

  • 所有join必须添加on条件,即使是某些特殊场景下的笛卡儿积。

  • 原则上,不能使用变量拼接SQL的核心逻辑,这会增加SQL阅读难度。

  • 一个脚本原则上只能写一个表(多阶段处理的中间表,需要命名为stage层的表)

  • 不要使用count(*),需要使用count(1)

  • SQL中如果表有别名,字段上一定要把表别名带上

  • 表的别名不能重复

  • 少用空字符串,尽量用NULL

  • 刷数据尽量使用动态分区的方式,避免一天天的重刷

  • 字段尽量不要以数字开头,部分导出场景下不支持,例如palo就不支持字段名以数字开头

  • 尽量在底层保证数据质量,乱码、特殊字符、长度超长、主键唯一等规范,避免上层再次处理

  • hive建表尽量不要用boolean(可以使用tinyint),因为boolean导出的时候会变成字符串true和false,在导出到其它类型的数据库(例如palo)时需要做特殊处理

  • 条件关联时保证类型一致,如果a(int)=b(string)保不定哪天就突然慢了

  • 同一个字段在各个表的类型和描述应该一致,字段名也应该保持一致

数据导出规范

  • 正常情况下都统一使用同步系统同步数据到关系型数据库。

  • 同步脚本一般是bash脚本,统一存放在项目的sync目录下。

  • 原则上不能出现导出结果超大表(MySQL 1000万、Palo 1亿)的场景,如有必要需要数据开发组评审后采取对应的解决办法

作业调度规范

  • 所有标准作业都需要通过Azkaban来调度管理

  • 所有的天级别以上Hive表ETL完成后,都需要创建成功标识(HDFS路径:/user/dw_etl_task/项目/日期/表名)

  • 作业名必须和脚本名保持一致(除数据导出外,脚本名还需要和hive表名保持一致)

  • 原则上一个主题域或项目对应一个Azkaban的调度project,一个project按调度逻辑拆分多个作业流。作业流命名格式:项目名_逻辑名_flow。例如:class_xxx_flow。

  • 为了保证调度逻辑的简洁性与直观性,所有作业都封装成脚本程序执行,一个作业(job)只允许执行一个命令(command),

  • 所有的调度逻辑的新增或修改,必须手工测试并通过。

  • 监控程序会每15分钟检测一次异常或者超时作业流,各作业流的维护者或者修改者需要在第一时间内解决。

  • 如果在Azkaban中kill作业,必须把对应Hadoop中执行的Job也kill掉(hadoop job -kill xxxx)

  • 部署任务调度时候错误选项(Failure Option)里必须选择Finish All Possible,以免因一个作业错误而导致整个作业流后续作业都无法执行;

数据测试规范

  • 数据开发对统计数据的准确性负责,开发流程中需要对SQL逻辑进行测试。

  • 与外部部门对接的项目,如果是走标准流程的项目,数据需要建立配套的测试表(测试表的覆盖范围视测试范围而定),对于流量/移动/订单等非常负责计算的数据暂不走测试数据。

元数据与血缘规范

  • 所有的数据表和表字段都需要有注释

  • 如果数据表有主键,需要在字段注释上加以说明,原则上idl层及以上的表都必须要有主键

接口开发规范

  • 所有接口形式都需要符合公司API规范

  • 所有数据接口统一使用APIServer

  • 所有的前后端分离接口都需要在RAP上注册

脚本开发规范

  • 重刷或初始化历史数据规范数据同步通常采用shell脚本,部分复杂同步逻辑采用python脚本;

  • 所有脚本都要有创建成功标识的逻辑,以便处理跨项目依赖,除了最后一步同步结果表的脚本;

  • HSQL需要注意排版和注释;

  • 脚本参数化,对于所使用表名和日期等参数需采用变量或者可传递参数方式;

  • ETL脚本原则上需要实现幂等性(同一个脚本同样的参数,多次执行的结果是一致的)

  • 建议日常ETL SQL实现中就同时支持历史数据刷新(如时间条件为一段范围,group by时间字段),只需要修改部分参数即可快速重刷数据。

  • 如果业务SQL难以支持同时刷历史的话,则需要单独提供刷新历史脚本或者使用range_run.sh逐天刷新数据。

  • 逐天刷新数据的场景,务必需要控制好并发刷新度以及对服务器的资源占用,并及时只会其他数据开发。

  • 刷新数据务必有人值守,出现过载情况需要及时停止相关任务。

  • 严禁刷数据超过零点,零点后未完成是刷数据任务必须手动终止并kill相关集群任务

  • 设计表时要支持刷历史数据,且尽量支持批量重刷历史数据

  • 归因数据谨慎重刷,因为归因数据一般N天前的数据都会固化不会改变,一旦重刷就会造成数据不一致

模型规范

  • 基本层级关系如下:odl->bdl->idl->adl,禁止低层数据表依赖同项目高层数据表;

  • bdl尽量避免跨项目依赖其他表,可考虑放在idl层操作;

  • 原则上所有odl层表应该都有对应的bdl层表,但由于沪江很多都是结构化的业务数据,因此有些数据开发可以直接使用odl层数据表,但对于日志如CT服务器日志、utrack流量日志等均有bdl层做数据清洗,并且后续开发也禁止直接依赖odl层数据表;

  • 日常任务调度不鼓励使用宽表,尽量减少表的依赖深度,以提高调度效率;

  • 当项目内调度作业过多时,应根据业务分拆作业流,不同作业流之间相互依赖的表采用wait方式解决,切勿造成同一个作业在不同的作业流当中多次执行;

  • 需要注意作业之间的循环依赖问题,同项目同一个作业流内azkaban会检查循环依赖,但是跨项目跨作业流的需要开发自己注意;

  • 修改表结构增加字段的,需要在最后追加字段,不能在中间插入字段;

  • Hive表结构修改以后,需要刷新历史分区的元数据信息,执行
    /home/hadoop/bin/update_schema +tablename 命令刷新;

  • 日志型数据一般都是不会变的,可以做成存量脚本。业务数据会经常变,所以尽可能在上层表关联业务数据,如果要在底表用,优先做成全量的,如果是增量,要考虑重刷数据不一致的问题

重要日常

  • 不是所有的表都能刷历史。特别是归因表和KPI考核表,刷历史导致的数据变化会让业务方觉得数据不靠谱

  • 很多时候,因为各种原因,重刷数据肯定会和当前数据不完全一致。所以如果能不动历史数据就不用动,如果刷数据要用改动最小的方式,时间范围最小去修正数据

  • 数据人对于发出去的数据要负责,因为很可能就会成为别人汇报时用到的的数据

  • 采集判断的字段和能否支持重刷历史数据,需要做好权衡(最好用同一个类同一个方法,否则就会面临数据不一致的问题)

  • 对数据逻辑严谨是数据人应有的素质

本文作者:CIO之家的朋友 来源:CIO之家的朋友们

CIO之家 www.ciozj.com 微信公众号:imciow

相关推荐

Linux高性能服务器设计

C10K和C10M计算机领域的很多技术都是需求推动的,上世纪90年代,由于互联网的飞速发展,网络服务器无法支撑快速增长的用户规模。1999年,DanKegel提出了著名的C10问题:一台服务器上同时...

独立游戏开发者常犯的十大错误

...

学C了一头雾水该咋办?

学C了一头雾水该怎么办?最简单的方法就是你再学一遍呗。俗话说熟能生巧,铁杵也能磨成针。但是一味的为学而学,这个好像没什么卵用。为什么学了还是一头雾水,重点就在这,找出为什么会这个样子?1、概念理解不深...

C++基础语法梳理:inline 内联函数!虚函数可以是内联函数吗?

上节我们分析了C++基础语法的const,static以及this指针,那么这节内容我们来看一下inline内联函数吧!inline内联函数...

C语言实战小游戏:井字棋(三子棋)大战!文内含有源码

井字棋是黑白棋的一种。井字棋是一种民间传统游戏,又叫九宫棋、圈圈叉叉、一条龙、三子旗等。将正方形对角线连起来,相对两边依次摆上三个双方棋子,只要将自己的三个棋子走成一条线,对方就算输了。但是,有很多时...

C++语言到底是不是C语言的超集之一

C与C++两个关系亲密的编程语言,它们本质上是两中语言,只是C++语言设计时要求尽可能的兼容C语言特性,因此C语言中99%以上的功能都可以使用C++完成。本文探讨那些存在于C语言中的特性,但是在C++...

在C++中,如何避免出现Bug?

C++中的主要问题之一是存在大量行为未定义或对程序员来说意外的构造。我们在使用静态分析器检查各种项目时经常会遇到这些问题。但正如我们所知,最佳做法是在编译阶段尽早检测错误。让我们来看看现代C++中的一...

ESL-通过事件控制FreeSWITCH

通过事件提供的最底层控制机制,允许我们有效地利用工具箱,适时选择使用其中的单个工具。FreeSWITCH是一个核心交换与混合矩阵,它周围有几十个模块提供各种功能特性。我们完全控制了所有的即时信息,这些...

物理老师教你学C++语言(中篇)

一、条件语句与实验判断...

C语言入门指南

当然!以下是关于C语言入门编程的基础介绍和入门建议,希望能帮你顺利起步:C语言入门指南...

C++选择结构,让程序自动进行决策

什么是选择结构?正常的程序都是从上至下顺序执行,这就是顺序结构...

C++特性使用建议

1.引用参数使用引用替代指针且所有不变的引用参数必须加上const。在C语言中,如果函数需要修改变量的值,参数必须为指针,如...

C++程序员学习Zig指南(中篇)

1.复合数据类型结构体与方法的对比C++类:...

研一自学C++啃得动吗?

研一自学C++啃得动吗?在开始前我有一些资料,是我根据网友给的问题精心整理了一份「C++的资料从专业入门到高级教程」,点个关注在评论区回复“888”之后私信回复“888”,全部无偿共享给大家!!!个人...

C++关键字介绍

下表列出了C++中的常用关键字,这些关键字不能作为变量名或其他标识符名称。1、autoC++11的auto用于表示变量的自动类型推断。即在声明变量的时候,根据变量初始值的类型自动为此变量选择匹配的...