3.1.分布存储
Greenplum是一个分布式数据库系统,因此其所有的业务数据都是物理存放在集群的所有Segment实例数据库上;在Greenplum数据库中所有表都是分布式的,所以每一张表都会被切片,每个Segment实例数据库都会存放相应的数据片段。在下图中sale、customer、vendor、product四张表的数据都会切片存放在所有的Segment上,所有Segment实例同时工作,由于每个Segment只需要计算一部分数据,所以计算效率会大大提升。
3.2.表分布的策略-并行计算的基础
3.2.1.Hash分布
语法格式:
CREATE TABLE … DISTRIBUTED BY (column [,…])
同样数值的内容被分配到同一个Segment上;当选择Hash分布策略时,可指定表的一列或者多列组合。GP会根据指定的Hash Key列计算每一行数据对应的Hash值,并映射至相应的Segment实例。当选择的Hash Key列的值唯一时,数据将会均匀地分散至所有的Segment实例。GP数据库默认采用Hash分布,如果创建表时未指定Distributed Key,则会选择Primary Key作为Distributed Key,如果Primary Key也不存在,则会选择表的第一列作为Distributed Key。
3.2.2.循环(随机)分布
语法格式:
CREATE TABLE … DISTRIBUTED RANDOMLY
具有同样数值的行内容并不一定在同一个Segment上,相同的值不一定会分发至同一个Segment。不建议使用随机分布。
3.3.查询规划与分发
客户端通过Master节点将查询计划分发到各个子节点上,包括update,delete,create等操作,各个子节点上执行完查询计划结束后将结果返回到Master节点后显示到客户端中。
3.4.SQL查询处理机制
在Master节点上存在QD process(查询和分发进程),子节点上存在QE process(查询和执行进程);当Master节点将查询计划分发到子节点上,子节点上执行QE process。GP将一个查询计划切分成多个slice来提供执行效率;多个执行计划并行工作,最先完成的slice会继续等待后完成的slice的结果。对于同一数据的处理可以理解为gang(簇)。Slice 1处理结束后会将处理结果发送给slice 2中,slice 2将汇总后的结果返回给Master节点。
3.5.并行查询计划
SELECT customer, amount FROM sales JOIN customer USING (cust_id) WHERE date=03222015;
GP的查询计划:首先对表进行全表扫描,全表扫描结束后数据进行重分布以及Hash分布,重分布是在slice1上,hash分布式在slice2上,重分布和hash分布结束后进行Hash join,Hash join结束进行gather Motion(合并连接)操作进入slice3中。
Greenplum+Hadoop学习笔记-11-分布式数据库存储及查询处理
原文:http://blog.csdn.net/mavs41/article/details/44540553