百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT技术 > 正文

深入解析MySQL:分库分表之Partition功能详解

wptr33 2024-12-04 16:05 21 浏览

1 回顾

前面我们详细讲解了如何对数据库进行分区操作,包括了 垂直拆分(Scale Up 纵向扩展)和 水平拆分(Scale Out 横向扩展) ,同时简要整理了水平分区的几种策略,现在来回顾一下。

2 水平分区的5种策略

2.1 Hash(哈希)

这种策略是通过对表的一个或多个列的Hash Key进行计算,最后通过这个Hash码不同数值对应的数据区域进行分区。例如我们可以建立一个对表的日期的年份进行分区的策略,这样每个年份都会被聚集在一个区间。

1 PARTITION BY HASH(YEAR(createtime))
2 PARTITIONS 10

2.2 Range(范围)

这种策略是将数据划分不同范围。例如我们可以将一个千万级别的表通过id划分成4个分区,每个分区大约500W的数据,超过750W后的数据统一放在第4个分区。

1 PARTITION BY RANGE(id) (
2 PARTITIONP0 VALUES LESS THAN(2500001),
3 PARTITIONP1 VALUES LESS THAN(5000001),
4 PARTITIONp2 VALUES LESS THAN(7500001),
5 PARTITIONp3 VALUES LESS THAN MAXVALUE
6 )  

2.3 Key(键值)

Hash策略的一种延伸,这里的Hash Key是MySQL系统产生的。

2.4、List(预定义列表)

这种策略允许系统通过定义列表的值所对应的行数据进行分割。例如,我们根据岗位编码进行分区,不同岗位类型的编码对应到不同的分区去,达到分治的目的。

1 PARTITION BY LIST(gwcode) (
2 PARTITIONP0 VALUES IN (46,77,89),
3 PARTITIONP1 VALUES IN (106,125,177),
4 PARTITIONP2 VALUES IN (205,219,289),
5 PARTITIONP3 VALUES IN (302,317,458,509,610)
6 ) 

上述的SQL脚本,使用了列表匹配LIST函数对员工岗位编号进行分区,共分为4个分区,行政岗位 编号为46,77,89的对应在分区P0中,技术岗位 106,125,177类别在分区P1中,依次类推即可。

2.5、Composite(复合模式)

复合模式其实就是对上面几种模式的组合使用,比如你在Range的基础上,再进行Hash 哈希分区。

3 测试Range策略

3.1 建立总表与分表

我们建立一个普通的用户表 users,再建立一个分区表users_part,将80年代出生的用户按照年份进行了分区,如下:

3.1.1 总表语句

1 mysql> CREATE TABLE users
2 (
3  "id" int(10) unsigned NOT NULL,
4   "name" varchar(100) DEFAULT NULL,
5   "birth" datetime
6 ) ENGINE=InnoDB DEFAULT CHARSET=utf8;
7 Query OK, 0 rows affected 

3.1.2 分表语句

 1 mysql> create table users_part
 2 (
 3  "id" int(10) unsigned NOT NULL,
 4   "name" varchar(100) DEFAULT NULL,
 5   "birth" datetime
 6 ) ENGINE=InnoDB DEFAULT CHARSET=utf8
 7 PARTITION BY RANGE (year(birth)) (
 8 PARTITION p0 VALUES LESS THAN (1981),
 9 PARTITION p1 VALUES LESS THAN (1982),
10 PARTITION p2 VALUES LESS THAN (1983),
11 PARTITION p3 VALUES LESS THAN (1984),
12 PARTITION p4 VALUES LESS THAN (1985),
13 PARTITION p5 VALUES LESS THAN (1986),
14 PARTITION p6 VALUES LESS THAN (1987),
15 PARTITION p7 VALUES LESS THAN (1988),
16 PARTITION p8 VALUES LESS THAN (1989),17 PARTITION p9 VALUES LESS THAN MAXVALUE
18 );
19 Query OK, 0 rows affected

最后一行注意一下,是将89年之后出生的都归属到第10个分区上,我们这边模拟的都是80年代出生的用户,实际业务中跟据具体情况进行拆分。

3.2 初始化表数据

我们可以使用函数或者存储过程批量进行数据初始化,这边插入1000W条数据。

 1 DROP PROCEDURE IF EXISTS init_users_part;
 2 
 3 delimiter $     /* 设定语句终结符为 $*/
 4 CREATE PROCEDURE init_users_part()
 5   begin
 6    DECLARE srt int default 0;
 7    while 
 8     srt < 10000000  /* 设定写入1000W的数据 */
 9    do
10     insert into `users_part` values (srt, concat('username_',idx1),adddate('1980-01-01',rand() * 3650)); /*在10年的时间内随机取值*/
11     set srt = srt + 1;
12    end while;
13   end $  
14 delimiter ;
15 
16 
17 call init_users_part(); 

3.3 同步数据至完整表中

1 mysql> insert into users select * from users_part;      //将1000w数据复制到未分区的完整表users 中
2 Query OK, 10000000 rows affected (51.59 sec) 
3 Records: 10000000 Duplicates: 0 Warnings: 0 

3.4 测试执行SQL的效率

 1 mysql> select count(*) from users_part where `birth`  > '1986-01-01' and `birth` < '1986-12-31';
 2 +----------+
 3 | count(*) |
 4 +----------+
 5 |   976324 |
 6 +----------+
 7 1 row in set (0.335 sec)
 8 
 9 mysql> select count(*) from users where `birth`  > '1986-01-01' and `birth` < '1986-12-31';
10 +----------+
11 | count(*) |
12 +----------+
13 |   976324 |
14 +----------+
15 1 row in set (5.187 sec) 

结果比较清晰,分区表的执行效率确实比较高,执行时间是未分区表 1/10 都不到。

3.5 使用Explain执行计划分析

 1 mysql> explain select count(*) from users_part where `birth`  > '1986-01-01' and `birth` < '1986-12-31';
 2 +----+-------------+------------+------------+------+---------------+------+---------+------+-------+----------+-------------+
 3 | id | select_type | table      | partitions | type | possible_keys | key  | key_len | ref  | rows  | filtered | Extra       |
 4 +----+-------------+------------+------------+------+---------------+------+---------+------+-------+----------+-------------+
 5 |  1 | SIMPLE      | users_part | p7         | ALL  | NULL          | NULL | NULL    | NULL | 987769|   100.00 | Using where |
 6 +----+-------------+------------+------------+------+---------------+------+---------+------+-------+----------+-------------+
 7 1 row in set, 1 warning (0.00 sec)
 8 
 9 mysql> explain select count(*) from users where  `birth`  > '1986-01-01' and `birth` < '1986-12-31';
10 +----+-------------+-------+------------+------+---------------+------+---------+------+---------+----------+-------------+
11 | id | select_type | table | partitions | type | possible_keys | key  | key_len | ref  | rows    | filtered | Extra       |
12 +----+-------------+-------+------------+------+---------------+------+---------+------+---------+----------+-------------+
13 |  1 | SIMPLE      | users | NULL       | ALL  | NULL          | NULL | NULL    | NULL |10000000 |   100.00 | Using where |
14 +----+-------------+-------+------------+------+---------------+------+---------+------+---------+----------+-------------+
15 1 row in set, 1 warning (0.00 sec) 

这边关注两个关键参数:一个 是partitions,users_part中是p7,说明数据检索在第七分区中,users表是null的,说明是全区域扫描,无分区。

另外一个参数是rows,是预测扫描的行数,users表明显是全表扫描。

3.6 建索引提效

因为我们使用birth字段进行分区和条件查询,所以这边尝试在birth字段上简历索引进行效率优化。

1 mysql> create index idx_user on users(birth);
2 Query OK, 0 rows affected (1 min 7.04 sec)
3 Records: 10000000  Duplicates: 0  Warnings: 0
4 
5 mysql> create index idx_user_part on users_part(birth);
6 Query OK, 0 rows affected (1 min 1.05 sec)
7 Records: 10000000  Duplicates: 0  Warnings: 0 

创建索引后的数据库文件大小列表:

2008-05-24 09:23             8,608 no_part_tab.frm
2008-05-24 09:24       255,999,996 no_part_tab.MYD
2008-05-24 09:24        81,611,776 no_part_tab.MYI
2008-05-24 09:25                 0 part_tab#P#p0.MYD
2008-05-24 09:26             1,024 part_tab#P#p0.MYI
2008-05-24 09:26        25,550,656 part_tab#P#p1.MYD
2008-05-24 09:26         8,148,992 part_tab#P#p1.MYI
2008-05-24 09:26        25,620,192 part_tab#P#p10.MYD
2008-05-24 09:26         8,170,496 part_tab#P#p10.MYI
2008-05-24 09:25                 0 part_tab#P#p11.MYD
2008-05-24 09:26             1,024 part_tab#P#p11.MYI
2008-05-24 09:26        25,656,512 part_tab#P#p2.MYD
2008-05-24 09:26         8,181,760 part_tab#P#p2.MYI
2008-05-24 09:26        25,586,880 part_tab#P#p3.MYD
2008-05-24 09:26         8,160,256 part_tab#P#p3.MYI
2008-05-24 09:26        25,585,696 part_tab#P#p4.MYD
2008-05-24 09:26         8,159,232 part_tab#P#p4.MYI
2008-05-24 09:26        25,585,216 part_tab#P#p5.MYD
2008-05-24 09:26         8,159,232 part_tab#P#p5.MYI
2008-05-24 09:26        25,655,740 part_tab#P#p6.MYD
2008-05-24 09:26         8,181,760 part_tab#P#p6.MYI
2008-05-24 09:26        25,586,528 part_tab#P#p7.MYD
2008-05-24 09:26         8,160,256 part_tab#P#p7.MYI
2008-05-24 09:26        25,586,752 part_tab#P#p8.MYD
2008-05-24 09:26         8,160,256 part_tab#P#p8.MYI
2008-05-24 09:26        25,585,824 part_tab#P#p9.MYD
2008-05-24 09:26         8,159,232 part_tab#P#p9.MYI
2008-05-24 09:25             8,608 part_tab.frm
2008-05-24 09:25                68 part_tab.par

再次测试SQL性能

 1 mysql> select count(*) from users_part where `birth`  > '1986-01-01' and `birth` < '1986-12-31';
 2 +----------+
 3 | count(*) |
 4 +----------+
 5 |   976324 |
 6 +----------+
 7 1 row in set (0.171 sec)
 8 
 9 mysql> select count(*) from users where `birth`  > '1986-01-01' and `birth` < '1986-12-31';
10 +----------+
11 | count(*) |
12 +----------+
13 |   976324 |
14 +----------+
15 1 row in set (0.583 sec) 

这边可以看到,在关键的字段添加索引并重启(net stop mysql,net start mysql)之后,分区的表性能有略微提升。而未分区的全表性能提升最明显,几乎接近分区的效率。

3.7 跨区执行效率分析

通过上面的分析可以看出,在单个区内执行,比不分区效率又很明显的差距,这是因为分区之后扫描非范围缩小了。

那如果我们上面条件增加出生年份的范围,让他产生跨区域的情况,效果会怎么样呢,我们测试一下。

 1 mysql> select count(*) from users_part where `birth`  > '1986-01-01' and `birth` < '1987-12-31';
 2 +----------+
 3 | count(*) |
 4 +----------+
 5 |   976324 |
 6 +----------+
 7 1 row in set (1.914 sec)
 8 
 9 mysql> select count(*) from users where `birth`  > '1986-01-01' and `birth` < '1987-12-31';
10 +----------+
11 | count(*) |
12 +----------+
13 |   976324 |
14 +----------+
15 1 row in set (3.871 sec) 

可见,跨区之后性能会差一些。这边应该这样理解,跨区的越多,性能越差,所以做分区设计的时候应该意识到,避免那种频繁的跨区情况发生,谨慎判断分区边界条件。

3.8 总结

1、分区和未分区占用文件空间大致相同 (数据和索引文件)

2、查询语句中关键字段未建立索引字段时,分区时间远远优于未分区时间

3、如果查询语句中字段建立了索引,分区和未分区的差别缩小,但是仍然优于未分区情况,而且随着数据量增加,这个优势会更明显。

4、对于大数据量,还是建议使用分区功能,无论他有没有建立索引。

5、根据MySQL手册, 增加myisam_max_sort_file_size 会增加分区性能( mysql重建索引时允许使用的临时文件最大大小)

6、对分区进行设计时,谨慎判断分区边界条件,避免有过度频繁的跨区操作,否则性能不会理想。

4 分区策略详解

4.1 HASH(哈希)

HASH分区主要用来确保数据在预先确定数目的分区中平均分布,而在RANGE和LIST分区中,必须明确指定一个给定的列值或列值集合应该保存在哪个分区中,

而在HASH分区中,MySQL自动完成这些工作,

你所要做的只是基于将要被哈希的列值指定一个列值或表达式,以及指定被分区的表将要被分割成的分区数量。 示例如下:

 1 /*Hash*/
 2 drop table if EXISTS  `t_userinfo`; 
 3 CREATE TABLE `t_userinfo` (
 4 `id` int(10) unsigned NOT NULL,
 5 `personcode` varchar(20) DEFAULT NULL,
 6 `personname` varchar(100) DEFAULT NULL,
 7 `depcode` varchar(100) DEFAULT NULL,
 8 `depname` varchar(500) DEFAULT NULL,
 9 `gwcode` int(11) DEFAULT NULL,
10 `gwname` varchar(200) DEFAULT NULL,
11 `gravalue` varchar(20) DEFAULT NULL,
12 `createtime` DateTime NOT NULL
13 ) ENGINE=InnoDB DEFAULT CHARSET=utf8
14 PARTITION BY HASH(YEAR(createtime))
15 PARTITIONS 4(
16      PARTITION P0 DATA DIRECTORY = '/data0/data' INDEX DIRECTORY = '/data0/idx', 
17      PARTITION P1 DATA DIRECTORY = '/data1/data' INDEX DIRECTORY = '/data1/idx', 
18      PARTITION P2 DATA DIRECTORY = '/data2/data' INDEX DIRECTORY = '/data2/idx', 
19      PARTITION P3 DATA DIRECTORY = '/data3/data' INDEX DIRECTORY = '/data3/idx'
20 );

上面的例子,使用HASH函数对createtime日期进行HASH运算,并根据这个日期来分区数据,这里共分为10个分区。

建表语句上添加一个“PARTITION BY HASH (expr)”子句,其中“expr”是一个返回整数的表达式,它可以是字段类型为MySQL 整型的一列的名字,也可以是返回非负数的表达式。

另外,可能需要在后面再添加一个“PARTITIONS num”子句,其中num 是一个非负的整数,它表示表将要被分割成分区的数量。

每个分区都有自己独立的数据、索引文件的存放目录,并且这些目录所在的物理磁盘分区可能也都是完全独立的,可以提高磁盘IO吞吐量。

4.2 RANGE(范围)

基于属于一个给定连续区间的列值,把多行分配给同一个分区,这些区间要连续且不能相互重叠,使用VALUES LESS THAN操作符来进行定义。示例如下:

 1 /*Range*/
 2 drop table if EXISTS  `t_userinfo`; 
 3 CREATE TABLE `t_userinfo` (
 4 `id` int(10) unsigned NOT NULL,
 5 `personcode` varchar(20) DEFAULT NULL,
 6 `personname` varchar(100) DEFAULT NULL,
 7 `depcode` varchar(100) DEFAULT NULL,
 8 `depname` varchar(500) DEFAULT NULL,
 9 `gwcode` int(11) DEFAULT NULL,
10 `gwname` varchar(200) DEFAULT NULL,
11 `gravalue` varchar(20) DEFAULT NULL,
12 `createtime` DateTime NOT NULL
13 ) ENGINE=InnoDB DEFAULT CHARSET=utf8
14 PARTITION BY RANGE(gwcode) (
15 PARTITION P0 VALUES LESS THAN(101) DIRECTORY = '/data0/data' INDEX DIRECTORY = '/data0/idx',
16 PARTITION P1 VALUES LESS THAN(201) DIRECTORY = '/data1/data' INDEX DIRECTORY = '/data1/idx',
17 PARTITION P2 VALUES LESS THAN(301) DIRECTORY = '/data2/data' INDEX DIRECTORY = '/data2/idx',
18 PARTITION P3 VALUES LESS THAN MAXVALUE DIRECTORY = '/data3/data' INDEX DIRECTORY = '/data3/idx'
19 );

上面的示例,使用了范围RANGE函数对岗位编号进行分区,共分为4个分区,

岗位编号为1~100 的对应在分区P0中,101~200的编号在分区P1中,依次类推即可。那么类别编号大于300,可以使用MAXVALUE来将大于300的数据统一存放在分区P3中即可。

每个分区都有自己独立的数据、索引文件的存放目录,并且这些目录所在的物理磁盘分区可能也都是完全独立的,可以提高磁盘IO吞吐量。

4.3 LIST(预定义列表)

类似于按RANGE分区,区别在于LIST分区是基于列值匹配一个离散值集合中的某个值来进行选择分区的。LIST分区通过使用“PARTITION BY LIST(expr)”来实现,其中“expr” 是某列值或一个基于某个列值、并返回一个整数值的表达式,

然后通过“VALUES IN (value_list)”的方式来定义每个分区,其中“value_list”是一个通过逗号分隔的整数列表。 示例如下:

 1 /*List*/
 2 drop table if EXISTS  `t_userinfo`; 
 3 CREATE TABLE `t_userinfo` (
 4 `id` int(10) unsigned NOT NULL,
 5 `personcode` varchar(20) DEFAULT NULL,
 6 `personname` varchar(100) DEFAULT NULL,
 7 `depcode` varchar(100) DEFAULT NULL,
 8 `depname` varchar(500) DEFAULT NULL,
 9 `gwcode` int(11) DEFAULT NULL,
10 `gwname` varchar(200) DEFAULT NULL,
11 `gravalue` varchar(20) DEFAULT NULL,
12 `createtime` DateTime NOT NULL
13 ) ENGINE=InnoDB DEFAULT CHARSET=utf8
14 PARTITION BY LIST(`gwcode`) (
15 PARTITION P0 VALUES IN (46,77,89) DATA DIRECTORY = '/data0/data' INDEX DIRECTORY = '/data0/idx',
16 PARTITION P1 VALUES IN (106,125,177) DATA DIRECTORY = '/data1/data' INDEX DIRECTORY = '/data1/idx',
17 PARTITION P2 VALUES IN (205,219,289) DATA DIRECTORY = '/data2/data' INDEX DIRECTORY = '/data2/idx',
18 PARTITION P3 VALUES IN (302,317,458,509,610) DATA DIRECTORY = '/data3/data' INDEX DIRECTORY = '/data3/idx'
19 );

上面的例子,使用了列表匹配LIST函数对员工岗位编号进行分区,共分为4个分区,编号为46,77,89的对应在分区P0中,106,125,177类别在分区P1中,依次类推即可。

不同于RANGE的是,LIST分区的数据必须匹配列表中的岗位编号才能进行分区,所以这种方式只是适合比较区间值确定并少量的情况。

每个分区都有自己独立的数据、索引文件的存放目录,并且这些目录所在的物理磁盘分区可能也都是完全独立的,可以提高磁盘IO吞吐量。

4.4 KEY(键值)

类似于按HASH分区,区别在于KEY分区只支持计算一列或多列,且MySQL 服务器提供其自身的哈希函数。必须有一列或多列包含整数值。 示例如下:

 1 /*key*/
 2 drop table if EXISTS  `t_userinfo`; 
 3 CREATE TABLE `t_userinfo` (
 4 `id` int(10) unsigned NOT NULL,
 5 `personcode` varchar(20) DEFAULT NULL,
 6 `personname` varchar(100) DEFAULT NULL,
 7 `depcode` varchar(100) DEFAULT NULL,
 8 `depname` varchar(500) DEFAULT NULL,
 9 `gwcode` int(11) DEFAULT NULL,
10 `gwname` varchar(200) DEFAULT NULL,
11 `gravalue` varchar(20) DEFAULT NULL,
12 `createtime` DateTime NOT NULL
13 ) ENGINE=InnoDB DEFAULT CHARSET=utf8
14 PARTITION BY KEY(gwcode)
15 PARTITIONS 4(
16      PARTITION P0 DATA DIRECTORY = '/data0/data' INDEX DIRECTORY = '/data0/idx', 
17      PARTITION P1 DATA DIRECTORY = '/data1/data' INDEX DIRECTORY = '/data1/idx', 
18      PARTITION P2 DATA DIRECTORY = '/data2/data' INDEX DIRECTORY = '/data2/idx', 
19      PARTITION P3 DATA DIRECTORY = '/data3/data' INDEX DIRECTORY = '/data3/idx'
20 );

注意:此种分区算法目前使用的比较少,使用服务器提供的哈希函数有不确定性,对于后期数据统计、整理存在会更复杂,所以我们更倾向于使用由我们定义表达式的Hash,大家知道其存在和怎么使用即可。

4.5 嵌套分区(子分区)

嵌套分区(子分区)是针对 RANGE/LIST 类型的分区表中每个分区的再次分割。再次分割可以是 HASH/KEY 等类型。

 1 drop table if EXISTS `t_userinfo`;
 2 CREATE TABLE `t_userinfo` (
 3 `id` int(10) unsigned NOT NULL,
 4 `personcode` varchar(20) DEFAULT NULL,
 5 `personname` varchar(100) DEFAULT NULL,
 6 `depcode` varchar(100) DEFAULT NULL,
 7 `depname` varchar(500) DEFAULT NULL,
 8 `gwcode` int(11) DEFAULT NULL,
 9 `gwname` varchar(200) DEFAULT NULL,
10 `gravalue` varchar(20) DEFAULT NULL,
11 `createtime` DateTime NOT NULL
12 ) ENGINE=InnoDB DEFAULT CHARSET=utf8
13 PARTITION BY RANGE (id) SUBPARTITION BY HASH (id% 4) SUBPARTITIONS 2(
14      PARTITION p0 VALUES LESS THAN (5000000) DATA DIRECTORY = '/data0/data' INDEX DIRECTORY = '/data0/idx', 
15      PARTITION p1 VALUES LESS THAN MAXVALUE DATA DIRECTORY = '/data1/data' INDEX DIRECTORY = '/data1/idx'
16 
17 ); 

如上,对RANGE 分区再次进行子分区划分,子分区采用 HASH 类型。

5 分区管理

5.1 删除分区

1  /*删除分区 P1*/
2  ALERT TABLE users_part DROP PARTITION P1; 

5.2 重建分区

5.2.1 RANGE 分区重建

1 /*这边将原来的 P0,P1 分区合并起来,放到新的 P0 分区中,并重新设定条件为少于5000000。*/
2 ALTER TABLE users_part REORGANIZE PARTITION P0,P1 INTO (PARTITION P0 VALUES LESS THAN (5000000));   

用于因空间过于浪费而产生的合并情况。

5.2.2 LIST 分区重建

/*将原来的 P0,P1 分区合并起来,放到新的 P0 分区中,跟上一个的意思有点像。*/
ALTER TABLE users_part REORGANIZE PARTITION p0,p1 INTO (PARTITION p0 VALUES IN(1,4,5,8,9,12,13,101,555)); 

5.2.3 HASH/KEY 分区重建

/*用 REORGANIZE 方式重建分区的数量变成2,在这里数量只能减少不能增加。想要增加可以用 ADD PARTITION 方法。*/
ALTER TABLE users_part REORGANIZE PARTITION COALESCE PARTITION 2; 

5.3 新增分区

5.3.1 新增 RANGE 分区

1 /*新增一个RANGE分区*/
2 ALTER TABLE category ADD PARTITION (PARTITION p4 VALUES IN (16,17,18,19) 
3 DATA DIRECTORY = '/data8/data'
4 INDEX DIRECTORY = '/data8/idx');

5.3.2 新增 HASH/KEY 分区

/* 将分区总数扩展到n个。n请用数值代替 */
ALTER TABLE users_part ADD PARTITION PARTITIONS n; 

5.3.3 给已有的表加上分区

 1 alter tableuser_part partition by RANGE (month(birth)) 
 2 (
 3 PARTITION p0 VALUES LESS THAN (1),
 4 PARTITION p1 VALUES LESS THAN (2) , 
 5 PARTITION p2 VALUES LESS THAN (3) ,
 6 PARTITION p3 VALUES LESS THAN (4) , 
 7 PARTITION p4 VALUES LESS THAN (5) ,
 8 PARTITION p5 VALUES LESS THAN (6) , 
 9 PARTITION p6 VALUES LESS THAN (7) ,
10 PARTITION p7 VALUES LESS THAN (8) , 
11 PARTITION p8 VALUES LESS THAN (9) ,
12 PARTITION p9 VALUES LESS THAN (10) , 
13 PARTITION p10 VALUES LESS THAN (11),
14 PARTITION p11 VALUES LESS THAN (12),
15 PARTITION P12 VALUES LESS THAN (13) 
16 );

6 去除分区主键限制

默认分区限制分区字段必须是主键(PRIMARY KEY)的一部分,需要去除此限制。

如果表中设立主键,会报出如下提示:A PRIMARY KEY must include all columns in the table's partitioning function (prefixed columns are not considered).

一种解决方式就是使用主键来做为分区条件:

ALTER TABLE users_part  PARTITION BY HASH(id)  PARTITIONS 4;  

另外一种方式就是把分区条件字段加入主键中,变成联合主键。如下,id和gwcode 组成了联合主键:

1 alter table users_part drop PRIMARY KEY;
2 alter table users_part add PRIMARY KEY(id, gwcode); 

为帮助开发者们提升面试技能、有机会入职BATJ等大厂公司,特别制作了这个专辑——这一次整体放出。

大致内容包括了: Java 集合、JVM、多线程、并发编程、设计模式、Spring全家桶、Java、MyBatis、ZooKeeper、Dubbo、Elasticsearch、Memcached、MongoDB、Redis、MySQL、RabbitMQ、Kafka、Linux、Netty、Tomcat等大厂面试题等、等技术栈!

欢迎大家关注公众号【Java烂猪皮】,回复【666】,获取以上最新Java后端架构VIP学习资料以及视频学习教程,然后一起学习,一文在手,面试我有。

每一个专栏都是大家非常关心,和非常有价值的话题,如果我的文章对你有所帮助,还请帮忙点赞、好评、转发一下,你的支持会激励我输出更高质量的文章,非常感谢!

相关推荐

MySQL进阶五之自动读写分离mysql-proxy

自动读写分离目前,大量现网用户的业务场景中存在读多写少、业务负载无法预测等情况,在有大量读请求的应用场景下,单个实例可能无法承受读取压力,甚至会对业务产生影响。为了实现读取能力的弹性扩展,分担数据库压...

Postgres vs MySQL_vs2022连接mysql数据库

...

3分钟短文 | Laravel SQL筛选两个日期之间的记录,怎么写?

引言今天说一个细分的需求,在模型中,或者使用laravel提供的EloquentORM功能,构造查询语句时,返回位于两个指定的日期之间的条目。应该怎么写?本文通过几个例子,为大家梳理一下。学习时...

一文由浅入深带你完全掌握MySQL的锁机制原理与应用

本文将跟大家聊聊InnoDB的锁。本文比较长,包括一条SQL是如何加锁的,一些加锁规则、如何分析和解决死锁问题等内容,建议耐心读完,肯定对大家有帮助的。为什么需要加锁呢?...

验证Mysql中联合索引的最左匹配原则

后端面试中一定是必问mysql的,在以往的面试中好几个面试官都反馈我Mysql基础不行,今天来着重复习一下自己的弱点知识。在Mysql调优中索引优化又是非常重要的方法,不管公司的大小只要后端项目中用到...

MySQL索引解析(联合索引/最左前缀/覆盖索引/索引下推)

目录1.索引基础...

你会看 MySQL 的执行计划(EXPLAIN)吗?

SQL执行太慢怎么办?我们通常会使用EXPLAIN命令来查看SQL的执行计划,然后根据执行计划找出问题所在并进行优化。用法简介...

MySQL 从入门到精通(四)之索引结构

索引概述索引(index),是帮助MySQL高效获取数据的数据结构(有序),在数据之外,数据库系统还维护者满足特定查询算法的数据结构,这些数据结构以某种方式引用(指向)数据,这样就可以在这些数据结构...

mysql总结——面试中最常问到的知识点

mysql作为开源数据库中的榜一大哥,一直是面试官们考察的重中之重。今天,我们来总结一下mysql的知识点,供大家复习参照,看完这些知识点,再加上一些边角细节,基本上能够应付大多mysql相关面试了(...

mysql总结——面试中最常问到的知识点(2)

首先我们回顾一下上篇内容,主要复习了索引,事务,锁,以及SQL优化的工具。本篇文章接着写后面的内容。性能优化索引优化,SQL中索引的相关优化主要有以下几个方面:最好是全匹配。如果是联合索引的话,遵循最...

MySQL基础全知全解!超详细无废话!轻松上手~

本期内容提醒:全篇2300+字,篇幅较长,可搭配饭菜一同“食”用,全篇无废话(除了这句),干货满满,可收藏供后期反复观看。注:MySQL中语法不区分大小写,本篇中...

深入剖析 MySQL 中的锁机制原理_mysql 锁详解

在互联网软件开发领域,MySQL作为一款广泛应用的关系型数据库管理系统,其锁机制在保障数据一致性和实现并发控制方面扮演着举足轻重的角色。对于互联网软件开发人员而言,深入理解MySQL的锁机制原理...

Java 与 MySQL 性能优化:MySQL分区表设计与性能优化全解析

引言在数据库管理领域,随着数据量的不断增长,如何高效地管理和操作数据成为了一个关键问题。MySQL分区表作为一种有效的数据管理技术,能够将大型表划分为多个更小、更易管理的分区,从而提升数据库的性能和可...

MySQL基础篇:DQL数据查询操作_mysql 查

一、基础查询DQL基础查询语法SELECT字段列表FROM表名列表WHERE条件列表GROUPBY分组字段列表HAVING分组后条件列表ORDERBY排序字段列表LIMIT...

MySql:索引的基本使用_mysql索引的使用和原理

一、索引基础概念1.什么是索引?索引是数据库表的特殊数据结构(通常是B+树),用于...