MySql - 进阶篇
1. 存储引擎
1.1 MySQL体系结构
(1)连接层
最上层是一些客户端和链接服务,包含本地sock 通信和大多数基于客户端/服务端工具实现的类似于 TCP/IP的通信。主要完成一些类似于连接处理、授权认证、及相关的安全方案。在该层上引入了线程池的概念,为通过认证安全接入的客户端提供线程。同样在该层上可以实现基于SSL的安全链接。服务器也会为安全接入的每个客户端验证它所具有的操作权限。
(2)服务层
第二层架构主要完成大多数的核心服务功能,如SQL接口,并完成缓存的查询,SQL的分析和优化,部分内置函数的执行。所有跨存储引擎的功能也在这一层实现,如 过程、函数等。在该层,服务器会解析查询并创建相应的内部解析树,并对其完成相应的优化如确定表的查询的顺序,是否利用索引等,最后生成相应的执行操作。如果是select语句,服务器还会查询内部的缓存,如果缓存空间足够大,这样在解决大量读操作的环境中能够很好的提升系统的性能。
(3)引擎层
存储引擎层, 存储引擎真正的负责了MySQL中数据的存储和提取,服务器通过API和存储引擎进行通信。不同的存储引擎具有不同的功能,这样我们可以根据自己的需要,来选取合适的存储引擎。数据库中的索引是在存储引擎层实现的。
(4)存储层
数据存储层, 主要是将数据(如: redolog、undolog、数据、索引、二进制日志、错误日志、查询日志、慢查询日志等)存储在文件系统之上,并完成与存储引擎的交互。
和其他数据库相比,MySQL有点与众不同,它的架构可以在多种不同场景中应用并发挥良好作用。主要体现在存储引擎上,插件式的存储引擎架构,将查询处理和其他的系统任务以及数据的存储提取分离。这种架构可以根据业务的需求和实际需要选择合适的存储引擎。
1.2 存储引擎介绍
存储引擎是mysql数据库的核心,我们也需要在合适的场景选择合适的存储引擎。
存储引擎就是存储数据、建立索引、更新/查询数据等技术的实现方式 。存储引擎是基于表的,而不是基于库的,所以存储引擎也可被称为表类型。我们可以在创建表的时候,来指定选择的存储引擎,如果没有指定将自动选择默认的存储引擎。
(1)建表时指定存储引擎
CREATE TABLE 表名(
字段1 字段1类型 [ COMMENT 字段1注释 ] ,
......
字段n 字段n类型 [COMMENT 字段n注释 ]
) ENGINE = INNODB [ COMMENT 表注释 ] ;
# 华为云指定存储引擎失效,localhost成功
create table my_myisam (
id int,
name varchar(10)
) engine = MyISAM;
(2)查询当前数据库支持的存储引擎
show engines;
华为云数据库engines:
1.3 存储引擎特点
1.3.1 InnoDB
- InnoDB是一种兼顾高可靠性和高性能的通用存储引擎,在 MySQL 5.5 之后,InnoDB是默认的MySQL 存储引擎。
特点:
- DML操作遵循 ACID 模型,支持事务;
- 行级锁,提高并发访问性能;
- 支持外键 FOREIGN KEY 约束,保证数据的完整性和正确性;
文件:
xxx.ibd:xxx代表的是表名,innoDB引擎的每张表都会对应这样一个表空间文件,存储该表的表结构(frm-早期的 、sdi-新版的)、数据和索引。
参数:innodb_file_per_table
show variables like 'innodb_file_per_table'; # on
如果该参数开启,代表对于InnoDB引擎的表,每一张表都对应一个ibd文件。 我们直接打开MySQL的数据存放目录: C:\ProgramData\MySQL\MySQL Server 8.0\Data , 这个目录下有很多文件夹,不同的文件夹代表不同的数据库。
可以看到里面有很多的ibd文件,每一个ibd文件就对应一张表,比如:我们有一张表 account,就有这样的一个account.ibd文件,而在这个ibd文件中不仅存放表结构、数据,还会存放该表对应的索引信息。 而该文件是基于二进制存储的,不能直接基于记事本打开,我们可以使用mysql提供的一个指令 ibd2sdi ,通过该指令就可以从ibd文件中提取sdi信息,而sdi数据字典信息中就包含该表的表结构。
逻辑存储结构:
- 表空间:InnoDB存储引擎逻辑结构的最高层,ibd文件其实就是表空间文件,在表空间中可以包含多个Segment段。
- 段:表空间是由各个段组成的, 常见的段有数据段、索引段、回滚段等。InnoDB中对于段的管理,都是引擎自身完成,不需要人为对其控制,一个段中包含多个区。
- 区:区是表空间的单元结构,每个区的大小为1M。 默认情况下, InnoDB存储引擎页大小为 16K, 即一个区中一共有64个连续的页。
- 页:页是组成区的最小单元,页也是InnoDB存储引擎磁盘管理的最小单元,每个页的大小默认为 16KB。为了保证页的连续性,InnoDB 存储引擎每次从磁盘申请 4-5 个区。
- 行:InnoDB 存储引擎是面向行的,也就是说数据是按行进行存放的,在每一行中除了定义表时所指定的字段以外,还包含两个隐藏字段(后面会详细介绍)。
1.3.2 MyISAM
MyISAM是MySQL早期的默认存储引擎。
特点:
不支持事务,不支持外键;支持表锁,不支持行锁;访问速度快
文件:
xxx.sdi:存储表结构信息
xxx.MYD:存储数据
xxx.MYI:存储索引
1.3.3 Memory
Memory引擎的表数据时存储在内存中的,由于受到硬件问题、或断电问题的影响,只能将这些表作为临时表或缓存使用。
特点:
内存存放;hash索引(默认)
文件:
xxx.sdi:存储表结构信息
1.3.4 区别和特点
特点 | InnoDB | MyISAM | Memory |
---|---|---|---|
存储限制 | 64TB | 有 | 有 |
事务安全 | 支持 | - | - |
锁机制 | 行锁 | 表锁 | 表锁 |
B+tree索引 | 支持 | 支持 | 支持 |
Hash索引 | - | - | 支持 |
全文索引 | 支持(5.6版本之后) | 支持 | - |
空间使用 | 高 | 低 | N/A |
内存使用 | 高 | 低 | 中等 |
批量插入速度 | 低 | 高 | 高 |
支持外键 | 支持 | - | - |
面试题:
InnoDB引擎与MyISAM引擎的区别 ?
①. InnoDB引擎,支持事务,而MyISAM不支持。
②. InnoDB引擎,支持行锁和表锁,而MyISAM仅支持表锁, 不支持行锁。
③. InnoDB引擎,支持外键,而MyISAM是不支持的。
主要是上述三点区别,当然也可以从索引结构、存储限制等方面,更加深入的回答,具体参考如下官方文档:
https://dev.mysql.com/doc/refman/8.0/en/innodb-introduction.html
https://dev.mysql.com/doc/refman/8.0/en/myisam-storage-engine.html
1.4 存储引擎选择
在选择存储引擎时,应该根据应用系统的特点选择合适的存储引擎。对于复杂的应用系统,还可以根据实际情况选择多种存储引擎进行组合。
- InnoDB:是
Mysql
的默认存储引擎,支持事务、外键。如果应用对事务的完整性有比较高的要求,在并发条件下要求数据的一致性,数据操作除了插入和查询之外,还包含很多的更新、删除操作,那么InnoDB
存储引擎是比较合适的选择。 - MyISAM:如果应用是以读操作和插入操作为主,只有很少的更新和删除操作,并且对事务的完整性、并发性要求不是很高,那么选择这个存储引擎是非常合适的。
- MEMORY:将所有数据保存在内存中,访问速度快,通常用于临时表及缓存。MEMORY的缺陷就是对表的大小有限制,太大的表无法缓存在内存中,而且无法保障数据的安全性。
2. 索引
索引(index)是帮助MySQL高效获取数据的数据结构(有序)。在数据之外,数据库系统还维护着满足特定查找算法的数据结构,这些数据结构以某种方式引用(指向)数据, 这样就可以在这些数据结构上实现高级查找算法,这种数据结构就是索引。
2.1 索引演示
表结构及其数据如下:
假如我们要执行的SQL语句为 : select * from user where age = 45;
(1)无索引情况
在无索引情况下,就需要从第一行开始扫描,一直扫描到最后一行,我们称之为 全表扫描,性能很低。
(2)有索引情况
如果我们针对于这张表建立了索引,假设索引结构就是二叉树,那么也就意味着,会对 age
这个字段建立一个二叉树的索引结构。
此时我们在进行查询时,只需要扫描三次就可以找到数据了,极大的提高的查询的效率。
2.2 特点
优势 | 劣势 |
---|---|
提高数据检索的效率,降低数据库的IO成本 | 索引列也是要占用空间的。 |
通过索引列对数据进行排序,降低数据排序的成本,降低CPU的消耗。 | 索引大大提高了查询效率,同时却也降低更新表的速度,如对表进行insert、update、delete时,效率降低。 |
2.3 索引结构
2.3.1 概述
MySQL的索引是在存储引擎层实现的,不同的存储引擎有不同的索引结构,主要包含以下几种:
索引结构 | 描述 |
---|---|
B+Tree索引 | 最常见的索引类型,大部分引擎都支持 B+ 树索引 |
Hash索引 | 底层数据结构是用哈希表实现的,只有精确匹配索引列的查询才有效,不支持范围查询 |
R-tree(空间索引) | 空间索引是MyISAM引擎的一个特殊索引类型,主要用于地理空间数据类型,通常使用较少 |
Full-text(全文索引) | 是一种通过建立倒排索引,快速匹配文档的方式。类似于Lucene, Solr, ES |
上述是MySQL中所支持的所有的索引结构,接下来,我们再来看看不同的存储引擎对于索引结构的支持情况。
索引 | InnoDB | MyISAM | Memory |
---|---|---|---|
B+tree索引 | 支持 | 支持 | 支持 |
Hash 索引 | 不支持 | 不支持 | 支持 |
R-tree 索引 | 不支持 | 支持 | 不支持 |
Full-text | 5.6版本之后支持 | 支持 | 不支持 |
先回顾下之前所学习的树结构:
二叉查找树:左边的子节点比父节点小,右边的子节点比父节点大
当我们向二叉查找树保存数据时,是按照从大到小(或从小到大)的顺序保存的,此时就会形成一个单向链表,搜索性能会打折扣。
可以选择平衡二叉树或者是红黑树来解决上述问题。(红黑树也是一棵平衡的二叉树)
但是在Mysql数据库中并没有使用二叉搜索树或二叉平衡树或红黑树来作为索引的结构。
思考:采用二叉搜索树或者是红黑树来作为索引的结构有什么问题?
答案(点击)
最大的问题就是在数据量大的情况下,树的层级比较深,会影响检索速度。因为不管是二叉搜索数还是红黑数,一个节点下面只能有两个子节点。此时在数据量大的情况下,就会造成数的高度比较高,树的高度一旦高了,检索速度就会降低。
说明:如果数据结构是红黑树,那么查询1000万条数据,根据计算树的高度大概是23左右,这样确实比之前的方式快了很多,但是如果高并发访问,那么一个用户有可能需要23次磁盘IO,那么100万用户,那么会造成效率极其低下。所以为了减少红黑树的高度,那么就得增加树的宽度,就是不再像红黑树一样每个节点只能保存一个数据,可以引入另外一种数据结构,一个节点可以保存多个数据,这样宽度就会增加从而降低树的高度。这种数据结构例如BTree就满足。
2.3.2 B-Tree(B 树)
B-Tree(不是B“减”树),B树是一种多叉路衡查找树,相对于二叉树,B树每个节点可以有多个分支,即多叉。
以一颗最大度数(max-degree)为5(5阶)的b-tree为例,那这个B树每个节点最多存储4个key,5个指针:
树的度数指的是一个节点的子节点个数。
我们可以通过一个数据结构可视化的网站来简单演示一下。
插入一组数据: 100 65 169 368 900 556 780 35 215 1200 234 888 158 90 1000 88 120 268 250 。然后观察一些数据插入过程中,节点的变化情况。
特点:
- 5阶的B树,每一个节点最多存储4个key,对应5个指针。
- 一旦节点存储的key数量到达5,就会裂变,中间元素向上分裂。
- 在B树中,非叶子节点和叶子节点都会存放数据。
2.3.3 B+Tree
- 每一个节点,可以存储多个key(有n个key,就有n+1个指针)
- 节点分为:叶子节点、非叶子节点
- 叶子节点,就是最后一层子节点,所有的数据都存储在叶子节点上
- 非叶子节点,不是树结构最下面的节点,用于索引数据,存储的的是:key+指针
- 为了提高范围查询效率,叶子节点形成了一个双向链表,便于数据的排序及区间范围查询
B+Tree是B-Tree的变种,我们以一颗最大度数(max-degree)为4(4阶)的b+tree为例,来看一下其结构示意图:
我们可以看到,两部分:
- 绿色框框起来的部分,是索引部分,仅仅起到索引数据的作用,不存储数据。
- 红色框框起来的部分,是数据存储部分,在其叶子节点中要存储具体的数据。
我们可以通过一个数据结构可视化的网站来简单演示一下。
插入一组数据: 100 65 169 368 900 556 780 35 215 1200 234 888 158 90 1000 88 120 268 250 。然后观察一些数据插入过程中,节点的变化情况。
最终我们看到,B+Tree 与 B-Tree相比,主要有以下三点区别:
- 所有的数据都会出现在叶子节点。
- 叶子节点形成一个单向链表。
- 非叶子节点仅仅起到索引数据作用,具体的数据都是在叶子节点存放的。
上述我们所看到的结构是标准的B+Tree的数据结构,接下来,我们再来看看MySQL中优化之后的B+Tree。
MySQL索引数据结构对经典的B+Tree进行了优化。在原B+Tree的基础上,增加一个指向相邻叶子节点的链表指针,就形成了带有顺序指针的B+Tree,提高区间访问的性能,利于排序。
为什么InnoDB存储引擎选择使用B+tree索引结构?
- 相对于二叉树,层级更少,搜索效率高;
- 对于B-tree,无论是叶子节点还是非叶子节点,都会保存数据,这样导致一页中存储的键值减少(B+Tree非叶子节点可以存放更多键值,更多指针),指针跟着减少,要同样保存大量数据,只能增加树的高度,导致性能降低;
- 相对Hash索引,B+tree支持范围匹配及排序操作(叶子节点双向链表);
- 补充:插入与删除的稳定性:
- 自平衡:B+树在插入和删除数据时能够保持树的平衡,通过分裂、合并等操作自动调整树结构,避免了数据分布不均导致的查询性能下降。
拓展:
非叶子节点都是由key+指针域组成的,一个key占8字节,一个指针占6字节,而一个节点总共容量是16KB,那么可以计算出一个节点可以存储的元素个数:16*1024字节 / (8+6)=1170个元素。
- 查看mysql索引节点大小:
show global status like 'innodb_page_size'; -- 节点大小:16384 (=16*1024)
当根节点中可以存储1170个元素,那么根据每个元素的地址值又会找到下面的子节点,每个子节点也会存储1170个元素,那么第二层即第二次IO的时候就会找到数据大概是:1170*1170=135W。也就是说B+Tree数据结构中只需要经历两次磁盘IO就可以找到135W条数据。
对于第二层每个元素有指针,那么会找到第三层,第三层由key+数据组成,假设key+数据总大小是1KB,而每个节点一共能存储16KB,所以一个第三层一个节点大概可以存储16个元素(即16条记录)。那么结合第二层每个元素通过指针域找到第三层的节点,第二层一共是135W个元素,那么第三层总元素大小就是:135W*16结果就是2000W+的元素个数。
结合上述分析B+Tree有如下优点:
- 千万条数据,B+Tree可以控制在小于等于3的高度
- 所有的数据都存储在叶子节点上,并且底层已经实现了按照索引进行排序,还可以支持范围查询,叶子节点是一个双向链表,支持从小到大或者从大到小查找
2.3.4 Hash
MySQL中除了支持B+Tree索引,还支持一种索引类型——Hash索引。
结构:
哈希索引就是采用一定的hash算法,将键值换算成新的hash值,映射到对应的槽位上,然后存储在hash表中。
如果两个(或多个)键值,映射到一个相同的槽位上,他们就产生了hash冲突(也称为hash碰撞),可以通过链表来解决。
特点:
- Hash索引只能用于对等比较(=,in),不支持范围查询(between,>,< ,...)
- 无法利用索引完成排序操作
- 查询效率高,通常(不存在hash冲突的情况)只需要一次检索就可以了,效率通常要高于B+tree索引
存储引擎支持:
在MySQL中,支持hash索引的是Memory存储引擎。 而InnoDB中具有自适应hash功能,自适应哈希索引(AHI)是 InnoDB 存储引擎的一个特性,它可以在某些特定条件下自动创建哈希索引以提高查询性能。AHI 主要针对一些特定的查询模式,例如频繁的等值查询。当 InnoDB 检测到某个列上有频繁的等值查询时,它可能会自动创建哈希索引来加速这些查询。
2.4 索引分类
2.4.1 索引分类
在MySQL数据库,将索引的具体类型主要分为以下几类:主键索引、唯一索引、常规索引、全文索引。
分类 | 含义 | 特点 | 关键字 |
---|---|---|---|
主键索引 | 针对于表中主键创建的索引 | 默认自动创建, 只能有一个 | PRIMARY |
唯一索引 | 避免同一个表中某数据列中的值重复 | 可以有多个 | UNIQUE |
常规索引 | 快速定位特定数据 | 可以有多个 | |
全文索引 | 全文索引查找的是文本中的关键词,而不是比较索引中的值 | 可以有多个 | FULLTEXT |
2.4.2 聚集索引&二级索引
而在InnoDB存储引擎中,根据索引的存储形式,又可以分为以下两种:
分类 | 含义 | 特点 |
---|---|---|
聚集索引 (Clustered Index) | 将数据存储与索引放到了一块,索引结构的叶子节点保存了行数据 | 必须有,而且只有一个 |
二级索引 (Secondary Index) | 将数据与索引分开存储,索引结构的叶子节点关联的是对应的主键 | 可以存在多个 |
聚集索引选取规则:
- 如果存在主键,主键索引就是聚集索引。
- 如果不存在主键,将使用第一个唯一(UNIQUE)索引作为聚集索引。
- 如果表没有主键,或没有合适的唯一索引,则InnoDB会自动生成一个
rowid
作为隐藏的聚集索引。
- 聚集索引的叶子节点下挂的是这一行的数据 。
- 二级索引的叶子节点下挂的是该字段值对应的主键值。
接下来,我们来分析一下,当我们执行如下的SQL语句时,具体的查找过程是什么样子的。
具体过程如下:
- 由于是根据name字段进行查询,所以先根据
name='Arm'
到name
字段的二级索引中进行匹配查找。但是在二级索引中只能查找到 Arm 对应的主键值 10。 - 由于查询返回的数据是
*
,所以此时,还需要根据主键值10,到聚集索引中查找10对应的记录,最终找到10对应的行row。 - 最终拿到这一行的数据,直接返回即可。
回表查询: 这种先到二级索引中查找数据,找到主键值,然后再到聚集索引中根据主键值,获取数据的方式,就称之为回表查询。
以下两条SQL语句,id为主键,name字段创建的有索引;
A.
select * from user where id = 10 ;
B.
select * from user where name = 'Arm' ;
A 语句的执行性能要高于B 语句。
因为A语句直接走聚集索引,直接返回数据。 而B语句需要先查询name字段的二级索引,然后再查询聚集索引,也就是需要进行回表查询。
思考题:
InnoDB主键索引的B+tree高度为多高呢?
假设:
一行数据大小为1k,一页(16k)中可以存储16行这样的数据。InnoDB的指针占用6个字节的空间,主键即使为bigint,占用字节数为8。
高度为2:
n * 8 + (n + 1) * 6 = 16 *1024 , 算出n约为 1170(每个节点key的个数,指针maxdegree为 1171)
1171 * 16 = 18736 (1171个节点,每个节点能存16行row个数据)
也就是说,如果树的高度为2,则可以存储 18000 多条记录。
高度为3:
1171 * 1171 * 16 = 21939856
也就是说,如果树的高度为3,则可以存储 2200w 左右的记录。
2.5 索引语法
- 创建索引
CREATE [ UNIQUE | FULLTEXT ] INDEX index_name ON table_name (index_col_name,... ) ;
# 倒序索引
CREATE INDEX index_name ON table_name (column_name DESC);
- 查看索引
show index from 表名;
- 删除索引 【ON】
DROP INDEX index_name ON table_name ;
示例需求:
# name字段为姓名字段,该字段的值可能会重复,为该字段创建索引。
create index idx_user_name on tb_user(name);
# phone手机号字段的值,是非空,且唯一的,为该字段创建唯一索引。
create unique index idx_user_phone on tb_user(phone);
# 为profession、age、status创建联合索引。
create index idx_user_pro_age_sta on tb_user(profession, age, status);
# 为email建立合适的索引来提升查询效率。
create index idx_user_email on tb_user(email);
drop index idx_user_email on tb_user;
Table | Non_unique | Key_name | Seq_in_index | Column_name | Collation | Cardinality | Sub_part | Packed | Null | Index_type | Comment | Index_comment | Visible | Expression |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
tb_user | 0 | PRIMARY | 1 | id | A | 24 | BTREE | YES | ||||||
tb_user | 0 | idx_user_phone | 1 | phone | A | 24 | BTREE | YES | ||||||
tb_user | 1 | idx_user_name | 1 | name | A | 24 | BTREE | YES | ||||||
tb_user | 1 | idx_user_pro_age_sta | 1 | profession | A | 16 | YES | BTREE | YES | |||||
tb_user | 1 | idx_user_pro_age_sta | 2 | age | A | 22 | YES | BTREE | YES | |||||
tb_user | 1 | idx_user_pro_age_sta | 3 | status | A | 24 | YES | BTREE | YES | |||||
tb_user | 1 | idx_user_email | 1 | A | 24 | YES | BTREE | YES |
注意事项:
- 主键字段,在建表时,会自动创建主键索引
- 添加唯一约束时,数据库实际上会添加唯一索引
2.6 SQL性能分析
2.6.1 SQL执行频率
MySQL 客户端连接成功后,通过show [session|global] status
命令可以提供服务器状态信息。通过如下指令,可以查看当前数据库的INSERT、UPDATE、DELETE、SELECT的访问频次:
-- session 是查看当前会话 ;
-- global 是查询全局数据 ;
SHOW GLOBAL STATUS LIKE 'Com_______'; # 7个下划线
【不用命令行,而使用Datagrip,可能一次查询会增加多次value
】
Variable_name | Value |
---|---|
Com_binlog | 0 |
Com_commit | 147767 |
Com_delete(删除次数) | 5 |
Com_import | 0 |
Com_insert(删除次数) | 87 |
Com_repair | 0 |
Com_revoke | 16 |
Com_select(查询次数) | 361551 |
Com_signal | 0 |
Com_update(更新次数) | 54 |
Com_xa_end | 0 |
通过上述指令,我们可以查看到当前数据库到底是以查询为主,还是以增删改为主,从而为数据库优化提供参考依据。 如果是以增删改为主,我们可以考虑不对其进行索引的优化。 如果是以查询为主,那么就要考虑对数据库的索引进行优化了。
假如说是以查询为主,我们又该如何定位针对于那些查询语句进行优化呢? 次数我们可以借助于慢查询日志。
2.6.2 慢查询日志
慢查询日志记录了所有执行时间超过指定参数(long_query_time,单位:秒,默认10秒)的所有SQL语句的日志。
MySQL的慢查询日志默认没有开启,我们可以查看一下系统变量 slow_query_log。
show variables like 'slow_query_log';
如果要开启慢查询日志,需要在MySQL的配置文件(/etc/my.cnf
)中配置如下信息:
# 增加
# 开启MySQL慢日志查询开关
slow_query_log=1
# 设置慢日志的时间为2秒,SQL语句执行时间超过2秒,就会视为慢查询,记录慢查询日志
long_query_time=2
# 慢查询日志文件路径
slow_query_log_file=/var/lib/mysql/mysql-slow.txt
配置完毕之后,通过以下指令重新启动MySQL服务器进行测试,查看慢日志文件中记录的信息:/var/lib/mysql/localhost-slow.log
systemctl restart mysqld
新建窗口,实时查看慢查询日志尾部:
tail -f /var/lib/mysql/mysql-slow.txt
2.6.3 profile详情
show profiles
能够在做SQL优化时帮助我们了解时间都耗费到哪里去了。通过have_profiling参数,能够看到当前MySQL是否支持profile操作:
select @@have_profiling; # YES :支持
select @@profiling; # 0 :默认关闭
可以通过 set
语句在 session/global
级别开启profiling:
set profiling = 1; # session
执行一系列的业务SQL的操作,然后通过如下指令查看指令的执行耗时:
-- 查看每一条SQL的耗时基本情况
show profiles;
[使用id查比name快]
-- 查看指定query_id的SQL语句各个阶段的耗时情况
show profile for query [query_id];
Status | Duration |
---|---|
starting | 0.000084 |
Executing hook on transaction | 0.000006 |
starting | 0.000009 |
checking permissions | 0.000006 |
Opening tables | 0.000042 |
init | 0.000007 |
System lock | 0.000010 |
optimizing | 0.000007 |
statistics | 0.000018 |
preparing | 0.000017 |
executing | 0.001471 |
end | 0.000013 |
query end | 0.000006 |
waiting for handler commit | 0.000021 |
closing tables | 0.000018 |
freeing items | 0.000133 |
cleaning up | 0.000032 |
-- 查看指定query_id的SQL语句CPU的使用情况
show profile cpu for query [query_id];
2.6.4 explain
EXPLAIN
或者 DESC
命令获取 MySQL 如何执行 SELECT 语句的信息,包括在 SELECT 语句执行过程中表如何连接和连接的顺序。
-- 直接在select语句之前加上关键字 explain / desc
EXPLAIN SELECT 字段列表 FROM 表名 WHERE 条件 ;
Explain 执行计划中各个字段的含义:
字段 | 含义 |
---|---|
id | select查询的序列号,表示查询中执行select子句或者是操作表的顺序 (id相同,执行顺序从上到下;id不同,值越大,越先执行)。 |
select_type | 表示 SELECT 的类型,常见的取值有 SIMPLE(简单表,即不使用表连接或者子查询)、PRIMARY(主查询,即外层的查询)、UNION(UNION 中的第二个或者后面的查询语句)、SUBQUERY(SELECT/WHERE之后包含了子查询)等 |
type | 表示连接类型,性能由好到差的连接类型为NULL、system、const(主键,唯一索引)、eq_ref、ref、range、 index、all 。 null不访问任何表,如 select 'A' 。 |
possible_key | 显示可能应用在这张表上的索引,一个或多个。 |
key | 实际使用的索引,如果为NULL,则没有使用索引。 |
key_len | 表示索引中使用的字节数, 该值为索引字段最大可能长度,并非实际使用长度,在不损失精确性的前提下, 长度越短越好 。 |
rows | MySQL认为必须要执行查询的行数,在innodb引擎的表中,是一个估计值,可能并不总是准确的。 |
filtered | 表示返回结果的行数占需读取行数的百分比, filtered 的值越大越好。 |
explain select * from tb_user where name = '白起';
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | ref | idx_user_name | idx_user_name | 202 | const | 1 | 100 | null |
explain select s.*, c.* from student s, course c, student_course sc where s.id = sc.studentid and c.id = sc.courseid;
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | s | null | ALL | PRIMARY | null | null | null | 4 | 100 | null |
1 | SIMPLE | sc | null | ALL | fk_courseid,fk_studentid | null | null | null | 6 | 33.33 | Using where; Using join buffer (hash join) |
1 | SIMPLE | c | null | eq_ref | PRIMARY | PRIMARY | 4 | test04.sc.courseid | 1 | 100 | null |
id相同,执行顺序从上到下;
# 查询选修了Mysql的学生
select *
from student s
where s.id in
(select studentid from student_course sc where sc.courseid =
(select id from course c where c.name = 'MySQL'));
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | PRIMARY | <subquery2> | null | ALL | null | null | null | null | null | 100 | null |
1 | PRIMARY | s | null | eq_ref | PRIMARY | PRIMARY | 4 | <subquery2>.studentid | 1 | 100 | null |
2 | MATERIALIZED | sc | null | ref | fk_courseid,fk_studentid | fk_courseid | 4 | const | 2 | 100 | Using where |
3 | SUBQUERY | c | null | ALL | null | null | null | null | 4 | 25 | Using where |
id不同,值越大,越先执行
2.7 索引使用
2.7.0 合集
- 最左前缀法则:如果索引了多列(联合索引),要遵守最左前缀法则。最左前缀法则指的是查询从索引的最左列开始,并且不跳过索引中的列。如果跳跃某一列,索引将会部分失效(后面的字段索引失效)。
- 范围查询:联合索引中,出现范围查询(
>
,<
),范围查询右侧的列索引失效。所以,在业务允许的情况下,尽可能的使用类似于>=
或<=
这类的范围查询,而避免使用>
或<
。使用NOT
、<>
、!=
等否定操作符也会导致 - 索引列运算:不要在索引列上进行运算(函数)操作, 索引将失效。
- 字符串不加引号:字符串类型字段使用时,不加引号,索引将失效。数据类型不一致
- 模糊查询:如果仅仅是尾部模糊匹配,索引不会失效。如果是头部模糊匹配,索引失效。
- or连接条件:用
or
分割开的条件, 如果or
前的条件中的列有索引,而后面的列中没有索引,那么涉及的索引都不会被用到。当or连接的条件,左右两侧字段都有索引时,索引才会生效。 - 数据分布影响: MySQL 在查询时,会评估使用索引的效率与走全表扫描的效率,如果走全表扫描更快,则放弃索引,走全表扫描。 因为索引是用来索引少量数据的,如果通过索引查询返回大批量的数据,则还不如走全表扫描来的快,此时索引就会失效。(age > 0 和 age > 70)
2.7.1 验证索引效率
查询1000w的数据表,这张表中id为主键,有主键索引,而其他字段是没有建立索引的。
# 根据主键查:
select * from tb_sku where id = 1\G # 注意,如果在bash里使用 \G,就不用加分号; 结尾。
# 1 row in set (0.00 sec)
# 根据 sn 字段进行查询
SELECT * FROM tb_sku WHERE sn = '100000003145001'\G
# 1 row in set (1 min 16.49 sec)
针对sn
字段建立索引,再次查询
create index idx_sku_sn on tb_sku(sn) ;
# 再次执行用时:
# 1 row in set (0.00 sec)
2.7.2 最左前缀法则
如果索引了多列(联合索引),要遵守最左前缀法则。最左前缀法则指的是查询从索引的最左列开始,并且不跳过索引中的列。如果跳跃某一列,索引将会部分失效(后面的字段索引失效)。
验证:
在 tb_user
表中,有一个联合索引,这个联合索引涉及到三个字段,顺序分别为:profession
,age
,status
。
对于最左前缀法则指的是,查询时,最左变的列,也就是profession
必须存在,否则索引全部失效。而且中间不能跳过某一列,否则该列后面的字段索引将失效。 接下来,我们来演示几组案例,看一下具体的执行计划:
explain select * from tb_user where profession = '软件工程' and age = 31 and status = '0';
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | ref | idx_user_pro_age_sta | idx_user_pro_age_sta | 54 | const,const,const | 1 | 100 | Using index condition |
explain select * from tb_user where profession = '软件工程' and age = 31;
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | ref | idx_user_pro_age_sta | idx_user_pro_age_sta | 49 | const,const | 1 | 100 | null |
explain select * from tb_user where profession = '软件工程';
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | ref | idx_user_pro_age_sta | idx_user_pro_age_sta | 47 | const | 4 | 100 | null |
以上的这三组测试中,我们发现只要联合索引最左边的字段
profession
存在,索引就会生效,只不过索引的长度不同。 而且由以上三组测试,我们也可以推测出`profession
字段索引长度为47、age字段索引长度为2、status字段索引长度为5。
explain select * from tb_user where age = 31 and status = '0';
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | ALL | null | null | null | null | 24 | 4.17 | Using where |
explain select * from tb_user where status = '0';
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | ALL | null | null | null | null | 24 | 10 | Using where |
而通过上面的这两组测试,我们也可以看到索引并未生效,原因是因为不满足最左前缀法则,联合索引最左边的列profession不存在。
explain select * from tb_user where profession = '软件工程' and status = '0';
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | ref | idx_user_pro_age_sta | idx_user_pro_age_sta | 47 | const | 4 | 10 | Using index condition |
上述的SQL查询时,存在profession字段,最左边的列是存在的,索引满足最左前缀法则的基本条 件。但是查询时,跳过了age这个列,所以后面的列索引是不会使用的,也就是索引部分生效,所以索引的长度就是47。
Attention:
当执行SQL语句:
explain select * from tb_user where age = 31 and status = '0' and profession = '软件工程';
时,是否满足最左前缀法则,走不走上述的联合索引,索引长度?
id select_type table partitions type possible_keys key key_len ref rows filtered Extra 1 SIMPLE tb_user null ref idx_user_pro_age_sta idx_user_pro_age_sta 54 const,const,const 1 100 Using index condition 可以看到,是完全满足最左前缀法则的,索引长度54,联合索引是生效的。
注意 : 最左前缀法则中指的最左边的列,是指在查询时,联合索引的最左边的字段(即是第一个字段)必须存在,与我们编写SQL时,条件编写的先后顺序无关。
2.7.3 范围查询
联合索引中,出现范围查询( >
, <
),范围查询右侧的列索引失效。使用NOT
、<>
、!=
等否定操作符也会导致
explain select * from tb_user where profession = '软件工程' and age > 30 and status = '0';
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | range | idx_user_pro_age_sta | idx_user_pro_age_sta | 49 | null | 2 | 10 | Using index condition |
explain select * from tb_user where profession = '软件工程' and age >= 30 and status = '0';
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | range | idx_user_pro_age_sta | idx_user_pro_age_sta | 54 | null | 2 | 10 | Using index condition |
当范围查询使用 >=
或 <=
时,走联合索引了,但是索引的长度为54,就说明所有的字段都是走索引的。
所以,在业务允许的情况下,尽可能的使用类似于 >=
或 <=
这类的范围查询,而避免使用 >
或 <
。
2.7.4 索引失效情况
(1)索引列运算
不要在索引列上进行运算(函数)操作, 索引将失效。
在tb_user表中,除了前面介绍的联合索引之外,还有一个索引,是phone字段的单列索引。
- 当根据phone字段进行等值匹配查询时, 索引生效。
explain select * from tb_user where phone = '17799990015';
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | const | idx_user_phone | idx_user_phone | 46 | const | 1 | 100 | null |
- 当根据phone字段进行函数运算操作之后,索引失效。
# 查询手机号最后两位 为15的用户
explain select * from tb_user where substring(phone,10,2) = '15';
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | ALL | null | null | null | null | 24 | 100 | Using where |
(2)字符串不加引号
字符串类型字段使用时,不加引号,索引将失效。
explain select * from tb_user where profession = '软件工程' and age = 31 and status = '0';
# status 字段 为 char(1)
explain select * from tb_user where profession = '软件工程' and age = 31 and status = 0; # 失效,status 不走索引
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | ref | idx_user_pro_age_sta | idx_user_pro_age_sta | 49 | const,const | 1 | 10 | Using index condition |
# phone字段为 varchar(11)
explain select * from tb_user where phone = '17799990015'; # 生效
explain select * from tb_user where phone = 17799990015; # 失效,见下表
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | ALL | idx_user_phone | null | null | null | 24 | 10 | Using where |
(3)模糊查询
如果仅仅是尾部模糊匹配,索引不会失效。如果是头部模糊匹配,索引失效。
由于下面查询语句中,都是根据 profession
字段查询,符合最左前缀法则,联合索引是可以生效的,我们主要看一下,模糊查询时,%
加在关键字之前,和加在关键字之后的影响。
# 尾部模糊
explain select * from tb_user where profession like '软件%';
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | ref | idx_user_pro_age_sta | idx_user_pro_age_sta | 49 | const,const | 1 | 10 | Using index condition |
# 头部模糊
explain select * from tb_user where profession like '%工程';
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | ALL | null | null | null | null | 24 | 11.11 | Using where |
# 前后模糊
explain select * from tb_user where profession like '%工%';
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | ALL | null | null | null | null | 24 | 11.11 | Using where |
经过上述的测试,我们发现,在
like
模糊查询中,在关键字后面加%
,索引可以生效。而如果在关键字前面加了%
,索引将会失效。
(4)or连接条件
用or
分割开的条件, 如果or
前的条件中的列有索引,而后面的列中没有索引,那么涉及的索引都不会被用到。
在联合索引中,如果联合索引的几个字段,中间用or链接,也会失效,出后后面的字段有索引。
# 即使 有联合字段pro age status,但中间为or,依然失效
select * from tb_user where profession = '软件工程' or age = 31 and status = '0';
# id有索引,age无索引,实际无索引生效
explain select * from tb_user where id = 10 or age = 23;
# 对age字段建立索引
create index idx_user_age on tb_user(age);
# 第一行,未为age添加所以;第二行: age添加索引后
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | ALL | PRIMARY | null | null | null | 24 | 13.75 | Using where |
1 | SIMPLE | tb_user | null | index_merge | PRIMARY,idx_user_age | PRIMARY,idx_user_age | 4,2 | null | 3 | 100 | Using union(PRIMARY,idx_user_age); Using where |
# phone 有索引,age无索引
explain select * from tb_user where phone = '17799990017' or age = 23;
# 第一行,未为age添加所以;第二行: age添加索引后
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | ALL | idx_user_phone | null | null | null | 24 | 13.75 | Using where |
1 | SIMPLE | tb_user | null | index_merge | idx_user_phone,idx_user_age | idx_user_phone,idx_user_age | 46,2 | null | 3 | 100 | Using union(idx_user_phone,idx_user_age); Using where |
当or连接的条件,左右两侧字段都有索引时,索引才会生效。
(5)数据分布影响
如果MySQL评估使用索引比全表更慢,则不使用索引。
# phone 从000-023
# 不走索引 (下表第一行)
explain select * from tb_user where phone >= '17799990005';
# 走索引 (下表第二行)
explain select * from tb_user where phone >= '17799990015';
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | ALL | idx_user_phone | null | null | null | 24 | 79.17 | Using where |
1 | SIMPLE | tb_user | null | range | idx_user_phone | idx_user_phone | 46 | null | 9 | 100 | Using index condition |
就是因为 MySQL 在查询时,会评估使用索引的效率与走全表扫描的效率,如果走全表扫描更快,则放弃索引,走全表扫描。 因为索引是用来索引少量数据的,如果通过索引查询返回大批量的数据,则还不如走全表扫描来的快,此时索引就会失效。
数据分布之:is null
与 is not null
# 走索引 (下方表格第一行)
explain select * from tb_user where profession is null;
# 不走(下方表格第二行)
explain select * from tb_user where profession is not null;
# 接下来,我们做一个操作将profession字段值全部更新为null
update tb_user set profession = null;
# 此时再次执行 is not null语句 (走索引,下方表格第三行)
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | ref | idx_user_pro_age_sta | idx_user_pro_age_sta | 47 | const | 1 | 100 | Using index condition |
1 | SIMPLE | tb_user | null | ALL | idx_user_pro_age_sta | null | null | null | 24 | 100 | Using where |
1 | SIMPLE | tb_user | null | range | idx_user_pro_age_sta | idx_user_pro_age_sta | 47 | null | 1 | 100 | Using index condition |
最终我们看到,一模一样的SQL语句,先后执行了两次,结果查询计划是不一样的,这还是和数据库的数据分布有关系。查询时 MySQL 会评估,走索引快,还是全表扫描快,如果全表扫描更快,则放弃索引走全表扫描。 因此,
is null
、is not null
是否走索引,得具体情况具体分析,并不是固定的。
2.7.5 SQL提示
tb_user
索引如下:
Table | Non_unique | Key_name | Seq_in_index | Column_name | Collation | Cardinality | Sub_part | Packed | Null | Index_type | Comment | Index_comment | Visible | Expression |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
tb_user | 0 | PRIMARY | 1 | id | A | 24 | null | null | BTREE | YES | null | |||
tb_user | 0 | idx_user_phone | 1 | phone | A | 24 | null | null | BTREE | YES | null | |||
tb_user | 1 | idx_user_name | 1 | name | A | 24 | null | null | BTREE | YES | null | |||
tb_user | 1 | idx_user_pro_age_sta | 1 | profession | A | 16 | null | null | YES | BTREE | YES | null | ||
tb_user | 1 | idx_user_pro_age_sta | 2 | age | A | 22 | null | null | YES | BTREE | YES | null | ||
tb_user | 1 | idx_user_pro_age_sta | 3 | status | A | 24 | null | null | YES | BTREE | YES | null |
explain select * from tb_user where profession = '软件工程';
# 查询走了联合索引:
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | ref | idx_user_pro_age_sta | idx_user_pro_age_sta | 47 | const | 4 | 100 | null |
# 创建profession的单列索引
create index idx_user_pro on tb_user(profession);
# 再次执行上诉代码,结果如下:
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | ref | idx_user_pro_age_sta,idx_user_pro | idx_user_pro_age_sta | 47 | const | 4 | 100 | null |
测试结果,possible_keys
中 idx_user_pro_age_sta
,idx_user_pro
这两个索引都可能用到,最终MySQL选择了idx_user_pro_age_sta
索引。这是MySQL自动选择的结果。
我们也可以自己来指定使用某个索引呢,可以借助于MySQL的SQL提示来完成。
SQL提示,是优化数据库的一个重要手段,简单来说,就是在SQL语句中加入一些人为的提示来达到优化操作的目的。
use index
: 建议MySQL使用哪一个索引完成此次查询(仅仅是建议,mysql内部还会再次进行评估)。
explain select * from tb_user use index(idx_user_pro) where profession = '软件工程';
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | ref | idx_user_pro | idx_user_pro | 47 | const | 4 | 100 | null |
- ignore index : 忽略指定的索引。
explain select * from tb_user ignore index(idx_user_pro) where profession = '软件工程';
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | ref | idx_user_pro_age_sta | idx_user_pro_age_sta | 47 | const | 4 | 100 | null |
- force index : 强制使用索引
explain select * from tb_user force index(idx_user_pro) where profession = '软件工程';
# 如果是无关索引:(表格第二行)
explain select * from tb_user force index(idx_user_phone) where profession = '软件工程';
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | ref | idx_user_pro | idx_user_pro | 47 | const | 4 | 100 | null |
1 | SIMPLE | tb_user | null | ALL | null | null | null | null | 24 | 6.25 | Using where |
2.7.6 覆盖索引
尽量使用覆盖索引,减少select *。 那么什么是覆盖索引呢? 覆盖索引是指 查询使用了索引,并且需要返回的列,在该索引中已经全部能够找到 。
查看以下的SQL执行计划:
explain select id, profession from tb_user where profession = '软件工程' and age = 31 and status = '0' ;
explain select id,profession,age, status from tb_user where profession = '软件工程' and age = 31 and status = '0' ;
explain select id,profession,age, status, name from tb_user where profession = '软件工程' and age = 31 and status = '0' ;
explain select * from tb_user where profession = '软件工程' and age = 31 and status = '0';
id | type | key_len | Extra |
---|---|---|---|
1 | ref | 54 | Using where; Using index |
1 | ref | 54 | Using where; Using index |
1 | ref | 54 | Using index condition |
1 | ref | 54 | Using index condition |
从上述的执行计划我们可以看到,这四条SQL语句的执行计划前面所有的指标都是一样的,看不出来差异。但是此时,我们主要关注的是后面的Extra
,前面两天SQL的结果为 Using where; Using Index
; 而后面两条SQL的结果为: Using index condition
。
Extra | 含义 |
---|---|
Using where; Using Index | 查找使用了索引,但是需要的数据都在索引列中能找到,所以不需要回表查询数据 |
Using index condition | 查找使用了索引,但是需要回表查询数据 |
因为,在tb_user表中有一个联合索引 idx_user_pro_age_sta
,该索引关联了三个字段 profession、age、status
,而这个索引也是一个二级索引,所以叶子节点下面挂的是这一行的主键id
。 所以当我们查询返回的数据在 id、profession、age、status
之中,则直接走二级索引直接返回数据了。 如果超出这个范围,就需要拿到主键id
,再去扫描聚集索引,再获取额外的数据了,这个过程就是回表。 而我们如果一直使用select *
查询返回所有字段值,很容易就会造成回表查询(除非是根据主键查询,此时只会扫描聚集索引)。
(1)表结构及索引示意图:
id是主键,是一个聚集索引。 name字段建立了普通索引,是一个二级索引(辅助索引)。
(2)执行SQL : select * from tb_user where id = 2;
根据id
查询,直接走聚集索引查询,一次索引扫描,直接返回数据,性能高。
(3)执行SQL:selet id,name from tb_user where name = 'Arm';
虽然是根据name字段查询,查询二级索引,但是由于查询返回在字段为 id,name,在name的二级索引中,这两个值都是可以直接获取到的,因为覆盖索引,所以不需要回表查询,性能高。
(4)执行SQL:selet id,name,gender from tb_user where name = 'Arm';
由于在name的二级索引中,不包含gender,所以,需要两次索引扫描,也就是需要回表查询,性能相对较差一点。
2.7.7 前缀索引
当字段类型为字符串(varchar
,text
,longtext
等)时,有时候需要索引很长的字符串,这会让索引变得很大,查询时,浪费大量的磁盘IO, 影响查询效率。此时可以只将字符串的一部分前缀,建立索引,这样可以大大节约索引空间,从而提高索引效率。
- 语法
create index idx_xxxx on table_name(column(n));
# 示例:为tb_user表的email字段,建立长度为5的前缀索引。
create index idx_email_5 on tb_user(email(5));
Table | Key_name | Column_name | Sub_part |
---|---|---|---|
tb_user | idx_user_pro | profession | null |
tb_user | idx_email_5 | 5 |
前缀长度:
可以根据索引的选择性来决定,而选择性是指不重复的索引值(基数)和数据表的记录总数的比值,索引选择性越高则查询效率越高, 唯一索引的选择性是1,这是最好的索引选择性,性能也是最好的。
select count(distinct email) / count(*) from tb_user ; # 1.0000 全部不重复
select count(distinct substring(email,1,5)) / count(*) from tb_user ; # 0.9583 长度和选择性(区分度)的博弈
前缀索引的查询流程:
找到id
拿到一行数据后,还需要回去对比(之前拿的只是前缀,不能保证完全一样),比较数据中email
和where后面的email
是不是一样。是,返回数据,并查找链表下一个节点,如果也符合条件,也需要返回。
2.7.8 单列索引与联合索引
单列索引:即一个索引只包含单个列。
联合索引:即一个索引包含了多个列。
tb_user
中,phone
和 name
都存在单列索引,执行如下语句:
explain select id, phone, name from tb_user where phone = '17799990010' and name = '韩信';
# 创建一个phone和name字段的联合索引
create unique index idx_user_phone_name on tb_user(phone,name);
# 此时,查询时,依旧是走单列索引(下表第二行)
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | const | idx_user_phone,idx_user_name | idx_user_phone | 46 | const | 1 | 100 | null |
1 | SIMPLE | tb_user | null | const | idx_user_phone,idx_user_phone_name,idx_user_name | idx_user_phone | 46 | const | 1 | 100 | null |
通过上述执行计划我们可以看出来,在and连接的两个字段 phone、name
上都是有单列索引的,但是最终mysql只会选择一个索引,也就是说,只能走一个字段的索引,此时是会回表查询的。
# sql提示
explain select id, phone, name from tb_user use index (idx_user_phone_name) where phone = '17799990010' and name = '韩信';
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | const | idx_user_phone_name | idx_user_phone_name | 248 | const,const | 1 | 100 | Using index |
在业务场景中,如果存在多个查询条件,考虑针对于查询字段建立索引时,建议建立联合索引,而非单列索引。
如果查询使用的是联合索引,具体的结构示意图如下:
(创建联合索引的顺序也有影响:最左前缀法则)
2.7.9 索引设计原则
- 针对于数据量较大,且查询比较频繁的表建立索引。
- 针对于常作为查询条件(
where
)、排序(order by
)、分组(group by
)操作的字段建立索引。 - 尽量选择区分度高的列作为索引,尽量建立唯一索引,区分度越高,使用索引的效率越高。
- 如果是字符串类型的字段,字段的长度较长,可以针对于字段的特点,建立前缀索引。
- 尽量使用联合索引,减少单列索引,查询时,联合索引很多时候可以覆盖索引,节省存储空间,避免回表,提高查询效率。
- 要控制索引的数量,索引并不是多多益善,索引越多,维护索引结构的代价也就越大,会影响增删改的效率。
- 如果索引列不能存储
NULL
值,请在创建表时使用NOT NULL
约束它。当优化器知道每列是否包含NULL
值时,它可以更好地确定哪个索引最有效地用于查询。
3. SQL优化
3.1 插入数据
(1)insert
如果我们需要一次性往数据库表中插入多条记录,可以从以下三个方面进行优化。
# 每执行一条,都要先和数据库建立连接
insert into tb_test values(1,'tom');
insert into tb_test values(2,'cat');
insert into tb_test values(3,'jerry');
- 优化方案一:批量插入数据
Insert into tb_test values(1,'Tom'),(2,'Cat'),(3,'Jerry');
- 优化方案二:手动控制事务
start transaction;
insert into tb_test values(1,'Tom'),(2,'Cat'),(3,'Jerry');
insert into tb_test values(4,'Tom'),(5,'Cat'),(6,'Jerry');
insert into tb_test values(7,'Tom'),(8,'Cat'),(9,'Jerry');
commit;
- 优化方案三:主键顺序插入,性能要高于乱序插入。
主键乱序插入 : 8 1 9 21 88 2 4 15 89 5 7 3
主键顺序插入 : 1 2 3 4 5 7 8 9 15 21 88 89
(2)大批量插入数据
如果一次性需要插入大批量数据(比如:几百万的记录),使用insert
语句插入性能较低,此时可以使用MySQL数据库提供的load
指令进行插入。操作如下:
可以执行如下指令,将数据脚本文件中的数据加载到表结构中:
-- 客户端连接服务端时,加上参数 -–local-infile
mysql –-local-infile -u root -p
-- 设置全局参数local_infile为1,开启从本地加载文件导入数据的开关
select @@local_infile; # 0
set global local_infile = 1;
-- 执行load指令将准备好的数据,加载到表结构中
load data local infile '/root/sql1.log' into table tb_user fields terminated by ',' lines terminated by '\n' ;
在load时,主键顺序插入性能高于乱序插入;
3.2 主键优化
(1)数据组织方式
在InnoDB存储引擎中,表数据都是根据主键顺序组织存放的,这种存储方式的表称为索引组织表 (index organized table IOT)。
行数据,都是存储在聚集索引的叶子节点上的,逻辑存储结构图:
在InnoDB引擎中,数据行是记录在逻辑结构 page
页中的,而每一个页的大小是固定的,默认16K。那也就意味着, 一个页中所存储的行也是有限的,如果插入的数据行row
在该页存储不小,将会存储到下一个页中,页与页之间会通过指针连接。
(2)页分裂
页可以为空,也可以填充一半,也可以填充100%。每个页包含了 2 ~ N
行数据(如果一行数据过大,会行溢出),根据主键排列。
主键顺序插入效果:
- 从磁盘中申请页, 主键顺序插入
- 第一个页没有满,继续往第一页插入
- 当第一个也写满之后,再写入第二个页,页与页之间会通过指针连接
- 当第二页写满了,再往第三页写入
主键乱序插入效果:
- 假如1#,2#页都已经写满了,存放了如图所示的数据
- 此时再插入id为50的记录,我们来看看会发生什么现象,会再次开启一个页,写入新的页中吗?
不会。因为,索引结构的叶子节点是有顺序的。按照顺序,应该存储在47之后。
但是47所在的1#页,已经写满了,存储不了50对应的数据了。 那么此时会开辟一个新的页 3#。
但是并不会直接将50存入3#页,而是会将1#页后一半的数据,移动到3#页,然后在3#页,插入50。
移动数据,并插入id为50的数据之后,那么此时,这三个页之间的数据顺序是有问题的。 1#的下一个页,应该是3#, 3#的下一个页是2#。 所以,此时,需要重新设置链表指针。
上述的这种现象,称之为 "页分裂",是比较耗费性能的操作。
(3)页合并
目前表中已有数据的索引结构(叶子节点)如下:
当我们对已有数据进行删除时,具体的效果如下:
当删除一行记录时,实际上记录并没有被物理删除,只是记录被标记(flaged)为删除并且它的空间变得允许被其他记录声明使用。
当我们继续删除2#的数据记录
当页中删除的记录达到 MERGE_THRESHOLD(默认为页的50%),InnoDB会开始寻找最靠近的页(前或后)看看是否可以将两个页合并以优化空间使用。
删除数据,并将页合并之后,再次插入新的数据21,则直接插入3#页
这个里面所发生的合并页的这个现象,就称之为 "页合并"。
MERGE_THRESHOLD
:合并页的阈值,可以自己设置,在创建表或者创建索引时指定。
(4)索引设计原则
- 满足业务需求的情况下,尽量降低主键的长度。(二级索引挂的就是主键,二级索引可能有很多个,浪费空间)
- 插入数据时,尽量选择顺序插入,选择使用
AUTO_INCREMENT
自增主键。 - 尽量不要使用UUID做主键或者是其他自然主键,如身份证号。
- 业务操作时,避免对主键的修改。
3.3 order by优化
MySQL的排序,有两种方式:
Using filesort
: 通过表的索引或全表扫描,读取满足条件的数据行,然后在排序缓冲区sort buffer
中完成排序操作,所有不是通过索引直接返回排序结果的排序都叫FileSort
排序。Using index
: 通过有序索引顺序扫描直接返回有序数据,这种情况即为using index
,不需要额外排序,操作效率高。
对于以上的两种排序方式,Using index
的性能高,而Using filesort
的性能低,我们在优化排序操作时,尽量要优化为 Using index
。
tb_user
索引如下:
Table | Non_unique | Key_name | Seq_in_index | Column_name | Collation | Cardinality | Sub_part | Packed | Null | Index_type | Comment | Index_comment | Visible | Expression |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
tb_user | 0 | PRIMARY | 1 | id | A | 24 | null | null | BTREE | YES | null | |||
tb_user | 1 | idx_user_pro_age_sta | 1 | profession | A | 16 | null | null | YES | BTREE | YES | null | ||
tb_user | 1 | idx_user_pro_age_sta | 2 | age | A | 22 | null | null | YES | BTREE | YES | null | ||
tb_user | 1 | idx_user_pro_age_sta | 3 | status | A | 24 | null | null | YES | BTREE | YES | null | ||
tb_user | 1 | idx_email_5 | 1 | A | 23 | 5 | null | YES | BTREE | YES | null |
# 由于 age, phone 都没有索引,所以此时在排序时,出现Using filesort, 排序性能较低。
explain select id,age,phone from tb_user order by age ;
explain select id,age,phone from tb_user order by age, phone ;
# 以上两段运行结果一样,如下(第一行)
-- 创建索引
create index idx_user_age_phone_aa on tb_user(age,phone);
# 此时再执行,运行结果一样(第二行表)
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | ALL | null | null | null | null | 24 | 100 | Using filesort |
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | index | null | idx_user_age_phone_aa | 48 | null | 24 | 100 | Using index |
# 创建索引后,根据age, phone进行降序排序
explain select id,age,phone from tb_user order by age desc , phone desc ;
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | index | null | idx_user_age_phone_aa | 48 | null | 24 | 100 | Backward index scan; Using index |
也出现 Using index
, 但是此时Extra
中出现了 Backward index scan
,这个代表反向扫描索引,因为在MySQL中我们创建的索引,默认索引的叶子节点是从小到大排序的,而此时我们查询排序 时,是从大到小,所以,在扫描时,就是反向扫描,就会出现 Backward index scan
。 在 MySQL8
版本中,支持降序索引,我们也可以创建降序索引。
create index idx_user_age_phone_de on tb_user(age desc , phone desc );
# 此时运行结果如下表:
explain select id,age,phone from tb_user order by age desc , phone desc ;
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | index | null | idx_user_age_phone_de | 48 | null | 24 | 100 | Using index |
# 根据phone,age进行升序排序,phone在前,age在后。
explain select id,age,phone from tb_user order by phone , age;
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | index | null | idx_user_age_phone_aa | 48 | null | 24 | 100 | Using index; Using filesort |
排序时,也需要满足最左前缀法则,否则也会出现 filesort
。因为在创建索引的时候, age
是第一个字段,phone
是第二个字段,所以排序时,也就该按照这个顺序来,否则就会出现 Using filesort
。
# 根据age, phone进行降序一个升序,一个降序
explain select id,age,phone from tb_user order by age asc , phone desc ;
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | index | null | idx_user_age_phone_aa | 48 | null | 24 | 100 | Using index; Using filesort |
因为创建索引时,如果未指定顺序,默认都是按照升序排序的,而查询时,一个升序,一个降序,此时就会出现Using filesort。
create index idx_user_age_phone_ad on tb_user(age asc , phone desc );
# 创建 前升 后降索引,查询时前降后升 依旧可以
explain select id,age,phone from tb_user order by age desc , phone asc ;
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | index | null | idx_user_age_phone_ad | 48 | null | 24 | 100 | Backward index scan; Using index |
如果没有覆盖索引,需要回表查询,在排序缓冲区排序:
explain select * from tb_user order by age desc , phone asc ;
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | ALL | null | null | null | null | 24 | 100 | Using filesort |
升序/降序联合索引结构图示:
由上述的测试,我们得出order by优化原则:
- 根据排序字段建立合适的索引,多字段排序时,也遵循最左前缀法则。
- 尽量使用覆盖索引。
- 多字段排序, 一个升序一个降序,此时需要注意联合索引在创建时的规则(ASC/DESC)。
- 如果不可避免的出现
filesort
,大数据量排序时,可以适当增大排序缓冲区大小sort_buffer_size
(默认256k)。
show variables like 'sort_buffer_size'; # 262144
set @@sort_buffer_size = 524288; # session级别
3.4 group by优化
删除tb_user
中除了默认的主键索引外所有索引。
explain select profession , count(*) from tb_user group by profession ;
type | possible_keys | key | Extra |
---|---|---|---|
ALL | null | null | Using temporary |
然后,再针对于 profession , age, status
创建一个联合索引。然后再次执行上述语句。
create index idx_user_pro_age_sta on tb_user(profession , age , status);
explain select profession , count(*) from tb_user group by profession ;
type | possible_keys | key | Extra |
---|---|---|---|
index | idx_user_pro_age_sta | idx_user_pro_age_sta | Using index |
explain select profession , count(*) from tb_user group by profession, age ;
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | index | idx_user_pro_age_sta | idx_user_pro_age_sta | 54 | null | 24 | 100 | Using index |
explain select age , count(*) from tb_user group by age ;
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | index | idx_user_pro_age_sta | idx_user_pro_age_sta | 54 | null | 24 | 100 | Using index; Using temporary |
我们发现,如果仅仅根据 age
分组,就会出现 Using temporary
;而如果是 根据 profession,age
两个字段同时分组,则不会出现 Using temporary
。原因是因为对于分组操作,在联合索引中,也是符合最左前缀法则的。
# 在where条件中 增加 profession字段,则也符合最左前缀法则。
explain select age , count(*) from tb_user where profession = '软件工程' group by age ;
id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
---|---|---|---|---|---|---|---|---|---|---|---|
1 | SIMPLE | tb_user | null | ref | idx_user_pro_age_sta | idx_user_pro_age_sta | 47 | const | 4 | 100 | Using index |
所以,在分组操作中,需要通过以下两点进行优化,以提升性能:
- 在分组操作时,可以通过索引来提高效率。
- 分组操作时,索引的使用也是满足最左前缀法则的。
3.5 limit 优化
在数据量比较大时,如果进行limit分页查询,在查询时,越往后,分页查询效率越低。
# Run on 华为云MySQL
select * from tb_sku limit 0, 10; # 0.06sec
select * from tb_sku limit 1000000, 10; # 1.04 sec
select * from tb_sku limit 5000000, 10; # 5.02 sec
select * from tb_sku limit 9000000, 10; # 9.59 sec
通过测试我们会看到,越往后,分页查询效率越低,这就是分页查询的问题所在。
因为,当在进行分页查询时,如果执行 limit 2000000,10 ,此时需要MySQL排序前2000010 记录,仅仅返回 2000000 - 2000010 的记录,其他记录丢弃,查询排序的代价非常大 。
优化思路:一般分页查询时,通过创建 覆盖索引 能够比较好地提高性能,可以通过覆盖索引加子查询形式进行优化。
select * from tb_sku t , (select id from tb_sku order by id limit 9000000,10) a where t.id = a.id; # 8.15 sec
3.6 count 优化
如果数据量很大,在执行count操作时,是非常耗时的。
- MyISAM 引擎把一个表的总行数存在了磁盘上,因此执行
count(*)
的时候会直接返回这个数,效率很高; 但是如果是带条件的count
,MyISAM也慢。 - InnoDB 引擎就麻烦了,它执行
count(*)
的时候,需要把数据一行一行地从引擎里面读出来,然后累积计数。
如果说要大幅度提升InnoDB
表的count
效率,主要的优化思路:自己计数(可以借助于redis
这样的数据库进行,但是如果是带条件的 count
又比较麻烦了)。
count用法:
count()
是一个聚合函数,对于返回的结果集,一行行地判断,如果 count 函数的参数不是 NULL
,累计值就加 1,否则不加,最后返回累计值。
用法:count(*)、count(主键)、count(字段)、count(数字)
count用法 | 含义 |
---|---|
count(主键) | InnoDB 引擎会遍历整张表,把每一行的 主键id 值都取出来,返回给服务层。服务层拿到主键后,直接按行进行累加(主键不可能为null) |
count(字段) | 没有not null 约束 : InnoDB 引擎会遍历整张表把每一行的字段值都取出来,返回给服务层,服务层判断是否为null,不为null,计数累加。 有not null 约束:InnoDB 引擎会遍历整张表把每一行的字段值都取出来,返回给服务层,直接按行进行累加。 |
count(数字) | InnoDB 引擎遍历整张表,但不取值。服务层对于返回的每一行,放一个数字“1”进去,直接按行进行累加。 |
count(*) | InnoDB引擎并不会把全部字段取出来,而是专门做了优化,不取值,服务层直接按行进行累加。 |
按照效率排序的话,
count(字段)
<count(主键 id)
<count(1)
≈count(*)
,所以尽量使用count(*)
。
3.7 update 优化
update course set name = 'javaEE' where id = 1 ;
当我们在执行删除的SQL语句时,会锁定id为1这一行的数据,然后事务提交之后,行锁释放。
但是当我们在执行如下SQL时:
update course set name = 'SpringBoot' where name = 'PHP' ;
当我们开启多个事务,在执行上述的SQL时,我们发现行锁升级为了表锁。 导致该update语句的性能大大降低。
InnoDB
的行锁是针对索引加的锁,不是针对记录加的锁,并且该索引不能失效,否则会从行锁升级为表锁 。
4. 视图
4.1 概述
视图(View)是一种虚拟存在的表。视图中的数据并不在数据库中实际存在,行和列数据来自定义视图的查询中使用的表,并且是在使用视图时动态生成的。
通俗的讲,视图只保存了查询的SQL逻辑,不保存查询结果。所以我们在创建视图的时候,主要的工作就落在创建这条SQL查询语句上。
4.2 语法
- 创建
CREATE [OR REPLACE] VIEW 视图名称[(列名列表)] AS SELECT语句 [ WITH [CASCADED | LOCAL ] CHECK OPTION ]
- 查询
# 查看创建视图语句:
SHOW CREATE VIEW 视图名称;
# 查看视图数据:
SELECT * FROM 视图名称 ;
- 修改
方式一:CREATE [OR REPLACE] VIEW 视图名称[(列名列表)] AS SELECT语句 [ WITH [ CASCADED | LOCAL ] CHECK OPTION ]
方式二:ALTER VIEW 视图名称[(列名列表)] AS SELECT语句 [ WITH [ CASCADED | LOCAL ] CHECK OPTION ]
- 删除
DROP VIEW [IF EXISTS] 视图名称 [,视图名称] ...
示例:
# 创建视图
create or replace view stu_v_1 as select id, name from student where id <= 10;
# 查询视图
show create view stu_v_1;
select * from stu_v_1;
View | Create View | character_set_client | collation_connection |
---|---|---|---|
stu_v_1 | CREATE ALGORITHM=UNDEFINED DEFINER=`root`@`%` SQL SECURITY DEFINER VIEW `stu_v_1` AS select `student`.`id` AS `id`,`student`.`name` AS `name` from `student` where (`student`.`id` <= 10) | utf8mb4 | utf8mb4_0900_ai_ci |
-- 修改视图 需要加 or replace
create or replace view stu_v_1 as select id, name from student where id <= 10;
alter view stu_v_1 as select id,name from student where id <= 10;
-- 删除视图
drop view if exists stu_v_1;
测试,在视图里插入数据:
create or replace view stu_v_1 as select id,name from student where id <= 10 ;
insert into stu_v_1 values(6,'Tom');
insert into stu_v_1 values(17,'Tom22');
执行结果,两条数据能够插入到原表(student)中,但因为视图id < 10,id=17的数据不在视图中显示。
4.3 检查选项
当使用 WITH CHECK OPTION
子句创建视图时,MySQL会通过视图检查正在更改的每个行,例如 插入,更新,删除,以使其符合视图的定义。
MySQL允许基于另一个视图创建视图,它还会检查依赖视图中的规则以保持一致性。为了确定检查的范围,mysql提供了两个选项: CASCADED
和 LOCAL
,默认值为 CASCADED
(WITH CHECK OPTION
子句存在)。
(1)CASCADED 级联。
比如,v2视图是基于v1视图的,如果在v2视图创建的时候指定了检查选项为 cascaded,但是v1视图创建时未指定检查选项。 则在执行检查时,不仅会检查v2,还会级联检查v2的关联视图v1。
如果 v1 是 from v0的,且没有加检查选项,但还是会比较v0的条件。级联下去
# cascaded
create or replace view stu_v_1 as select id,name from student where id <= 10 with cascaded check option ;
# 成功
insert into stu_v_1 values(6,'Tom');
# 失败 [HY000][1369] CHECK OPTION failed 'test04.stu_v_1'
insert into stu_v_1 values(17,'Tom22');
示例:
-- cascaded
create or replace view stu_v_1 as select id,name from student where id <= 20;
insert into stu_v_1 values (5, 'tom'); # 可以插入
insert into stu_v_1 values (25, 'tom'); # 可以插入
# 基于v1 创建 v2
create or replace view stu_v_2 as select id,name from stu_v_1 where id >= 10 with cascaded check option ;
insert into stu_v_2 values (7, 'tom'); # 不能插入
insert into stu_v_2 values (26, 'tom'); # 不能插入 满足v2,但不满足v1
insert into stu_v_2 values (15, 'tom'); # 可以插入
# 基于v2 创建v3 不加 cascaded
create or replace view stu_v_3 as select id,name from stu_v_2 where id <= 15;
insert into stu_v_3 values (11, 'tom'); # 可以插入
insert into stu_v_3 values (17, 'tom'); # 可以插入 v3视图不检查,但是满足v2,v1
insert into stu_v_3 values (28, 'tom'); # 不能插入,v3视图不检查,满足v2,但不满足v1
insert into stu_v_3 values (7, 'tom'); # 不能插入,v3视图不检查,不满足v2
(2)LOCAL 本地
比如,v2视图是基于v1视图的,如果在v2视图创建的时候指定了检查选项为 local ,但是v1视图创建时未指定检查选项。 则在执行检查时,只会检查v2,不会检查v2的关联视图v1。
停在没有加选项的视图
示例:
-- local
create or replace view stu_v_4 as select id,name from student where id <= 15;
insert into stu_v_4 values (5, 'tom'); # 可以插入
insert into stu_v_4 values (25, 'tom'); # 可以插入
# 基于v4 创建 v5 加local
create or replace view stu_v_5 as select id,name from stu_v_4 where id >= 10 with local check option ;
insert into stu_v_5 values (7, 'tom'); # 不能插入
insert into stu_v_5 values (13, 'tom'); # 能插入 满足v5
insert into stu_v_5 values (20, 'tom'); # 可以插入 满足v5, v4没有定义选项,不检查v4
# 基于v5 创建v6 不加条件
create or replace view stu_v_6 as select id,name from stu_v_5 where id < 20;
insert into stu_v_6 values (14, 'tom'); # 可以插入 满足v5, v4没有定义选项,不检查v4
insert into stu_v_6 values (30, 'tom'); # 可以插入
insert into stu_v_6 values (7, 'tom'); # 不能插入,不满足v5
4.4 视图更新
要使视图可更新,视图中的行与基础表中的行之间必须存在一对一的关系。如果视图包含以下任何一项,则该视图不可更新(对视图插入更新数据):
- 聚合函数或窗口函数(
SUM()
、MIN()
、MAX()
、COUNT()
等) - DISTINCT
- GROUP BY
- HAVING
- UNION 或者 UNION ALL
示例:
create view stu_v_count as select count(*) from student;
# 原表插入新数据,视图显示的数据量值 依旧能够更新
insert into student values (5, 'Test', '2000100105');
# 视图插入时,会失败
# [HY000][1471] The target table stu_v_count of the INSERT is not insertable-into
insert into stu_v_count values(10);
4.5 视图作用
(1)简单
视图不仅可以简化用户对数据的理解,也可以简化他们的操作。那些被经常使用的查询可以被定义为视图,从而使得用户不必为以后的操作每次指定全部的条件。
(2)安全
数据库可以授权,但不能授权到数据库特定行和特定的列上。通过视图用户只能查询和修改他们所能见到的数据
(3)数据独立
视图可帮助用户屏蔽真实表结构变化带来的影响。
示例:
# 为了保证数据库表的安全性,开发人员在操作tb_user表时,只能看到的用户的基本字段,屏蔽手机号和邮箱两个字段。
create view user_view as
select id, name, profession, age, gender, status, createtime
from tb_user;
select *
from user_view;
# 查询每个学生所选修的课程(三张表联查),这个功能在很多的业务中都有使用到,为了简化操作,定义一个视图。
create or replace view stu_course_view as
select s.no '学生学号', s.name '学生姓名', c.name '课程名称'
from student s,
course c,
student_course sc
where s.id = sc.studentid
and c.id = sc.courseid;
5. 存储过程
5.1 概述
存储过程是事先经过编译并存储在数据库中的一段 SQL 语句的集合,调用存储过程可以简化应用开发人员的很多工作,减少数据在数据库和应用服务器之间的传输,对于提高数据处理的效率是有好处的。
存储过程思想上很简单,就是数据库 SQL 语言层面的代码封装与重用。
特点:
- 封装,复用 -----------------------> 可以把某一业务SQL封装在存储过程中,需要用到的时候直接调用即可。
- 可以接收参数,也可以返回数据 --------> 再存储过程中,可以传递参数,也可以接收返回值。
- 减少网络交互,效率提升 -------------> 如果涉及到多条SQL,每执行一次都是一次网络传输。 而如果封装在存储过程中,我们只需要网络交互一次可能就可以了。
5.2 基本语法
- 创建
CREATE PROCEDURE 存储过程名称 ([ 参数列表 ])
BEGIN
-- SQL语句
END ;
- 调用
CALL 名称 ([ 参数 ]);
- 查看
# 查询指定数据库的存储过程及状态信息
SELECT * FROM INFORMATION_SCHEMA.ROUTINES WHERE ROUTINE_SCHEMA = 'xxx';
# 查询某个存储过程的定义
SHOW CREATE PROCEDURE 存储过程名称 ;
- 删除
DROP PROCEDURE [ IF EXISTS ] 存储过程名称;
注意:
在命令行中,执行创建存储过程的SQL时,需要通过关键字
delimiter
指定SQL语句的结束符。(因为begin end包围的sql语句包含
;
, 使得sql认为已经结束)
示例:
-- 创建
create procedure p1()
begin
select count(*) from student;
end;
-- 调用
call p1();
-- 删除
drop procedure if exists p1;
-- 查看
select * from information_schema.ROUTINES where ROUTINE_SCHEMA = 'test04';
SPECIFIC_NAME | ROUTINE_CATALOG | ROUTINE_SCHEMA | ROUTINE_NAME | ROUTINE_TYPE | DATA_TYPE | CHARACTER_MAXIMUM_LENGTH | CHARACTER_OCTET_LENGTH | NUMERIC_PRECISION | NUMERIC_SCALE | DATETIME_PRECISION | CHARACTER_SET_NAME | COLLATION_NAME | DTD_IDENTIFIER | ROUTINE_BODY | ROUTINE_DEFINITION | EXTERNAL_NAME | EXTERNAL_LANGUAGE | PARAMETER_STYLE | IS_DETERMINISTIC | SQL_DATA_ACCESS | SQL_PATH | SECURITY_TYPE | CREATED | LAST_ALTERED | SQL_MODE | ROUTINE_COMMENT | DEFINER | CHARACTER_SET_CLIENT | COLLATION_CONNECTION | DATABASE_COLLATION |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
p1 | def | test04 | p1 | PROCEDURE | null | null | null | null | null | null | null | null | SQL | begin select count(*) from student; end |
null | SQL | SQL | NO | CONTAINS SQL | null | DEFINER | 2023-09-14 23:00:15 | 2023-09-14 23:00:15 | STRICT_TRANS_TABLES | root@% | utf8mb4 | utf8mb4_0900_ai_ci | utf8mb4_0900_ai_ci |
show create procedure p1;
Procedure | sql_mode | Create Procedure | character_set_client | collation_connection | Database Collation |
---|---|---|---|---|---|
p1 | STRICT_TRANS_TABLES | CREATE DEFINER=`root`@`%` PROCEDURE `p1`() begin select count(*) from student; end |
utf8mb4 | utf8mb4_0900_ai_ci | utf8mb4_0900_ai_ci |
5.3 变量
在MySQL中变量分为三种类型:系统变量、用户定义变量、局部变量。
5.3.1 系统变量
系统变量 是MySQL服务器提供,不是用户定义的,属于服务器层面。分为全局变量(GLOBAL)、会话变量(SESSION)。
- 查看系统变量
# 查看所有系统变量, 默认session
show [ session | global ] variables ;
# 可以通过LIKE模糊匹配方式查找变量
show [ session | global ] variables like '______';
# 查看指定变量的值
select @@[session | global] 系统变量名;
- 设置系统变量
set [ session | global ] 系统变量名 = 值 ;
set @@[session | global].系统变量名 = 值 ;
示例:
# 查看系统变量
show global variables like 'auto%'; # 结果见下表
select @@autocommit;
select @@session.autocommit; # 会话级
select @@global.autocommit; # 全局
Variable_name | Value |
---|---|
auto_generate_certs | ON |
auto_increment_increment | 1 |
auto_increment_offset | 1 |
autocommit | ON |
automatic_sp_privileges | ON |
# 设置系统变量
set @@session.autocommit = 0;
set session autocommit = 1;
# 实操神奇点,设置global = 0后,查询global变量=0,而session级别依旧为1;
注意:
如果没有指定SESSION/GLOBAL,默认是SESSION,会话变量。
mysql服务重新启动之后,所设置的全局参数会失效,要想不失效,可以在
/etc/my.cnf
中配置。
- 全局变量(
GLOBAL
):全局变量针对于所有的会话。- 会话变量(
SESSION
):会话变量针对于单个会话,在另外一个会话窗口就不生效了。
5.3.2 用户定义变量
用户定义变量,是用户根据需要自己定义的变量,用户变量不用提前声明,在用的时候直接用 "@变量名" 使用就可以。其作用域为当前连接。
(1)赋值
方式一:
SET @var_name = expr [, @var_name = expr] ... ;
SET @var_name := expr [, @var_name := expr] ... ;
赋值时,可以使用
=
,也可以使用:=
。
方式二:
SELECT @var_name := expr [, @var_name := expr] ... ;
SELECT 字段名 INTO @var_name FROM 表名;
# 如果使用时 不加 ':',结果如下:
select @mytest = 'test';
@mytest(UUID) |
---|
null |
使用 set 时可以用 “=” 或 “:=”,但是使用 select 时必须用 “:=赋值”
(2)使用
SELECT @var_name ;
注意:用户定义的变量无需对其进行声明或初始化,只不过获取到的值为
NULL
。
示例:
# 定义
set @myname = 'George';
set @mydomain := '.club';
# 同时定义
set @mygender = '男', @myip = 'unknown';
# select 定义 要用 :=
select @mycolor := 'red';
# select into定义
select count(*) into @count from tb_user;
# 查看
select @count;
# 同时查询
select @mydomain, @mygender, @myip;
# 查询未定义的变量
select @hhhhh; # null
5.3.3 局部变量
局部变量,是根据需要定义的在局部生效的变量,访问之前,需要 DECLARE
声明。可用作存储过程内的局部变量和输入参数,局部变量的范围是在其内声明的 BEGIN ... END
块。
- 声明:
DECLARE 变量名 变量类型 [DEFAULT ... ] ; # 即使是int,没有default 也是 null
变量类型就是数据库字段类型:INT、BIGINT、CHAR、VARCHAR、DATE、TIME等。
- 赋值:
SET 变量名 = 值 ;
SET 变量名 := 值 ;
# 先 declare 才能 into 变量名
SELECT 字段名 INTO 变量名 FROM 表名 ... ;
示例:
# 声明局部变量 - declare
create procedure p2()
begin
declare stu_count int default 0;
select count(*) into stu_count from tb_user;
select stu_count;
end;
call p2();
5.4 if
if 用于做条件判断,具体的语法结构为:
if 条件1 then
......
elseif 条件2 then # 可选 中间没空格
......
else # 可选
......
end if;
在 if
条件判断的结构中,elseif
结构可以有多个,也可以没有。 else
结构可以有,也可以没有。
示例:
根据定义的分数score变量,判定当前分数对应的分数等级。
create procedure p3()
begin
declare score int default 50;
declare result varchar(10);
if score >= 85 then
set result = '优秀';
elseif score >= 60 then
set result = '及格';
else
set result = '不及格';
end if;
select result;
end;
call p3();
5.5 参数
参数的类型,主要分为以下三种:IN、OUT、INOUT。 具体的含义如下:
类型 | 含义 | 备注 |
---|---|---|
IN | 该类参数作为输入,也就是需要调用时传入值 | 默认 |
OUT | 该类参数作为输出,也就是该参数可以作为返回值 | |
INOUT | 既可以作为输入参数,也可以作为输出参数 |
用法:
create procedure 存储过程名称 ([ in/out/inout 参数名 参数类型 ])
begin
-- SQL语句
end;
示例:
(1)根据传入参数score,判定当前分数对应的分数等级,并返回。
create procedure p4(in score int, out result varchar(10))
begin
if score >= 85 then
set result = '优秀';
elseif score >= 60 then
set result = '及格';
else
set result = '不及格';
end if;
end;
# 定义用户变量 @result来接收返回的数据, 用户变量可以不用事先声明
call p4(86, @result);
select @result;
(2)将传入的200分制的分数,进行换算,换算成百分制,然后返回。
create procedure p5(inout score int)
begin
set score = score * 0.5;
end;
set @score = 190;
call p5(@score);
select @score; # 95
5.6 case
case
结构及作用,和基础篇中所提到的流程控制函数很类似。有两种语法格式:
语法1:
-- 含义: 当case_value的值为 when_value1时,执行statement_list1,当值为 when_value2时,执行statement_list2, 否则就执行 statement_list
case case_value
when when_value1 then statement_list1
[ when when_value2 then statement_list2] ...
[ else statement_list ]
end case;
语法2:
-- 含义: 当条件search_condition1成立时,执行statement_list1,当条件search_condition2成立时,执行statement_list2, 否则就执行 statement_list
case
when search_condition1 then statement_list1
[when search_condition2 then statement_list2] ...
[else statement_list]
end case;
示例:
根据传入的月份,判定月份所属的季节(要求采用case结构)。
- 1-3月份,为第一季度
- 4-6月份,为第二季度
- 7-9月份,为第三季度
- 10-12月份,为第四季度
create procedure p6(in month int)
begin
declare result varchar(10);
case
when month in (1, 2, 3) then set result = '第一季度';
when month in (4, 5, 6) then set result = '第二季度';
when month in (7, 8, 9) then set result = '第三季度';
when month in (10, 11, 12) then set result = '第四季度';
else set result = '非法参数';
end case;
select concat('您输入的月份:', month, ',所属季度为:', result);
end;
call p6(9);
call p6(month(now())); # 您输入的月份:9,所属季度为:第三季度
注意:如果判定条件有多个,多个条件之间,可以使用
and
或or
进行连接。
5.7 while
while
循环是有条件的循环控制语句。满足条件后,再执行循环体中的SQL语句。具体语法为:
-- 先判定条件,如果条件为true,则执行逻辑,否则,不执行逻辑
while 条件 do
SQL逻辑...
end while;
示例:
计算从1累加到n的值,n为传入的参数值。
create procedure p7(in num int)
begin
declare result int default 0;
while num > 0
do
set result = result + num;
set num = num - 1;
end while;
select result;
end;
call p7(100); # 5050
自设示例:
为下表填上成绩等级:
id | name | math | english | chinese | math_grade | english_grade | chinese_grade |
---|---|---|---|---|---|---|---|
1 | Tom | 67 | 88 | 95 | null | null | null |
2 | Rose | 23 | 66 | 90 | null | null | null |
3 | Jack | 56 | 98 | 76 | null | null | null |
# 传入成绩,传回结果
create procedure setGrade(in score int, out grade varchar(10))
begin
if score >= 85 then
set grade = '优秀';
elseif score >= 60 then
set grade = '及格';
else
set grade = '不及格';
end if;
end;
# main
create procedure main()
begin
declare grade varchar(10); # 临时变量,存每科目等级
declare table_count int default 0; # id 尾部遍历
select count(*) into table_count from score;
while table_count >= 0
do
# 设置 math
call setGrade((select math from score where id = table_count), grade);
update score set math_grade = grade where id = table_count;
# 设置 english
call setGrade((select english from score where id = table_count), grade);
update score set english_grade = grade where id = table_count;
# 设置 chinese
call setGrade((select chinese from score where id = table_count), grade);
update score set chinese_grade = grade where id = table_count;
# 更新id
set table_count = table_count - 1;
end while;
end;
# 调用
call main();
select * from score;
id | name | math | english | chinese | math_grade | english_grade | chinese_grade |
---|---|---|---|---|---|---|---|
1 | Tom | 67 | 88 | 95 | 及格 | 优秀 | 优秀 |
2 | Rose | 23 | 66 | 90 | 不及格 | 及格 | 优秀 |
3 | Jack | 56 | 98 | 76 | 不及格 | 优秀 | 及格 |
5.8 repeat
repeat
是有条件的循环控制语句, 当满足 until
声明的条件的时候,则退出循环 。具体语法为:
# 先执行一次逻辑,然后判定UNTIL条件是否满足,如果满足,则退出。如果不满足,则继续下一次循环
repeat
SQL逻辑...
UNTIL 条件
end repeat;
示例:
计算从1累加到n的值,n为传入的参数值。(使用repeat实现)
create procedure p8(in num int)
begin
declare result int default 0;
repeat
set result = result + num;
set num = num - 1;
until num <= 0
end repeat;
select result;
end;
call p8(100);
5.9 loop
LOOP
实现简单的循环,如果不在SQL逻辑中增加退出循环的条件,可以用其来实现简单的死循环。
LOOP
可以配合一下两个语句使用:
leave
:配合循环使用,退出循环。iterate
:必须用在循环中,作用是跳过当前循环剩下的语句,直接进入下一次循环。
[begin_label:] LOOP
SQL逻辑...
END LOOP [end_label];
LEAVE label; -- 退出指定标记的循环体
ITERATE label; -- 直接进入下一次循环
上述语法中出现的 begin_label
,`end_label
,label
指的都是我们所自定义的标记。
示例:
(1)计算从1累加到n的值,n为传入的参数值。
create procedure p9(in num int)
begin
declare result int default 0;
sum:
loop
if num <= 0 then # 如果n减到0, 则退出循环
leave sum;
end if;
set result = result + num;
set num = num - 1;
end loop sum;
select result;
end;
call p9(99);
(2)计算从1到n之间的偶数累加的值,n为传入的参数值
create procedure p10(in num int)
begin
declare result int default 0;
sum:
loop
if num <= 0 then
leave sum;
elseif num % 2 = 1 then
set num = num - 1;
iterate sum;
else
set result = result + num;
set num = num - 1;
end if;
end loop sum;
select result;
end;
call p10(100);
5.10 cursor 游标
游标(CURSOR
)是用来存储查询结果集的数据类型 , 在存储过程和函数中可以使用游标对结果集进行循环的处理。游标的使用包括游标的声明、OPEN
、FETCH
和 CLOSE
,其语法分别如下。
- 声明游标
DECLARE 游标名称 CURSOR FOR 查询语句 ;
- 打开游标
OPEN 游标名称 ;
- 获取游标记录
FETCH 游标名称 INTO 变量 [, 变量 ] ;
- 关闭游标
CLOSE 游标名称 ;
示例:
根据传入的参数
uage
,来查询用户表tb_user
中,所有的用户年龄小于等于uage
的用户姓名(name
)和专业(profession
),并将用户的姓名和专业插入到所创建的一张新表 (id,name,profession
) 中。
create procedure p11(in uage int)
begin
# 先声明变量,再声明游标
declare uname varchar(100);
declare upro varchar(100);
# 声明游标, 存储查询结果集
declare u_cursor cursor for select name, profession from tb_user where age <= uage;
# 创建表结构
drop table if exists tb_user_pro;
create table if not exists tb_user_pro(
id int primary key auto_increment,
name varchar(100),
profession varchar(100)
);
# 开启游标
open u_cursor;
while true do
# 获取游标中的记录
fetch u_cursor into uname, upro;
# 插入数据到新表中
insert into tb_user_pro values (null, uname, upro);
end while;
# 关闭游标
close u_cursor;
end;
call p11(30);
上述的存储过程,最终在调用的过程中,会报错,之所以报错是因为上面的 while
循环中,并没有退出条件。当游标的数据集获取完毕之后,再次获取数据,就会报错,从而终止了程序的执行。02000
# [02000][1329] No data - zero rows fetched, selected, or processed
但是此时,tb_user_pro
表结构及其数据都已经插入成功了。
土方法:定义局部变量记录小于uage的记录数量,代替
while true
5.11 条件处理程序 handler
条件处理程序(Handler)可以用来定义在流程控制结构执行过程中遇到问题时相应的处理步骤。具体语法为:
DECLARE handler_action HANDLER FOR condition_value [, condition_value] ... statement ;
handler_action 的取值:
CONTINUE: 继续执行当前程序
EXIT: 终止执行当前程序
condition_value 的取值:
SQLSTATE sqlstate_value: 状态码,如 02000
SQLWARNING: 所有以 01 开头的SQLSTATE代码的简写
NOT FOUND: 所有以 02 开头的SQLSTATE代码的简写
SQLEXCEPTION: 所有没有被 SQLWARNING 或 NOT FOUND 捕获的SQLSTATE代码的简写
示例:
(1)通过 SQLSTATE 指定具体的状态码
写在声明游标之后:
# 声明条件处理程序
# 当SQL语句执行抛出的状态码为02000时,将关闭游标u_cursor,并退出
declare exit handler for SQLSTATE '02000' close u_cursor;
(2)通过SQLSTATE的代码简写方式 NOT FOUND
02 开头的状态码,代码简写为 NOT FOUND
# 声明条件处理程序 : 当SQL语句执行抛出的状态码为02开头时,将关闭游标u_cursor,并退出
declare exit handler for not found close u_cursor;
具体的错误状态码,可以参考官方文档:
6. 存储函数
存储函数是有返回值的存储过程,存储函数的参数只能是in
类型的。具体语法如下:
create function 存储函数名称 ([ 参数列表 ])
returns type [characteristic ...]
begin
-- SQL语句
return ...;
end ;
characteristic
说明:
- DETERMINISTIC:相同的输入参数总是产生相同的结果。(中文:确定性的)
- NO SQL :不包含 SQL 语句。
- READS SQL DATA:包含读取数据的语句,但不包含写入数据的语句。
示例:
计算从1累加到n的值,n为传入的参数值。
create function fun1(n int)
# returns int
returns int deterministic
begin
declare total int default 0;
while n > 0
do
set total = total + n;
set n = n - 1;
end while;
return total;
end;
# 查询
select fun1(100);
set @hello = fun1(10);
select @hello; # 55
在mysql8.0版本中 binlog
默认是开启的,一旦开启了,mysql就要求在定义存储过程时,需要指定 characteristic
特性,否则就会报如下错误:
[HY000][1418] This function has none of DETERMINISTIC, NO SQL, or READS SQL DATA in its declaration and binary logging is enabled (you *might* want to use the less safe log_bin_trust_function_creators variable)
7. 触发器
7.1 概述
触发器是与表有关的数据库对象,指在 insert/update/delete
之前 ( BEFORE
) 或之后 (AFTER
) ,触发并执行触发器中定义的SQL语句集合。触发器的这种特性可以协助应用在数据库端确保数据的完整性,日志记录,数据校验等操作 。
使用别名 OLD
和 NEW
来引用触发器中发生变化的记录内容,这与其他的数据库是相似的。现在触发器还只支持行级触发,不支持语句级触发。
触发器类型 | NEW 和 OLD |
---|---|
insert 型触发器 |
NEW 表示将要或者已经新增的数据 |
update 型触发器 |
OLD 表示修改之前的数据 , NEW 表示将要或已经修改后的数据 |
delete 型触发器 |
OLD 表示将要或者已经删除的数据 |
7.2 语法
(1)创建
create trigger trigger_name
before/after insert/update/delete on tbl_name for each row -- 行级触发器
begin
trigger_stmt ;
end;
(2)查看
show triggers ;
(3)删除
drop trigger [schema_name.]trigger_name ; -- 如果没有指定 schema_name,默认为当前数据库。
7.3 案例
通过触发器记录
tb_user
表的数据变更日志,将变更日志插入到日志表user_logs
中,包含增加,修改,删除;
表结构准备:
-- 准备工作 : 日志表 user_logs
create table user_logs
(
id int(11) not null auto_increment,
operation varchar(20) not null comment '操作类型, insert/update/delete',
operate_time datetime not null comment '操作时间',
operate_id int(11) not null comment '操作的ID',
operate_params varchar(500) comment '操作参数',
primary key (`id`)
) engine = innodb
default charset = utf8;
(1)插入数据触发器
# 创建
create trigger tb_user_insert_trigger
after insert
on tb_user
for each row
begin
insert into user_logs(id, operation, operate_time, operate_id, operate_params)
VALUES (null, 'insert', now(), new.id, concat('插入的数据内容为:id=',new.id, ', name=', new.name, ', phone=', new.phone, ', email=', new.email, ', profession=', new.profession)); # 后面字段不写了
end;
# 查看
show triggers ;
Trigger | Event | Table | Statement | Timing | Created | sql_mode | Definer | character_set_client | collation_connection | Database Collation |
---|---|---|---|---|---|---|---|---|---|---|
tb_user_insert_trigger | INSERT | tb_user | begin insert into user_logs(id, operation, operate_time, operate_id, operate_params) VALUES (null, 'insert', now(), new.id, concat('插入的数据内容为:id=',new.id, ', name=', new.name, ', phone=', new.phone, ', email=', new.email, ', profession=', new.profession)); # 后面字段不写了 end |
AFTER | 2023-09-15 23:34:55.41 | STRICT_TRANS_TABLES | root@% | utf8mb4 | utf8mb4_0900_ai_ci | utf8mb4_0900_ai_ci |
# 插入数据到tb_user
# 一次性插入两条数据,则logs增加两条记录
insert into tb_user values (null, 'George', '13112345678', '666@qq.com', '软件工程', 23, '1', '1', now());
# user_logs
select * from user_logs;
id | operation | operate_time | operate_id | operate_params |
---|---|---|---|---|
1 | insert | 2023-09-15 23:40:02 | 25 | 插入的数据内容为:id=25, name=George, phone=13112345678, email=666@qq.com, profession=软件工程 |
(2)修改数据触发器
create trigger tb_user_update_trigger
after update
on tb_user
for each row
begin
insert into user_logs(id, operation, operate_time, operate_id, operate_params)
VALUES (null, 'update', now(), new.id,
concat('更新之前的数据: id=', old.id, ',name=', old.name, ', phone=', old.phone, ', email=', old.email,
', profession=', old.profession,
' | 更新之后的数据: id=', new.id, ',name=', new.name, ', phone=', new.phone, ', email=', new.email,
', profession=', new.profession));
end;
# 更新数据
update tb_user set email = 'hello@gmail.com' where id = 25;
# 多条数据,结果就不放了
update tb_user set profession = '会计' where id >= 27;
id | operation | operate_time | operate_id | operate_params |
---|---|---|---|---|
5 | update | 2023-09-15 23:52:04 | 25 | 更新之前的数据: id=25,name=George, phone=13112345678, email=666@qq.com, profession=软件工程 | 更新之后的数据: id=25,name=George, phone=13112345678, email=hello@gmail.com, profession=软件工程 |
(3)删除数据触发器
create trigger tb_user_delete_trigger
after delete
on tb_user
for each row
begin
insert into user_logs(id, operation, operate_time, operate_id, operate_params)
VALUES (null, 'delete', now(), old.id,
concat('被删除的数据: id=', old.id, ',name=', old.name, ', phone=', old.phone, ', email=', old.email,
', profession=', old.profession));
end;
# 删除数据 (如果条件的数据不存在,那么不会插入)
delete from tb_user where id = 26;
id | operation | operate_time | operate_id | operate_params |
---|---|---|---|---|
10 | delete | 2023-09-16 00:08:41 | 29 | 被删除的数据: id=29,name=Tset1, phone=13112399998, email=666@qq.com, profession=会计 |
8. 锁
8.1 概述
锁是计算机协调多个进程或线程并发访问某一资源的机制。在数据库中,除传统的计算资源(CPU、 RAM、I/O)的争用以外,数据也是一种供许多用户共享的资源。如何保证数据并发访问的一致性、有效性是所有数据库必须解决的一个问题,锁冲突也是影响数据库并发访问性能的一个重要因素。从这个角度来说,锁对数据库而言显得尤其重要,也更加复杂。
MySQL中的锁,按照锁的粒度分,分为以下三类:
- 全局锁:锁定数据库中的所有表。
- 表级锁:每次操作锁住整张表。
- 行级锁:每次操作锁住对应的行数据。
8.2 全局锁
8.2.1 介绍
全局锁就是对整个数据库实例(所有库,所有表)加锁,加锁后整个实例就处于只读状态,后续的DML的写语句,DDL语句,已经更新操作的事务提交语句都将被阻塞。
其典型的使用场景是做全库的逻辑备份,对所有的表进行锁定,从而获取一致性视图,保证数据的完整性。
为什么全库逻辑备份,就需要加全局锁呢?
(1)分析不加全局锁,可能存在的问题
假设在数据库中存在这样三张表: tb_stock 库存表,tb_order 订单表,tb_orderlog 订单日志表。
- 在进行数据备份时,先备份了tb_stock库存表。
- 然后接下来,在业务系统中,执行了下单操作,扣减库存,生成订单(更新tb_stock表,插入tb_order表)。
- 然后再执行备份 tb_order表的逻辑。
- 业务中执行插入订单日志操作。
- 最后,又备份了tb_orderlog表。
此时备份出来的数据,是存在问题的。因为备份出来的数据,tb_stock表与tb_order表的数据不一致(有最新操作的订单信息,但是库存数没减)。
(2)分析加了全局锁后的情况
对数据库进行进行逻辑备份之前,先对整个数据库加上全局锁,一旦加了全局锁之后,其他的DDL、 DML全部都处于阻塞状态,但是可以执行DQL语句,也就是处于只读状态,而数据备份就是查询操作。那么数据在进行逻辑备份的过程中,数据库中的数据就是不会发生变化的,这样就保证了数据的一致性和完整性。
8.2.2 语法
- 加全局锁
flush tables with read lock ;
- 数据备份(运行在命令行)
mysqldump -uroot –p密码 数据库名 > 文件名.sql
# 以windows本地数据库为例
# 远程数据库 记得加 -h xxx.xxx.xxx.xxx
mysqldump -u root -p db1 > D:/db1.sql
# 回车后输密码
数据备份的相关指令, 在后面会提
- 释放锁
unlock tables ;
8.2.3 特点
数据库中加全局锁,是一个比较重的操作,存在以下问题:
- 如果在主库上备份,那么在备份期间都不能执行更新,业务基本上就得停摆。
- 如果在从库上备份,那么在备份期间从库不能执行主库同步过来的二进制日志(binlog),会导致主从延迟。
在InnoDB引擎中,我们可以在备份时加上参数 --single-transaction
参数来完成不加锁的一致性数据备份。
mysqldump --single-transaction -u用户名 –p密码 数据库名 > 文件路径/文件名.sql
# 如果 -p 和 密码 中间有空格,会被误认为备份名称为 密码的数据库
8.3 表级锁
8.3.1 介绍
表级锁,每次操作锁住整张表。锁定粒度大,发生锁冲突的概率最高,并发度最低。应用在MyISAM、InnoDB、BDB等存储引擎中。
对于表级锁,主要分为以下三类:
- 表锁
- 元数据锁(meta data lock,MDL)
- 意向锁
8.3.2 表锁
对于表锁,分为两类:
- 表共享读锁(read lock)
- 表独占写锁(write lock)
语法:
- 加锁:
lock tables 表名... read/write
。 - 释放锁:
unlock tables
/ 客户端断开连接(关掉该cmd窗口) 。
(1)读锁 (都能读,都不能写)
# 示例:锁 emp 表
lock tables emp read;
# 尝试更新:
update emp set name = 'ruby' where id = 8;
# 加锁窗口报错:ERROR 1099 (HY000): Table 'emp' was locked with a READ lock and can't be updated
# 另外一会话窗口 阻塞 直到释放锁
(2)写锁 (加锁的能读写,其他的客户端都不行)
结论:读锁不会阻塞其他客户端的读,但是会阻塞写。写锁既会阻塞其他客户端的读,又会阻塞其他客户端的写。
8.3.3 元数据锁
meta data lock
, 元数据锁,简写MDL
。
MDL
加锁过程是系统自动控制,无需显式使用,在访问一张表的时候会自动加上。MDL
锁主要作用是维护表元数据的数据一致性,在表上有活动事务的时候,不可以对元数据进行写入操作。为了避免DML与DDL冲突,保证读写的正确性。
这里的元数据,大家可以简单理解为就是一张表的表结构。 也就是说,某一张表涉及到未提交的事务时,是不能够修改这张表的表结构的。
在MySQL5.5
中引入了MDL
,当对一张表进行增删改查的时候,加MDL
读锁(共享);当对表结构进行变更操作的时候,加MDL
写锁(排他)。
常见的SQL操作时,所添加的元数据锁:
对应SQL | 锁类型 | 说明 |
---|---|---|
lock tables xxx read / write | SHARED_READ_ONLY / SHARED_NO_READ_WRITE | |
select 、select ... lock in share mode | SHARED_READ | 与SHARED_READ、SHARED_WRITE兼容,与 EXCLUSIVE互斥 |
insert 、update、 delete、select ... for update | SHARED_WRITE | 与SHARED_READ、SHARED_WRITE兼容,与 EXCLUSIVE互斥 |
alter table ... | EXCLUSIVE | 与其他的MDL都互斥 |
(1)当执行SELECT、INSERT、UPDATE、DELETE等语句时,添加的是元数据共享锁(SHARED_READ / SHARED_WRITE),之间是兼容的。
- 两个事务(会话窗口)都可以对同一张表进行查询及修改。(前提,不是同一行,没有锁升级)
(2)当执行SELECT语句时,添加的是元数据共享锁(SHARED_READ),会阻塞元数据排他锁(EXCLUSIVE),之间是互斥的。
- 一个会话事务开始查询,另一个会话无法修改表结构。(个人见解,这样使得,前一个会话不会导致两次查询不一致)
- 【经测试】在开启两个事务后,一个事务先修改表结构(添加字段)未提交,另一个事务能够查询,并且能够看到新添加的字段。(个人见解,后一个事务在表结构修改之前没有查询,这样不会对结果产生影响)
我们可以通过下面的SQL,来查看数据库中的元数据锁的情况:
select object_type,object_schema,object_name,lock_type,lock_duration from performance_schema.metadata_locks ;
select * from score;
object_type | object_schema | object_name | lock_type | lock_duration |
---|---|---|---|---|
TABLE | bignums | score | SHARED_READ | TRANSACTION |
TABLE | performance_schema | metadata_locks | SHARED_READ | TRANSACTION |
8.3.4 意向锁
为了避免DML
在执行时,加的行锁与表锁的冲突,在InnoDB
中引入了意向锁,使得表锁不用检查每行数据是否加锁,使用意向锁来减少表锁的检查。
假如没有意向锁,客户端一对表加了行锁后,客户端二如何给表加表锁呢,来通过示意图简单分析一下:
首先客户端一,开启一个事务,然后执行DML操作,在执行DML语句时,会对涉及到的行加行锁。
当客户端二,想对这张表加表锁时,会检查当前表是否有对应的行锁,如果没有,则添加表锁,此时就会从第一行数据,检查到最后一行数据,效率较低。
有了意向锁之后 :
客户端一,在执行DML操作时,会对涉及的行加行锁,同时也会对该表加上意向锁。
而其他客户端,在对这张表加表锁的时候,会根据该表上所加的意向锁来判定是否可以成功加表锁,而不用逐行判断行锁情况了。
分类:
- 意向共享锁(IS):由语句
select ... lock in share mode
添加 。 与 表锁共享锁 (read) 兼容,与表锁排他锁 (write) 互斥。 - 意向排他锁(IX):由
insert、update、delete、select...for update
添加 。与表锁共享锁 (read) 及排他锁 (write) 都互斥,意向锁之间不会互斥。
一旦事务提交了,意向共享锁、意向排他锁,都会自动释放。
可以通过以下SQL,查看意向锁及行锁的加锁情况:
select object_schema,object_name,index_name,lock_type,lock_mode,lock_data from performance_schema.data_locks;
示例:
(1)客户端1 开启事务后,加意向共享锁
此时客户端2 依旧可以加 表锁共享锁 lock table score read;
, 不可加表锁排它锁 lock table score write;
(2)客户端1 开启事务后,修改数据,加意向排他锁
此时,客户端2,加表锁都会失败。
(3)意向锁共存
客户端1 2 开始事务,各自执行 insert
语句,都可以加 意向排它锁,不互斥。
8.4 行级锁
行级锁,每次操作锁住对应的行数据。锁定粒度最小,发生锁冲突的概率最低,并发度最高。应用在 InnoDB
存储引擎中。
InnoDB
的数据是基于索引组织的,行锁是通过对索引上的索引项加锁来实现的,而不是对记录加的锁。对于行级锁,主要分为以下三类:
- 行锁(Record Lock):锁定单个行记录的锁,防止其他事务对此行进行
update
和delete
。在RC
、RR
隔离级别下都支持。
- 间隙锁(Gap Lock):锁定索引记录间隙(不含该记录),确保索引记录间隙不变,防止其他事务在这个间隙进行
insert
,产生幻读。在RR
隔离级别下都支持。
- 临键锁(Next-Key Lock):行锁和间隙锁组合,同时锁住数据,并锁住数据前面的间隙
Gap
。在RR
隔离级别下支持。
8.4.1 行锁
InnoDB实现了以下两种类型的行锁:
- 共享锁(S):允许一个事务去读一行,阻止其他事务获得相同数据集的排它锁。
- 排他锁(X):允许获取排他锁的事务更新数据,阻止其他事务获得相同数据集的共享锁和排他锁。
两种行锁的兼容情况如下:
当前锁类型 \ 请求锁类型 | S (共享锁) | X (排他锁) |
---|---|---|
S (共享锁) | 兼容 | 冲突 |
X (排他锁) | 冲突 | 冲突 |
常见的SQL语句,在执行时,所加的行锁如下:
SQL | 行锁类型 | 说明 |
---|---|---|
INSERT ... | 排他锁 | 自动加锁 |
UPDATE ... | 排他锁 | 自动加锁 |
DELETE ... | 排他锁 | 自动加锁 |
SELECT(正常) | 不加任何锁 | |
SELECT ... LOCK IN SHARE MODE | 共享锁 | 需要手动在 SELECT 之后加 LOCK IN SHARE MODE |
SELECT ... FOR UPDATE | 排他锁 | 需要手动在 SELECT 之后加 FOR UPDATE |
演示:
默认情况下,InnoDB
在 REPEATABLE READ
事务隔离级别运行,InnoDB
使用 next-key
锁进行搜索和索引扫描,以防止幻读。
- 针对唯一索引进行检索时,对已存在的记录进行等值匹配时,将会自动优化为行锁。
InnoDB
的行锁是针对于索引加的锁,不通过索引条件检索数据,那么InnoDB
将对表中的所有记录加锁,此时 就会升级为表锁。
可以通过以下SQL,查看意向锁及行锁的加锁情况:
select object_schema,object_name,index_name,lock_type,lock_mode,lock_data from performance_schema.data_locks;
数据:stu
表
id(主键,自增) | age | name |
---|---|---|
1 | 1 | tom |
3 | 3 | cat |
8 | 8 | rose |
11 | 11 | jetty |
19 | 19 | lily |
25 | 25 | luci |
(1)普通 select
不加锁,共享锁可以兼容。
客户端1:(对 id=1
的数据加锁)
客户端2:
(2)共享与排他互斥
释放客户端1的锁(commit),此时客户端2依旧持有共享锁,然后客户端1重新开启事务,对id=3
的记录进行修改,不是同一行数据没问题。但对id=1
的数据进行修改则阻塞。因为共享锁与排他锁之间互斥。
(3)排它锁与排他锁之间互斥
commit
掉两个客户端,清空锁。
客户端1 2开启事务,客户端1修改id = 1
的数据,可以。客户端2也修改这条数据则阻塞,修改其他 id 数据则ok。
(4)无索引行锁升级为表锁
commit
掉两个客户端,清空锁。
客户端1 2开启事务,客户端1根据 name
字段进行 update
,此时客户端2 根据 id
修改其他行数据也会被阻塞。
name
字段是没有索引的,如果没有索引,此时行锁会升级为表锁(因为行锁是对索引项加的锁,而name没有索引)。
对name
字段添加索引:create index idx_stu_name on stu(name);
后,可以解决上诉阻塞问题。
这样就说明,我们根据索引字段进行更新操作,就可以避免行锁升级为表锁的情况。
8.4.2 间隙锁 & 临键锁
默认情况下,InnoDB
在 REPEATABLE READ
事务隔离级别运行,InnoDB
使用 next-key
锁进行搜索和索引扫描,以防止幻读。
- 索引上的等值查询(唯一索引),给不存在的记录加锁时,优化为间隙锁 。
- 索引上的等值查询(非唯一普通索引),向右遍历时最后一个值不满足查询需求时,
next-key lock
退化为间隙锁。 - 索引上的范围查询(唯一索引)——会访问到不满足条件的第一个值为止。
注意:间隙锁唯一目的是防止其他事务插入间隙。间隙锁可以共存,一个事务采用的间隙锁不会阻止另一个事务在同一间隙上采用间隙锁。
演示:
(1)索引上的等值查询(唯一索引),给不存在的记录加锁时,优化为间隙锁
客户端1开启事务,根据id(主键 唯一索引)修改不在的记录 id = 5
,此时对 3-8之间的数据(不包括 3,8)间隙加锁。
(2)索引上的等值查询(非唯一普通索引),向右遍历时最后一个值不满足查询需求时,next-key lock
退化为间隙锁。
我们知道InnoDB
的B+
树索引,叶子节点是有序的双向链表。 假如,我们要根据这个二级索引查询值为18
的数据,并加上共享锁,我们是只锁定18
这一行就可以了吗? 并不是,因为是非唯一索引,这个结构中可能有多个18
的存在,所以,在加锁时会继续往后找,找到一个不满足条件的值(下图案例中也就是29
)。此时会对18
加临键锁,并对29
之前的间隙加锁。
目前表状态如下:
id | age | name |
---|---|---|
1 | 1 | jack |
3 | 3 | lix |
8 | 8 | jack |
11 | 11 | jetty |
19 | 19 | chika |
25 | 25 | ruby |
99 | 99 | 99 |
100 | 100 | 100 |
为stu
表 age
字段建立非唯一索引:
create index idx_stu_age on stu(age);
对 select
加共享锁:(存在的值)
select * from stu where age = 3 lock in share mode; # age = 3 存在 ,后面 是age = 8
对 select
加共享锁:(不存在的值)
(3)索引上的范围查询(唯一索引)——会访问到不满足条件的第一个值为止
# 19 25 99 100
select * from stu where id >= 19 lock in share mode;
查询的条件为 id>=19
,并添加共享锁。
此时我们可以根据数据库表中现有的数据,将数据分为5个部分:
[19]
(19,25]
(25,99]
(99,100]
(100,+∞]
# age = 30 不存在
select * from stu where id >= 30 lock in share mode;
相比上面,少了行锁,锁的是99之前的间隙。
间隙锁可以共存,另一个事务执行同样查询,依旧可以在该间隙加锁。
9. InnoDB引擎
9.1 逻辑存储结构
InnoDB的逻辑存储结构如下图所示:
(1)表空间
表空间是 InnoDB
存储引擎逻辑结构的最高层, 如果用户启用了参数 innodb_file_per_table
(在 8.0版本中默认开启) ,则每张表都会有一个表空间(xxx.ibd),一个mysql实例可以对应多个表空间,用于存储记录、索引等数据。
(2)段
段,分为数据段(Leaf node segment
)、索引段(Non-leaf node segment
)、回滚段(Rollback segment
),InnoDB
是索引组织表,数据段就是B+
树的叶子节点, 索引段即为B+
树的非叶子节点。段用来管理多个Extent
(区)。
(3)区
区,表空间的单元结构,每个区的大小为1M。 默认情况下, InnoDB
存储引擎页大小为16K, 即一个区中一共有64个连续的页。
(4)页
页,是InnoDB
存储引擎磁盘管理的最小单元,每个页的大小默认为 16KB。为了保证页的连续性, InnoDB
存储引擎每次从磁盘申请 4-5 个区。
(5)行
行,InnoDB
存储引擎数据是按行进行存放的。
在行中,默认有两个隐藏字段:
Trx_id
:每次对某条记录进行改动时,都会把对应的事务id
赋值给trx_id
隐藏列。Roll_pointer
:每次对某条引记录进行改动时,都会把旧的版本写入到undo
日志中,然后这个隐藏列就相当于一个指针,可以通过它来找到该记录修改前的信息。
9.2 架构
9.2.1 概述
MySQL5.5 版本开始,默认使用 InnoDB
存储引擎,它擅长事务处理,具有崩溃恢复特性,在日常开发中使用非常广泛。下面是 InnoDB
架构图,左侧为内存结构,右侧为磁盘结构。
9.2.2 内存结构
在左侧的内存结构中,主要分为这么四大块儿: Buffer Pool
、 Change Buffer
、Adaptive Hash Index
、Log Buffer
。 接下来介绍一下这四个部分。
(1)Buffer Pool —— 缓冲池
InnoDB
存储引擎基于磁盘文件存储,访问物理硬盘和在内存中进行访问,速度相差很大,为了尽可能弥补这两者之间的I/O效率的差值,就需要把经常使用的数据加载到缓冲池中,避免每次访问都进行磁盘I/O。
在 InnoDB
的缓冲池中不仅缓存了索引页和数据页,还包含了 undo
页、插入缓存、自适应哈希索引以及 InnoDB
的锁信息等等。
缓冲池 Buffer Pool
,是主内存中的一个区域,里面可以缓存磁盘上经常操作的真实数据,在执行增删改查操作时,先操作缓冲池中的数据(若缓冲池没有数据,则从磁盘加载并缓存),然后再以一定频率刷新到磁盘,从而减少磁盘IO,加快处理速度。
缓冲池以 Page
页为单位,底层采用链表数据结构管理 Page
。根据状态,将Page分为三种类型:
free page
:空闲page
,未被使用。clean page
:被使用page
,数据没有被修改过。dirty page
:脏页,被使用page
,数据被修改过,内存中数据与磁盘的数据产生了不一致。
在专用服务器上,通常将多达80%的物理内存分配给缓冲池 。
参数设置: show variables like 'innodb_buffer_pool_size';
Variable_name | Value |
---|---|
innodb_buffer_pool_size | 134217728 (本地) 1073741824 (1G 华为云 RDS) |
(2)Change Buffer —— 更改缓冲区
Change Buffer
,更改缓冲区(针对于非唯一 二级索引页),在执行DML
语句时,如果这些数据 Page
没有在 Buffer Pool
中,不会直接操作磁盘,而会将数据变更存在更改缓冲区 Change Buffer
中,在未来数据被读取时,再将数据合并恢复到 Buffer Pool
中,再将合并后的数据刷新到磁盘中。
Change Buffer
的意义是什么呢?
先来看一幅图,这个是二级索引的结构图:
与聚集索引不同,二级索引通常是非唯一的,并且以相对随机的顺序插入二级索引。同样,删除和更新可能会影响索引树中不相邻的二级索引页,如果每一次都操作磁盘,会造成大量的磁盘IO。有了 Change Buffer
之后,我们可以在缓冲池中进行合并处理,减少磁盘IO。
(3)Adaptive Hash Index —— 自适应 hash
索引
自适应 hash
索引,用于优化对 Buffer Pool
数据的查询。MySQL的 innoDB
引擎中虽然没有直接支持 hash
索引,但是给我们提供了一个功能就是这个自适应 hash
索引。因为前面我们讲到过,hash
索引在进行等值匹配时,一般性能是要高于 B+
树的,因为 hash
索引一般只需要一次IO即可,而 B+
树,可能需要几次匹配,所以 hash
索引的效率要高,但是hash索引又不适合做范围查询、模糊匹配等。
InnoDB
存储引擎会监控对表上各索引页的查询,如果观察到在特定的条件下 hash
索引可以提升速度,则建立 hash
索引,称之为自适应 hash
索引。
自适应哈希索引,无需人工干预,是系统根据情况自动完成。
参数: adaptive_hash_index
show variables like '%hash_index%';
Variable_name | Value |
---|---|
innodb_adaptive_hash_index | ON |
innodb_adaptive_hash_index_parts | 8 |
(4)Log Buffer —— 日志缓冲区
Log Buffer
:日志缓冲区,用来保存要写入到磁盘中的 log
日志数据(redo log
、undo log
),默认大小为 16MB,日志缓冲区的日志会定期刷新到磁盘中。如果需要更新、插入或删除许多行的事务,增加日志缓冲区的大小可以节省磁盘 I/O。
参数:
innodb_log_buffer_size
:缓冲区大小
innodb_flush_log_at_trx_commit
:日志刷新到磁盘时机,取值主要包含以下三个:
1
:日志在每次事务提交时写入并刷新到磁盘,默认值。
0
:每秒将日志写入并刷新到磁盘一次。
2
:日志在每次事务提交后写入,并每秒刷新到磁盘一次。
show variables like 'innodb_log_buffer_size';
Variable_name | Value |
---|---|
innodb_log_buffer_size | 16777216 |
show variables like 'innodb_flush_log_at_trx_commit';
Variable_name | Value |
---|---|
innodb_flush_log_at_trx_commit | 1 |
9.2.3 磁盘结构
接下来,再来看看 InnoDB
体系结构的右边部分,也就是磁盘结构:
(1)System Tablespace —— 系统表空间
系统表空间是更改缓冲区的存储区域。如果表是在系统表空间而不是每个表文件或通用表空间中创建的,它也可能包含表和索引数据。(在MySQL5.x版本中还包含 InnoDB
数据字典、undolog等)
参数:innodb_data_file_path
show variables like 'innodb_data_file_path';
Variable_name | Value |
---|---|
innodb_data_file_path | ibdata1:12M:autoextend |
系统表空间,默认的文件名叫 ibdata1
。
(2)File-Per-Table Tablespaces
如果开启了 innodb_file_per_table
开关 ,则每个表的文件表空间包含单个 InnoDB
表的数据和索引 ,并存储在文件系统上的单个数据文件中。
开关参数:innodb_file_per_table
,该参数默认开启。
show variables like 'innodb_file_per_table';
Variable_name | Value |
---|---|
innodb_file_per_table | ON |
那也就是说,我们每创建一个表,都会产生一个表空间文件(.ibd
结尾文件)
(3)General Tablespaces
通用表空间,需要通过 CREATE TABLESPACE
语法创建通用表空间,在创建表时,可以指定该表空间。
- 创建表空间
create tablespace ts_name ADD DATAFILE 'file_name' ENGINE = engine_name;
# 示例
create tablespace ts_dbname add datafile 'myDB.ibd' engine = innodb;
- 创建表时指定表空间
create table xxx ... TABLESPACE ts_name;
# 使用的是 表空间名 而非 文件名
create table hello
(
id int primary key auto_increment,
name varchar(10)
) engine = innodb tablespace ts_dbname;
(4)Undo Tablespaces
撤销表空间,MySQL实例在初始化时会自动创建两个默认的 undo
表空间(初始大小16M),用于存储 undo log
日志。
(5)Temporary Tablespaces
InnoDB
使用会话临时表空间和全局临时表空间。存储用户创建的临时表等数据。
(6)Doublewrite Buffer Files
双写缓冲区,innoDB
引擎将数据页从 Buffer Pool
刷新到磁盘前,先将数据页写入双写缓冲区文件中,便于系统异常时恢复数据。
(7)Redo Log
重做日志,是用来实现事务的持久性。该日志文件由两部分组成:重做日志缓冲(redo log buffer
)以及重做日志文件(redo log
),前者是在内存中,后者在磁盘中。当事务提交之后会把所有修改信息都会存到该日志中,用于在刷新脏页到磁盘时,发生错误时,进行数据恢复使用。
以循环方式写入重做日志文件,涉及两个文件:
前面我们介绍了 InnoDB
的内存结构,以及磁盘结构,那么内存中我们所更新的数据,又是如何到磁盘中的呢? 此时,就涉及到一组后台线程,接下来,就来介绍一些 InnoDB
中涉及到的后台线程。
9.2.4 后台线程
在InnoDB的后台线程中,分为4类,分别是:Master Thread
、 IO Thread
、 Purge Thread
、 Page Cleaner Thread
。
(1)Master Thread
核心后台线程,负责调度其他线程,还负责将缓冲池中的数据异步刷新到磁盘中, 保持数据的一致性,还包括脏页的刷新、合并插入缓存、undo
页的回收 。
(2)IO Thread
在 InnoDB
存储引擎中大量使用了 AIO
来处理 IO
请求, 这样可以极大地提高数据库的性能,而 IO Thread
主要负责这些 IO
请求的回调。
线程类型 | 默认个数 | 职责 |
---|---|---|
Read thread | 4 | 负责读操作 |
Write thread | 4 | 负责写操作 |
Log thread | 1 | 负责将日志缓冲区刷新到磁盘 |
Insert buffer thread | 1 | 负责将写缓冲区内容刷新到磁盘 |
我们可以通过以下的这条指令,查看到 InnoDB
的状态信息,其中就包含 IO Thread
信息。
show engine innodb status \G; # aio 异步io
(3)Purge Thread
主要用于回收事务已经提交了的 undo log
,在事务提交之后, undo log
可能不用了,就用它来回收。
(4) Page Cleaner Thread
协助 Master Thread
刷新脏页到磁盘的线程,它可以减轻 Master Thread
的工作压力,减少阻塞。
9.3 事务原理
9.3.1 事务基础
事务,是一组操作的集合,它是一个不可分割的工作单位,事务会把所有的操作作为一个整体一起向系统提交或撤销操作请求,即这些操作要么同时成功,要么同时失败。
特性:
- 原子性(Atomicity):事务是不可分割的最小操作单元,要么全部成功,要么全部失败。
- 一致性(Consistency):事务完成时,必须使所有的数据都保持一致状态。(银行转账金钱总额一致)
- 隔离性(Isolation):数据库系统提供的隔离机制,保证事务在不受外部并发操作影响的独立环境下运行。
- 持久性(Durability):事务一旦提交或回滚,它对数据库中的数据的改变就是永久的。
那实际上,我们研究事务的原理,就是研究 MySQL 的 InnoDB 引擎是如何保证事务的这四大特性的。
而对于这四大特性,实际上分为两个部分。 其中的原子性、一致性、持久化,实际上是由 InnoDB
中的两份日志来保证的,一份是 redo log
日志,一份是 undo log
日志。 而持久性是通过数据库的锁,加上 MVCC
来保证的。
我们在讲解事务原理的时候,主要就是来研究一下 redolog
,undolog
以及MVCC
。
- 原子性:undo log
- 持久性:redo log
- 一致性:undo log + redo log
- 隔离性:锁 + MVCC
9.3.2 redo log
重做日志,记录的是事务提交时数据页的物理修改,是用来实现事务的持久性。
该日志文件由两部分组成:重做日志缓冲(redo log buffer
)以及重做日志文件(redo log file
),前者是在内存中,后者在磁盘中。当事务提交之后会把所有修改信息都存到该日志文件中,用于在刷新脏页到磁盘,发生错误时,进行数据恢复使用。
如果没有 redo log
,可能会存在什么问题的?我们一起来分析一下。
我们知道,在 InnoDB
引擎中的内存结构中,主要的内存区域就是缓冲池,在缓冲池中缓存了很多的数据页。 当我们在一个事务中,执行多个增删改的操作时,InnoDB
引擎会先操作缓冲池中的数据,如果缓冲区没有对应的数据,会通过后台线程将磁盘中的数据加载出来,存放在缓冲区中,然后将缓冲池中的数据修改,修改后的数据页我们称为脏页。 而脏页则会在一定的时机,通过后台线程刷新到磁盘中,从而保证缓冲区与磁盘的数据一致。 而缓冲区的脏页数据并不是实时刷新的,而是一段时间之后将缓冲区的数据刷新到磁盘中,假如刷新到磁盘的过程出错了,而提示给用户事务提交成功,而数据却没有持久化下来,这就出现问题了,没有保证事务的持久性。
那么,如何解决上述的问题呢? 在 InnoDB
中提供了一份日志 redo log
,接下来我们再来分析一下,通过 redo log
如何解决这个问题。
有了redo log
之后,当对缓冲区的数据进行增删改之后,会首先将操作的数据页的变化,记录在redo log buffer
中。在事务提交时,会将redo log buffer
中的数据刷新到redo log
磁盘文件中。 过一段时间之后,如果刷新缓冲区的脏页到磁盘时,发生错误,此时就可以借助于redo log
进行数据恢复,这样就保证了事务的持久性。 而如果脏页成功刷新到磁盘 或 或者涉及到的数据已经落盘,此时redo log
就没有作用了,就可以删除了,所以存在的两个redo log
文件是循环写的。
那为什么每一次提交事务,要刷新 redo log
到磁盘中呢,而不是直接将 buffer pool
中的脏页刷新到磁盘呢 ?
因为在业务操作中,我们操作数据一般都是随机读写磁盘的,而不是顺序读写磁盘。 而 redo log
在往磁盘文件中写入数据,由于是日志文件,所以都是顺序写的。顺序写的效率,要远大于随机写。 这种先写日志的方式,称之为 WAL(Write-Ahead Logging)。WAL (Write-Ahead Loggin) 先写日志,再将脏页数据刷到磁盘。
9.3.3 undo log
回滚日志,用于记录数据被修改前的信息,作用包含两个:提供回滚(保证事务的原子性)和 MVCC
(多版本并发控制)。
undo log
和redo log
记录物理日志不一样,它是逻辑日志。可以认为当delete
一条记录时,undo log
中会记录一条对应的insert
记录,反之亦然,当update
一条记录时,它记录一条对应相反的update
记录。当执行rollback
时,就可以从undo log
中的逻辑记录读取到相应的内容并进行回滚。
undo log
销毁:undo log
在事务执行时产生,事务提交时,并不会立即删除undo log
,因为这些日志可能还用于MVCC
。
undo log
存储:undo log
采用段的方式进行管理和记录,存放在前面介绍的rollback segment
。段
回滚段中,内部包含1024个undo log segment
。
9.4 MVCC
9.4.1 基本概念
(1)当前读
读取的是记录的最新版本,读取时还要保证其他并发事务不能修改当前记录,会对读取的记录进行加锁。对于我们日常的操作,如:select ... lock in share mode
(共享锁),select ... for update
、update
、insert
、delete
(排他锁)都是一种当前读。
客户端1,2开启事务,客户端2修改数据,客户端1用普通select
查看不到客户端2修改后的数据,即使客户端2 提交事务commit
,客户端1用普通select
还是查看不到,但通过select * from stu lock in share mode;
则可以查看到新数据。
(2)快照读
简单的select
(不加锁)就是快照读,快照读,读取的是记录数据的可见版本,有可能是历史数据,不加锁,是非阻塞读。
Read Committed
:每次select
,都生成一个快照读。Repeatable Read
:开启事务后第一个select
语句才是快照读的地方。(如果事务1 2都开启了事务,事务2修改了数据,在还没提交事务时,事务1进行了查询,此时事务1查到的依旧是老数据,即使事务2提交了依旧如此。如果事务2先提交,那么事务1查询到的就是新数据,原因就是因为普通的select
是快照读,而在当前默认的RR
隔离级别下,开启事务后第一个select
语句才是快照读的地方,后面执行相同的select
语句都是从快照中获取数据,可能不是当前的最新数据,这样也就保证了可重复读。)Serializable
:快照读会退化为当前读。
(3)MVCC
全称 Multi-Version Concurrency Control
,多版本并发控制。指维护一个数据的多个版本,使得读写操作没有冲突,快照读为 MySQL
实现 MVCC
提供了一个非阻塞读功能。MVCC
的具体实现,还需要依赖于数据库记录中的三个隐式字段、undo log
日志、readView
。
接下来,我们再来介绍一下InnoDB
引擎的表中涉及到的隐藏字段 、undolog
以及readview
,从而来介绍一下 MVCC
的原理。
9.4.2 隐藏字段
(1)介绍
当我们创建了上面的这张表,我们在查看表结构的时候,就可以显式的看到这三个字段。 实际上除了这三个字段以外,InnoDB
还会自动的给我们添加三个隐藏字段及其含义分别是:
隐藏字段 | 含义 |
---|---|
DB_TRX_ID | 最近修改事务ID,记录插入这条记录或最后一次修改该记录的事务ID。 |
DB_ROLL_PTR | 回滚指针,指向这条记录的上一个版本,用于配合undo log ,指向上一个版本。 |
DB_ROW_ID | 隐藏主键,如果表结构没有指定主键,将会生成该隐藏字段。 |
而上述的前两个字段是肯定会添加的, 是否添加最后一个字段 DB_ROW_ID
,得看当前表有没有主键,如果有主键,则不会添加该隐藏字段。
以服务器/var/lib/mysql/bignums
为例,查看stu
表结构信息,通过如下指令:
ibd2sdi stu.ibd
DB_TRX_ID:(太长了,不截全了)
DB_ROLL_PTR:
因为该表有主键,所以没有 DB_ROW_ID
隐藏字段。
新建一张不指定主键的表,即可查到:
9.4.3 undo log
(1)介绍
回滚日志,在insert
、update
、delete
的时候产生的便于数据回滚的日志。
当insert
的时候,产生的undo log
日志只在回滚时需要,在事务提交后,可被立即删除。
而update
、delete
的时候,产生的undo log
日志不仅在回滚时需要,在快照读时也需要,不会立即被删除。
(2)版本链
有一张表原始数据为:
DB_TRX_ID
:代表最近修改事务ID,记录插入这条记录或最后一次修改该记录的事务ID,是自增的。
DB_ROLL_PTR
: 由于这条数据是才插入的,没有被更新过,所以该字段值为null
。
然后,有四个并发事务同时在访问这张表。
(1)第一步
当事务2执行第一条修改语句时,会记录undo log
日志,记录数据变更之前的样子;然后更新记录,并且记录本次操作的事务ID,回滚指针,回滚指针用来指定如果发生回滚,回滚到哪一个版本。
记录当前事务的ID(事务2),回滚事务ID则指向老版本(地址)
(2)第二步
当事务3执行第一条修改语句时,也会记录 undo log
日志,记录数据变更之前的样子; 然后更新记录,并且记录本次操作的事务ID,回滚指针,回滚指针用来指定如果发生回滚,回滚到哪一个版本。
(3)第三步
当事务4执行第一条修改语句时,也会记录 undo log
日志,记录数据变更之前的样子; 然后更新记录,并且记录本次操作的事务ID,回滚指针,回滚指针用来指定如果发生回滚,回滚到哪一个版本。
最终我们发现,不同事务或相同事务对同一条记录进行修改,会导致该记录的
undolog
生成一条记录版本链表,链表的头部是最新的旧记录,链表尾部是最早的旧记录。
9.4.4 readview
ReadView
(读视图)是 快照读 SQL执行时MVCC
提取数据的依据,记录并维护系统当前活跃的事务(未提交的)id。
ReadView
中包含了四个核心字段:
字段 | 含义 |
---|---|
m_ids | 当前活跃的事务ID集合 |
min_trx_id | 最小活跃事务ID |
max_trx_id | 预(下一个)分配的事务ID,当前最大事务ID+1(因为事务ID是自增的) |
creator_trx_id | ReadView 创建者的事务ID |
而在 readview
中就规定了版本链数据的访问规则:
trx_id
代表当前 undo log
版本链对应事务ID。(当前事务ID)
条件 | 是否可以访问 | 说明 |
---|---|---|
trx_id == creator_trx_id | 可以访问该版本 | 说明数据是当前这个事务更改的。 |
trx_id < min_trx_id | 可以访问该版本 | 说明数据已经提交了。 |
trx_id > max_trx_id | 不可以访问该版本 | 说明该事务是在ReadView生成后才开启。 |
min_trx_id <= trx_id <= max_trx_id | 如果 trx_id 不在 m_ids 中,是可以访问该版本的 |
说明数据已经提交。 |
不同的隔离级别,生成 ReadView
的时机不同:
READ COMMITTED
:在事务中每一次执行快照读时生成ReadView
。REPEATABLE READ
:仅在事务中第一次执行快照读时生成ReadView
,后续复用该ReadView。
9.4.5 原理分析
- RC 隔离级别
RC隔离级别下,在事务中每一次执行快照读时生成 ReadView
。
我们就来分析事务5中,两次快照读读取数据,是如何获取数据的?
在事务5中,查询了两次id为30的记录,由于隔离级别为 Read Committed
,所以每一次进行快照读都会生成一个 ReadView
,那么两次生成的 ReadView
如下。
那么这两次快照读在获取数据时,就需要根据所生成的 ReadView
以及 ReadView
的版本链访问规则,到 undolog
版本链中匹配数据,最终决定此次快照读返回的数据。
(1)先来看第一次快照读具体的读取过程:
在进行匹配时,会从undo log的版本链,从上到下进行挨个匹配:
- 先匹配这条记录,这条记录对应的
trx_id
为4,也就是将4带入右侧的匹配规则中。 ①不满足 ②不满足 ③不满足 ④也不满足 ,都不满足,则继续匹配undo log
版本链的下一条。 - 再匹配第二条,这条记录对应的
trx_id
为3,也就是将3带入右侧的匹配规则中。①不满足 ②不满足 ③不满足 ④也不满足 ,都不满足,则继续匹配undo log
版本链的下一条。 - 再匹配第三条,这条记录对应的
trx_id
为2,也就是将2带入右侧的匹配规则中。①不满足 ②满足 终止匹配,此次快照读,返回的数据就是版本链中记录的这条数据。
(2)再来看第二次快照读具体的读取过程:
在进行匹配时,会从 undo log
的版本链,从上到下进行挨个匹配:
- 先匹配这条记录,这条记录对应的
trx_id
为4,也就是将4带入右侧的匹配规则中。 ①不满足 ②不满足 ③不满足 ④也不满足 ,都不满足,则继续匹配undo log版本链的下一条。 - 再匹配第二条,这条记录对应的
trx_id
为3,也就是将3带入右侧的匹配规则中。①不满足 ②满足 。终止匹配,此次快照读,返回的数据就是版本链中记录的这条数据。
- RR隔离级别
RR
隔离级别下,仅在事务中第一次执行快照读时生成 ReadView
,后续复用该 ReadView
。 而 RR
是可重复读,在一个事务中,执行两次相同的 select
语句,查询到的结果是一样的。
那MySQL是如何做到可重复读的呢? 我们简单分析一下就知道了
我们看到,在RR
隔离级别下,只是在事务中第一次快照读时生成ReadView
,后续都是复用该 ReadView
,那么既然ReadView
都一样, ReadView
的版本链匹配规则也一样, 那么最终快照读返回的结果也是一样的。
所以呢,MVCC
的实现原理就是通过 InnoDB
表的隐藏字段、Undo Log
版本链、ReadView
来实现的。而MVCC
+ 锁,则实现了事务的隔离性。 而一致性则是由 redolog
与 undolog
保证。
10. MySQL管理
10.1 系统数据库
Mysql 数据库安装完成后,自带了一下四个数据库,具体作用如下:
数据库 | 含义 |
---|---|
mysql | 存储MySQL服务器正常运行所需要的各种信息 (时区、主从、用户、权限等) |
information_schema | 提供了访问数据库元数据的各种表和视图,包含数据库、表、字段类型及访问权限等。(存储引擎,存储过程,函数,触发器,视图) |
performance_schema | 为MySQL服务器运行时状态提供了一个底层监控功能,主要用于收集数据库服务器性能参数(意向锁行级锁,元数据锁) |
sys | 包含了一系列方便 DBA 和开发人员利用 performance_schema性能数据库进行性能调优和诊断的视图 |
10.2 常用工具
10.2.1 mysql
该mysql不是指mysql服务,而是指mysql的客户端工具。
# 语法
mysql [options] [database]
-u, --user=name # 指定用户名
-p, --password[=name] # 指定密码
-h, --host=name # 指定服务器IP或域名
-P, --port=port # 指定连接端口 (大写)
-e, --execute=name # 执行SQL语句并退出
-e
选项可以在Mysql客户端执行SQL语句,而不用连接到MySQL数据库再执行,对于一些批处理脚本,这种方式尤其方便。(执行完不会进入mysql交互界面)
10.2.2 mysqladmin
mysqladmin 是一个执行管理操作的客户端程序。可以用它来检查服务器的配置和当前状态、创建并删除数据库等。
# 通过帮助文档查看选项:
mysqladmin --help
# 语法
mysqladmin [options] command ...
-u, --user=name # 指定用户名
-p, --password[=name] # 指定密码
-h, --host=name # 指定服务器IP或域名
-P, --port=port # 指定连接端口
options:
command:
示例:
# 查看版本
mysqladmin -u root -pYourPassword version
# 创建数据库
mysqladmin -u root -pYourPassword create temp_DB;
10.2.3 mysqlbinlog
由于服务器生成的二进制日志文件以二进制格式保存,所以如果想要检查这些文本的文本格式,就会使用到mysqlbinlog 日志管理工具。
# 语法:
mysqlbinlog [options] log-files1 log-files2 ...
# 选项:
-d, --database=name # 指定数据库名称,只列出指定的数据库相关操作。
-o, --offset=# # 忽略掉日志中的前n行命令。
-r,--result-file=name # 将输出的文本格式日志输出到指定文件。
-s, --short-form # 显示简单格式,省略掉一些信息。
--start-datatime=date1 --stop-datetime=date2 # 指定日期间隔内的所有日志。
--start-position=pos1 --stop-position=pos2 # 指定位置间隔内的所有日志。
cd /var/lib/mysql
mysqlbinlog binlog.000011
mysqlbinlog -s binlog.000011
10.2.4 mysqlshow
mysqlshow 客户端对象查找工具,用来很快地查找存在哪些数据库、数据库中的表、表中的列或者索引。
# 语法
mysqlshow [options] [db_name [table_name [col_name]]]
# 选项 :
--count # 显示数据库及表的统计信息(数据库,表 均可以不指定)
-i # 显示指定数据库或者指定表的状态信息
# 示例:
# 查询test库中每个表中的字段数,及行数
mysqlshow -uroot -p test --count
# 查询test库中book表的详细情况
mysqlshow -uroot -p test book --count
(1)查询每个数据库的表的数量及表中记录的数量
mysqlshow -u root -pYourPassword --count
(2)查看数据库 bignums
的统计信息
mysqlshow -u root -pYourPassword bignums --count
(3)查看数据库 bignums
中的 stu
表的信息
mysqlshow -u root -pYourPassword bignums stu --count
使用-i
查看状态信息:
mysqlshow -u root -pYourPassword bignums stu --i
Name | Engine | Version | Row_format | Rows | Avg_row_length | Data_length | Max_data_length | Index_length | Data_free | Auto_increment | Create_time | Update_time | Check_time | Collation | Checksum | Create_options | Comment |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
stu | InnoDB | 10 | Dynamic | 8 | 2048 | 16384 | 0 | 32768 | 0 | 101 | 2023-09-16 22:55:18 | 2023-09-18 23:19:51 | utf8mb4_0900_ai_ci |
(4)查看数据库 bignums
中的 stu
表的 id
字段 信息
mysqlshow -u root -pYourPassword bignums stu id --count
10.2.5 mysqldump
mysqldump
客户端工具用来备份数据库或在不同数据库之间进行数据迁移。备份内容包含创建表,及插入表的SQL语句。
# 语法
mysqldump [options] db_name [tables]
mysqldump [options] --database/-B db1 [db2 db3...]
mysqldump [options] --all-databases/-A
# 连接选项 :
-u, --user=name # 指定用户名
-p, --password[=name] # 指定密码
-h, --host=name # 指定服务器ip或域名
-P, --port=# # 指定连接端口
# 输出选项:
--add-drop-database # 在每个数据库创建语句前加上 drop database 语句
--add-drop-table # 在每个表创建语句前加上 drop table 语句 , 默认开启 ; 不开启 (--skip-add-drop-table)
-n, --no-create-db # 不包含数据库的创建语句
-t, --no-create-info # 不包含数据表的创建语句
-d --no-data # 不包含数据
-T, --tab=name # 自动生成两个文件:一个.sql文件,创建表结构的语句;一个.txt文件,数据文件
(1)备份 temp_DB
数据库
mysqldump -u root -pYourPassword temp_DB > temp_DB.sql
备份出来的数据包含:
- 删除表的语句
- 创建表的语句
- 数据插入语句
如果我们在数据备份时,不需要创建表,或者不需要备份数据,只需要备份表结构,都可以通过对应的参数来实现。
(2)备份 temp_DB
数据库中的表数据,不备份表结构(-t
)
mysqldump -u root -pYourPassword -t temp_DB > temp_DB1.sql
# 只有insert语句,没有备份表结构(建表语句)。
(3)将 temp_DB
数据库的 emp
表的表结构与数据分开备份( -T
)
mysqldump -u root -pYourPassword -T /root temp_DB emp
执行上述指令,会出错:
只生成了emp.sql
,数据不能完成备份,原因是因为我们所指定的数据存放目录/root
,MySQL认为是不安全的,需要存储在MySQL信任的目录下。那么,哪个目录才是MySQL信任的目录呢,可以查看一下系统变量 secure_file_priv
。执行结果如下:
show variables like 'secure_file_priv';
Variable_name | Value |
---|---|
secure_file_priv | /var/lib/mysql-files/ |
重新执行:
mysqldump -u root -pYourPassword -T /var/lib/mysql-files/ temp_DB emp
上述的两个文件 emp.sql
中记录的就是表结构文件,而 emp.txt
就是表数据文件,但是需要注意表数据文件,并不是记录一条条的 insert
语句,而是按照一定的格式记录表结构中的数据。如下:
10.2.6 mysqlimport / source
(1)mysqlimport
mysqlimport
是客户端数据导入工具,用来导入 mysqldump
加 -T
参数后导出的文本文件。
# 语法 :
mysqlimport [options] db_name textfile1 [textfile2...]
# 示例 :(安全路径要写全)
mysqlimport -u root -pYourPassword temp_DB /var/lib/mysql-files/emp.txt
(2)source
如果需要导入sql文件,可以使用 mysql
中的 source
指令:
注意:在mysql交互界面输入,需要先切换数据库。
# 语法:
source /root/xxxxx.sql
Comments NOTHING