admin管理员组

文章数量:1568420

为什么80%的码农都做不了架构师?>>>   

第三方配置优化工具 https://tools.percona/

# Generated by Percona Configuration Wizard (http://tools.percona/) version REL5-20120208
# Configuration name server generated for xiaoniu198903@126 at 2014-12-10 08:53:09
[mysql]
# CLIENT #
port                           = 3306
socket                         = /mnt/data/mysql.sock
[mysqld]
# GENERAL #
user                           = mysql
default-storage-engine         = InnoDB
socket                         = /mnt/data/mysql.sock
pid-file                       = /mnt/data/mysql.pid
# MyISAM #
key-buffer-size                = 32M
myisam-recover                 = FORCE,BACKUP
 
# SAFETY #
 # mysql有一个max_allowed_packet变量,可以控制其通信缓冲区的最大长度 
max-allowed-packet             = 16M
 # max_connect_errors是一个MySQL中与安全有关的计数器值,max_connect_errors的值与性能并无太大关系
 # 当此值设置为10时,意味着如果某一客户端尝试连接此MySQL服务器,但是失败(如密码错误等等)10次,则MySQL会无条 # 件强制阻止此客户端连接 
max-connect-errors             = 1000000
innodb                         = FORCE


   
# DATA STORAGE #
datadir                        = /mnt/data/
# BINARY LOGGING #
log-bin                        = /mnt/data/mysql-bin

# 二进制日志自动删除/过期的天数。默认值为0,表示“没有自动删除”  
expire-logs-days               = 14
sync-binlog                    = 1
 
# CACHES AND LIMITS #
tmp-table-size                 = 32M
max-heap-table-size            = 32M
query-cache-type               = 0
query-cache-size               = 0
max-connections                = 500
thread-cache-size              = 50
open-files-limit               = 65535
table-definition-cache         = 4096
table-open-cache               = 4096
# INNODB #
innodb-flush-method            = O_DIRECT
innodb-log-files-in-group      = 2
innodb-log-file-size           = 128M
innodb-flush-log-at-trx-commit = 1
innodb-file-per-table          = 1
innodb-buffer-pool-size        = 2G
# LOGGING #
log-error                      = /mnt/data/mysql-error.log
log-queries-not-using-indexes  = 1
slow-query-log                 = 1
slow-query-log-file            = /mnt/data/mysql-slow.log

=> 配置优化

PS:本配置文件针对Dell R710,双至强E5620、16G内存的硬件配置。CentOS 5.6 64位系统,MySQL 5.5.x 稳定版。适用于日IP 50-100w,PV 100-300w的站点,主要使用InnoDB存储引擎。其他应用环境请根据实际情况来设置优化。
# 以下选项会被MySQL客户端应用读取。
# 注意只有MySQL附带的客户端应用程序保证可以读取这段内容。
# 如果你想你自己的MySQL应用程序获取这些值。
# 需要在MySQL客户端库初始化的时候指定这些选项。
#
 [client]
 #password = [your_password]
 port = @MYSQL_TCP_PORT@
 socket = @MYSQL_UNIX_ADDR@
# *** 应用定制选项 ***
#
 #  MySQL 服务端
#
 [mysqld]
# 一般配置选项
port = @MYSQL_TCP_PORT@
 socket = @MYSQL_UNIX_ADDR@
# back_log 是操作系统在监听队列中所能保持的连接数,
 # 队列保存了在MySQL连接管理器线程处理之前的连接.
 # 如果你有非常高的连接率并且出现”connection refused” 报错,
 # 你就应该增加此处的值.
 # 检查你的操作系统文档来获取这个变量的最大值.
 # 如果将back_log设定到比你操作系统限制更高的值,将会没有效果
back_log = 300
# 不在TCP/IP端口上进行监听.
 # 如果所有的进程都是在同一台服务器连接到本地的mysqld,
 # 这样设置将是增强安全的方法
# 所有mysqld的连接都是通过Unix sockets 或者命名管道进行的.
 # 注意在windows下如果没有打开命名管道选项而只是用此项
# (通过 “enable-named-pipe” 选项) 将会导致mysql服务没有任何作用!
 #skip-networking
# MySQL 服务所允许的同时会话数的上限
# 其中一个连接将被SUPER权限保留作为管理员登录.
 # 即便已经达到了连接数的上限.
max_connections = 3000
 # 每个客户端连接最大的错误允许数量,如果达到了此限制.
 # 这个客户端将会被MySQL服务阻止直到执行了”FLUSH HOSTS” 或者服务重启
# 非法的密码以及其他在链接时的错误会增加此值.
 # 查看 “Aborted_connects” 状态来获取全局计数器.
max_connect_errors = 30

 # 所有线程所打开表的数量.
 # 增加此值就增加了mysqld所需要的文件描述符的数量
# 这样你需要确认在[mysqld_safe]中 “open-files-limit” 变量设置打开文件数量允许至少4096
 table_cache = 4096
# 允许外部文件级别的锁. 打开文件锁会对性能造成负面影响
# 所以只有在你在同样的文件上运行多个数据库实例时才使用此选项(注意仍会有其他约束!)
 # 或者你在文件层面上使用了其他一些软件依赖来锁定MyISAM表
#external-locking
# 服务所能处理的请求包的最大大小以及服务所能处理的最大的请求大小(当与大的BLOB字段一起工作时相当必要)
 # 每个连接独立的大小.大小动态增加
max_allowed_packet = 32M
# 在一个事务中binlog为了记录SQL状态所持有的cache大小
# 如果你经常使用大的,多声明的事务,你可以增加此值来获取更大的性能.
 # 所有从事务来的状态都将被缓冲在binlog缓冲中然后在提交后一次性写入到binlog中
# 如果事务比此值大, 会使用磁盘上的临时文件来替代.
 # 此缓冲在每个连接的事务第一次更新状态时被创建
binlog_cache_size = 4M
# 独立的内存表所允许的最大容量.
 # 此选项为了防止意外创建一个超大的内存表导致永尽所有的内存资源.
max_heap_table_size = 128M
# 排序缓冲被用来处理类似ORDER BY以及GROUP BY队列所引起的排序
# 如果排序后的数据无法放入排序缓冲,
 # 一个用来替代的基于磁盘的合并分类会被使用
# 查看 “Sort_merge_passes” 状态变量.
 # 在排序发生时由每个线程分配
sort_buffer_size = 16M
# 此缓冲被使用来优化全联合(full JOINs 不带索引的联合).
 # 类似的联合在极大多数情况下有非常糟糕的性能表现,
 # 但是将此值设大能够减轻性能影响.
 # 通过 “Select_full_join” 状态变量查看全联合的数量
# 当全联合发生时,在每个线程中分配
join_buffer_size = 16M
# 我们在cache中保留多少线程用于重用
# 当一个客户端断开连接后,如果cache中的线程还少于thread_cache_size,
 # 则客户端线程被放入cache中.
 # 这可以在你需要大量新连接的时候极大的减少线程创建的开销
# (一般来说如果你有好的线程模型的话,这不会有明显的性能提升.)
thread_cache_size = 16
# 此允许应用程序给予线程系统一个提示在同一时间给予渴望被运行的线程的数量.
 # 此值只对于支持 thread_concurrency() 函数的系统有意义( 例如Sun Solaris).
 # 你可可以尝试使用 [CPU数量]*(2..4) 来作为thread_concurrency的值
thread_concurrency = 8
# 查询缓冲常被用来缓冲 SELECT 的结果并且在下一次同样查询的时候不再执行直接返回结果.
 # 打开查询缓冲可以极大的提高服务器速度, 如果你有大量的相同的查询并且很少修改表.
 # 查看 “Qcache_lowmem_prunes” 状态变量来检查是否当前值对于你的负载来说是否足够高.
 # 注意: 在你表经常变化的情况下或者如果你的查询原文每次都不同,
 # 查询缓冲也许引起性能下降而不是性能提升.
query_cache_size = 128M
# 只有小于此设定值的结果才会被缓冲
# 此设置用来保护查询缓冲,防止一个极大的结果集将其他所有的查询结果都覆盖.
query_cache_limit = 4M
# 被全文检索索引的最小的字长.
 # 你也许希望减少它,如果你需要搜索更短字的时候.
 # 注意在你修改此值之后,
 # 你需要重建你的 FULLTEXT 索引
ft_min_word_len = 8
# 如果你的系统支持 memlock() 函数,你也许希望打开此选项用以让运行中的mysql在在内存高度紧张的时候,数据在内存中保持锁定并且防止可能被swapping out
 # 此选项对于性能有益
#memlock
# 当创建新表时作为默认使用的表类型,
 # 如果在创建表示没有特别执行表类型,将会使用此值
default_table_type = MYISAM
# 线程使用的堆大小. 此容量的内存在每次连接时被预留.
 # MySQL 本身常不会需要超过64K的内存
# 如果你使用你自己的需要大量堆的UDF函数
# 或者你的操作系统对于某些操作需要更多的堆,
 # 你也许需要将其设置的更高一点.
thread_stack = 512K
# 设定默认的事务隔离级别.可用的级别如下:
 # READ-UNCOMMITTED, READ-COMMITTED, REPEATABLE-READ, SERIALIZABLE
 transaction_isolation = REPEATABLE-READ
# 内部(内存中)临时表的最大大小
# 如果一个表增长到比此值更大,将会自动转换为基于磁盘的表.
 # 此限制是针对单个表的,而不是总和.
tmp_table_size = 128M
# 打开二进制日志功能.
 # 在复制(replication)配置中,作为MASTER主服务器必须打开此项
# 如果你需要从你最后的备份中做基于时间点的恢复,你也同样需要二进制日志.
log-bin=mysql-bin
# 如果你在使用链式从服务器结构的复制模式 (A->B->C),
 # 你需要在服务器B上打开此项.
 # 此选项打开在从线程上重做过的更新的日志,
 # 并将其写入从服务器的二进制日志.
 #log_slave_updates
# 打开全查询日志. 所有的由服务器接收到的查询 (甚至对于一个错误语法的查询)
 # 都会被记录下来. 这对于调试非常有用, 在生产环境中常常关闭此项.
 #log
# 将警告打印输出到错误log文件.  如果你对于MySQL有任何问题
# 你应该打开警告log并且仔细审查错误日志,查出可能的原因.
 #log_warnings
# 记录慢速查询. 慢速查询是指消耗了比 “long_query_time” 定义的更多时间的查询.
 # 如果 log_long_format 被打开,那些没有使用索引的查询也会被记录.
 # 如果你经常增加新查询到已有的系统内的话. 一般来说这是一个好主意,
log_slow_queries
# 所有的使用了比这个时间(以秒为单位)更多的查询会被认为是慢速查询.
 # 不要在这里使用”1″, 否则会导致所有的查询,甚至非常快的查询页被记录下来(由于MySQL 目前时间的精确度只能达到秒的级别).
long_query_time = 6
# 在慢速日志中记录更多的信息.
 # 一般此项最好打开.
 # 打开此项会记录使得那些没有使用索引的查询也被作为到慢速查询附加到慢速日志里
log_long_format
# 此目录被MySQL用来保存临时文件.例如,
 # 它被用来处理基于磁盘的大型排序,和内部排序一样.
 # 以及简单的临时表.
 # 如果你不创建非常大的临时文件,将其放置到 swapfs/tmpfs 文件系统上也许比较好
# 另一种选择是你也可以将其放置在独立的磁盘上.
 # 你可以使用”;”来放置多个路径
# 他们会按照roud-robin方法被轮询使用.
 #tmpdir = /tmp
# ***  主从复制相关的设置
# 唯一的服务辨识号,数值位于 1 到 2^32-1之间.
 # 此值在master和slave上都需要设置.
 # 如果 “master-host” 没有被设置,则默认为1, 但是如果忽略此选项,MySQL不会作为master生效.
server-id = 1
# 复制的Slave (去掉master段的注释来使其生效)
 #
 # 为了配置此主机作为复制的slave服务器,你可以选择两种方法:
 #
 # 1) 使用 CHANGE MASTER TO 命令 (在我们的手册中有完整描述) -
#    语法如下:
 #
 #    CHANGE MASTER TO MASTER_HOST=, MASTER_PORT=,
 #    MASTER_USER=, MASTER_PASSWORD= ;
 #
 #    你需要替换掉 , , 等被尖括号包围的字段以及使用master的端口号替换 (默认3306).
 #
 #    例子:
 #
 #    CHANGE MASTER TO MASTER_HOST=’125.564.12.1′, MASTER_PORT=3306,
 #    MASTER_USER=’joe’, MASTER_PASSWORD=’secret’;
 #
 # 或者
#
 # 2) 设置以下的变量. 不论如何, 在你选择这种方法的情况下, 然后第一次启动复制(甚至不成功的情况下,
 #     例如如果你输入错密码在master-password字段并且slave无法连接),
 #    slave会创建一个 master.info 文件,并且之后任何对于包含在此文件内的参数的变化都会被忽略
#    并且由 master.info 文件内的内容覆盖, 除非你关闭slave服务, 删除 master.info 并且重启slave 服务.
 #    由于这个原因,你也许不想碰一下的配置(注释掉的) 并且使用 CHANGE MASTER TO (查看上面) 来代替
#
 # 所需要的唯一id号位于 2 和 2^32 – 1之间
# (并且和master不同)
 # 如果master-host被设置了.则默认值是2
 # 但是如果省略,则不会生效
#server-id = 2
 #
 # 复制结构中的master – 必须
#master-host =
 #
 # 当连接到master上时slave所用来认证的用户名 – 必须
#master-user =
 #
 # 当连接到master上时slave所用来认证的密码 – 必须
#master-password =
 #
 # master监听的端口.
 # 可选 – 默认是3306
 #master-port =
# 使得slave只读.只有用户拥有SUPER权限和在上面的slave线程能够修改数据.
 # 你可以使用此项去保证没有应用程序会意外的修改slave而不是master上的数据
#read_only
#*** MyISAM 相关选项
# 关键词缓冲的大小, 一般用来缓冲MyISAM表的索引块.
 # 不要将其设置大于你可用内存的30%,
 # 因为一部分内存同样被OS用来缓冲行数据
# 甚至在你并不使用MyISAM 表的情况下, 你也需要仍旧设置起 8-64M 内存由于它同样会被内部临时磁盘表使用.
key_buffer_size = 128M
# 用来做MyISAM表全表扫描的缓冲大小.
 # 当全表扫描需要时,在对应线程中分配.
read_buffer_size = 8M
# 当在排序之后,从一个已经排序好的序列中读取行时,行数据将从这个缓冲中读取来防止磁盘寻道.
 # 如果你增高此值,可以提高很多ORDER BY的性能.
 # 当需要时由每个线程分配
read_rnd_buffer_size = 64M
# MyISAM 使用特殊的类似树的cache来使得突发插入
# (这些插入是,INSERT … SELECT, INSERT … VALUES (…), (…), …, 以及 LOAD DATA
 # INFILE) 更快. 此变量限制每个进程中缓冲树的字节数.
 # 设置为 0 会关闭此优化.
 # 为了最优化不要将此值设置大于 “key_buffer_size”.
 # 当突发插入被检测到时此缓冲将被分配.
bulk_insert_buffer_size = 256M
# 此缓冲当MySQL需要在 REPAIR, OPTIMIZE, ALTER 以及 LOAD DATA INFILE 到一个空表中引起重建索引时被分配.
 # 这在每个线程中被分配.所以在设置大值时需要小心.
myisam_sort_buffer_size = 256M
# MySQL重建索引时所允许的最大临时文件的大小 (当 REPAIR, ALTER TABLE 或者 LOAD DATA INFILE).
 # 如果文件大小比此值更大,索引会通过键值缓冲创建(更慢)
myisam_max_sort_file_size = 10G
# 如果被用来更快的索引创建索引所使用临时文件大于制定的值,那就使用键值缓冲方法.
 # 这主要用来强制在大表中长字串键去使用慢速的键值缓冲方法来创建索引.
myisam_max_extra_sort_file_size = 10G
# 如果一个表拥有超过一个索引, MyISAM 可以通过并行排序使用超过一个线程去修复他们.
 # 这对于拥有多个CPU以及大量内存情况的用户,是一个很好的选择.
myisam_repair_threads = 1
# 自动检查和修复没有适当关闭的 MyISAM 表.
myisam_recover
# 默认关闭 Federated
 skip-federated
# *** BDB 相关选项 ***
# 如果你运行的MySQL服务有BDB支持但是你不准备使用的时候使用此选项. 这会节省内存并且可能加速一些事.
skip-bdb
# *** INNODB 相关选项 ***
# 如果你的MySQL服务包含InnoDB支持但是并不打算使用的话,
 # 使用此选项会节省内存以及磁盘空间,并且加速某些部分
#skip-innodb
# 附加的内存池被InnoDB用来保存 metadata 信息
# 如果InnoDB为此目的需要更多的内存,它会开始从OS这里申请内存.
 # 由于这个操作在大多数现代操作系统上已经足够快, 你一般不需要修改此值.
 # SHOW INNODB STATUS 命令会显示当先使用的数量.
innodb_additional_mem_pool_size = 64M
# InnoDB使用一个缓冲池来保存索引和原始数据, 不像 MyISAM.
 # 这里你设置越大,你在存取表里面数据时所需要的磁盘I/O越少.
 # 在一个独立使用的数据库服务器上,你可以设置这个变量到服务器物理内存大小的80%
 # 不要设置过大,否则,由于物理内存的竞争可能导致操作系统的换页颠簸.
 # 注意在32位系统上你每个进程可能被限制在 2-3.5G 用户层面内存限制,
 # 所以不要设置的太高.
innodb_buffer_pool_size = 6G
# InnoDB 将数据保存在一个或者多个数据文件中成为表空间.
 # 如果你只有单个逻辑驱动保存你的数据,一个单个的自增文件就足够好了.
 # 其他情况下.每个设备一个文件一般都是个好的选择.
 # 你也可以配置InnoDB来使用裸盘分区 – 请参考手册来获取更多相关内容
innodb_data_file_path = ibdata1:10M:autoextend
# 设置此选项如果你希望InnoDB表空间文件被保存在其他分区.
 # 默认保存在MySQL的datadir中.
 #innodb_data_home_dir =
# 用来同步IO操作的IO线程的数量. This value is
 # 此值在Unix下被硬编码为4,但是在Windows磁盘I/O可能在一个大数值下表现的更好.
innodb_file_io_threads = 4
# 如果你发现InnoDB表空间损坏, 设置此值为一个非零值可能帮助你导出你的表.
 # 从1开始并且增加此值知道你能够成功的导出表.
 #innodb_force_recovery=1
# 在InnoDb核心内的允许线程数量.
 # 最优值依赖于应用程序,硬件以及操作系统的调度方式.
 # 过高的值可能导致线程的互斥颠簸.
innodb_thread_concurrency = 16
# 如果设置为1 ,InnoDB会在每次提交后刷新(fsync)事务日志到磁盘上,
 # 这提供了完整的ACID行为.
 # 如果你愿意对事务安全折衷, 并且你正在运行一个小的食物, 你可以设置此值到0或者2来减少由事务日志引起的磁盘I/O
 # 0代表日志只大约每秒写入日志文件并且日志文件刷新到磁盘.
 # 2代表日志写入日志文件在每次提交后,但是日志文件只有大约每秒才会刷新到磁盘上.
innodb_flush_log_at_trx_commit = 2
(说明:如果是游戏服务器,建议此值设置为2;如果是对数据安全要求极高的应用,建议设置为1;设置为0性能最高,但如果发生故障,数据可能会有丢失的危险!默认值1的意思是每一次事务提交或事务外的指令都需要把日志写入(flush)硬盘,这是很费时的。特别是使用电池供电缓存(Battery backed up cache)时。设成2对于很多运用,特别是从MyISAM表转过来的是可以的,它的意思是不写入硬盘而是写入系统缓存。日志仍然会每秒flush到硬盘,所以你一般不会丢失超过1-2秒的更新。设成0会更快一点,但安全方面比较差,即使MySQL挂了也可能会丢失事务的数据。而值2只会在整个操作系统挂了时才可能丢数据。)
# 加速InnoDB的关闭. 这会阻止InnoDB在关闭时做全清除以及插入缓冲合并.
 # 这可能极大增加关机时间, 但是取而代之的是InnoDB可能在下次启动时做这些操作.
 #innodb_fast_shutdown
# 用来缓冲日志数据的缓冲区的大小.
 # 当此值快满时, InnoDB将必须刷新数据到磁盘上.
 # 由于基本上每秒都会刷新一次,所以没有必要将此值设置的太大(甚至对于长事务而言)
innodb_log_buffer_size = 16M
# 在日志组中每个日志文件的大小.
 # 你应该设置日志文件总合大小到你缓冲池大小的25%~100%
 # 来避免在日志文件覆写上不必要的缓冲池刷新行为.
 # 不论如何, 请注意一个大的日志文件大小会增加恢复进程所需要的时间.
innodb_log_file_size = 512M
# 在日志组中的文件总数.
 # 通常来说2~3是比较好的.
innodb_log_files_in_group = 3
# InnoDB的日志文件所在位置. 默认是MySQL的datadir.
 # 你可以将其指定到一个独立的硬盘上或者一个RAID1卷上来提高其性能
#innodb_log_group_home_dir
# 在InnoDB缓冲池中最大允许的脏页面的比例.
 # 如果达到限额, InnoDB会开始刷新他们防止他们妨碍到干净数据页面.
 # 这是一个软限制,不被保证绝对执行.
innodb_max_dirty_pages_pct = 90
# InnoDB用来刷新日志的方法.
 # 表空间总是使用双重写入刷新方法
# 默认值是 “fdatasync”, 另一个是 “O_DSYNC”.
 #innodb_flush_method=O_DSYNC
# 在被回滚前,一个InnoDB的事务应该等待一个锁被批准多久.
 # InnoDB在其拥有的锁表中自动检测事务死锁并且回滚事务.
 # 如果你使用 LOCK TABLES 指令, 或者在同样事务中使用除了InnoDB以外的其他事务安全的存储引擎
# 那么一个死锁可能发生而InnoDB无法注意到.
 # 这种情况下这个timeout值对于解决这种问题就非常有帮助.
innodb_lock_wait_timeout = 120
[mysqldump]
 # 不要在将内存中的整个结果写入磁盘之前缓存. 在导出非常巨大的表时需要此项
quick
max_allowed_packet = 32M
[mysql]
 no-auto-rehash
# 仅仅允许使用键值的 UPDATEs 和 DELETEs .
 #safe-updates
[isamchk]
 key_buffer = 2048M
 sort_buffer_size = 2048M
 read_buffer = 32M
 write_buffer = 32M
[myisamchk]
 key_buffer = 2048M
 sort_buffer_size = 2048M
 read_buffer = 32M
 write_buffer = 32M
[mysqlhotcopy]
 interactive-timeout
[mysqld_safe]
 # 增加每个进程的可打开文件数量.
 # 警告: 确认你已经将全系统限制设定的足够高!
 # 打开大量表需要将此值设大
open-files-limit = 8192



Mysql执行优化

认识数据索引

为什么使用数据索引能提高效率

    • 关系型数据库的数据索引(Btree及常见索引结构)的存储是有序的。

    • 在有序的情况下,通过索引查询一个数据是无需遍历索引记录的

    • 关系型数据库数据索引的查询效率趋近于二分法查询效率,趋近于log2(N)

    • 极端情况下(更新请求少,更新实时要求低,查询请求频繁),建立单向有序序列可替代数据索引。

    • HASH索引的查询效率是寻址操作,趋近于1次查询,比有序索引查询效率更高,但是不支持比对查询,区间查询,排序等操作,仅支持key-value类型查询。不是本文重点。

如何理解数据索引的结构

    • 数据索引通常默认采用btree索引,(内存表也使用了hash索引)。

    • 仅就有序前提而言,单向有序排序序列是查找效率最高的(二分查找,或者说折半查找),使用树形索引的目的是为了达到快速的更新和增删操作。

    • 在极端情况下(比如数据查询需求量非常大,而数据更新需求极少,实时性要求不高,数据规模有限),直接使用单一排序序列,折半查找速度最快。

    • 在进行索引分析和SQL优化时,可以将数据索引字段想象为单一有序序列,并以此作为分析的基础。涉及到复合索引情况,复合索引按照索引顺序拼凑成一个字段,想象为单一有序序列,并以此作为分析的基础。

    • 一条数据查询只能使用一个索引,索引可以是多个字段合并的复合索引。但是一条数据查询不能使用多个索引。

优化实战范例

  • 实战范例1ip地址反查

    • 资源: Ip地址对应表,源数据格式为 startip, endip, area

源数据条数为 10万条左右,呈很大的分散性

    • 目标:需要通过任意ip查询该ip所属地区

性能要求达到每秒1000次以上的查询效率

    • 挑战:如使用between startip and endip这样的条件数据库操作,因为涉及两个字段的betweenand, 无法有效使用索引。

如果每次查询请求需要遍历10万条记录,根本不行。

    • 方法:一次性排序(只在数据准备中进行,数据可存储在内存序列)

折半查找(每次请求以折半查找方式进行)

  • 实战范例2:目标:查找与访问者同一地区的异性,按照最后登录时间逆序

    • 挑战:高访问量社区的高频查询,如何优化。

查询SQL:select * from user where area=’$area’ and sex=’$sex’ order bylastlogin desc limit 0,30;

建立复合索引并不难,area+sex+lastlogin 三个字段的复合索引,如何理解?

    • 解读:首先,忘掉btree,将索引字段理解为一个排序序列。

另外,牢记数据查询只能使用一个索引,每个字段建立独立索引的情况下,也只能有一条索引被使用!

如果只使用area会怎样?搜索会把符合area的结果全部找出来,然后在这里面遍历,选择命中sex的并排序。遍历所有 area=’$area’数据!

如果使用了area+sex,略好,仍然要遍历所有area=’$area’and sex=’$sex’数据,然后在这个基础上排序!!

Area+sex+lastlogin复合索引时(切记lastlogin在最后),该索引基于area+sex+lastlogin三个字段合并的结果排序,该列表可以想象如下。

广州女$时间1

广州女$时间2

广州女$时间3

广州男

.

深圳女

.

数据库很容易命中到area+sex的边界,并且基于下边界向上追溯30条记录,搞定!在索引中迅速命中所有结果,无需二次遍历!

认识影响结果集

影响结果集的获取

    • 通过Explain分析SQL,查看rows 列内容

    • 通过慢查询日志的Rows_examined:后面的数字

    • 影响结果集数字是查询优化的重要中间数字,工程师在开发和调试过程中,应随时关注这一数字。

影响结果集的解读

    • 查询条件与索引的关系决定影响结果集。

      • 假设 索引为 area

      • 假设User表中area=’厦门’的有125000条,而搜索返回结果为60233条。

      • 影响结果集是125000条,索引先命中125000条厦门用户,再遍历以sex=’女’进行筛选操作,得到60233条结果。

      • 如果该SQL增加 limit0,30的后缀。查询时,先命中 area=’厦门’,然后依顺序执行sex=’女’筛选操作,直到满足可以返回30条为止,所涉及记录数未知。除非满足条件的结果不足30条,否则不会遍历125000条记录。

      • 但是如果SQL中涉及了排序操作,比如order by lastlogin desc 再有limit0,30时,排序需要遍历所有area=’厦门’的记录,而不是满足即止。

      • 影响结果集不是输出结果数,不是查询返回的记录数,而是索引所扫描的结果数。

      • 范例 select* from user where area=’厦门’ andsex=’女’

    • 影响结果集越趋近于实际输出或操作的目标结果集,索引效率越高。

    • 影响结果集与查询开销的关系可以理解为线性相关。减少一半影响结果集,即可提升一倍查询效率!当一条搜索query可以符合多个索引时,选择影响结果集最少的索引。

    • SQL的优化,核心就是对结果集的优化,认识索引是增强对结果集的判断,基于索引的认识,可以在编写SQL的时候,对该SQL可能的影响结果集有预判,并做出适当的优化和调整。

    • Limit的影响,需要斟酌对待

      • 如果索引与查询条件和排序条件完全命中,影响结果集就是limit后面的数字($start+ $end),比如 limit200,30 影响结果集是230.而不是30.

      • 如果索引只命中部分查询条件,甚至无命中条件,在无排序条件情况下,会在索引命中的结果集中遍历到满足所有其他条件为止。比如 select* from user limit 10;虽然没用到索引,但是因为不涉及二次筛选和排序,系统直接返回前10条结果,影响结果集依然只有10条,就不存在效率影响。

      • 如果搜索所包含的排序条件没有被索引命中,则系统会遍历是所有索引所命中的结果,并且排序。例如Select * from user order bytimeline desc limit 10;如果timeline不是索引,影响结果集是全表,就存在需要全表数据排序,这个效率影响就巨大。再比如Select * from user wherearea=’厦门’ order bytimeline desc limit 10; 如果area是索引,而area+timeline未建立索引,则影响结果集是所有命中area=’厦门’的用户,然后在影响结果集内排序。

 

常见案例及优化思路

    • 毫秒级优化案例

      • 某游戏用户进入后显示最新动态,SQLselect * from userfeed whereuid=$uid order by timeline desc limit 20; 主键为$uid。 该SQL每天执行数百万次之多,高峰时数据库负载较高。通过 show processlist显示大量进程处于Sendingdata状态。没有慢查询记录。 仔细分析发现,因存在较多高频用户访问,命中uid=$uid的影响结果集通常在几百到几千,在上千条影响结果集情况下,该SQL查询开销通常在0.01秒左右。建立uid+timeline复合索引,将排序引入到索引结构中,影响结果集就只有limit后面的数字,该SQL查询开销锐减至0.001秒,数据库负载骤降。

    • Innodb锁表案例

      • 某游戏数据库使用了innodbinnodb是行级锁,理论上很少存在锁表情况。出现了一个SQL语句(deletefrom tabname wherexid=…),这个SQL非常用SQL,仅在特定情况下出现,每天出现频繁度不高(一天仅10次左右),数据表容量百万级,但是这个xid未建立索引,于是悲惨的事情发生了,当执行这条delete的时候,真正删除的记录非常少,也许一到两条,也许一条都没有;但是!由于这个xid未建立索引,delete操作时遍历全表记录,全表被delete操作锁定,select操作全部被locked,由于百万条记录遍历时间较长,期间大量select被阻塞,数据库连接过多崩溃。

这种非高发请求,操作目标很少的SQL,因未使用索引,连带导致整个数据库的查询阻塞,需要极大提高警觉。

    • 实时排名策略优化

      • Redis数据结构包括String,list,dictZset四种,在本案例中是非常好的替代数据库的方案,本文档只做简介,不做额外扩展。

      • String哈希索引,key-value结构,主键查询效率极高,不支持排序,比较查询。

      • List队列结构,在数据异步写入处理中可以替代memcache

      • Dict数组结构,存储结构化,序列化内容,可以针对数组中的特定列进行操作。

      • Zset有序数组结构,分两个子结构,第一是多层树形的存储结构,第二是每个树形节点的计数器,这样类似于前面的分段方式,可以理解为多层分段方式,所以查询效率更高,缺点是更新效率有所增加。

      • 减少影响结果集,又要取得实时数据,单纯从SQL上考虑,不太有方法。

      • 将游戏积分预定义分成数个积分断点,然后分成积分区间,原始状态,每个区间设置一个统计数字项,初始为0

      • 每次积分提交时,先确定该分数属于哪两个区间之间,这个操作非常简单,因为区间是预定义的,而且数量很少,只需遍历即可,找到最该分数符合的区间,该区间的统计数字项(独立字段,可用内存处理,异步回写数据库或文件)+1。记录该区间上边界数字为$duandian

      • SQL: select count(*) from jifen where gameid=$gameid andfenshu>$fenshu andfenshu<$duandian,如果处于第一区间,则无需$duandian,这样因为第一区间本身也是最好的成绩,影响结果集不会很多。通过该SQL获得其在该区间的名次。

      • 获取前面区间的总数总和。(该数字是直接从上述提到的区间统计数字获取,不需要进行count操作)将区间内名次+前区间的统计数字和,获得总名次。

      • 该方法关键在于,积分区间需要合理定义,保证积分提交成绩能平均散落在不同区间。

      • 如涉及较多其他条件,如日排行,总排行,以及其他独立用户去重等,请按照影响结果集思路自行发挥。

      • 即便索引是 gameid+fenshu复合索引,涉及count操作,当分数较低时,影响结果集巨大,查询效率缓慢,高峰期会导致连接过多。

      • 提交积分是插入记录,略,

      • selectcount(*) from jifen where gameid=$gameid and fenshu>$fenshu

      • 背景: 用户提交游戏积分,显示实时排名。

      • 原方案:

      • 问题与挑战

      • 优化思路

      • Redis方案

    • 论坛翻页优化

      • 来自于uchome典型查询SELECT * FROM uchome_threadWHERE tagid='73820' ORDER BY displayorder DESC, lastpost DESCLIMIT $start,30;

      • 如果换用 如上方法,上翻页代码SELECT * FROM uchome_threadWHERE tagid='73820' and lastpost<$minlastpost ORDER BYdisplayorder DESC,lastpost DESC LIMIT 0,30; 下翻页代码SELECT* FROM uchome_thread WHERE tagid='73820' andlastpost>$maxlastpost ORDER BY displayorder DESC, lastpost ASCLIMIT 0,30;

      • 这里涉及一个orderby 索引可用性问题,当orderby中 复合索引的字段,一个是ASC,一个是DESC时,其排序无法在索引中完成。所以只有上翻页可以正确使用索引,影响结果集为30。下翻页无法在排序中正确使用索引,会命中所有索引内容然后排序,效率低下。

      • 只涉及上下翻页情况

      • 涉及跳转到任意页

      • 每次查询的时候将该页查询结果中最大的$lastpost和最小的分别记录为$minlastpost $maxlastpost ,上翻页查询为select * from post wheretagid=$tagid and lastpost<$minlastpost order by lastpost desclimit 30; 下翻页为 select* from post where tagid=$tagid and lastpost>$maxlastpostorder by lastpost limit 30; 使用这种方式,影响结果集只有30条,效率极大提升。

      • 互联网上常见的一个优化方案可以这样表述,select* from post where tagid=$tagid and lastpost>=(select lastpostfrom post where tagid=$tagid order by lastpost limit $start,1)order by lastpost  limit 30; 或者 select* from post where pid in (select pid from post wheretagid=$tagid order by lastpost limit $start,30);(2S语法在新的mysql版本已经不支持,新版本mysqlin的子语句不再支持limit条件,但可以分解为两条SQL实现,原理不变,不做赘述)

      • 以上思路在于,子查询的影响结果集仍然是$start+30,但是数据获取的过程(Sendingdata状态)发生在索引文件中,而不是数据表文件,这样所需要的系统开销就比前一种普通的查询低一个数量级,而主查询的影响结果集只有30条,几乎无开销。但是切记,这里仍然涉及了太多的影响结果集操作。

      • 背景,常见论坛帖子页SQL: select * from post wheretagid=$tagid order by lastpost limit $start, $end 翻页。索引为 tagid+lastpost 复合索引

      • 挑战,超级热帖,几万回帖,用户频频翻到末页,limit25770,30 一个操作下来,影响结果集巨大(25770+30),查询缓慢。

      • 解决方法:

      • 延伸问题:

  • 总结:

    • 基于影响结果集的理解去优化,不论从数据结构,代码,还是涉及产品策略上,都需要贯彻下去。

    • 涉及 limit$start,$num的搜索,如果$start巨大,则影响结果集巨大,搜索效率会非常难过低,尽量用其他方式改写为limit 0,$num;确系无法改写的情况下,先从索引结构中获得 limit$start,$num limit$start,1 ;再用in操作或基于索引序的limit 0,$num 二次搜索。

    • 请注意,我这里永远不会讲关于外键和join的优化,因为在我们的体系里,这是根本不允许的!架构优化部分会解释为什么。

理解执行状态

常见关注重点

  • 慢查询日志,关注重点如下

    • 如影响结果集较大,显然是索引项命中存在问题,需要认真对待。

    • 如存在锁定,则该慢查询通常是因锁定因素导致,本身无需优化,需解决锁定问题。

    • 是否锁定,及锁定时间

    • 影响结果集

  • Explain操作

    • 这里显示的数字不一定准确,结合之前提到对数据索引的理解来看,还记得嘛?就把索引当作有序序列来理解,反思SQL

    • 不建议用usingindex做强制索引,如未如预期使用索引,建议重新斟酌表结构和索引设置。

    • 索引项使用

    • 影响结果集

  • Setprofiling , show profiles for query操作

    • 注意,有问题的SQL如果重复执行,可能在缓存里,这时要注意避免缓存影响。通过这里可以看到。

    • 执行时间超过0.005秒的频繁操作SQL建议都分析一下。

    • 深入理解数据库执行的过程和开销的分布

    • 执行开销

  • Showprocesslist 执行状态监控

    • 这是在数据库负载波动时经常进行的一项操作

    • 具体参见如下

执行状态分析

  • Sleep状态

    • 通常代表资源未释放,如果是通过连接池,sleep状态应该恒定在一定数量范围内

    • 实战范例:因前端数据输出时(特别是输出到用户终端)未及时关闭数据库连接,导致因网络连接速度产生大量sleep连接,在网速出现异常时,数据库too many connections 挂死。

    • 简单解读,数据查询和执行通常只需要不到0.01秒,而网络输出通常需要1秒左右甚至更长,原本数据连接在0.01秒即可释放,但是因为前端程序未执行close操作,直接输出结果,那么在结果未展现在用户桌面前,该数据库连接一直维持在sleep状态!

  • Waitingfor net, reading from net, writing to net

    • 偶尔出现无妨

    • 如大量出现,迅速检查数据库到前端的网络连接状态和流量

    • 案例:因外挂程序,内网数据库大量读取,内网使用的百兆交换迅速爆满,导致大量连接阻塞在waitingfor net,数据库连接过多崩溃

  • Locked状态

    • 有更新操作锁定

    • 通常使用innodb可以很好的减少locked状态的产生,但是切记,更新操作要正确使用索引,即便是低频次更新操作也不能疏忽。如上影响结果集范例所示。

    • myisam的时代,locked是很多高并发应用的噩梦。所以mysql官方也开始倾向于推荐innodb

  • Copyto tmp table

    • 某社区数据库阻塞,求救,经查,其服务器存在多个数据库应用和网站,其中一个不常用的小网站数据库产生了一个恐怖的copyto tmp table 操作,导致整个硬盘i/ocpu压力超载。Kill掉该操作一切恢复。

    • 索引及现有结构无法涵盖查询条件,才会建立一个临时表来满足查询要求,产生巨大的恐怖的i/o压力。

    • 很可怕的搜索语句会导致这样的情况,如果是数据分析,或者半夜的周期数据清理任务,偶尔出现,可以允许。频繁出现务必优化之。

    • Copyto tmp table 通常与连表查询有关,建议逐渐习惯不使用连表查询。

    • 实战范例:

  • Sendingdata

    • Sendingdata并不是发送数据,别被这个名字所欺骗,这是从物理磁盘获取数据的进程,如果你的影响结果集较多,那么就需要从不同的磁盘碎片去抽取数据,

    • 偶尔出现该状态连接无碍。

    • 回到上面影响结果集的问题,一般而言,如果sendingdata连接过多,通常是某查询的影响结果集过大,也就是查询的索引项不够优化。

    • 前文提到影响结果集对SQL查询效率线性相关,主要就是针对这个状态的系统开销。

    • 如果出现大量相似的SQL语句出现在showproesslist列表中,并且都处于sendingdata状态,优化查询索引,记住用影响结果集的思路去思考。

  • Storingresult to query cache

    • 出现这种状态,如果频繁出现,使用setprofiling分析,如果存在资源开销在SQL整体开销的比例过大(即便是非常小的开销,看比例),则说明querycache碎片较多

    • 使用flushquery cache 可即时清理,也可以做成定时任务

    • Querycache参数可适当酌情设置。

  • Freeingitems

    • 理论上这玩意不会出现很多。偶尔出现无碍

    • 如果大量出现,内存,硬盘可能已经出现问题。比如硬盘满或损坏。

    • i/o压力过大时,也可能出现Freeitems执行时间较长的情况。

  • Sortingfor …

    • Sendingdata类似,结果集过大,排序条件没有索引化,需要在内存里排序,甚至需要创建临时结构排序。

  • 其他

    • 还有很多状态,遇到了,去查查资料。基本上我们遇到其他状态的阻塞较少,所以不关心。

分析流程

  • 基本流程

    • 不苛求解决所有优化问题,但是应以保证线上服务稳定可靠为目标。

    • 解决与评估要同时进行,新的策略或解决方案务必经过评估后上线。

    • 写频繁度

    • 读取频繁度

    • 涉及架构优化部分,参见架构优化-缓存异步更新

    • 如果i/o压力高,优先分析写入频繁度

    • Mysqlbinlog输出最新binlog文件,编写脚本拆分

    • 最多写入的数据表是哪个

    • 最多写入的数据SQL是什么

    • 是否存在基于同一主键的数据内容高频重复写入?

    • 涉及前端缓存优化

    • SQL进行explainset profiling判定

    • 注意判定时需要避免querycache影响

    • 比如,在这个SQL末尾增加一个条件子句and 1=1 就可以避免从querycache中获取数据,而得到真实的执行状态分析。

    • 如果cpu资源较高,而i/o压力不高,优先分析读取频繁度

    • 程序中在封装的db类增加抽样日志即可,抽样比例酌情考虑,以不显著影响系统负载压力为底线。

    • 最多读取的数据表是哪个

    • 最多读取的数据SQL是什么

    • 是否存在同一个查询短期内频繁出现的情况

    • 当前连接数

    • 当前连接分布 showprocesslist

    • 当前是否有较多慢查询日志

    • Netstat–an|grep 3306|wc –l

    • Showprocesslist

    • 是否较多雷同SQL出现在同一状态

    • 不同状态代表不同的问题,有不同的优化目标。

    • 参见如上范例。

    • Root帐号比其他普通帐号多一个连接数许可。

    • 前端使用普通帐号,在toomany connections的时候root帐号仍可以登录数据库查询show processlist!

    • 记住,前端应用程序不要设置一个不叫rootroot帐号来糊弄!非root账户是骨子里的,而不是名义上的。

    • 前端应用请求数据库不要使用root帐号!

    • 状态分布

    • 雷同SQL的分布

    • 是否锁定

    • 影响结果集

    • 基本运营状况

    • 基本负载情况

    • 当前每秒读请求

    • 当前每秒写请求

    • 当前在线用户

    • 当前数据容量

    • 硬盘满和inode节点满的情况要迅速定位和迅速处理

    • Swap分区是否被侵占

    • Swap分区被侵占,物理内存是否较多空闲

    • 特别关注i/o压力(wa%)

    • 多核负载分配

    • Top

    • Vmstat

    • uptime

    • iostat

    • df

    • 学会使用这些指令

    • Cpu负载构成

    • 内存占用

    • 磁盘状态

    • Toomany connections 是常见表象,有很多种原因。

    • 索引损坏的情况在innodb情况下很少出现。

    • 如出现其他情况应追溯日志和错误信息。

    • 详细了解问题状况

    • 了解基本负载状况和运营状况

    • 了解具体连接状况

    • 频繁度分析

    • 抓大放小,解决显著问题

常见案例解析

  • 现象:服务器出现toomany connections 阻塞

    • 以下针对常见问题简单解读

    • Sleep连接过多导致,应用端及时释放连接,排查关联因素。

    • Locked连接过多,如源于myisam表级锁,更innodb引擎;如源于更新操作使用了不恰当的索引或未使用索引,改写更新操作SQL或建立恰当索引。

    • Sendingdata连接过多,用影响结果集的思路优化SQL查询,优化表索引结构。

    • Freeitems连接过多,i/o压力过大或硬盘故障

    • Waitingfor net , writing to net 连接过多, mysql与应用服务器连接阻塞。

    • 其他仍参见如上执行状态清单所示分析。

    • 如涉及不十分严格安全要求的数据内容,可用定期脚本跟踪请求进程,并kill掉僵死进程。如数据安全要求较严格,则不能如此进行。

    • 在确定故障原因后,应通过kill掉阻塞进程的方式立即恢复数据库。

    • 参见如上执行状态清单,根据连接状态的分布去确定原因。

    • 查看服务器状态,cpu占用,内存占用,硬盘占用,硬盘i/o压力

    • 查看网络流量状态,mysql与应用服务器的输入输出状况

    • 通过Showprocesslist查看当前运行清单

    • 注意事项,日常应用程序连接数据库不要使用root账户,保证故障时可以通过root进入数据库查看 showprocesslist

    • 入手点:

    • 状态分析:

    • 紧急恢复

    • 善后处理

  • 现象:数据库负载过高,响应缓慢。

    • 日常跟踪脚本,不断记录一些状态信息。保证每个时间节点都能回溯。

    • 确保随时能了解服务器的请求频次,读写请求的分布。

    • 记录一些未造成致命影响的隐患点,可暂不解决,但需要记录。

    • 如确系服务器请求频次过高,可基于负载分布决定硬件扩容方案,比如i/o压力过高可考虑固态硬盘;内存占用swap可考虑增加内容容量等。用尽可能少的投入实现最好的负载支撑能力,而不是简单的买更多服务器。

    • 步骤1:查看慢查询日志

    • 步骤2:不断刷新查看Showprocesslist清单,并把握可能频繁出现的处于Sendingdata状态的SQL

    • 步骤3:记录前端执行SQL

    • 步骤4:将导致慢查询的SQL或频繁出现于showprocesslist状态的SQL,或采样记录的频繁度SQL进行分析,按照影响结果集的思路和索引理解来优化。

    • 步骤5:对如上难以界定问题的SQL进行set profiling 分析。

    • 步骤6:优化后分析继续采样跟踪分析。并跟踪比对结果。

    • 于前端应用程序执行查询的封装对象内,设置随机采样,记录前端执行的SQL,保证有一定的样本规模,并且不会带来前端i/o负载的激增。

    • 基于采样率和记录频率,获得每秒读请求次数数据指标。

    • 编写日志分析脚本,分析采样的SQL构成,所操作的数据表,所操作的主键。

    • 对频繁重复读取的SQL(完全一致的SQL)进行判定,是否数据存在频繁变动,是否需要实时展现最新数据,如有可能,缓存化,并预估缓存命中率。

    • 对频繁读取但不重复的(SQL结构一致,但条件中的数据不一致)SQL进行判定,是否索引足够优化,影响结果集与输出结果是否足够接近。

    • 步骤1:检查内存是否占用swap分区,排除因内存不足导致的i/o开销。

    • 步骤2:通过iostat指令分析i/o是否集中于数据库硬盘,是否是写入度较高。

    • 步骤3:如果压力来自于写,使用mysqlbinlog解开最新的binlog文件。

    • 步骤4:编写日志分析脚本或grep指令,分析每秒写入频度和写入内容。

    • 步骤5:编写日志分析脚本或grep指令,分析写入的数据表构成,和写入的目标构成。

    • 步骤6:编写日志分析脚本,分析是否存在同一主键的重复写入。比如出现大量 update postset views=views+1 wheretagid=****的操作,假设在一段时间内出现了2万次,而其中不同的tagid1万次,那么就是有50%的请求是重复update请求,有可以通过异步更新合并的空间。

    • 提示一下,以上所提及的日志分析脚本编写,正常情况下不应超过1个小时,而对系统负载分析所提供的数据支持价值是巨大的,对性能优化方案的选择是非常有意义的,如果您认为这项工作是繁冗而且复杂的工作,那么一定是在分析思路和目标把握上出现了偏差。

    • 写入频度不高,则说明i/o压力另有原因或数据库配置不合理。

    • 查看cpu状态,服务器负载构成

    • 入手点:

    • 分支1i/o占用过高。

    • 分支2i/o占用不高,CPU占用过高

    • 善后处理

总结

  • 要学会怎样分析问题,而不是单纯拍脑袋优化

  • 慢查询只是最基础的东西,要学会优化0.01秒的查询请求。

  • 当发生连接阻塞时,不同状态的阻塞有不同的原因,要找到原因,如果不对症下药,就会南辕北辙

    • 范例:如果本身系统内存已经超载,已经使用到了swap,而还在考虑加大缓存来优化查询,那就是自寻死路了。

  • 影响结果集是非常重要的中间数据和优化指标,学会理解这一概念,理论上影响结果集与查询效率呈现非常紧密的线性相关。

  • 监测与跟踪要经常做,而不是出问题才做

    • 连接数超过特定阈值的情况下,虽然数据库没有崩溃,建议记录相关连接状态。

    • 高并发情况下,查询请求时间超过0.01秒甚至0.005秒的,建议酌情抽样记录。

    • 基于binlog解开即可,可定时或不定时分析。

    • 全监测不要搞,i/o吓死人。

    • 按照一个抽样比例抽样即可。

    • 针对抽样中发现的问题,可以按照特定SQL在特定时间内监测一段全查询记录,但仍要考虑i/o影响。

    • 读取频繁度抽样监测

    • 写入频繁度监测

    • 微慢查询抽样监测

    • 连接数预警监测

  • 学会通过数据和监控发现问题,分析问题,而后解决问题顺理成章。特别是要学会在日常监控中发现隐患,而不是问题爆发了才去处理和解决。

Mysql 运维优化

存储引擎类型

  • Myisam速度快,响应快。表级锁是致命问题。

  • Innodb目前主流存储引擎

    • i/o效率提升的考虑

    • 对安全性的考虑

    • 务必注意影响结果集的定义是什么

    • 行级锁会带来更新的额外开销,但是通常情况下是值得的。

    • 行级锁

    • 事务提交

  • HEAP内存引擎

    • 频繁更新和海量读取情况下仍会存在锁定状况

内存使用考量

  • 理论上,内存越大,越多数据读取发生在内存,效率越高

  • Querycache的使用

    • 对于中等以下规模数据库应用,偷懒不是一个坏选择。

    • 如果确认使用querycache,记得定时清理碎片,flushquery cache.

    • 如果前端请求重复度不高,或者应用层已经充分缓存重复请求,querycache不必设置很大,甚至可以不设置。

    • 如果前端请求重复度较高,无应用层缓存,querycache是一个很好的偷懒选择

  • 要考虑到现实的硬件资源和瓶颈分布

  • 学会理解热点数据,并将热点数据尽可能内存化

    • 热点数据规模,理论上,热点数据越少越好,这样可以更好的满足业务的增长趋势。

    • 响应满足度,对响应的满足率越高越好。

    • 比如依据最后更新时间,总访问量,回访次数等指标定义热点数据,并测算不同定义模式下的热点数据规模

    • 所谓热点数据,就是最多被访问的数据。

    • 通常数据库访问是不平均的,少数数据被频繁读写,而更多数据鲜有读写。

    • 学会制定不同的热点数据规则,并测算指标。

性能与安全性考量

  • 数据提交方式

    • innodb_flush_log_at_trx_commit= 1 每次自动提交,安全性高,i/o压力大

    • innodb_flush_log_at_trx_commit= 2 每秒自动提交,安全性略有影响,i/o承载强。

  • 日志同步

    • Sync-binlog =1每条自动更新,安全性高,i/o压力大

    • Sync-binlog= 0 根据缓存设置情况自动更新,存在丢失数据和同步延迟风险,i/o承载力强。

    • 个人建议保存binlog日志文件,便于追溯更新操作和系统恢复。

    • 如对日志文件的i/o压力有担心,在内存宽裕的情况下,可考虑将binlog写入到诸如 /dev/shm这样的内存映射分区,并定时将旧有的binlog转移到物理硬盘。

  • 性能与安全本身存在相悖的情况,需要在业务诉求层面决定取舍

    • 学会区分什么场合侧重性能,什么场合侧重安全

    • 学会将不同安全等级的数据库用不同策略管理

存储/写入压力优化

  • 顺序读写性能远高于随机读写

  • 将顺序写数据和随机读写数据分成不同的物理磁盘进行,有助于i/o压力的疏解

    • 数据库文件涉及索引等内容,写入是随即写

    • binlog文件是顺序写

    • 淘宝数据库存储优化是这样处理的

  • 部分安全要求不高的写入操作可以用/dev/shm分区存储,简单变成内存写。

  • 多块物理硬盘做raid10,可以提升写入能力

  • 关键存储设备优化,善于比对不同存储介质的压力测试数据。

    • 例如fusion-io在新浪和淘宝都有较多使用。

  • 涉及必须存储较为庞大的数据量时

    • 压缩存储,可以通过增加cpu开销(压缩算法)减少i/o压力。前提是你确认cpu相对空闲而i/o压力很大。新浪微博就是压缩存储的典范。

    • 通过md5去重存储,案例是QQ的文件共享,以及dropbox这样的共享服务,如果你上传的是一个别人已有的文件,计算md5后,直接通过md5定位到原有文件,这样可以极大减少存储量。涉及文件共享,头像共享,相册等应用,通过这种方法可以减少超过70%的存储规模,对硬件资源的节省是相当巨大的。缺点是,删除文件需要甄别该md5是否有其他人使用。去重存储,用户量越多,上传文件越多,效率越高!

    • 文件尽量不要存储到数据库内。尽量使用独立的文件系统存储,该话题不展开。

运维监控体系

  • 系统监控

    • Showprocesslist 设置阈值,每分钟监测,超过阈值记录

    • 外网流量,内网流量

    • 设置阈值报警

    • Cpu,内存,硬盘空间,i/o压力

    • 设置阈值报警

    • 服务器资源监控

    • 服务器流量监控

    • 连接状态监控

  • 应用监控

    • 写操作,基于binlog,定期分析。

    • 读操作,在前端db封装代码中增加抽样日志,并输出执行时间。

    • 分析请求频繁度是开发架构进一步优化的基础

    • 最好的优化就是减少请求次数!

    • 高并发环境里,超过0.01秒的查询请求都应该关注一下。

    • 高频繁应用中,会出现偶发性数据库连接错误或执行错误,将错误信息记录到日志,查看每日的比例变化。

    • 偶发性错误,如果数量极少,可以不用处理,但是需时常监控其趋势。

    • 会存在恶意输入内容,输入边界限定缺乏导致执行出错,需基于此防止恶意入侵探测行为。

    • 慢查询日志

    • 如果存在多台数据库服务器,应有汇总查阅机制。

    • 慢查询监控

    • 请求错误监控

    • 微慢查询监控

    • 频繁度监控

  • 总结:

    • 监控与数据分析是一切优化的基础。

    • 没有运营数据监测就不要妄谈优化!

    • 监控要注意不要产生太多额外的负载,不要因监控带来太多额外系统开销

Mysql 架构优化

架构优化目标

防止单点隐患

  • 所谓单点隐患,就是某台设备出现故障,会导致整体系统的不可用,这个设备就是单点隐患。

  • 理解连带效应,所谓连带效应,就是一种问题会引发另一种故障,举例而言,memcache+mysql是一种常见缓存组合,在前端压力很大时,如果memcache崩溃,理论上数据会通过mysql读取,不存在系统不可用情况,但是mysql无法对抗如此大的压力冲击,会因此连带崩溃。因A系统问题导致B系统崩溃的连带问题,在运维过程中会频繁出现。

    • 实战范例:在mysql连接不及时释放的应用环境里,当网络环境异常(同机房友邻服务器遭受拒绝服务攻击,出口阻塞),网络延迟加剧,空连接数急剧增加,导致数据库连接过多崩溃。

    • 实战范例2:前端代码通常我们封装mysql_connectmemcache_connect,二者的顺序不同,会产生不同的连带效应。如果mysql_connect在前,那么一旦memcache连接阻塞,会连带mysql空连接过多崩溃。

    • 连带效应是常见的系统崩溃,日常分析崩溃原因的时候需要认真考虑连带效应的影响,头疼医头,脚疼医脚是不行的。

方便系统扩容

  • 数据容量增加后,要考虑能够将数据分布到不同的服务器上。

  • 请求压力增加时,要考虑将请求压力分布到不同服务器上。

  • 扩容设计时需要考虑防止单点隐患。

安全可控,成本可控

  • 数据安全,业务安全

  • 人力资源成本>带宽流量成本>硬件成本

    • 成本与流量的关系曲线应低于线性增长(流量为横轴,成本为纵轴)。

    • 规模优势

  • 本教程仅就与数据库有关部分讨论,与数据库无关部门请自行参阅其他学习资料。

 

分布式方案

分库&拆表方案

  • 基本认识

    • 用分库&拆表是解决数据库容量问题的唯一途径。

    • 分库&拆表也是解决性能压力的最优选择。

    • 分库 –不同的数据表放到不同的数据库服务器中(也可能是虚拟服务器)

    • 拆表 –一张数据表拆成多张数据表,可能位于同一台服务器,也可能位于多台服务器(含虚拟服务器)。

  • 去关联化原则

    • 摘除数据表之间的关联,是分库的基础工作。

    • 摘除关联的目的是,当数据表分布到不同服务器时,查询请求容易分发和处理。

    • 学会理解反范式数据结构设计,所谓反范式,第一要点是不用外键,不允许Join操作,不允许任何需要跨越两个表的查询请求。第二要点是适度冗余减少查询请求,比如说,信息表,fromuid,touid,message字段外,还需要一个fromuname字段记录用户名,这样查询者通过touid查询后,能够立即得到发信人的用户名,而无需进行另一个数据表的查询。

    • 去关联化处理会带来额外的考虑,比如说,某一个数据表内容的修改,对另一个数据表的影响。这一点需要在程序或其他途径去考虑。

  • 分库方案

    • 基于安全与业务拆分为数据库实例,但是可以使用不同端口放在同一个服务器上。

    • 基于负载可以拆分为更多数据库实例分布在不同数据库上

    • 例如,

    • 基于安全拆分出A数据库实例,

    • 基于业务拆分出B,C数据库实例,

    • C数据库存在较高负载,基于负载拆分为C1,C2,C3,C4等实例。

    • 数据库服务器完全可以做到A+B+C1 为一台,C2,C3,C4各单独一台。

    • 基于负载压力对数据结构拆分,便于直接将负载分担给不同的服务器。

    • 基于负载压力拆分,可能拆分后的数据库包含不同业务类型的数据表,日常维护会有一定的烦恼。

    • 根据数据表的内容构成,业务逻辑拆分,便于日常维护和前端调用。

    • 基于业务逻辑拆分,可以减少前端应用请求发送到不同数据库服务器的频次,从而减少链接开销。

    • 基于业务逻辑拆分,可保留部分数据关联,前端web工程师可在限度范围内执行关联查询。

    • 将高安全性数据与低安全性数据分库,这样的好处第一是便于维护,第二是高安全性数据的数据库参数配置可以以安全优先,而低安全性数据的参数配置以性能优先。参见运维优化相关部分。

    • 安全性拆分

    • 基于业务逻辑拆分

    • 基于负载压力拆分

    • 混合拆分组合

 

  • 分表方案

    • 将数据量较大的数据表中将读写频繁的数据抽取出来,形成热点数据表。通常一个庞大数据表经常被读写的内容往往具有一定的集中性,如果这些集中数据单独处理,就会极大减少整体系统的负载。

    • 热点数据表与旧有数据关系

    • 热点数据表可以用单独的优化的硬件存储,比如昂贵的闪存卡或大内存系统。

    • 热点数据表的重要指标

    • 热点数据表的动态维护

    • 通常,热点数据往往是基于缓存或者key-value 方案冗余存储,所以这里提到的热点数据表,其实更多是理解思路,用到的场合可能并不多….

    • 可以是一张冗余表,即该表数据丢失不会妨碍使用,因源数据仍存在于旧有结构中。优点是安全性高,维护方便,缺点是写压力不能分担,仍需要同步写回原系统。

    • 可以是非冗余表,即热点数据的内容原有结构不再保存,优点是读写效率全部优化;缺点是当热点数据发生变化时,维护量较大。

    • 具体方案选择需要根据读写比例决定,在读频率远高于写频率情况下,优先考虑冗余表方案。

    • 热点数据的定义需要根据业务模式自行制定策略,常见策略为,按照最新的操作时间;按照内容丰富度等等。

    • 数据规模,比如从1000万条数据,抽取出100万条热点数据。

    • 热点命中率,比如查询10次,多少次命中在热点数据内。

    • 理论上,数据规模越小,热点命中率越高,说明效果越好。需要根据业务自行评估。

    • 基于特定策略,定时将热点数据中访问频次较少的数据剔除

    • 如热点数据是冗余表,则直接删除即可,如不是冗余表,需要回写给旧有数据结构。

    • 定时从旧有数据结构中按照新的策略获取

    • 在从旧有数据结构读取时动态加载到热点数据

    • 加载热点数据方案选择

    • 剔除热点数据方案选择

    • 等分切表,如哈希切表或其他基于对某数字取余的切表。等分切表的优点是负载很方便的分布到不同服务器;缺点是当容量继续增加时无法方便的扩容,需要重新进行数据的切分或转表。而且一些关键主键不易处理。

    • 递增切表,比如每1kw用户开一个新表,优点是可以适应数据的自增趋势;缺点是往往新数据负载高,压力分配不平均。

    • 日期切表,适用于日志记录式数据,优缺点等同于递增切表。

    • 个人倾向于递增切表,具体根据应用场景决定。

    • 单数据表字段过多,可将频繁更新的整数数据与非频繁更新的字符串数据切分

    • 范例 user表,个人简介,地址,QQ号,联系方式,头像这些字段为字符串类型,更新请求少;最后登录时间,在线时常,访问次数,信件数这些字段为整数型字段,更新频繁,可以将后面这些更新频繁的字段独立拆出一张数据表,表内容变少,索引结构变少,读写请求变快。

    • 数据量过大或者访问压力过大的数据表需要切分

    • 纵向分表(常见为忙闲分表)

    • 横向切表

    • 热点数据分表

反范式设计(冗余结构设计)

  • 反范式设计的概念

    • 无外键,无连表查询。

    • 便于分布式设计,允许适度冗余,为了容量扩展允许适度开销。

    • 基于业务自由优化,基于i/o或查询设计,无须遵循范式结构设计。

  • 冗余结构设计所面临的典型场景

    • 原有展现程序涉及多个表的查询,希望精简查询程序

    • 数据表拆分往往基于主键,而原有数据表往往存在非基于主键的关键查询,无法在分表结构中完成。

    • 存在较多数据统计需求(count,sum等),效率低下。

  • 冗余设计方案

    • 历史数据表对应于热点数据表,将需求较少又不能丢弃的数据存入,仅在少数情况下被访问。

    • 为了减少会涉及大规模影响结果集的表数据操作,比如countsum操作。应将一些统计类数据通过冗余数据结构保存。

    • 冗余数据结构可能以字段方式存在,也可能以独立数据表结构存在,但是都应能通过源数据表恢复。

    • 实战范例:

    • 论坛板块的发帖量,回帖量,每日新增数据等。

    • 网站每日新增用户数等。

    • 参见Discuz论坛系统数据结构,有较多相关结构。

    • 参见前文分段积分结构,是典型用于统计的冗余结构。

    • 后台可以通过源数据表更新该数字。

    • RedisZset类型可以理解为存在一种冗余统计结构。

    • 涉及分表操作后,一些常见的索引查询可能需要跨表,带来不必要的麻烦。确认查询请求远大于写入请求时,应设置便于查询项的冗余表。

    • 冗余表要点

    • 实战范例1

    • 实战范例2:用户游戏积分排名

    • 实战范例3:全冗余查询结构

    • 数据一致性,简单说,同增,同删,同更新。

    • 可以做全冗余,或者只做主键关联的冗余,比如通过用户名查询uid,再基于uid查询源表。

    • uid,passwd,用户信息等等,主数据表,基于uid 分表

    • ukey,ukeytype,uid基于ukey分表,便于用户登陆的查询。分解成如下两个SQL

    • ukeytype定义用户的登陆依据,比如用户名,手机号,邮件地址,网站昵称等。Ukey+ukeytype必须唯一。

    • 此种方式需要登陆密码统一,对于第三方connect接入模式,可以通过引申额外字段完成。

    • selectuid from ulist_key_13 where ukey=’$username’and ukeytype=‘login’;

    • select *from ulist_uid_23 where uid=$uid and passwd=’$passwd’;

    • 用户分表,将用户库分成若干数据表

    • 基于用户名的查询和基于uid的查询都是高并发请求。

    • 用户分表基于uid分成数据表,同时基于用户名做对应冗余表。

    • 如果允许多方式登陆,可以有如下设计方法

    • 表结构 uid,gameid,score参见前文实时积分排行。表内容巨大,需要拆表。

    • 需求1:基于游戏id查询积分排行

    • 需求2:基于用户id查询游戏积分记录

    • 解决方案:建立完全相同的两套表结构,其一以uid为拆表主键,其二以gameid为拆表主键,用户提交积分时,向两个数据结构同时提交。

    • 主信息表仅包括主键及备注memo 字段(text类型),只支持主键查询,可以基于主键拆表。所以需要展现和存储的内容均在memo字段重体现。

    • 对每一个查询条件,建立查询冗余表,以查询条件字段为主键,以主信息表主键id为内容。

    • 日常查询只基于查询冗余表,然后通过in的方式从主信息表获得内容。

    • 优点是结构扩展非常方便,只需要扩展新的查询信息表即可,核心思路是,只有查询才需要独立的索引结构,展现无需独立字段。

    • 缺点是只适合于相对固定的查询架构,对于更加灵活的组合查询束手无策。

    • 为了简化展现程序,在一些数据表中往往存在冗余字段

    • 举例,信息表  message,存在字段fromuid,touid,msg,sendtime 四个字段,其中touid+sendtime是复合索引。存在查询为select * frommessage where touid=$uid order by sendtime desc limit 0,30;

    • 展示程序需要显示发送者姓名,此时通常会在message表中增加字段fromusername,甚至有的会增加fromusersex,从而无需连表查询直接输出信息的发送者姓名和性别。这就是一种简单的,为了避免连表查询而使用的冗余字段设计。

    • 基于展现的冗余设计

    • 基于查询的冗余设计

    • 基于统计的冗余结构

    • 历史数据表

主从架构

  • 基本认识

    • 读写分离对负载的减轻远远不如分库分表来的直接。

    • 写压力会传递给从表,只读从库一样有写压力,一样会产生读写锁!

    • 一主多从结构下,主库是单点隐患,很难解决(如主库当机,从库可以响应读写,但是无法自动担当主库的分发功能)

    • 主从延迟也是重大问题。一旦有较大写入问题,如表结构更新,主从会产生巨大延迟。

  • 应用场景

    • 主崩溃,从自动接管

    • 写分布,读统一。

    • 仍然困难重重,受限于网络环境问题巨多!

    • 在线热备

    • 异地分布

    • 自动障碍转移

    • 个人建议,负载均衡主要使用分库方案,主从主要用于热备和障碍转移。

  • 潜在优化点

    • 为了减少写压力,有些人建议主不建索引提升i/o性能,从建立索引满足查询要求。个人认为这样维护较为麻烦。而且从本身会继承主的i/o压力,因此优化价值有限。该思路特此分享,不做推荐。

故障转移处理

  • 要点

    • 程序与数据库的连接,基于虚地址而非真实ip,由负载均衡系统监控。

    • 保持主从结构的简单化,否则很难做到故障点摘除。

  • 思考方式

    • 遍历对服务器集群的任何一台服务器,前端web,中间件,监控,缓存,db等等,假设该服务器出现故障,系统是否会出现异常?用户访问是否会出现异常。

    • 目标:任意一台服务器崩溃,负载和数据操作均会很短时间内自动转移到其他服务器,不会影响业务的正常进行。不会造成恶性的数据丢失。(哪些是可以丢失的,哪些是不能丢失的)

缓存方案

缓存结合数据库的读取

  • Memcached是最常用的缓存系统

  • Mysql最新版本已经开始支持memcache插件,但据牛人分析,尚不成熟,暂不推荐。

  • 数据读取

    • 实景分析:前端请求先连接缓存,缓存未命中连接数据库,进行查询,未命中状态比单纯连接数据库查询多了一次连接和查询的操作;如果缓存命中率很低,则这个额外的操作非但不能提高查询效率,反而为系统带来了额外的负载和复杂性,得不偿失。

    • 并不是所有数据都适合被缓存,也并不是进入了缓存就意味着效率提升。

    • 命中率是第一要评估的数据。

    • 如何评估进入缓存的数据规模,以及命中率优化,是非常需要细心分析的。

    • 相关评估类似于热点数据表的介绍。

    • 善于利用内存,请注意数据存储的格式及压缩算法。

  • Key-value方案繁多,本培训文档暂不展开。

缓存结合数据库的写入

  • 利用缓存不但可以减少数据读取请求,还可以减少数据库写入i/o压力

  • 缓存实时更新,数据库异步更新

    • 测试范例:

    • 范例1

    • 缓存实时更新数据,并将更新记录写入队列

    • 可以使用类似mq的队列产品,自行建立队列请注意使用increment来维持队列序号。

    • 不建议使用 get后处理数据再set的方式维护队列

$var=Memcache_get($memcon,”var”);

$var++;

memcache_set($memcon,”var”,$var);

这样一个脚本,使用apacheab去跑,100个并发,跑10000次,然后输出缓存存取的数据,很遗憾,并不是1000,而是5000多,6000多这样的数字,中间的数字全在get & set的过程中丢掉了。

原因,读写间隔中其他并发写入,导致数据丢失。

        • 范例2

memcache_increment来做这个操作,同样跑测试

会得到完整的10000,一条数据不会丢。

      • 结论:用increment存储队列编号,用标记+编号作为key存储队列内容。

    • 后台基于缓存队列读取更新数据并更新数据库

      • 实战范例:

      • 基于队列读取后可以合并更新

      • 更新合并率是重要指标

某论坛热门贴,前端不断有views=views+1数据更新请求。

缓存实时更新该状态

后台任务对数据库做异步更新时,假设执行周期是5分钟,那么五分钟可能会接收到这样的请求多达数十次乃至数百次,合并更新后只执行一次update即可。

类似操作还包括游戏打怪,生命和经验的变化;个人主页访问次数的变化等。

    • 异步更新风险

      • 使用后端异步更新,则前端应用程序就不要写数据库,否则可能造成写入冲突。一种兼容的解决方案是,前端和后端不要写相同的字段。

      • 实战范例:

      • 前后端同时写,可能导致覆盖风险。

用户在线上时,后台异步更新用户状态。

管理员后台屏蔽用户是直接更新数据库。

结果管理员屏蔽某用户操作完成后,因该用户在线有操作,后台异步更新程序再次基于缓存更新用户状态,用户状态被复活,屏蔽失效。

      • 缓存数据丢失或服务崩溃可能导致数据丢失风险。

        • 范例:支付信息,道具的购买与获得,一旦丢失会对用户造成极大的伤害。而经验值,访问数字,如果只丢失了很少时间的内容,用户还是可以容忍的。

        • 范例:如果使用Views=Views+…的操作,一旦出现数据格式错误,从binlog中反推是可以进行数据还原,但是如果使用Views=特定值的操作,一旦缓存中数据有错误,则直接被赋予了一个错误数据,无法回溯!

        • 如缓存中间出现故障,则缓存队列数据不会回写到数据库,而用户会认为已经完成,此时会带来比较明显的用户体验问题。

        • 一个不彻底的解决方案是,确保高安全性,高重要性数据实时数据更新,而低安全性数据通过缓存异步回写方式完成。此外,使用相对数值操作而不是绝对数值操作更安全。

      • 异步更新如出现队列阻塞可能导致数据丢失风险。

        • 异步更新通常是使用缓存队列后,在后台由cron或其他守护进程写入数据库。

        • 如果队列生成的速度>后台更新写入数据库的速度,就会产生阻塞,导致数据越累计越多,数据库响应迟缓,而缓存队列无法迅速执行,导致溢出或者过期失效。

    • 建议使用内存队列产品而不使用memcache 来进行缓存异步更新。

总结

  • 第一步,完成数据库查询的优化,需要理解索引结构,才能学会判断影响结果集。而影响结果集对查询效率线性相关,掌握这一点,编写数据查询语句就很容易判断系统开销,了解业务压力趋势。

  • 第二步,在SQL语句已经足够优化的基础上,学会对数据库整体状况的分析,能够对异常和负载的波动有正确的认识和解读;能够对系统资源的分配和瓶颈有正确的认识。

  • 学会通过监控和数据来进行系统的评估和优化方案设计,杜绝拍脑袋,学会抓大放小,把握要点的处理方法。

  • 第三步,在彻底掌握数据库语句优化和运维优化的基础上,学会分布式架构设计,掌握复杂,大容量数据库系统的搭建方法。

  • 最后,分享一句话,学会把问题简单化,正如Caoz 常说的,你如果认为这个问题很复杂,你一定想错了。

转载于:https://my.oschina/shniu/blog/354607

本文标签: mysql