图片来自Pexels突然电话响了,是我们开发同学之一,我一下子紧张起来。这周的版本已经发布了,这时候的调用一般是线上的问题。果然,沟通情况是一个查询数据的在线接口被疯狂无理调用。这个操作直接导致线上MySQL集群变慢。好吧,这个问题被认为是严重的。下了地铁就赶紧回家,打开电脑,和同事一起在Pinpoint上翻出慢查询日志。看到一个很奇怪的查询,如下:POSTdomain/v1.0/module/method?order=condition&orderType=desc&offset=1800000&limit=500domain,module和method都是别名,分别代表接口的域、模块和实例方法名.offset和limit分别表示分页操作的偏移量和每页的页数。也就是说,学生正在翻页(1800000/500+1=3601)。初步查找日志,发现有8000多个这样的调用。这很神奇,我们页面的分页单页数不是500,而是每页25个。这绝对不是功能页面人为的翻页操作,而是刷了数据(注意,我们的生产环境数据有1亿+)。详细对比日志,发现很多paging的时间是重叠的,对方应该是多线程调用。通过对鉴权Token的分析,基本定位请求来自一个叫ApiAutotest的客户端程序做这个操作,同时也定位生成鉴权Token的账号来自一个QA同学。马上给同学打电话,沟通处理。分析其实对于我们的MySQL查询语句来说,整体效率还是不错的。有一些联表查询优化,简单的查询内容也有,关键条件字段和排序字段都有索引。问题是他一页一页地搜索。页码越靠后,扫描的数据越多,速度越慢。我们查看前几页的时候,发现速度很快,比如limit200、25,瞬间就出来了。但是越往前,速度就越慢,尤其是一百万次之后,卡就不行了,请问这是什么原理。我们翻页看后面查询的SQL:select*fromt_namewherec_name1='xxx'orderbyc_name2limit2000000,25;这个查询的慢实际上是由于限制后面的大偏移量造成的。比如像上面的limit2000000,25。这相当于从数据库中扫描出2,000,025条数据,然后丢弃前面的20,000,000条数据,将剩下的25条数据返回给用户。这种方法显然是不合理的。这个问题的解释请参考《高性能 MySQL》的第6章“查询性能优化”:分页操作通常使用limit加offset,以及合适的orderby子句来实现。但这有一个通病:当偏移量很大时,会导致MySQL扫描很多不需要的行,然后丢弃。数据模拟不错。如果你明白问题的原理,那就试着解决它。它涉及数据敏感性。让我们模拟这种情况并构建一些数据进行测试。①创建两张表:员工表和部门表。/*部门表,如果存在则删除*/droptableifEXISTSdep;createtabledep(idintunsignedprimarykeyauto_increment,depnomediumintunsignednotnulldefault0,depnamevarchar(20)notnulldefault"",memovarchar(200)notnulldefault"");/*员工表,如果存在则删除*/droptableifEXISTSemp;createtableemp(idintunsignedprimarykeyauto_increment,empnomediumintunsignednotnulldefault0,empnamevarchar(20)notnulldefault"",jobvarchar(9)notnulldefault"",mgrmediumintunsignednotnulldefault0,hiredatedatetimenotnull,saldecimal(7,2)notnull,defaultcomndecimal(7,2)notnullin,tundiumin,dep两个函数:生成随机字符串和随机数。/*产生随机字符串的函数*/DELIMITER$dropFUNCTIONifEXISTSrand_string;CREATEFUNCTIONrand_string(nINT)RETURNSVARCHAR(255)BEGINDECLAREchars_strVARCHAR(100)DEFAULT'abcdefghijklmlopqrstuvwxyzABCDEFGHIJKLMNOPQRSTUVWXYZ';DECLAREreturn_strVARCHAR(255)DEFAULT'';DECLAREiINTDEFAULT0;WHILEi
