专栏电商日志财经减肥爱情
投稿投诉
爱情常识
搭配分娩
减肥两性
孕期塑形
财经教案
论文美文
日志体育
养生学堂
电商科学
头戴业界
专栏星座
用品音乐

全解MySQL之分库分表后带来的副作用一站式解决方案!

  上篇《分库分表的正确姿势》中已经将分库分表的方法论全面阐述清楚了,总体看下来用一个字形容,那就是爽!尤其是分库分表技术能够让数据存储层真正成为三高架构,但前面爽是爽了,接着一起来看看分库分表后产生一系列的后患问题,注意我这里的用词,是一系列而不是几个,也就是分库分表虽然好,但你要解决的问题是海量的。一、垂直分表后带来的隐患
  垂直分表后当试图读取一条完整数据时,需要连接多个表来获取,对于这个问题只要在切分时,设置好映射的外键字段即可。当增、删、改数据时,往往需要同时操作多张表,并且要保证操作的原子性,也就是得手动开启事务来保证,否则会出现数据不一致的问题。
  这里可以看到,垂直分表虽然会有后患问题,但带来的问题本质上也不算大问题,就是读写数据的操作会相对麻烦一些,下面来看看其他的分库分表方案,接下来是真正的重头戏。二、水平分表后带来的问题
  水平分表就是将一张大表的数据,按照一定的规则划分成不同的小表,当原本的一张表变为多张表时,虽然提升了性能,但问题随之也来了2。1、多表联查问题(Join)
  之前在库中只存在一张表,所以非常轻松的就能进行联表查询获取数据,但是此时做了水平分表后,同一张业务的表存在多张小表,这时再去连表查询时具体该连接哪张呢?似乎这时问题就变的麻烦起来了,怎么办?解决方案如下:如果分表数量是固定的,直接对所有表进行连接查询,但这样性能开销较大,还不如不分表。如果不想用,或分表数量会随时间不断变多,那就先根据分表规则,去确定要连接哪张表后再查询。如果每次连表查询只需要从中获取13个字段,就直接在另一张表中设计冗余字段,避免连表查询。
  第一条好理解,第二条是啥意思呢?好比现在是按月份来分表,那在连表查询前,就先确定要连接哪几张月份的表,才能得到自己所需的数据,确定了之后再去查询对应表即可,这里该如何落地实现呢?大家别急,会在后续的《库内分表篇》去详细讲解。2。2、增删改数据的问题
  当想要增加、删除、修改一条数据时,因为存在多张表,所以又该去哪张表中操作呢?这里还是前面那个问题,只要在操作前确定好具体的表即可。但还有一种情况,就是批量变更数据时,也会存在问题,要批量修改的数据该具体操作哪几张分表呢?依旧需要先定位到具体分表才行。2。3、聚合操作的问题
  之前因为只有一张表,所以进行sum()、count()。。。。、orderby、gorupby。。。。等各类聚合操作时,可以直接基于单表完成,但此刻似乎行不通了呀?对于这类聚合操作的解决方案如下:放入第三方中间件中,然后依赖于第三方中间件完成,如ES。定期跑脚本查询出一些常用的聚合数据,然后放入Redis缓存中,后续从Redis中获取。首先从所有表中统计出各自的数据,然后在Java中作聚合操作。
  前面两种操作比较好理解,第三种方案是什么意思呢?比如count()函数,就是对所有表进行统计查询,最后在Java中求和,好比分组、排序等工作,先从所有表查询出符合条件的数据,然后在Java中通过Stream流进行处理。
  上述这三种方案都是比较合理且常规的方案,最好是选择第一种,这也是一些大企业选用的方案。
  到这里就大致聊清楚了单库中分表的一些主要问题,一般情况下库内无需做分表,只有一些特殊场景下需要做,具体的会在后续《库内分表篇》讲解,下面聊聊分库问题,分库带来的问题更多更复杂。三、垂直分库后产生的问题
  垂直分库是按照业务属性的不同,直接将一个综合大库拆分成多个功能单一的独享库,分库之后能够让性能提升N倍,但随之而来的是需要解决更多的问题,而且问题会比单库分表更复杂!3。1、跨库Join问题
  因为将不同业务的表拆分到了不同的库中,而往往有些情况下可能会需要其他业务的表数据,在单库时直接join连表查询相应字段数据即可,但此时已经将不同的业务表放到不同库了,这时咋办?跨库Join也不太现实呀,此时有如下几种解决方案:在不同的库需要数据的表中冗余字段,把常用的字段放到需要要数据的表中,避免跨库连表。选择同步数据,通过广播表网络表全局表将对应的表数据直接完全同步一份到相应库中。在设计库表拆分时创建ER绑定表,具备主外键的表放在一个库,保证数据落到同一数据库。Java系统中组装数据,通过调用对方服务接口的形式获取数据,然后在程序中组装后返回。
  这四种方案都能够解决需要跨库Join的问题,但第二、三种方案提到了广播表网络表全局表、ER绑定表似乎之前没听说过对嘛?这其实是分库分表中的一些表名词,后续《分库分表实践篇》具体落地时会详细讲解。但往往垂直分库的场景中,第四种方案是最常用的,因为分库分表的项目中,Java业务系统那边也绝对采用了分布式架构,因此通过调用对端API接口来获取数据,是分布式系统最为常见的一种现象。3。2、分布式事务问题
  分布式事务应该是分布式系统中最核心的一个问题,这个问题绝对不能出现,一般都要求零容忍,也就是所有分布式系统都必须要解决分布式事务问题,否则就有可能造成数据不一致性。
  在之前单机的MySQL中,数据库自身提供了完善的事务管理机制,通过begin、commitrollback的命令可以灵活的控制事务的提交和回滚,在Spring要对一组SQL操作使用事务时,也只需在对应的业务方法上加一个Transactional注解即可,但这种情况在分布式系统中就不行了。
  为什么说MySQL的事务机制会在分布式系统下失效呢?因为InnoDB的事务机制是建立在Undolog日志的基础上完成的,以前只有一个Undolog日志,所以一个事务的所有变更前的数据,都可以记录在同一个Undolog日志中,当需要回滚时就直接用Undolog中的旧数据覆盖变更过的新数据即可。
  但垂直分库之后,会存在多个MySQL节点,这自然也就会存在多个Undolog日志,不同库的变更操作会记录在各自的Undolog日志中,当某个操作执行失败需要回滚时,仅能够回滚自身库变更过的数据,对于其他库的事务回滚权,当前节点是不具备该能力的,所以此时就必须要出现一个事务管理者来介入,从而解决分布式事务问题。
  上述提到的通过第三方:事务管理者来介入,这只属于分布式事务问题的一种解决方案,解决方案如下:BestEfforts1PC模式。XA2PC、3PC模式。TTC事务补偿模式。MQ最终一致性事务模式。
  上述是解决分布式事务问题的四种思想,目前最常用的Seata的两种模式就是基于XA3PC和TCC思想实现的,但对于这些具体的讲解,会放到后面的《分布式事务篇》中讲解,这里了解即可。3。3、部分业务库依旧存在性能瓶颈问题
  这种情况前面说到过,经过垂直分库之后,某些核心业务库依旧需要承载过高的并发流量,因此一单节点模式部署,依然无法解决所存在的性能瓶颈,对于这种情况直接再做水平分库即可,具体过程请参考阶段二。四、水平分库后需要解决的问题
  水平分库这种方案,能够建立在垂直分库的基础上,进一步对存储层做拓展,能够让某些业务库具备更高的并发处理能力,不过水平分库虽然带来的性能收益巨大,但产生的问题也最多!4。1、聚合操作和连表问题
  对单个业务库做了水平分库后,也就是又对单个业务库做了横向拓展后,一般都会将库中所有的表做水平切分,也就是不同库中的所有表,每个水平库节点中存储的数据是不同的,这时又会出现4。2阶段聊到的一些问题,如单业务的聚合操作、连表操作会无法进行,这种情况的解决思路和水平分表时一样,先确定读写的数据位于哪个库表中,然后再去生成SQL并执行。
  当然,对于这类情况,如果只是因为并发过高导致出现性能瓶颈,最好的选择是直接做业务库集群,也就是拓展出的所有节点,数据都存一模一样的,这样无论在任何库中都具备完整数据,所以就无需先定位目标数据所处的库再操作。
  但如果数据量也比较大,就只能做水平分库分表了,相同业务不同的数据库节点,存储不同范围的数据,能够在最大程度上提升存储层的吞吐能力,但会让读写操作困难度增高,因为读写之前需要先定位读写操作到底要落到哪个节点中处理。4。2、数据分页问题
  以MySQL数据库为例,如果是在之前的单库环境中,可以直接通过limitindex,n的方式来做分页,而水平分库后由于存在多个数据源,因此分页又成为了一个难题,比如10条数据为1页,那如果想要拿到某张表的第一页数据,就必须通过如下手段获取:
  这种方式可以是可以,但略微有些繁杂,同时也会让拓展性受限,比如原本有两个水平分库的节点,因此只需要从两个节点中拿到第一页数据,然后再做一次过滤即可,但如果水平库从两节点扩容到四节点,这时又要从四个库中各自拿10条数据,然后做过滤操作,读取前十条数据显示,这显然会导致每次扩容需要改动业务代码,对代码的侵入性有些强,所以合理的解决方案如下:常用的分页数据提前聚合到ES或中间表,运行期间跑按时更新其中的分页数据。利用大数据技术搭建数据中台,将所有子库数据汇聚到其中,后续的分页数据直接从中获取。上述聊到的那种方案,从所有字库中先拿到数据,然后在Service层再做过滤处理。
  上述第一种方案是较为常用的方案,但这种方案对数据实时性会有一定的影响,使用该方案必须要能接受一定延时。第二种方案是最佳的方案,但需要搭建完善的大数据系统作为基础,成本最高。第三种方案成本最低,但对拓展性和代码侵入性的破坏比较严重。4。3、ID主键的唯一性问题
  在之前的单库环境时,对于一张表的主键通常会选用整数型字段,然后通过数据库的自增机制来保证唯一性,但在水平分库多节点的情况时,假设还是以数据库自增机制来维护主键唯一性,这就绝对会出现一定的问题,可能会导致多个库中出现ID相同、数据不同的情况,如下:
  上述两个库需要存储不同的数据,当插入数据的请求被分发到对应节点时,如果再依据自增机制来确保ID唯一性,因为这里有两个数据库节点,两个数据库各自都维护着一个自增序列,因此两者ID值都是从1开始往上递增的,这就会导致前面说到的ID相同、数据不同的情况出现,那此时又该如何解决呢?如下:
  这时可以根据水平库节点的数量来设置自增步长,假设此时有两个库,那自增步长为2,两个库的ID起始值为:{DB1:1}、{DB2:2},最终达到上图中的效果,无论在插入数据的操作落入哪个节点,都能够确保ID的唯一性。当然,保障分布式系统下ID唯一性的解决方案很多,如下:通过设置数据库自增机制的起始值和步长,来控制不同节点的ID交叉增长,保证唯一性。在业务系统中,利用特殊算法生成有序的分布式ID,比如雪花算法、Snowflake算法等。利用第三方中间件生产ID,如使用Redis的incr命令、或创建独立的库专门做自增ID工作。
  上述这几种方案都是较为主流的分布式ID生成的方案,同时也能够保证ID的有序性,能够最大程度上维护索引的性能,相对来说第一种方案成本最低,但是会限制节点的拓展性,也就是当后续扩容时,数据要做迁移,同时要重新修改起始值和自增步长。
  一般企业中都会使用第二种方案,也就是通过分布式ID生成的算法,在业务系统中生成有序的分布式ID,以此来确保ID的唯一性,但具体该如何去实现,这点会放到后续的《分布式ID篇》讲解。4。4、数据的落库问题
  对数据库做了水平拆分后,数据该怎么存储呢?写操作究竟该落到哪个库呢?读操作又如何确定数据在哪个库中呢?比如新增一条ID987215的数据,到底插入到哪个库中,需要这条数据时又该如何查询?这显然是做了水平拆分之后必须要思考的问题,这定然不能随便写,因为写过的数据在后续业务中肯定会用到,所以写数据时需要根据一定规则去落库,这样才能在需要时能定位到数据。
  但数据的拆分规则,或者被称之为路由规则,具体的还是要根据自己的业务来进行选择,在拆分时只需遵循:数据分布均匀、查询方便、扩容迁移简单这几点原则即可。
  一般简单常用的数据分片规则如下:随机分片:随机分发写数据的请求,但查询时需要读取全部节点才能拿取数据,一般不用。连续分片:每个节点负责存储一个范围内的数据,如DB1:1500W、DB2:5001000W。。。。。取模分片:通过整数型的ID值与水平库的节点数量做取模运算,最终得到数据落入的节点。一致性哈希:根据某个具备唯一特性的字段值计算哈希值,然后再通过哈希值做取模分片。。。。。。。。。。。
  总之想要处理好数据的落库问题,那首先得先确定一个字段作为分片键路由键,然后基于这个字段做运算,确保同一个值经计算后都能分发到同一个节点,这样才能确保读写请求正常运转,但关于具体该如何去做,会在后续的《MySQL分库分表实践篇》去落地。4。5、流量迁移、容量规划、节点扩容等问题
  流量迁移、容量规划、节点扩容等这些问题,在做架构改进时基本上都会碰到,接着依次聊一聊。4。5。1、流量迁移
  线上环境从单库切换到分库分表模式,数据该如何迁移才能保证线上业务不受影响,对于这个问题来说,首先得写脚本将老库的数据同步到分库分表后的各个节点中,然后条件允许的情况下先上灰度发布,划分一部分流量过来做运营测试。
  如果没有搭建完善的灰度环境,那先再本地再三测试确保没有问题后,采用最简单的方案,先挂一个公告:今日凌晨两点后服务器会进入维护阶段,预计明日早晨八点会恢复正常运转!然后停机更新,但前提工作做好,如:Java代码从单库到分库分表要改进完善、数据迁移要做好、程序调试一切无误后再切换,同时一定要做好版本回滚支持,如果迁移流量后出现问题,可以快捷切换回之前的老库。4。5。2、容量规划
  关于分库分表首次到底切分成多少个节点合适,对于这点业内没有明确规定,更多的要根据自身业务的流量、并发情况决定,根据实际情况先做垂直分库,然后再对于核心库做水平分库,但水平分库的节点数量要保证的是2的整倍数,方便后续扩容。4。5。3、节点扩容
  扩容一般是指水平分库,也就是当一个业务库无法承载流量压力时,需要对相应的业务的节点数量,但扩容时必须要考虑本次增加节点会不会影响之前的业务,因为很多情况下,当节点的数量发生改变时,可能会影响数据分片的路由规则,这时就要考虑扩容是否会影响原本的路由规则。
  扩容一般都是基于水平分库的基础上,进一步对水平库做节点扩容,目前业内有两种主流做法:水平双倍扩容法、异步双写扩容法。水平双倍扩容法
  想要使用双倍扩容法对节点进行扩容,首先必须要求原先节点数为2的整数倍,同时路由规则必须要为数值取模法、或Hash取模法,否则依旧会造成扩容难度直线提升。同时双倍扩容法还有一种进阶做法,被称之为从库升级法,也就是给原本每个节点都配置一个从库,然后同步主节点的所有数据,当需要扩容时仅需将从库升级为主节点即可,过程如下:
  起初某个业务的水平库节点数量为2,因此业务服务中的数据源配置为{DB0:144。xxx。xxx。001、DB1:144。xxx。xxx。002},当读写数据时,如果路由键经哈希取模运算后的结果为0,则将对应请求落到DB0处理,如若取模结果为1,则将数据落到DB1中处理,此时两节点的数据如下:DB0:{2、4、6、8、10、12、14、16。。。。。}DB1:{1、3、5、7、9、11、13、15。。。。。。}
  同时DB0、DB1两个节点都各有一个从节点,从节点会同步各自主节点的所有数据,此时假设两个节点无法处理请求压力时,需要进一步对水平库做扩容,这时可直接将从节点升级为主节点,过程如下:
  经过扩容之后,节点数量变成了4,所有首先得修改业务服务中的数据源配置为{DB0:144。xxx。xxx。001、DB1:144。xxx。xxx。002}、{DB2:144。xxx。xxx。003、DB3:144。xxx。xxx。004},然后将路由算法修改为4,最终数据分片如下:DB0:{4,8,12,16,20,24。。。。。}DB1:{1,5,9,13,17,21。。。。。。}DB2:{2,6,10,14,18,22。。。。。}DB3:{3,7,11,15,19,23。。。。。}
  此时要注意,因为DB2原本属于DB0的从库,所以具备原本DB0的所有数据,现在再观察上述的数据分片情况,对比如下:扩容后的DB2:{2,6,10,14,18,22。。。。。}扩容前的DB0:{2、4、6、8、10、12、14、16。。。。。}
  此时大家应该会发现,扩容后DB2中落入的分片数据,原本都是存在于DB0中的,而DB2原先就是DB0的从库,所以也具备之前DB0中数据,因此采用这种扩容法,基本上无需做数据迁移!
  好比现在要查询ID10的数据,根据原本Hash(XX)2的路由算法,会落入到DB0中读取数据,而根据现在Hash(XX)4的路由算法,应该落入到DB2中读取数据,因为DB2具备原本DB0的数据,所以也无需在扩容后,再次从DB0中将数据迁移过来(DB1、DB3亦是同理)。
  为了不占用存储空间,也可以在凌晨两点到六点这段业务低峰期,去跑脚本删除重复的数据,因为目前DB0、DB2之间的数据完全相同,都包含了对方要负责的分片数据,所以在跑脚本的时候就是要从自身库中删除对方的数据(DB1、DB3亦是同理)。
  这种从库升级扩容法是双倍扩容法的进阶实现,但这种情况会浪费一倍的机器,所以适用于一些流量特别大的场景,因为在这种扩容法中无需做数据迁移,同时扩容之后的4个节点,也可以再为其配置4个从库,以便于下次扩容。
  当然,如果你感觉这种做法太浪费机器,也可以使用传统的双倍扩容法,即每次扩容之后,要手动从原本的库中将分片数据迁移过来,如果数据量较大时,迁移数据的时间会较长,所以只能做离线迁移。
  同时在离线迁移的过程中,线上数据还有可能发生变更,所以离线迁移后还需要核对数据的一致性,过程会更繁琐一些,所以省机器还是省麻烦,需要诸位在两者之间做抉择。
  如果你在的公司财大气粗,我推荐从库升级法,因为从库升级法不仅仅能够避免数据迁移,而且还能保证高可用,当主节点宕机时可以让从节点直接上线顶替,再配合KeepalivedVIP做重启,基本上能够让数据库真正达到7x24小时不间断运行。异步双写扩容法
  前面聊到的水平双倍扩容法,仅仅只是扩容时的一种方案,除此之外还有另一种方案称之为异步双写扩容法,大体示意图如下:
  对于需要扩容时的情况,首先依旧把新的数据写入到老库中,然后写完之后同步给MQ一份,后续再由MQ的消费者去将新数据写到新库中,同时新库在这期间,会去同步老库中原有的数据,这个动作持续到所有旧数据全部同步完成后,再以老库作为校验基准,核对数据无误后,再将模式切换为扩容后的分库模式:
  切换到分库模式后,记得在业务代码中去掉双写的逻辑,改为路由分片的逻辑,稍微总结一下整个流程,如下:第一步:修改应用服务代码,加上MQ双写方案,配置新库同步老库数据,然后部署。第二步:等待新库同步复制老库中所有老数据,期间新写入的数据也会通过MQ写入新库。第三步:老库中的所有老数据全部同步完成后,以老库作为校验基准,校对新库中的数据。第四步:校对新老库之间的数据无误后,修改应用配置和代码,将双写改为路由分片,再次部署。
  看到这里相信诸位已经明白了两种扩容方法,这两种方案都是分库分表扩容时最常用的方案,但异步双写扩容法,更适用于垂直分库后的第一次单节点扩容。而水平双倍扩容法,则适用于水平分库后的第N次扩容。
  其实异步双写方案,也可以用来做后续的节点扩容,但会相对来说比较麻烦一些。4。6、分库后的多维度查询问题
  之前单库的一张表,好比以zzusers用户表为例,既可以通过userid检索数据,如:selectfromzzuserswhereuserid10086;
  也可以通过username进行数据的查找,如:selectfromzzuserswhereusername竹子爱熊猫;
  但是现在水平分库后呢,执行SQL究竟该落入哪个库是根据路由键和路由算法来决定的,假设这里路由键为userid,此时通过userid查询当然没有问题,但通过username查询时,就无法通过路由键定位具体DB了,那又该怎么办呢?解决方案如下:淘宝方案:对于订单库实现了多库多维路由键拆分,直接用了三个水平库集群,一个以用户ID作为路由键,一个以商户ID作为路由键,一个以订单时间作为路由键,三个分库集群中数据完全相同,从而满足不同维度查询数据的业务需求。数据量小的时候时,可以通过ES维护路由键的二级索引,如1:竹子、2:熊猫。。。。。
  如果业务数据量特别巨大,可以选择第一种方案做分库集群,但如果数据量不是百亿级别的规模,则可以通过ES建立路由键的二级索引,当基于非路由键字段查询时,先从ES中查到路由键值,然后再根据路由键查询数据库的数据返回。4。7、外键约束问题
  一般的项目基本上都会存在主外键,虽然不会在表上添加主外键约束,但也会从逻辑上保障主外键关系,但经过水平分库后,所有的读写操作会基于路由键去分片,那此时以订单表、订单详情表为例,假设用户选择了三个购物车的商品提交订单,此时会产生一条订单记录、以及对应的三条订单详情记录,关系大致如下:订单数据:orderid1,paymoney8888,userid666,shoporderrow3,。。。。。。订单详情数据:orderinfoid1,shopname黄金竹子,shopcount1,unitprice6000。。。。。orderinfoid2,shopname白玉竹子,shopcount2,unitprice1111。。。。。orderinfoid3,shopname翠绿竹子,shopcount1,unitprice666。。。。。
  假设商品库有两个水平节点,两个商品库都具备订单表、订单详情表,而订单表的路由键是orderid,订单详情表的路由键是orderinfoid,数据分片的路由算法为取模,那此时数据的落库情况为:orderid2:121,orderid1的订单数据落入DB1商品库中。orderinfoid2:121、321,orderinfoid1、3的订单详情数据落入DB1商品库中。220,orderinfoid2的订单详情数据落入DB0商品库中。
  但此时orderid1,orderinfoid1、2、3的数据是存在外键关系的,如果按照上述的路由方式去对数据做分片,最终就会导致通过orderid1的订单ID查询订单详情时,只能在DB1中查询到两条订单详情数据,这个问题显然是业务上无法接受的。
  所以面对于这种业务上存在主外键关系的表,必须要能够确保外键所在的数据记录,必须要和主键数据记录落到同一个库中去,否则后续无法通过主键值查询到完整的数据,对于这种情况的解决方案是通过绑定表去实现(绑定表也是分库分表中的一个新概念,这里放到后面实践篇讲解,目前简单了解即可)。五、分库后程序怎么访问数据库?
  在之前的单库模式下,业务系统需要使用数据库时,只需要在相关的配置文件中,配置单个数据源的地址、用户、密码等信息即可。但分库分表后由于存在多个数据源,程序怎么样访问数据库,配置和代码该怎么写呢?这是一个更应该关心的问题,具体可分为几种方式:
  编码层:在代码中通过框架提供的数据源动态切换类实现,如Spring。AbstractRoutingDataSource类。框架层:一般的ORM框架也会提供切换数据源的实现类,比如MyBatis。Interceptor接口拦截SQL实现。驱动层:在JDBC驱动层拦截SQL语句,然后改写SQL实现,如ShardingJDBC框架的原理就是如此。代理层:所有使用数据库的业务服务都连接代理中间件,由中间件来决定落库位置,如MyCat实现。服务层:如今较为流行的分布式数据库,基本上都自带分库分表功能,如TiDB、OceanBase。。。。
  一般编码层或框架层都无法单独实现数据源的切换,两者必须配合起来完成,用MyBatis。Interceptor接口拦截SQL语句,然后根据SQL中的路由键做运算,最终再通过Spring。AbstractRoutingDataSource类去动态切换数据源。但这种方案的工程量很大,实现过程也较为繁杂,所以下面直接来看一些成熟的方案,如下:工程(依赖、Jar包、不需要独立部署,可集成在业务项目中)淘宝网:TDDL蘑菇街:TSharding当当网:ShardingSphereJDBC进程(中间件、需要独立部署的第三方进程)早年最热门、基于阿里Cobar二开的MyCat阿里B2B:Cobar奇虎360:Atlas58同城:Oceanus谷歌开源:Vitess当当网:ShardingSphereProxy
  其实早些年大家听说的比较多的应该是MyCat这款分库分表中间件,也包括前些年一般用的比较多也是它,但最近几年MyCat不再进一步优化了,而且其核心创始人之一整天在技术群里吹水卖课,导致原本前景无限的一款产品给玩凉了,关于其创始人Leaderus的一些故事大家可参考知乎回答,这里个人不做过多评价。
  先如今要考虑做分库分表时,可首先选用当当网的ShardingSphere框架,早些年原本只有ShardingJDBC驱动层的分库分表,但到了后续又推出了代理层的ShardingProxy中间件,最终合并成立了ShardingSphere项目。
  近几年该项目也交由Apache软件基金会来孵化,并且列入到顶级项目孵化列表,随着Apache接手后也有了充实的后背保障,因此更建议分库分表时选用ShardingSphere来实现,官网:《ShardingSphere官网》。
  从社区生态和GitHub的趋势来看,基本上近些年的增长也十分迅猛,并且ShardingSphere中对分库分表后产生的一系列问题,也提供了一站式解决方案。六、分库分表后患问题总结
  在本章中补齐了分库分表带来的一系列问题的剖析,以及问题产生后相应的解决方案,但在这里仅给出了基本的解决方案,但并未对其进行落地实践,毕竟内容较多不可能面面俱到,具体的落地会在后续的章节中徐徐道来
  最后附言:所谓的架构师并不是指能做架构选型即可,比如决定缓存用Redis、消息中间件用RocketMQ、ORM框架用MyBatisPlus、微服务框架用SpringCloudAlibaba。。。。。。。,真正的架构是要能够清楚各层面中主流的技术方案,毕竟能够充分结合业务去做选型,最关键的是自身也得清楚选用某个技术栈后能够带来的性能收益,以及引入某项技术后会带来的风险问题及解决方案。
  比如当你考虑对存储层做分库分表时,就得先考虑清楚本章中提到的所有问题,以及具体该如何解决,只考虑追求技术风潮,不考虑技术风险的做法,显然无法被称作一位合格的架构师。一名合格的架构除开能全面考虑到技术风险且给出解决方案外,应当还得将项目架构设计的更为合理才行,比如设计的技术架构具备很强的弹性伸缩能力,可根据业务的增长萎靡进行动态的伸缩调整。
  能否设计并将分库分表方案落地,这也是每一名技术人员进阶道路上的一个大门槛,当你迈过了这道门槛,距离成为一名初阶架构也就不远了,本章中聊到的一些疑难杂症,也希望能够引起诸君的思考,作为一位技术者,不应该仅关注平时开发中的业务,不应该被日常的增删改查蒙蔽双眼,更应该在工作空闲之余适当思索技术,否则你会很难真正跳出困境。

后悔不?被中超球队解雇的主教练,率队在欧洲赛场豪取十连胜北京时间9月7日凌晨,欧冠联赛小组首轮中,坐镇里斯本光明球场的葡超本菲卡足球队,以20的比分,轻松击败以色列球队海法马卡比队,至此,葡超本菲卡足球队,在本赛季的各项赛事中取得了十连列宁和斯大林谁的分量更重?普京的评价很独到,入木三分谁不为苏联解体而惋惜,谁就没有良心谁想恢复过去的苏联,谁就没有头脑。这句民谚在俄罗斯称得上家喻户晓,曾经还被竞选总统的普京用于回复来自民众的热线电话。前苏联曾经创造了人类文明史上难吃再多都不胖,到底是哪里出了问题?1遗传因素吃不胖的人一般和身体中的遗传因素有很大关系,因为在身体中有一种特殊的分泌物叫做瘦素,可以控制身体的能量进食,同时也可以控制人体的体重,人体之所以容易发胖主要是因为身体中缺世界杯的遗憾531954年的韩国队背景的介绍1938年世界杯,当时作为荷兰殖民地的荷属东印度(DutchEastIndies)代表亚洲首次出现在了世界杯的赛场,但这支由印尼人华人和土生荷兰人组成的球队,所代表的并非纳达尔欣慰了!网球天王一年拿下两座大满贯,有望重返世界第一2022年美国网球公开赛还在继续,但对于36岁的西班牙天王纳达尔来说,今年的所有大满贯已经画上了句号。纳达尔在9月6日的八分之一决赛中13不敌蒂亚福,本年度大满贯之旅就此结束。或许这一刻我觉得自己是世界上最幸福的人不知道这是第几次从梦中惊醒,自从有了女儿后,无数次在梦中梦到女儿丢了。今天又梦见女儿不见了,在梦里我拼命的喊,确发不出太大的声音,到最后只能张着嘴叫着女儿的名字,发不出一点点声音,联合文件来了电信联通合并一张网中国电信中国联通共建一张网文件下来了!在中国电信2022年中期业绩说明会上,中国电信董事长柯瑞文表示,将重点加速推进室内4G共享,计划与中国联通三年完成4G一张网整合。目前,中国电其实,世界上没有治愈感冒的感冒药眼下正值换季,气温起伏不定,再加上早晚温差大,感冒的人逐渐多了起来。很多人感冒后想赶紧吃药,希望能快点好。其实有些药物并非针对病因,也无法达到治愈目的,只是对症缓解,感冒药就是如此詹姆斯韦伯发现了一颗奇怪的棕矮星世界这是一个艺术家对棕矮星体的构想,在其快速变化的大气中有云带。天文学家长期以来一直推测,某些类型的棕矮星包裹在湍流快速变化的大气中。詹姆斯韦伯太空望远镜发现了一个奇怪的外星世界,它被欧锦赛16强已定15队,前南五虎未能全部晋级,西欧诸强晋级2022年欧洲男篮锦标赛,截至北京时间9月8日晨,A组和B组的比赛全部打完,C组和D组还有最后一轮。本次赛事16强已经产生15支球队,最后的悬念在D组,最后1个席位在以色列和捷克队这8种成分,会让您的皮肤越用越差,想要好皮肤的,一定要远离它随着社会的发展,科技也在不断的进步,各种五花八门的化学成分,可谓是添加到了所有的商品当中,尤其是化妆品,很多不良商家,绝对不会放过这块肥肉,只要是能快速看到效果的,他们不管对皮肤能
三国孙权十万败于张辽三千,真就是指挥上的缺陷?孙权败于张辽,除去一些客观因素,孙权的主要作战兵力可能只有五成,五成之中还可能包含水军,而张辽所说的三千人马,可能其全部是作战兵力。另一方面,孙权的整个长江防线应都有常备兵力驻守,邓丽君想回大陆走走,却被一位重量级人物阻止,原来另有深层用意原创文章,敬请阅读邓丽君是一个复杂体,年轻时漂泊国外多年,两耳不闻祖国事,待到一定的年龄时才想回大陆走走看看,却因为她早年赴日援日的问题而受到一位重量级人物的阻止,最终未能踏足大陆潘石屹夫妇,双双辞职9月7日午间,据SOHO中国在港交所公告,潘石屹已辞去董事会主席提名委员会主席和ESG委员会主席的职务,以专注于支持艺术和慈善事业潘张欣女士已辞去公司行政总裁(CEO)职务,以专注玲花坚持一生55分账,与曾毅成意难平,婚礼上一个大哭一个大醉2003年,纸质版的签约邀请塞满了玲花家的信箱,电话都快要被打爆了。成千上百个音乐公司有一个共同的要求只签玲花,不要曾毅。但玲花一遍又一遍地重复着同样一句话签我可以,如果不签曾毅,南昌起义主要领导人,为何由4人改为5人?周总理名单里必须有他欢迎阅读史源历史专栏第3173期。1957年的8月1日,是南昌起义30周年纪念日,而南昌起义是人民军队的建军开端,具有重要意义。作为权威报纸的解放军报将要刊载相关的专题文章,但直到只有足够努力,才会足够幸运想要得到这世上最好的东西,得先让世界看到最好的你。你不一定要立马就逆风翻盘,但一定要始终向阳而生。Ifyouwanttogetthebestintheworld,youhaveto努力的意义我们所有的努力,不是为了证明自己有多优秀,而是在意外和不可控的外来因素来临时,那些平日里努力所积淀的能力,可以为我们遮风避雨,能够让我们不至于活得那么狼狈。我们之所以去努力,就是想网传六位金鹰女神候选人海报出炉,谭松韵和赵今麦当选的机会大每两年一届的金鹰节又要来了,从现在起到真正开幕式,相信内娱都会很热闹!金鹰奖作为娱乐圈的主流奖项,几十年来一直备受认可,但自从29届金鹰奖举办后,该奖项的口碑也急剧下滑,因为那一届1976年,一名通讯员急匆匆赶到北海报告,叶剑英听完惊落手中鱼竿1976年,叶剑英工作非常繁忙,好不容易抽出一点时间,拿起鱼竿前往北海垂钓。风声和水流在耳边划过时,他能稍微缓解一下内心的烦闷和担忧。一日寒冬,天气不太好,叶剑英正好休假,带上鱼竿广州队海报展示夏窗成果众神归位,广州队守护者联盟集结直播吧9月1日讯今天,广州足球俱乐部官博发布海报,展示了球队全新的教练班子以及夏窗的引援成果。近期,郑智重返广州队出任主帅,梅方张成林黄博文也加入了一线队的教练组。而且在广州队的球不良人第六季海报曝光,超炫酷,网友直言难怪猜不到隔壁掩日是谁自从画江湖之不良人第五季完结之后,很多粉丝都心心念念第六季,也都希望官方早点放出来和大家见面。而到了现在,又到一年一度的腾讯动画节了,作为惯例,视频平台再度放出今年和明年要出的各种
友情链接:快好找快生活快百科快传网中准网文好找聚热点快软网