范文健康探索娱乐情感热点
投稿投诉
热点动态
科技财经
情感日志
励志美文
娱乐时尚
游戏搞笑
探索旅游
历史星座
健康养生
美丽育儿
范文作文
教案论文
国学影视

redis高可用redis集群redis缓存优化

  转载自:https://www.cnblogs.com/jgx0/p/16302627.html今日内容概要redis高可用 redis集群 redis缓存优化 内容详细1、redis高可用# 主从复制存在的问题: 	1 主从复制,主节点发生故障,需要做故障转移,可以手动转移:让其中一个slave变成master--->哨兵      	2 主从复制,只能主写数据,所以写能力和存储能力有限----》集群  # 案例 	-一主两从,主写数据,从读数据 	-如果主库挂掉,从库只能读,redis就不能对外提供服务了,它就不高可用 	-即便主挂掉,选一个从库作为主库,继续对外提供服务 就是高可用 	-原来的主库,又启动起来了,它现在作为从库    # 使用哨兵完成上面的事情  sentinel--》哨兵  ##### 搭建步骤 # 搭建一主两从  # 配置3个哨兵 # 主一 daemonize yes dir ./data3 protected-mode no bind 0.0.0.0 logfile "redis_sentinel3.log" sentinel monitor mymaster 127.0.0.1 6379 2 sentinel down-after-milliseconds mymaster 30000 sentinel parallel-syncs mymaster 1 sentinel failover-timeout mymaster 180000  # 从一 port 26380 daemonize yes dir ./data2 protected-mode no bind 0.0.0.0 logfile "redis_sentinel3.log" sentinel monitor mymaster 127.0.0.1 6379 2 sentinel down-after-milliseconds mymaster 30000 sentinel parallel-syncs mymaster 1 sentinel failover-timeout mymaster 180000  # 从二 port 26381 daemonize yes dir ./data protected-mode no bind 0.0.0.0 logfile "redis_sentinel1.log" sentinel monitor mymaster 127.0.0.1 6379 2 sentinel down-after-milliseconds mymaster 30000 sentinel parallel-syncs mymaster 1 sentinel failover-timeout mymaster 180000   # 启动三个哨兵 ./src/redis-sentinel sentinel_26379.conf ./src/redis-sentinel sentinel_26378.conf ./src/redis-sentinel sentinel_26377.conf   # 客户端连接到某一个redis上 info  # 查看主从信息   # 客户端连到某个 sentinel上(一个sentinel类似于一个redis-server,客户端可以连接) redis-cli -p 26379   # 连到这个哨兵上 info """ # Sentinel sentinel_masters:1 sentinel_tilt:0 sentinel_running_scripts:0 sentinel_scripts_queue_length:0 sentinel_simulate_failure_flags:0 master0:name=mymaster,status=ok,address=127.0.0.1:6379,slaves=2,sentinels=3 """  # 演示故障切换 # 停掉主库---》6379 shutdown  # 哨兵认为主挂了,会自动选一个从库当主库 info 选择了6380作为主了  # 把6379启动,6379现在变成从库 哨兵搭建后的python连接# python连接redis---》写写到主库,读从从库中读---》一旦用了高可用(主库会变)---》python连接哨兵---》通过哨兵返回主,去写,返回从,去读  import redis from redis.sentinel import Sentinel  # 连接哨兵服务器(主机名也可以用域名) # 127.0.0.1:26379 sentinel = Sentinel([("127.0.0.1", 26379),                      ("127.0.0.1", 26380),                      ("127.0.0.1", 26381) 		     ],                     socket_timeout=5)  print(sentinel) # 获取主服务器地址 master = sentinel.discover_master("mymaster") print(master)  # 返回所有主  # 获取从服务器地址 slave = sentinel.discover_slaves("mymaster") print(slave)  # 返回所有从    ##### 读写分离 # 获取主服务器进行写入 master = sentinel.master_for("mymaster", socket_timeout=0.5) w_ret = master.set("foo", "bar")  slave = sentinel.slave_for("mymaster", socket_timeout=0.5) r_ret = slave.get("foo") print(r_ret) 2、redis集群# 主从复制,只能主写数据,所以写能力和存储能力有限----》集群  # 存在问题  	1 并发量:单机redis qps为10w/s,但是我们可能需要百万级别的并发量 	2 数据量:机器内存16g--256g,如果存500g数据呢?  # 解决:加机器,分布式 redis cluster 在2015年的 3.0 版本加入了,满足分布式的需求   # 分布式数据库 	假设全量的数据非常大,500g,单机已经无法满足,我们需要进行分区,分到若干个子集中      # 分区方式 	-哈希分布 	原理:hash分区: 节点取余 ,假设3台机器, hash(key)%3,落到不同节点上 	优点:热点数据分散   	缺点:不利于批量查询      	-顺序分布 	 	原理:100个数据分到3个节点上 1--33第一个节点;34--66第二个节点;67--100第三个节点(很多关系型数据库使用此种方式,mysql通常用它) 	缺点:热点数据太集中     # mysql 官方没有集群方案---》第三方解决方案---》顺序,哈希   # 哈希分区 	-节点取余:后期扩容--》迁移数据总量大---》推荐翻倍库容      	-一致性 hash 		每个节点负责一部分数据,对key进行hash,得到结果在node1和node2之间,就放到node2中,顺时针查找 		扩容迁移数据迁移少,数据不均衡      	-虚拟槽分区(redis集群) 		预设虚拟槽:每个槽映射一个数据子集,一般比节点数大 		良好的哈希函数:如CRC16 		服务端管理节点、槽、数据:如redis cluster(槽的范围0–16383) 2.1 搭建# 6台机器,3个节点的集群,另外三台做副本库(从库)  # 自动故障转移,3个主节点,如果有一个挂了,另外一个从库就会升级为主库   # redis的端口7000  # redis的端口7001  # redis的端口7002   # redis的端口7003 # redis的端口7004 # redis的端口7005   # 只要集群中有一个故障了,整个就不对外提供服务了,这个实际不合理,假设有50个节点,一个节点故障了,所有不提供服务了   # 配置文件 port 7000 daemonize yes dir "/root/s20/redis-5.0.7/data" logfile "7000.log" dbfilename "dump-7000.rdb"  cluster-enabled yes cluster-config-file nodes-7000.conf cluster-require-full-coverage yes   # 快速生成其他配置 sed "s/7000/7001/g" redis-7000.conf > redis-7001.conf sed "s/7000/7002/g" redis-7000.conf > redis-7002.conf sed "s/7000/7003/g" redis-7000.conf > redis-7003.conf sed "s/7000/7004/g" redis-7000.conf > redis-7004.conf sed "s/7000/7005/g" redis-7000.conf > redis-7005.conf   # 启动6个节点 ./src/redis-server ./redis-7000.conf ps -ef |grep redis ./src/redis-server ./redis-7001.conf ./src/redis-server ./redis-7002.conf ./src/redis-server ./redis-7003.conf ./src/redis-server ./redis-7004.conf ./src/redis-server ./redis-7005.conf   ### 客户端连上---》放数据--->想搭建集群---》集群模式没有分槽---》放的这个数据不知道放到哪个节点--》放不进去----》搭建完成才能写入数据   ## 客户端链接上的命令: cluster nodes   # 如果没有搭建完成,只能看到自己 cluster info    # 集群状态是成功失败的   # 搭建集群 4.x以前版本,比较麻烦 	-先meet 	-指派槽 	-建立主从   # 快速搭建集群 4.x以后,只需要这一条,自动meet,自动指派槽,自动建主从 # 注意这个数字  cluster-replicas 1  ---》指的是每个主节点有几个从节点 redis-cli --cluster create --cluster-replicas 1 127.0.0.1:7000 127.0.0.1:7001 127.0.0.1:7002 127.0.0.1:7003 127.0.0.1:7004 127.0.0.1:7005                                                    ### 演示写入数据 	-在7001上写入  name   lqz 	-去7002上查不到name 	-对name crc16哈希运算完---》算完的槽--->知道哪个节点管了哪些槽---》告诉你去哪个节点存                       # 以集群模式登陆, 	-无论在哪个主节点,都能写入数据,获取数据 	redis-cli -c -p 端口  # 以集群模式登陆,如果操作不到,自动重定向过去                  # 演示故障转移 	-7001 是个主库---》主库停掉--》7005从库会自动升级为主库
  2.2 集群扩容/缩容## 集群扩容 sed "s/7000/7006/g" redis-7000.conf > redis-7006.conf sed "s/7000/7007/g" redis-7000.conf > redis-7007.conf ./src/redis-server ./redis-7006.conf ./src/redis-server ./redis-7007.conf   ### 方式一 在7000上执行 redis-cli -p 7000 cluster meet 127.0.0.1 7006 redis-cli -p 7000 cluster meet 127.0.0.1 7007  ### 方式二 redis-cli --cluster add-node 127.0.0.1:7006 127.0.0.1:7000 redis-cli --cluster add-node 127.0.0.1:7007 127.0.0.1:7000  # 让7007做为7006的从 redis-cli -p 7007 cluster replicate 2d657119470fd7c65c366698f20cc104295b7555    ##### 分槽 redis-cli --cluster reshard 127.0.0.1:7000      # 16384总共平均分配到4个节点,每个节点需要有:4096槽 数4096 指定到7006节点上 自动从三个节点中的每个节点拿一部分槽放到7006身上,凑够4096个                ###### 缩容 # 下线迁槽(把7006的1366个槽迁移到7000上)--->把槽迁走 # 从谁那里迁到谁身上 redis-cli --cluster reshard --cluster-from 2d657119470fd7c65c366698f20cc104295b7555 --cluster-to 997257c78c2995372c8cde228850b4b101d2a03b --cluster-slots 1365 127.0.0.1:7000 yes  redis-cli --cluster reshard --cluster-from 2d657119470fd7c65c366698f20cc104295b7555 --cluster-to c763786ad7fa9c65fb9182a8cfe0be4825ee96a0 --cluster-slots 1366 127.0.0.1:7005 yes  redis-cli --cluster reshard --cluster-from 2d657119470fd7c65c366698f20cc104295b7555 --cluster-to 1993efb87276df5986bdca56930aaa8ec3e78287 --cluster-slots 1366 127.0.0.1:7002 yes   # 忘记节点,关闭节点 redis-cli --cluster del-node 127.0.0.1:7000 1cddf0889d525516ad38a714ad5d38bead74dbcb(从库id)  # 先下从,再下主,因为先下主会触发故障转移      redis-cli --cluster del-node 127.0.0.1:7000 2d657119470fd7c65c366698f20cc104295b7555(主库id)       # 关掉其中一个主,另一个从立马变成主顶上, 重启停止的主,发现变成了从 3、redis缓存优化# 双写一致性 	-定时更新 	-增数据删缓存 	-增数据改缓存     # redis自身有缓存更新策略---》redis占内存不能无限大,可以控制,内存就是满了  # 缓存更新策略 	1. LRU -Least Recently Used,没有被使用时间最长的 		# LRU配置 		maxmemory-policy:volatile-lru 		(1)noeviction: 如果内存使用达到了maxmemory,client还要继续写入数据,那么就直接报错给客户端 		(2)allkeys-lru: 就是我们常说的LRU算法,移除掉最近最少使用的那些keys对应的数据,ps最长用的策略 		(3)volatile-lru: 也是采取LRU算法,但是仅仅针对那些设置了指定存活时间(TTL)的key才会清理掉 		(4)allkeys-random: 随机选择一些key来删除掉 		(5)volatile-random: 随机选择一些设置了TTL的key来删除掉 		(6)volatile-ttl: 移除掉部分keys,选择那些TTL时间比较短的keys                           	2. LFU -Least Frequenty User,一定时间段内使用次数最少的 		# LFU配置 Redis4.0之后为maxmemory_policy淘汰策略添加了两个LFU模式: 		volatile-lfu:对有过期时间的key采用LFU淘汰算法 		allkeys-lfu:对全部key采用LFU淘汰算法          		# 还有2个配置可以调整LFU算法: 		lfu-log-factor 10 		lfu-decay-time 1 		# lfu-log-factor可以调整计数器counter的增长速度,lfu-log-factor越大,counter增长的越慢。 		# lfu-decay-time是一个以分钟为单位的数值,可以调整counter的减少速度                   	3. FIFO -First In First Out                    ###  缓存穿透--(缓存中没有,数据中也没有---》基本是恶意攻击) # 描述: 	缓存穿透是指缓存和数据库中都没有的数据,而用户不断发起请求,如发起为id为"-1"的数据或id为特别大不存在的数据。这时的用户很可能是攻击者,攻击会导致数据库压力过大  # 解决方案: 	1 接口层增加校验,如用户鉴权校验,id做基础校验,id<=0的直接拦截      	2 从缓存取不到的数据,在数据库中也没有取到,这时也可以将key-value对写为key-null,缓存有效时间可以设置短点,如30秒(设置太长会导致正常情况也没法使用)。这样可以防止攻击用户反复用同一个id暴力攻击  	3 通过布隆过滤器实现---》把数据库中存在的数据,放到布隆过滤器中--》查的时候,去布隆过滤器查一下在不在---》在的话,继续往后走,不在的话直接给前端错误        ### 缓存击穿(缓存中没有,数据库中有) # 描述: 	缓存击穿是指缓存中没有但数据库中有的数据(一般是缓存时间到期),这时由于并发用户特别多,同时读缓存没读到数据,又同时去数据库去取数据,引起数据库压力瞬间增大,造成过大压力      # 解决方案: 	设置热点数据永远不过期。    ### 缓存雪崩 # 描述: 	缓存雪崩是指缓存中数据大批量到过期时间,而查询数据量巨大,引起数据库压力过大甚至down机。和缓存击穿不同的是,缓存击穿指并发查同一条数据,缓存雪崩是不同数据都过期了,很多数据都查不到从而查数据库      # 解决方案: 	1 缓存数据的过期时间设置随机,防止同一时间大量数据过期现象发生。 	2 如果缓存数据库是分布式部署,将热点数据均匀分布在不同搞得缓存数据库中 	3 设置热点数据永远不过期。

期待已久的MacPro上市了。价格比一台宝马都还要贵在苹果发布了全新一代工作站,MacPro。半年之后才终于上市了。以前我们觉得iMacpro已经很贵啦。顶配差不多10万啦。但是在MacPro面前,一台宝马三系都不算啥了。Macpr微服务的那些事(四)初始SpringCloud1。初始SpringCloud微服务是一种架构方式,最终肯定需要技术架构去实施。微服务的实现方式很多,但是最火的莫过于SpringCloud了。为什么?后台硬作为Spring家族的微服务的那些事(二),springBoot你打开微服务的大门为什么要谈springBoot这段时间一直都在整理关于微服务的相关的知识。为什么要谈一下springboot,其实想到Java的微服务,大家都想到的肯定是springCloud。其微服务的那些事(七)容错管理工具Hystrix1。1什么是HystrixHystix是Netflix开源的一个延迟和容错库,用于隔离访问远程服务第三方库,防止出现级联失败。熔断器Netflix是一个容错管理工具,作用是通过隔离微服务的那些事(五)深入探索Eureka注册中心Eureka简介Eureka是Netflix开发的服务发现框架,本身是一个基于REST的服务,主要用于定位运行在AWS域中的中间层服务,以达到负载均衡和中间层服务故障转移的目的。SJava实战技巧之让七牛云给我们存储照片为什么要使用七牛云一直以来很多公司,都在自己的服务器来存储自己的照片,这样非常的耗费带宽,同时每一次服务器迁移都会出现图片找不到的情况,七牛云就刚好的帮我们解决了这个问题,我们只需华为的回应不是法治,而是以势压人华为的回应不是法治,而是以势压人张炳剑2019年12月03日1333来源钱江晚报原标题快评华为的回应不是法治,而是以势压人华为前员工李洪元离职后被起诉敲诈勒索,在羁押251天后,最苹果手机市场增长陷入停滞,昔日iPhone加速降价从去年年底到今年上半年的这段时间,其它的手机厂商大多数都实现了可观的营收增长,而苹果的智能手机市场却受到陷入停滞的冲击。苹果官方表示,期内iPhone营收同比下降12。而其股价更是电视的未来究竟是什么?老大海信发话了!电视的未来是什么?谁才是电视的未来?8月9日上午,已连续15年中国电视市场第一的龙头老大海信给出了答案HiTable!海信从未停止过对电视未来的思考。8月9日,海信电器股份有限公司16英寸MacBook最新消息采用LG液晶屏屏占比极高近日,有消息称苹果在今年秋季除了发布三款新iPhone外,还将对MacBook产品线进行全面升级。新款MacBook将配备16英寸的LG液晶屏,分辨率为30721920,达到了3K为什么你需要一款智能手环这些功能告诉你随着现代科技进入生活,可穿戴设备也越来的越流行,其中智能手环就是其中最简单的一款,随着各大商家的广告推广,智能手环一时无比的流行。现在的年轻人多数都处于亚健康状态,有这样一款产品可
好久不见!直击天波in商业信息化智慧零售展现场7月22日,2020第十三届中国商业信息化行业大会暨第十三届中国商业信息化智慧零售展在湖南国际会展中心隆重举行。作为天波在疫情后参加的首个线下展会,跟在场数百位行业伙伴来了一次久违7月CPI涨2。7麦肯锡亚太区Z世代调研报告家乐福菜篮子上线国家统计局7月份居民消费价格同比上涨2。7据国家统计局网站消息,7月份,全国居民消费价格同比上涨2。7。其中,城市上涨2。4,农村上涨3。7食品价格上涨13。2,非食品价格持平消费全球线上外卖业务激增,商米移动设备出货量增加100今年,受疫情影响,越来越多餐饮零售企业加大了线上外卖的运营力度在此背景下,商米V系列移动设备因为简便易上手完美适用于外卖场景,需求量激增,第二季度出货量同比增加100。目前已经销往盒小马网订柜取模式开启复制高鑫零售到家日均超950单商务部力争到2022年,全国品牌连锁便利店达30万家8月11日,商务部办公厅印发关于开展便利店品牌化连锁化三年行动的通知,拟在全国范围开展三年行动。通知指出,要聚焦影响便利店发展的华润万家线上业务暴增532老乡鸡计划入驻天猫旗舰店16月全国网络零售额达5。15万亿,同比增长7。37月30日,商务部新闻发言人高峰在商务部新闻发布会上表示,16月,全国网络零售额达5。15万亿元,同比增长7。3增速连续4个月提升开展到家业务的综合能力打造与模式选择同城零售社区零售本地生活,可以说是继电商之后疫情催化的一片新商业市场,今年下半年,电商大玩家动作频频,急于从中分得一杯羹美团调整组织架构,宣布启动同城零售京东成立大商超全渠道事业群模玩秀银样镴枪头机械星球HS03声波激光鸟作者索罗门262文章转自78DM没错!老子才是主角!激光鸟随着不爆炸就不开心的马口杯把TF真人电影给彻底带领到了万劫不复的境况,加上孩之婊新动画的不给力,东映的日系TF彻底躺平等等从场景革命到场景纪元,实体零售你准备好了吗?从数字到场景,新的商业思维与方法论正以场景为单位进一步不断演化。五年前开始演绎的场景革命,思考的是流量迭代,是人与商业如何重新连接。电子商务互联网金融社交应用APP产品的研发场景规边缘计算和云计算的融合应用发展趋势零售应用场景价值随着零售全行业数字化转型的脚步愈加迅速,深化细分场景后,大量非结构化数据剧增,单纯依赖独立服务器或云服务都难以支持或计算其规模。由此,边缘计算作为链接人货场服务器的桥梁,与云服务结如何打造小程序新运营场景定位,以提升竞争力小程序如何与新零售场景连接在当前的零售行业中8090后从买卖的生力军进入主力军,这部分人群的生活已经完全适应移动互联网生活方式,零售行业正在变得数字化和一体化,微信小程序的到来可以SKYLAB解析BLE蓝牙模块在智能家居中的典型应用场景小尺寸低功耗高性能的无线模块为物联网(IoT)带来了无处不在的连接,让传感器数据能够快速的采集更多终端设备数据,并通过透明传输将数据完整的发送到云端服务器端,让用户能够实时的获得精