第三章 Redis/SSDB+Twemproxy安装与使用 - 《亿级流量网站架构核心技术》~ - ITeye博客


本站和网页 https://www.iteye.com/blog/jinnianshilongnian-2186787 的作者无关,不对其内容负责。快照谨为网络故障时之索引,不代表被搜索网站的即时页面。

第三章 Redis/SSDB+Twemproxy安装与使用 - 《亿级流量网站架构核心技术》~ - ITeye博客
首页
资讯
精华
论坛
问答
博客
专栏
群组
下载
资源
搜索
您还未登录!
登录
jinnianshilongnian
浏览:
21305069 次
性别:
最近访客
更多访客>>
qq826928141
cqwb123
twentwo
csj_9_9
博主相关
博客
微博
相册
收藏
留言
关于我
博客专栏
跟我学spring3
浏览量:2378480
Spring杂谈
浏览量:2977237
跟开涛学SpringMVC...
浏览量:5617648
Servlet3.1规范翻...
浏览量:252777
springmvc杂谈
浏览量:1585822
hibernate杂谈
浏览量:246601
跟我学Shiro
浏览量:5826074
跟我学Nginx+Lua开...
浏览量:691523
亿级流量网站架构核心技术
浏览量:771058
文章分类
全部博客 (329)
跟我学Nginx+Lua开发 (13)
跟我学spring (54)
跟开涛学SpringMVC (34)
spring4 (16)
spring杂谈 (50)
springmvc杂谈 (22)
跟我学Shiro (26)
shiro杂谈 (3)
hibernate杂谈 (10)
java开发常见问题分析 (36)
加速Java应用开发 (5)
Servlet 3.1规范[翻译] (21)
servlet3.x (2)
websocket协议[翻译] (14)
websocket规范[翻译] (1)
java web (6)
db (1)
js & jquery & bootstrap (4)
非技术 (4)
reminder[转载] (23)
跟叶子学把妹 (8)
nginx (2)
架构 (19)
flume架构与源码分析 (4)
社区版块
我的资讯 (
10)
我的论坛 (
1112)
我的问答 (
2428)
存档分类
2018-04
1)
2017-06
1)
2016-12
1)
更多存档...
最新评论
xxx不是你可以惹得:
认真看错误代码,有时候重启电脑就行了 醉了 我把数据库配置写死 ...
第十六章 综合实例——《跟我学Shiro》
dagger9527:
holyselina 写道您前面说到能获取调用是的参数数组,我 ...
【第六章】 AOP 之 6.6 通知参数 ——跟我学spring3
xxx不是你可以惹得:
Access denied for user 'root'@' ...
第十六章 综合实例——《跟我学Shiro》
dagger9527:
只有@AspectJ支持命名切入点,而Schema风格不支持命 ...
【第六章】 AOP 之 6.5 AspectJ切入点语法详解 ——跟我学spring3
dagger9527:
支持虽然会迟到,但永远不会缺席!
【第四章】 资源 之 4.3 访问Resource ——跟我学spring3
jinnianshilongnian
第三章 Redis/SSDB+Twemproxy安装与使用
博客分类: 跟我学Nginx+Lua开发
reidsssdbtwemproxy
阅读更多
目前对于互联网公司不使用Redis的很少,Redis不仅仅可以作为key-value缓存,而且提供了丰富的数据结果如set、list、map等,可以实现很多复杂的功能;但是Redis本身主要用作内存缓存,不适合做持久化存储,因此目前有如SSDB、ARDB等,还有如京东的JIMDB,它们都支持Redis协议,可以支持Redis客户端直接访问;而这些持久化存储大多数使用了如LevelDB、RocksDB、LMDB持久化引擎来实现数据的持久化存储;京东的JIMDB主要分为两个版本:LevelDB和LMDB,而我们看到的京东商品详情页就是使用LMDB引擎作为存储的,可以实现海量KV存储;当然SSDB在京东内部也有些部门在使用;另外调研过得如豆瓣的beansDB也是很不错的。具体这些持久化引擎之间的区别可以自行查找资料学习。
Twemproxy是一个Redis/Memcached代理中间件,可以实现诸如分片逻辑、HashTag、减少连接数等功能;尤其在有大量应用服务器的场景下Twemproxy的角色就凸显了,能有效减少连接数。
Redis安装与使用 
1、下载redis并安装
cd /usr/servers/
wget https://github.com/antirez/redis/archive/2.8.19.tar.gz
tar -xvf 2.8.19.tar.gz
cd redis-2.8.19/
make 
通过如上步骤构建完毕。
2、后台启动Redis服务器
nohup /usr/servers/redis-2.8.19/src/redis-server /usr/servers/redis-2.8.19/redis.conf &
3、查看是否启动成功
ps -aux | grep redis
4、进入客户端
/usr/servers/redis-2.8.19/src/redis-cli -p 6379
5、执行如下命令  
127.0.0.1:6379> set i 1
OK
127.0.0.1:6379> get i
"1" 
通过如上命令可以看到我们的Redis安装成功。更多细节请参考http://redis.io/。
SSDB安装与使用
1、下载SSDB并安装
#首先确保安装了g++,如果没有安装,如ubuntu可以使用如下命令安装
apt-get install g++
cd /usr/servers
wget https://github.com/ideawu/ssdb/archive/1.8.0.tar.gz
tar -xvf 1.8.0.tar.gz
make 
2、后台启动SSDB服务器
nohup /usr/servers/ssdb-1.8.0/ssdb-server /usr/servers/ssdb-1.8.0/ssdb.conf &
3、查看是否启动成功   
ps -aux | grep ssdb
4、进入客户端
/usr/servers/ssdb-1.8.0/tools/ssdb-cli -p 8888
/usr/servers/redis-2.8.19/src/redis-cli -p 888 
因为SSDB支持Redis协议,所以用Redis客户端也可以访问 
5、执行如下命令
127.0.0.1:8888> set i 1
OK
127.0.0.1:8888> get i
"1"
安装过程中遇到错误请参考http://ssdb.io/docs/zh_cn/install.html;对于SSDB的配置请参考官方文档https://github.com/ideawu/ssdb。
Twemproxy安装与使用
首先需要安装autoconf、automake、libtool工具,比如ubuntu可以使用如下命令安装
apt-get install autoconf automake
apt-get install libtool
  
1、下载Twemproxy并安装
cd /usr/servers
wget https://github.com/twitter/twemproxy/archive/v0.4.0.tar.gz
tar -xvf v0.4.0.tar.gz
cd twemproxy-0.4.0/
autoreconf -fvi
./configure && make 
此处根据要注意,如上安装方式在有些服务器上可能在大量如mset时可能导致Twemproxy崩溃,需要使用如 CFLAGS="-O1" ./configure && make或CFLAGS="-O3 -fno-strict-aliasing" ./configure && make安装。
2、配置
vim /usr/servers/twemproxy-0.4.0/conf/nutcracker.yml
server1:
listen: 127.0.0.1:1111
hash: fnv1a_64
distribution: ketama
redis: true
servers:
- 127.0.0.1:6379:1
3、启动Twemproxy代理
/usr/servers/twemproxy-0.4.0/src/nutcracker -d -c /usr/servers/twemproxy-0.4.0/conf/nutcracker.yml
-d指定后台启动  -c指定配置文件;此处我们指定了代理端口为1111,其他配置的含义后续介绍。
4、查看是否启动成功  
ps -aux | grep nutcracker
5、进入客户端
/usr/servers/redis-2.8.19/src/redis-cli -p 1111
6、执行如下命令 
127.0.0.1:1111> set i 1
OK
127.0.0.1:1111> get i
"1" 
Twemproxy文档请参考https://github.com/twitter/twemproxy。
到此基本的安装就完成了。接下来做一些介绍。
Redis设置
基本设置
#端口设置,默认6379
port 6379
#日志文件,默认/dev/null
logfile "" 
Redis内存 
内存大小对应关系
# 1k => 1000 bytes
# 1kb => 1024 bytes
# 1m => 1000000 bytes
# 1mb => 1024*1024 bytes
# 1g => 1000000000 bytes
# 1gb => 1024*1024*1024 bytes
#设置Redis占用100mb的大小
maxmemory 100mb
#如果内存满了就需要按照如相应算法进行删除过期的/最老的
#volatile-lru 根据LRU算法移除设置了过期的key
#allkeys-lru 根据LRU算法移除任何key(包含那些未设置过期时间的key)
#volatile-random/allkeys->random 使用随机算法而不是LRU进行删除
#volatile-ttl 根据Time-To-Live移除即将过期的key
#noeviction 永不过期,而是报错
maxmemory-policy volatile-lru
#Redis并不是真正的LRU/TTL,而是基于采样进行移除的,即如采样10个数据移除其中最老的/即将过期的
maxmemory-samples 10 
而如Memcached是真正的LRU,此处要根据实际情况设置缓存策略,如缓存用户数据时可能带上了过期时间,此时采用volatile-lru即可;而假设我们的数据未设置过期时间,此时可以考虑使用allkeys-lru/allkeys->random;假设我们的数据不允许从内存删除那就使用noeviction。
内存大小尽量在系统内存的60%~80%之间,因为如客户端、主从时复制时都需要缓存区的,这些也是耗费系统内存的。
Redis本身是单线程的,因此我们可以设置每个实例在6-8GB之间,通过启动更多的实例提高吞吐量。如128GB的我们可以开启8GB * 10个实例,充分利用多核CPU。
Redis主从
实际项目时,为了提高吞吐量,我们使用主从策略,即数据写到主Redis,读的时候从从Redis上读,这样可以通过挂载更多的从来提高吞吐量。而且可以通过主从机制,在叶子节点开启持久化方式防止数据丢失。
#在配置文件中挂载主从,不推荐这种方式,我们实际应用时Redis可能是会宕机的
slaveof masterIP masterPort
#从是否只读,默认yes
slave-read-only yes
#当从失去与主的连接或者复制正在进行时,从是响应客户端(可能返回过期的数据)还是返回“SYNC with master in progress”错误,默认yes响应客户端
slave-serve-stale-data yes
#从库按照默认10s的周期向主库发送PING测试连通性
repl-ping-slave-period 10
#设置复制超时时间(SYNC期间批量I/O传输、PING的超时时间),确保此值大于repl-ping-slave-period
#repl-timeout 60
#当从断开与主的连接时的复制缓存区,仅当第一个从断开时创建一个,缓存区越大从断开的时间可以持续越长
# repl-backlog-size 1mb
#当从与主断开持续多久时清空复制缓存区,此时从就需要全量复制了,如果设置为0将永不清空
# repl-backlog-ttl 3600
#slave客户端缓存区,如果缓存区超过256mb将直接断开与从的连接,如果持续60秒超过64mb也会断开与从的连接
client-output-buffer-limit slave 256mb 64mb 60 
此处需要根据实际情况设置client-output-buffer-limit slave和 repl-backlog-size;比如如果网络环境不好,从与主经常断开,而每次设置的数据都特别大而且速度特别快(大量设置html片段)那么就需要加大repl-backlog-size。 
主从示例
cd /usr/servers/redis-2.8.19
cp redis.conf redis_6660.conf
cp redis.conf redis_6661.conf
vim redis_6660.conf
vim redis_6661.conf 
将端口分别改为port 6660和port 6661,然后启动
nohup /usr/servers/redis-2.8.19/src/redis-server /usr/servers/redis-2.8.19/redis_6660.conf &
nohup /usr/servers/redis-2.8.19/src/redis-server /usr/servers/redis-2.8.19/redis_6661.conf &  
查看是否启动
ps -aux | grep redis
进入从客户端,挂主
/usr/servers/redis-2.8.19/src/redis-cli -p 6661
127.0.0.1:6661> slaveof 127.0.0.1 6660
OK
127.0.0.1:6661> info replication
# Replication
role:slave
master_host:127.0.0.1
master_port:6660
master_link_status:up
master_last_io_seconds_ago:3
master_sync_in_progress:0
slave_repl_offset:57
slave_priority:100
slave_read_only:1
connected_slaves:0
master_repl_offset:0
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0
 进入主
/usr/servers/redis-2.8.19# /usr/servers/redis-2.8.19/src/redis-cli -p 6660
127.0.0.1:6660> info replication
# Replication
role:master
connected_slaves:1
slave0:ip=127.0.0.1,port=6661,state=online,offset=85,lag=1
master_repl_offset:85
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:2
repl_backlog_histlen:84
127.0.0.1:6660> set i 1
OK 
进入从   
/usr/servers/redis-2.8.19/src/redis-cli -p 6661
127.0.0.1:6661> get i
"1" 
此时可以看到主从挂载成功,可以进行主从复制了。使用slaveof no one断开主从。
Redis持久化
Redis虽然不适合做持久化存储,但是为了防止数据丢失有时需要进行持久化存储,此时可以挂载一个从(叶子节点)只进行持久化存储工作,这样假设其他服务器挂了,我们可以通过这个节点进行数据恢复。
Redis持久化有RDB快照模式和AOF追加模式,根据自己需求进行选择。
RDB持久化
#格式save seconds changes 即N秒变更N次则保存,从如下默认配置可以看到丢失数据的周期很长,通过save “” 配置可以完全禁用此持久化
save 900 1
save 300 10
save 60 10000
#RDB是否进行压缩,压缩耗CPU但是可以减少存储大小
rdbcompression yes
#RDB保存的位置,默认当前位置
dir ./
#RDB保存的数据库名称
dbfilename dump.rdb
#不使用AOF模式,即RDB模式
appendonly no 
可以通过set一个数据,然后很快的kill掉redis进程然后再启动会发现数据丢失了。
AOF持久化   
AOF(append only file)即文件追加模式,即把每一个用户操作的命令保存下来,这样就会存在好多重复的命令导致恢复时间过长,那么可以通过相应的配置定期进行AOF重写来减少重复。
#开启AOF
appendonly yes
#AOF保存的位置,默认当前位置
dir ./
#AOF保存的数据库名称
appendfilename appendonly.aof
#持久化策略,默认每秒fsync一次,也可以选择always即每次操作都进行持久化,或者no表示不进行持久化而是借助操作系统的同步将缓存区数据写到磁盘
appendfsync everysec
#AOF重写策略(同时满足如下两个策略进行重写)
#当AOF文件大小占到初始文件大小的多少百分比时进行重写
auto-aof-rewrite-percentage 100
#触发重写的最小文件大小
auto-aof-rewrite-min-size 64mb
#为减少磁盘操作,暂缓重写阶段的磁盘同步
no-appendfsync-on-rewrite no 
此处的appendfsync everysec可以认为是RDB和AOF的一个折中方案。
#当bgsave出错时停止写(MISCONF Redis is configured to save RDB snapshots, but is currently not able to persist on disk.),遇到该错误可以暂时改为no,当写成功后再改回yes
stop-writes-on-bgsave-error yes
更多Redis持久化请参考http://redis.readthedocs.org/en/latest/topic/persistence.html。
Redis动态调整配置
获取maxmemory(10mb) 
127.0.0.1:6660> config get maxmemory
1) "maxmemory"
2) "10485760" 
设置新的maxmemory(20mb)
127.0.0.1:6660> config set maxmemory 20971520
OK
  
但是此时重启redis后该配置会丢失,可以执行如下命令重写配置文件
127.0.0.1:6660> config rewrite
OK 
注意:此时所以配置包括主从配置都会重写。
Redis执行Lua脚本
Redis客户端支持解析和处理lua脚本,因为Redis的单线程机制,我们可以借助Lua脚本实现一些原子操作,如扣减库存/红包之类的。此处不建议使用EVAL直接发送lua脚本到客户端,因为其每次都会进行Lua脚本的解析,而是使用SCRIPT LOAD+ EVALSHA进行操作。未来不知道是否会用luajit来代替lua,让redis lua脚本性能更强。
到此基本的Redis知识就讲完了。
Twemproxy设置
一旦涉及到一台物理机无法存储的情况就需要考虑使用分片机制将数据存储到多台服务器,可以说是Redis集群;如果客户端都是如Java没什么问题,但是如果有多种类型客户端(如PHP、C)等也要使用那么需要保证它们的分片逻辑是一样的;另外随着客户端的增加,连接数也会随之增多,发展到一定地步肯定会出现连接数不够用的;此时Twemproxy就可以上场了。主要作用:分片、减少连接数。另外还提供了Hash Tag机制来帮助我们将相似的数据存储到同一个分片。另外也可以参考豌豆荚的https://github.com/wandoulabs/codis。
基本配置
其使用YML语法,如
server1:
listen: 127.0.0.1:1111
hash: fnv1a_64
distribution: ketama
timeout:1000
redis: true
servers:
- 127.0.0.1:6660:1
- 127.0.0.1:6661:1
server1:是给当前分片配置起的名字,一个配置文件可以有多个分片配置;
listen : 监听的ip和端口;
hash:散列算法;
distribution:分片算法,比如一致性Hash/取模;
timeout:连接后端Redis或接收响应的超时时间;
redis:是否是redis代理,如果是false则是memcached代理;
servers:代理的服务器列表,该列表会使用distribution配置的分片算法进行分片;
分片算法
  hash算法: 
    one_at_a_time
    md5
    crc16
    crc32 (crc32 implementation compatible with libmemcached)
    crc32a (correct crc32 implementation as per the spec)
    fnv1_64
    fnv1a_64
    fnv1_32
    fnv1a_32
    hsieh
    murmur
    jenkins
  分片算法:
    ketama(一致性Hash算法)
    modula(取模)
    random(随机算法)
服务器列表
  servers:
   - ip:port:weight alias
  servers:
   - 127.0.0.1:6660:1
   - 127.0.0.1:6661:1
或者
  servers:
   - 127.0.0.1:6660:1 server1
   - 127.0.0.1:6661:1 server2
推荐使用后一种方式,默认情况下使用ip:port:weight进行散列并分片,这样假设服务器宕机换上新的服务器,那么此时得到的散列值就不一样了,因此建议给每个配置起一个别名来保证映射到自己想要的服务器。即如果不使用一致性Hash算法来作缓存服务器,而是作持久化存储服务器时就更有必要了(即不存在服务器下线的情况,即使服务器ip:port不一样但仍然要得到一样的分片结果)。
HashTag
比如一个商品有:商品基本信息(p:id:)、商品介绍(d:id:)、颜色尺码(c:id:)等,假设我们存储时不采用HashTag将会导致这些数据不会存储到一个分片,而是分散到多个分片,这样获取时将需要从多个分片获取数据进行合并,无法进行mget;那么如果有了HashTag,那么可以使用“::”中间的数据做分片逻辑,这样id一样的将会分到一个分片。
nutcracker.yml配置如下
server1:
listen: 127.0.0.1:1111
hash: fnv1a_64
distribution: ketama
redis: true
hash_tag: "::"
servers:
- 127.0.0.1:6660:1 server1
- 127.0.0.1:6661:1 server2
连接Twemproxy
/usr/servers/redis-2.8.19/src/redis-cli -p 1111
127.0.0.1:1111> set p:12: 1
OK
127.0.0.1:1111> set d:12: 1
OK
127.0.0.1:1111> set c:12: 1
OK
在我的服务器上可以连接6660端口 
/usr/servers/redis-2.8.19/src/redis-cli -p 6660
127.0.0.1:6660> get p:12:
"1"
127.0.0.1:6660> get d:12:
"1"
127.0.0.1:6660> get c:12:
"1"
一致性Hash与服务器宕机
如果我们把Redis服务器作为缓存服务器并使用一致性Hash进行分片,当有服务器宕机时需要自动从一致性Hash环上摘掉,或者其上线后自动加上,此时就需要如下配置:
#是否在节点故障无法响应时自动摘除该节点,如果作为存储需要设置为为false
auto_eject_hosts: true
#重试时间(毫秒),重新连接一个临时摘掉的故障节点的间隔,如果判断节点正常会自动加到一致性Hash环上
server_retry_timeout: 30000
#节点故障无法响应多少次从一致性Hash环临时摘掉它,默认是2
server_failure_limit: 2
支持的Redis命令
不是所有Redis命令都支持,请参考https://github.com/twitter/twemproxy/blob/master/notes/redis.md。
因为我们所有的Twemproxy配置文件规则都是一样的,因此我们应该将其移到我们项目中。
cp /usr/servers/twemproxy-0.4.0/conf/nutcracker.yml /usr/example/
另外Twemproxy提供了启动/重启/停止脚本方便操作,但是需要修改配置文件位置为/usr/example/nutcracker.yml。
chmod +x /usr/servers/twemproxy-0.4.0/scripts/nutcracker.init
vim /usr/servers/twemproxy-0.4.0/scripts/nutcracker.init
将OPTIONS改为
OPTIONS="-d -c /usr/example/nutcracker.yml"
另外注释掉. /etc/rc.d/init.d/functions;将daemon --user ${USER} ${prog} $OPTIONS改为${prog} $OPTIONS;将killproc改为killall。
这样就可以使用如下脚本进行启动、重启、停止了。
/usr/servers/twemproxy-0.4.0/scripts/nutcracker.init {start|stop|status|restart|reload|condrestart}
对于扩容最简单的办法是:
1、创建新的集群;
2、双写两个集群;
3、把数据从老集群迁移到新集群(不存在才设置值,防止覆盖新的值);
4、复制速度要根据实际情况调整,不能影响老集群的性能;
5、切换到新集群即可,如果使用Twemproxy代理层的话,可以做到迁移对读的应用透明。
9 顶0 踩
分享到:
第四章 Lua模块开发
第二章 OpenResty(Nginx+Lua)开发入门
2015-02-26 11:39
浏览 34723
评论(16)
分类:企业架构
查看更多
评论
16 楼
kenne_2011
2019-06-12
博主,你好,我想请问一下博主当时用的ubuntu版本是多少?我现在的问题是虚拟机装的是ubuntu server 18.04.2 LTS,安装了twemproxy-0.4.0,启动/usr/servers/twemproxy-0.4.0/src/nutcracker -d -c /usr/servers/twemproxy-0.4.0/conf/nutcracker.yml 代理时查看是否启动没有成功,会跟linux版本有关系吗?有点弄不明白了
15 楼
wwd2512885541
2017-04-11
wwd2512885541 写道如果有3台redis服务器用Twemproxy 做了代理集群的话,如果其中1台redis 挂了如何做故障转移的,不影响正常的使用,自动变成访问2台正常。自动剔除故障的redis呢作为存储的时候
14 楼
wwd2512885541
2017-04-11
如果有3台redis服务器用Twemproxy 做了代理集群的话,如果其中1台redis 挂了如何做故障转移的,不影响正常的使用,自动变成访问2台正常。自动剔除故障的redis呢
13 楼
tylerpiece
2016-09-19
老大,你太厉害了。我要的在你这里都能找到,先膜拜一下,然后我慢慢看
12 楼
jinnianshilongnian
2016-03-17
qingfengjushi1 写道qingfengjushi1 写道jinnianshilongnian 写道qingfengjushi1 写道博主您好,用Twemproxy做redis集群有一处不明,当nutcracker.yml中设置- 127.0.0.1:6660:1 server1 - 127.0.0.1:6661:1 server2分片规则后,会有一部分数据写入到从设备中,而此时从设备是只读的,无法写入,是需要将从设备设置为可写入吗?另外,分片后主从设备的数据按说是不一样的,两边是如何做同步的?不会写入从啊,写的时候只写主这点还真有点糊涂了,博主的意思是不是在你的例子中nutcracker.yml配置了hash_tag: "::"哈希规则后,set数据又是类似于p:12: d:12:时会根据规则找到同一台设备,但如果set数据是不规则的时候,不会分散写入么?如果不会那配置- 127.0.0.1:6660:1 server1 - 127.0.0.1:6661:1 server2分片还有什么意义?可能是我理解错了?配置的- 127.0.0.1:6660:1 server1 - 127.0.0.1:6661:1 server2并不是主从关系?只是和之前的主从一节混了,所以认为6661是从了可以配置两个: 一个只有主用于写; 另一个主从混合,但是只读
11 楼
qingfengjushi1
2016-03-17
qingfengjushi1 写道jinnianshilongnian 写道qingfengjushi1 写道博主您好,用Twemproxy做redis集群有一处不明,当nutcracker.yml中设置- 127.0.0.1:6660:1 server1 - 127.0.0.1:6661:1 server2分片规则后,会有一部分数据写入到从设备中,而此时从设备是只读的,无法写入,是需要将从设备设置为可写入吗?另外,分片后主从设备的数据按说是不一样的,两边是如何做同步的?不会写入从啊,写的时候只写主这点还真有点糊涂了,博主的意思是不是在你的例子中nutcracker.yml配置了hash_tag: "::"哈希规则后,set数据又是类似于p:12: d:12:时会根据规则找到同一台设备,但如果set数据是不规则的时候,不会分散写入么?如果不会那配置- 127.0.0.1:6660:1 server1 - 127.0.0.1:6661:1 server2分片还有什么意义?可能是我理解错了?配置的- 127.0.0.1:6660:1 server1 - 127.0.0.1:6661:1 server2并不是主从关系?只是和之前的主从一节混了,所以认为6661是从了
10 楼
qingfengjushi1
2016-03-17
jinnianshilongnian 写道qingfengjushi1 写道博主您好,用Twemproxy做redis集群有一处不明,当nutcracker.yml中设置- 127.0.0.1:6660:1 server1 - 127.0.0.1:6661:1 server2分片规则后,会有一部分数据写入到从设备中,而此时从设备是只读的,无法写入,是需要将从设备设置为可写入吗?另外,分片后主从设备的数据按说是不一样的,两边是如何做同步的?不会写入从啊,写的时候只写主这点还真有点糊涂了,博主的意思是不是在你的例子中nutcracker.yml配置了hash_tag: "::"哈希规则后,set数据又是类似于p:12: d:12:时会根据规则找到同一台设备,但如果set数据是不规则的时候,不会分散写入么?如果不会那配置- 127.0.0.1:6660:1 server1 - 127.0.0.1:6661:1 server2分片还有什么意义?
9 楼
jinnianshilongnian
2016-03-17
qingfengjushi1 写道博主您好,用Twemproxy做redis集群有一处不明,当nutcracker.yml中设置- 127.0.0.1:6660:1 server1 - 127.0.0.1:6661:1 server2分片规则后,会有一部分数据写入到从设备中,而此时从设备是只读的,无法写入,是需要将从设备设置为可写入吗?另外,分片后主从设备的数据按说是不一样的,两边是如何做同步的?不会写入从啊,写的时候只写主
8 楼
qingfengjushi1
2016-03-16
博主您好,用Twemproxy做redis集群有一处不明,当nutcracker.yml中设置- 127.0.0.1:6660:1 server1 - 127.0.0.1:6661:1 server2分片规则后,会有一部分数据写入到从设备中,而此时从设备是只读的,无法写入,是需要将从设备设置为可写入吗?另外,分片后主从设备的数据按说是不一样的,两边是如何做同步的?
7 楼
qingfengjushi1
2016-03-16
newboy2004 写道将OPTIONS改为OPTIONS="-d -c /usr/example/nutcracker.yml" 另外注释掉. /etc/rc.d/init.d/functions;将daemon --user ${USER} ${prog} $OPTIONS改为${prog} $OPTIONS;将killproc改为killall。 这样就可以使用如下脚本进行启动、重启、停止了。/usr/servers/twemproxy-0.4.0/scripts/nutcracker.init {start|stop|status|restart|reload|condrestart}这里我改完在用上面的脚本启动报daemon:not found twemproxy启动不起来了可能需要将/usr/servers/twemproxy-0.4.0/src路径配置到环境变量中
6 楼
newboy2004
2015-12-20
将OPTIONS改为OPTIONS="-d -c /usr/example/nutcracker.yml" 另外注释掉. /etc/rc.d/init.d/functions;将daemon --user ${USER} ${prog} $OPTIONS改为${prog} $OPTIONS;将killproc改为killall。 这样就可以使用如下脚本进行启动、重启、停止了。/usr/servers/twemproxy-0.4.0/scripts/nutcracker.init {start|stop|status|restart|reload|condrestart}这里我改完在用上面的脚本启动报daemon:not found twemproxy启动不起来了
5 楼
jinnianshilongnian
2015-11-09
shuaiji 写道想问下,你是意思是说同时使用三种nosql DB?看场景
4 楼
shuaiji
2015-11-09
想问下,你是意思是说同时使用三种nosql DB?
3 楼
showlike
2015-05-08
SSDB安装与使用--下载链接找不到,可以使用以下命令安装wget --no-check-certificate https://github.com/ideawu/ssdb/archive/master.zip
unzip master
cd ssdb-master
make
# optional, install ssdb in /usr/local/ssdb
sudo make install链接地址:http://ssdb.io/docs/install.html
2 楼
jinnianshilongnian
2015-02-26
bylijinnan 写道博主的意思是Redis+Twemproxy配合使用或者是SSDB+Twemproxy配合使用对吗?而不是SSDB+Redis+Twemproxy,因为SSDB其实是为取代redis而生的。是的,SSDB不是为取代redis,而是应用不同的场景:持久化。
1 楼
bylijinnan
2015-02-26
博主的意思是Redis+Twemproxy配合使用或者是SSDB+Twemproxy配合使用对吗?而不是SSDB+Redis+Twemproxy,因为SSDB其实是为取代redis而生的。
发表评论
您还没有登录,请您登录后再发表评论
相关推荐
keepalive+twemproxy+ redis主从安装配置的例子(linux)
keepalive+twemproxy+ redis主从安装配置的安装文档,里头包括了6篇
SpringBoot+nacos+websocket+redis+mysql+mybatis-plus微服务项目实战
SpringBoot+nacos+websocket+redis+mysql+oracle+swagger2+mybatis-plus
ssm+redis和ssm+redis+shiro源码
ssm+redis和ssm+redis+shiro源码。学习的可以下载看下
研究各种Java技术(Springboot+Redis+Dubbo+Rocketmq)
研究各种Java技术(Springboot+Redis+Dubbo+Rocketmq),含如下模块: whatsmars-common mongodb,mail,AES,DES加解密 whatsmars-earth-web springmvc+velocity whatsmars-earth-su pport-web earth工程的辅助工程(task...
SpringBoot+Redis+Mqtt+MongoDB
SpringBoot+Redis+Mqtt+MongoDB全部配置完成,下载Redis+Mqtt+MongoDB三个程序,把项目导入idea中再把SQL导入数据库下好依赖即可,注意Redis,MongoDB,Mqtt账户信息,如不一致可更换成自己的,CURD已完成
ssdb-redis
用户替代redis的工具,数据完全离线存储,再也不担心服务器内存不够用了。
Springboot2.0+redis+SpringMVC+Spring+Mybatis+Mybatis Plus的Java web分布式开发系统
Springboot2.0+redis+SpringMVC+Spring+Mybatis+Mybatis Plus的Java web分布式开发系统;NettySocketIo排队系统/排队模块/排队框架,它是一款具有代码生成功能的智能
Redis/MongoDB 接口封装(C++)
3. 利用组合模式和装饰模式的思想开发 MongoDB 数据库查询条件装饰器 将查询条件和数据库 MongodbModule 数据模型进行解耦合 4. 抽象出一套 MongoDB Module 结果集接口 通过模板和特化技术实现 string/int 等不同...
Springboot2.0+redis+SpringMVC+Spring+Mybatis+Mybatis
Springboot2.0+redis+SpringMVC+Spring+Mybatis+Mybatis Plus的Java web分布式开发系统;NettySocketIo排队系统/排队模块/排队框架,它是一款具有代码生成功能的智能快速开发平台;是以Spring Framework为核心容器,...
maven+springmvc+redis+mybatis整合
基于maven+springmvc+redis+mybatis整合案例框架,主要实现redis的读取案例
redis-2.8.19+phpredis扩展+redis监控
redis-2.8.19+phpredis扩展+redis监控
Java高级课程(nginx+redis+zookeeper+activemq+storm+dubbo+netty+jvm+并发编程锁+项目实战)
Java高级互联网架构师系统培训班课程Java高级互联网架构师系统培训班课程Java高级互联网架构师系统培训班课程
javaweb 问答系统使用 redis+jsp+mysql
javaweb 问答系统使用 redis+jsp+mysql。 javaweb问答系统使用redis+jsp+mysql,可以发帖,回帖,点赞,,登录注册,查看浏览数,前端与后台,权限访问,附带数据库文件 jsp redis mysql
redis+sublime+vscode.rar
redis+sublime+vscode.rar
redis++使用说明,windows下编译redis-plus-plus
redis++使用说明,windows下编译redis-plus-plus
RedisC++接口例子
RedisC++接口例子
RabbitMQ+Zookeeper+Dubbo+Nginx+Mysql+Redis搭建.txt
RabbitMQ+Zookeeper+Dubbo+Nginx+Mysql+Redis搭建.txtRabbitMQ+Zookeeper+Dubbo+Nginx+Mysql+Redis搭建.txtRabbitMQ+Zookeeper+Dubbo+Nginx+Mysql+Redis搭建.txt
python+Django数据库监控平台 Linux/Oracle/MySQL/Redis基础监控+性能监控
python+Django数据库监控平台 Linux/Oracle/MySQL/Redis基础监控+性能监控
Nginx+Lua(OpenResty) HelloWorld
2016-04-09 16:23
14136
《使用Nginx+Lua(OpenResty)开发高 ...
Nginx+Lua(OpenResty) HelloWorld
2016-04-09 16:10
《使用Nginx+Lua(OpenResty)开发高性能W ...
使用Nginx+Lua(OpenResty)开发高性能Web应用
2016-03-06 17:13
136164
在互联网公司,Nginx可 ...
跟我学OpenResty(Nginx+Lua)开发目录贴
2015-03-07 17:29
123233
扫一扫,关注我的公众号 
购买地址
  ...
第八章 流量复制/AB测试/协程
2015-03-07 17:25
21760
流量复制
在实际开发中经常涉及到项目的升级,而该升级不能 ...
第八章 流量复制/AB测试/协程
2015-03-07 17:23
流量复制
在实际开发中经常涉及到项目的升级,而该升级不能 ...
第七章 Web开发实战2——商品详情页
2015-03-03 21:40
43813
本章以京东商品详情 ...
第六章 Web开发实战1——HTTP服务
2015-03-02 22:05
36034
此处我说的HTTP服务主要指如访问京东网站时我们看到的热门 ...
第五章 常用Lua开发库3-模板渲染
2015-03-01 17:23
27329
动态web网页开发是Web开发中一个常见的场景,比如像京东 ...
第五章 常用Lua开发库2-JSON库、编码转换、字符串处理
2015-02-28 18:46
49691
JSON库
在进行数据传输时JSON格式 ...
第七章 Web示例2——商品详情页2
2015-02-28 11:08
之前《第七章 Web示例2——商品详情页1》已经讲解了基本 ...
第五章 常用Lua开发库1-redis、mysql、http客户端
2015-02-28 09:31
64759
对于开发来说需要有好的生态开发库来辅助我们快速开发,而Lu ...
第四章 Lua模块开发
2015-02-27 10:02
27869
在实际开发中,不可 ...
第七章 Web示例2——商品详情页1
2015-02-26 22:59
本章以京东商品详情 ...
第六章 Web开发示例1——HTTP服务
2015-02-26 12:33
此处我说的HTTP服务主 ...
第六章 Web开发示例1——HTTP服务
2015-02-26 12:31
此处我说的HTTP服务主要指如访问京东网站时我们看到的热门 ...
第二章 OpenResty(Nginx+Lua)开发入门
2015-02-22 19:16
264230
Nginx入门
本文目的是学习Nginx+Lua开发,对 ...
第五章 常用Lua开发库-模板渲染
2015-02-22 19:14
动态web网页开发是Web开发中一个常见的场景,比如像京东商 ...
第五章 常用Lua开发库-JSON库、编码转换、字符串处理
2015-02-21 11:44
JSON库
在进行数据传输时JSON格式 ...
第五章 常用Lua开发库-redis、mysql、http客户端
2015-02-20 10:48
对于开发来说需要有好的生态开发库来辅助我们快速开发,而Lu ...
Global site tag (gtag.js) - Google Analytics