|
关于MongoDB,我们能看到的资料,基本都是在指导大家如何使用MongoDB,但是,MongoDB内部是如何运作的,资料不是很多。
! x; R( k/ u0 s+ Y" E
9 e2 V+ r; R" ~3 {4 A1 O& J6 b8 B5 W 阅读使用手册,会有很多疑惑之处。例如,有人说,MongoDB 等同于分布式的 MySQL。它把一个Table ,按 row,分割成多个Shards,分别存放在不同的 Servers 上。这种说法是否正确?3 I$ Q( l5 j7 `! X
% [0 y# z8 A! _0 q+ L; R7 ?, \
不深入了解 MongoDB 的内部结构,就无法透彻地回答类似问题。这个系列文章,就来和大家探讨MongoDB的内部的工作方式。
+ v: u1 h$ n0 A4 }
1 M) t# s2 a) I: U- T# P
% {/ y; ?0 L% O& V, m
5 r- y. \' `4 p% U R6 t& W
图1-1 MongoDB架构图
; U' l3 l! @& _* ?8 }( Z
9 C% c) e, A: o* s, k5 @/ d* ~ MongoDB 通常运行在一个服务器集群上,而不是一个单机。图1-1,描述了一个MongoDB集群的基本组成部分,包括若干shards,至少一个config server,至少一个routing servers(又称 mongos)。7 F& G5 U8 l, C4 b
7 E4 y W7 C: ~) A: M
Shards
9 t( W+ @% y; C8 Y0 C8 b5 g& y3 }7 y
MongoDB的最基本的数据单元,叫document,类似于关系式数据库中的行 row。一系列documents,组成了一个collection,相当于关系式数据库中的table。当一个 collection 数据量太大时,可以把该collection按documents切分,分成多个数据块,每个数据块叫做一个chunk,多个chunks聚集在一起,组成了一个shard。& A. X" | A# ]% J) | Y+ I
4 v! `( C E- |, m
Sharding 的意义,不仅保障了数据库的扩容(scalability),同时也保障了系统的负载均衡(load balance)。1 E/ s: q9 Z7 m3 {- b
" } d: ]8 J7 p) q7 T( G' @
每一个shard存储在一个物理服务器(server)上。Server上运行着mongod进程,通过这个进程,对shard中的数据进行操作,主要是增删改查。9 |- |. o8 _6 x
& C, a4 J. f$ M: i* A: h
如果系统中的每个shard,只存储了一份数据,没有备份,那么当这个shard所在的server挂了,数据就丢失了。在生产环境中,为了保证数据不丢失,为了提高系统的可用性(availability),每一个shard被存储多份,每个备份所在的servers,组成了一个replica set。
* q1 p% h. z" I o) |8 w. b2 R$ S, W6 I# B' v& N: P; M, \) F
Shard keys, A. b9 J* E; d6 T/ L: s
) t( O; y _8 U# |4 l' N" h 为了把collection切分成不同的chunks,从而存放到不同的shards中,我们需要制定一个切分的方式。) w, g2 `' q( ~
# K9 ~( l* q, P0 v 如前所述,在 MongoDB 数据库中,一个表collection由多个行 documents 组成,而每个 document,有多个属性 fields。同一个 collection 中的不同的 documents,可能会有不同的 fields。例如,有个 collection 叫 Media,包含两条 documents,7 u- B- g0 i- X c7 [
, J1 |8 T4 B; B& V4 a1 [% z0 @
{$ Q; y. E9 k; E" l! j& T
"ISBN": "987-30-3652-5130-82",
7 B6 v. k& \0 D* s "Type": "CD",: {% h- t! U# G5 F- J; Z
"Author": "Nirvana",
5 ~1 ], ]+ ?4 c* H! N/ K "Title": "Nevermind",
1 U$ f" W6 W1 V# z* d% T# L# | "Genre": "Grunge",( T$ O, |( S+ I. l. z9 [
"Releasedate": "1991.09.24",* I/ u" [2 P$ ?! F9 c- z$ e
"Tracklist": [7 g2 v/ `+ @* X0 X& f3 n5 o) m8 Y
{
8 o3 P, w+ ]) p! L "Track" : "1",5 x6 P$ H7 [. _* d0 B# m
"Title" : "Smells like teen spirit",
1 B* V" o U& J8 ` "Length" : "5:02") [ X% b2 V+ `8 A; T& d
},) i2 w7 I7 O" ?; H: k" H, F
{
" R4 t0 r% F! D. W8 V "Track" : "2",, ?, k9 `& p/ z& K {: I
"Title" : "In Bloom",: A8 z3 c: H N5 t
"Length" : "4:15"4 b! T3 P. U" J7 P/ s7 T
}
: C+ }$ q- W) M) p6 l ]4 J! E' I) e4 V6 `+ K
}+ w, `$ M8 L5 p, r- t9 C
1 |3 i; ]4 y' b+ e# w7 _6 W2 S0 Z
{1 B; _8 R2 X% q7 o
"ISBN": "987-1-4302-3051-9",
4 J) X p5 x+ N) z1 B) x$ ^ "Type": "Book",- J+ C, x0 ^ [1 k L) P0 x1 G N
"Title": "Definite Guide to MongoDB: The NoSQL Database",$ w+ J+ d+ Y" D$ t* {
"Publisher": "Apress"," U3 i. h3 a. u$ E& {
"Author": " Eelco Plugge",$ `+ Y% ?1 z/ K
"Releasedate": "2011.06.09"
1 ?% G) i3 _! Q% T) ~( ? d}
8 c5 f' ?3 S/ `0 r9 p& i* t1 I1 P! j
假如,在同一个 collection 中的所有 document,都包含某个共同的 field,例如前例中的“ISBN”,那么我们就可以按照这个 field 的值,来分割 collection。这个 field 的值,又称为 shard key。9 b0 r& n& L2 ? d) o
6 g$ d+ W8 a5 I. d; ?' { 在选择shard key的时候,一定要确保这个key能够把collection均匀地切分成很多chunks。. K8 H% d( Y) u X/ e8 N
( H: Q: s: u7 V/ x T; u0 ~ 例如,如果我们选择“author”作为shard key,如果有大量的作者是重名的,那么就会有大量的数据聚集在同一个chunk中。当然,假设很少有作者同名同姓,那么“author”也可以作为一个shard key。换句话说,shard key 的选择,与使用场景密切相关。4 D \# a; O6 N7 l3 u$ t. c) S
; B" P- b+ F0 ^, d8 d
很多情况下,无论选择哪一个单一的 field 作为shard key,都无法均匀分割 collection。在这种情况下,我们可以考虑,用多个 fields,构成一个复合的shard key。- O& m) o; [& b/ `
' a: X4 o' `- o
延续前例,假如有很多作者同名同姓,他们都叫“王二”。用 author 作为 shard key,显然无法均匀切割 collection。这时我们可以加上release-date,组成name-date的复合 shard key,例如“王二 2011”。
- z2 [7 ?7 F* z0 E! S" t+ W# C/ x$ `; @
Chunks
3 p8 S5 L3 F, r- m7 t' _ U 9 d, d3 n- d, p* I: |
MongoDB按 shard key,把 collection切割成若干 chunks。每个 chunk 的数据结构,是一个三元组,{collection,minKey,maxKey},如图1-2 所示。
?5 w3 u! _+ ]3 \3 Y6 G+ X
& S) W) `: X1 V2 f$ z8 r* {4 D
( Z' y! P9 A! R" q7 A图1-2 chunk的三元组 * G; [9 ^/ i& v% J$ D3 t
; ? K5 _5 D2 N- x1 R7 x
其中,collection 是数据库中某一个表的名称,而 minKey 和 maxKey 是 shard key的范围。每一个 document 的shard key 的值,决定了这条document应该存放在哪个chunk中。! \: a! v8 a9 F- \$ \. k
+ X% i* }$ L+ D0 s0 I7 b 如果两条 documents 的 shard keys 的值很接近,这两条 documents 很可能被存放在同一个 chunk 中。
; E9 |1 s* M& X5 @+ p$ }# Q: H" j4 l: Y8 f1 X% @3 n e4 u9 w W* A* E
Shard key 的值的顺序,决定了 document 存放的 chunk。在 MongoDB 的文献中,这种切割 collection 的方式,称为order-preserving。
9 ?) B8 m* Z" a5 ]) G" N G2 q
! \+ M6 I0 Q& z; ? 一个 chunk最多能够存储64MB的数据。 当某个chunk存储的 documents包含的数据量,接近这个阈值时,一个chunk会被切分成两个新的chunks。/ K$ N& P9 f o$ K+ N7 n
0 t3 I4 q4 ?; ^' q" \
当一个shard存储了过多的chunks,这个shard中的某些chunks会被迁移到其它 shard中。0 d" s7 p1 p* K. g
5 N% w ~+ [/ M) ?8 x
这里有个问题,假如某一条 document 包含的数据量很大,超过 64MB,一个 chunk 存放不下,怎么办?在后续章节介绍 GridFS 时,我们会详细讨论。
1 K% e, c }3 K* k8 u, N* ~' E+ U0 P5 q# l- e, n
Replica set
6 `9 V+ d: u0 Q. x3 } s$ U1 b: u. |6 r
在生产环境中,为了保证数据不丢失,为了提高系统的可用性(availability),每一个shard被存储多份,每个备份所在的servers,组成了一个replica set。. j* w2 e. U* F& q( f6 w+ X( h
9 R/ p, S. n# n j* d) l7 O, f& K 这个replica set包括一个primary DB和多个secondary DBs。为了数据的一致性,所有的修改(insert / update / deletes) 请求都交给primary处理。处理结束之后,再异步地备份到其他secondary中。6 Q% [; d% c1 S1 d3 P \
1 }4 b8 U( z$ h+ t Primary DB由replica set中的所有servers,共同选举产生。当这个primaryDB server出错的时候,可以从replica set中重新选举一个新的primaryDB,从而避免了单点故障。
# [' F* _, t5 c1 g! i$ Q G
& o8 b6 k# l' P$ T Replica set的选举策略和数据同步机制,确保了系统的数据的一致性。后文详述。
* Q$ U" P; j- H
! w; t: G; m' OConfig Server. p; N$ S) h8 O
3 {' D% b+ N1 i; F Config servers用于存储MongoDB集群的元数据 metadata,这些元数据包括如下两个部分,每一个shard server包括哪些chunks,每个chunk存储了哪些 collections 的哪些 documents。
1 z; L( d- }6 h1 c0 U/ |- L0 Y3 X4 C! \5 M( ]
每一个config server都包括了MongoDB中所有chunk的信息。
: u+ L- M! u! A. s5 Z' M. y9 U# ^; G! v& w2 P* C6 }
Config server也需要 replication。但是有趣的是,config server 采用了自己独特的replication模式,而没有沿用 replica set。) v& U( X% W. P: R1 A5 j$ V
, A& U; D, \ c0 C0 c$ U/ Y
如果任何一台config server挂了,整个 config server 集群中,其它 config server变成只读状态。这样做的原因,是避免在系统不稳定的情况下,冒然对元数据做任何改动,导致在不同的 config servers 中,出现元数据不一致的情况。
, ~! y. Y2 u3 L) N @2 D P) p% X1 k
MongoDB的官方文档建议,配置3个config servers比较合适,既提供了足够的安全性,又避免了更多的config servers实例之间的数据同步,引起的元数据不一致的麻烦。( I5 r5 `6 x3 H! g4 k7 R' U. k
- q) n* H2 g$ D$ }
Mongos
$ U# e/ w7 c3 t7 U( [: |4 I% b3 \3 J( r3 J
用户使用MongoDB 时,用户的操作请求,全部由mongos来转发。
: t: D8 Z& W7 G P
9 b7 i" F- s$ e* ~1 T, Q7 k, C P 当 mongos 接收到用户请求时,它先查询 config server,找到存放相应数据的shard servers。然后把用户请求,转发到这些 shard servers。当这些 shard servers完成操作后,它们把结果分别返回给 mongos。而当 mongos 汇总了所有的结果后,它把结果返回给用户。: [2 A7 f# n7 Y) _3 ]/ O( [
6 g8 O" z4 ]# [2 ? Mongos每次启动的时候,都要到config servers中读取元数据,并缓存在本地。每当 config server中的元数据有改动,它都会通知所有的mongos。, ]. r' n5 Z5 I
7 R7 }7 u* k2 T% T
Mongos之间,不存在彼此协同工作的问题。因此,MongoDB所需要配置的mongos server的数量,没有限制。( x* T0 [# E' f% q2 X& K; k
0 o: _# D5 i8 o# h
通过以上的介绍,我们对每个组成部分都有了基本的了解,但是涉及到工作的细节,我们尚有诸多疑问,例如,一个chunk的数据太大,如何切分?一个shard数据太多,如何迁移?在replica set中,如何选择primary?server挂了,怎么进行故障恢复?接下来的章节,我们逐个回答这些问题。
8 g4 V4 F0 r* O! S6 j3 m7 x7 ?' Q; v6 e7 \9 @$ i" h3 @: D D
+ b* Y4 x, n, s9 L4 s) s J6 Q, fReference,
, {. t! b! a: u) J8 D. c4 d" M* l; k$ S* f" Y- J" R% I0 Q
[0] Architectural Overview# f( c) M7 b$ ~
http://www.mongodb.org/display/DOCS/Sharding+Introduction% }3 I" S9 e8 m
|
评分
-
查看全部评分
|