MongoDB , come del resto tutti gli strumenti di questo tipo, ha una struttura pensata per massimizzare scalabilità e prestazioni in assenza di single points of failur; quest’ultima è fondamentale per avere un sistema che permetta di massimizzare la continuità del servizio. Come approfondiremo più avanti, per avvicinarsi il più possibile ai suddetti obiettivi, il sistema rinuncia a garantire l’ACID compliance, in particolare non garantisce che un dato, di cui sia stata data anche conferma di ricezione, venga realmente acquisito dal sistema. Questo ovviamente accade in situazioni normali ma può non accadere per esempio in caso di fault di uno dei nodi. Se questo sia accettabile o meno, dipende dall’applicazione che si sta realizzando.
I dati su MongoDB sono quasi completamente destrutturati, o meglio la struttura in ogni elemento minimo (documento) è di fatto arbitraria e non legata rigidamente aa quella degli altri documenti. I dati sono organizzati in documenti di contenuto arbitrario, i documenti in collection e le collection in database. I vari documenti di una data collection possono avere contenuti strutturati in modo differente. Ad esempio si potrebbe pensare ad un documento contenente le informazioni relative all’utente di un’applicazione social. Questi utenti potrebbero essere raggruppati in una collection ed avranno una parte di informazioni comune a tutti ed una parte presente solo su alcune utenze. La possibilità di definire indici velocizza poi l’accesso alle informazioni.
I dati sono acceduti tramite json e immgazzinati tramite bson.
MongoDB fa largo uso della memoria ed è ovviamente particolarmente efficente se la memoria disponibile è sufficiente a contenere tutti i dati che vengono acceduti spesso. In un certo senso può essere considerato un unteressante sostituto di sistemi di cache quali memcache; rispetto a quest’ultimo ad esempio, a costo di un overhead soprattutto in scrittura, potrebbe gestire meglio sitauzioni quali un riavvio in assenza di cache.
Quello che però rende MongoDB veramente interessante sono due caratteristiche: la replica e lo sharding dei dati. Caratteristiche combinabili a patto di avere a disposizione un numero di server sufficiente (non meno di tre).
Esaminiamole prima separatamente per poi affrontare la questione della loro combinazione.
La replica permette di avere gli stessi dati su due o più nodi in modo tale da poter mantenere attivo il servizio anche in caso di fault di uno dei server. In questo modo si riesce ad ottenere un sistema in alta affidabilità. Dato che per ogni gruppo di nodi (denominato ReplicaSet) uno solo è in realtà accessibile ai client (primary node), aumentare il numero di nodi ha il solo scopo di diminuire la probabilità di un’interruzione del servizio.
E’ qui opportuno entrare un poco più in dettaglio sulla replicazione dei dati: questa avviene in modo asincrono per avere dei tempi di risposta accettabili dal sistema. In pratica i client mongodb considerano completata la scrittura quando il nodo primary notifica l’avvenuta scrittura. In questa fase però i nodi secondary non necessariamente si sono aggiornati. Se quindi il primary node dovesse fallire in questo situazione verrebbe sostituito da un secondary node non completamente aggiornato e l’informazione persa.
In un ReplicaSet il nodo primary viene scelto attraverso un processo di elezione che, per ragioni interne al protocollo, richiede un numero dispari di nodi votanti; non è quindi possibile avere un ReplicaSet composto da un numero pari piccolo di nodi (2 in particolare). Per fortuna è possibile aggiungere al pool un nodo speciale, denominato arbitro, che interviene solamente nella fase di scelta del nodo primario minimizzando l’uso di risorse. Questo nodo può quindi essere collocato su server che svolgono altre funzioni senza un impatto significativo.
L’altra caratteristica fondamentale di MongoDB è la possibilità di effettuare lo sharding dei dati; ovvero di distribuire documenti di una data collection (dati omogenei) su più server nascondendo poi questa complessità al client. Nell’esempio di prima posso far si che gli utenti italiani, francesi e tedeschi vengano gestiti da server differenti delegando a mongoDB la gestione di questo aspetto a patto di avere un campo country in ogno documento utente. Questa caratteristica è fondamentale in quanto permette di scalare orizzontalmente un cluster mongodb permettendo una crescita morbida delle prestazioni del sistema e soprattutto dei costi.
La replica permette di ottenere sistemi in alta affidabilità e lo sharding sistemi scalabili. Probabilmente però si vorranno entrambe le caratteristiche. Per fortuna MongoDB permette di combinare le due caratteristiche utilizzando come nodi dello sharding degli interi ReplicaSet.
Lo sharding è una caratteristica piuttosto complessa e per avere un sistema in sharding bisogna introdurre nel nostro cluster MongoDB ben tre tipi di demoni differenti: per la verità lo stesso demone con tre ruoli differenti. Avremo bisogno di demoni che mantengano la configurazione dello sharding (config server), demoni che mantengano i dati applicativi e demoni che gestiscano le connessioni dei client facendosi carico di suddividere le query tra i nodi dati coinvolti, raggruppare i risultati e restituirli ai client.
La minima configurazione avviabile in sharding anche per test prevede quindi:
esattamente 3 nodi config server. Non c’è possibilità di scelta. Devono essere diversi per evitare unique point of failure. E’ interessante notare che con soli due nodi di queto tipo attivi, ad esempio in seguito ad un fault, il sistema non accetta modifiche alla configurazione dello sharding ed è per questo aspetto in sola lettura pur rimanendo perfettamente funzionante per il resto.
almeno un nodo control server
almeno un nodo dati. La minima configurazione interessante, anche per test è però, secondo me, di sei nodi (due ReplicaSet ognuno con un primary, un secondary e un arbiter) altrimenti lo sharding è degenere.
Una configurazione minimale di produzione che sia sia ridondata sia scalabile si può quindi ottenere su tre server: attenzione però nel dimensionamento del sistema perché alcune operazioni su quasto sistema, legate soprattutto alla modifica dello sharding, possono comportare livelli di carico ben oltre il normale.