by John Kneiling

Agosto 2004

Applicazioni Web ad alta disponibilità

Per molte ragioni, il web è divenuto l’ambiente preferito per le applicazioni dipartimentali o a beneficio dell’intera impresa. Tuttavia, molte organizzazioni restano dubbiose sulla propria capacità di supportare processi importanti per l’impresa in maniera sufficientemente affidabile.
Ma cosa è necessario fare per assicurare la disponibilità continua di queste applicazioni?
Esistono tre fattori di alta disponibilità (HA, ovvero High Availability): disponibilità, capacità di accesso e prestazioni. In un sistema con applicazioni HA, tutti i necessari servizi di sistema operano correttamente. In altri termini, tutti questi servizi sono accessibili da chi sia abilitato, ovvero possono essere richiesti tramite la rete, così come debbono fornire un minimo di prestazioni standard in termini di utilizzo corretto della rete, delle applicazioni e delle risorse del server.
Per migliorare la disponibilità di un’applicazione è indispensabile un’azione di monitoraggio. Esistono molte metriche, ma indicheremo solamente quelle di base. In primo luogo, la disponibilità del sistema, naturalmente con tutti i necessari servizi per l’impresa.
Quindi, la capacità di accesso. Ovvero, fino a che punto è possibile accedere a questi servizi da locazioni predefinite all’interno dell’organizzazione? Esistono due modi per misurare le performance: il tempo di accesso e risposta misura la percezione dell’utente, mentre la capacità di flusso delle transazioni fornisce quella del provider.
Il bilanciamento del carico consente ai server del web e a quelli delle applicazioni per il web di indirizzare le loro richieste verso le macchine disponibili.
Questa tecnologia aiuta anche il sistema ad affrontare gli stop, reindirizzando le richieste verso risorse in ?hot standby?, ovvero pronte a essere impegnate immediatamente e senza soluzioni di continuità, come nel caso del Database Server 2 nella figura 1. Il bilanciamento del carico ripartisce l’impegno su macchine multiple, fornendo così una capacità di elaborazione superiore a quella di ogni singolo server.
L’aumento incrementale della capacità elaborativa prolunga il ritorno degli investimenti sui server e fornisce una modalità a basso costo per raggiungere un’alta disponibilità, rimuovendo una precisa possibilità di malfunzionamento.
Gli strumenti per il bilanciamento del carico si basano sulla conoscenza dello stato della configurazione, ovvero dello stato corrente e dei tempi di latenza di ogni macchina inserita nella configurazione. Alcuni strumenti supportano locazioni multiple, reindirizzando ciascuna richiesta sulla base della locazione del client in Internet.
Questi strumenti generalmente sono integrati nel web, nelle applicazioni e nei server di eCommerce.
La ridondanza soddisfa due obiettivi: migliora la disponibilità ed elimina la possibilità di malfunzione in un punto singolo del sistema. Se replichiamo le risorse in vicinanza dell’utente, si riduce anche la lunghezza del percorso e si evitano colli di bottiglia potenziali.
Questo accorgimento è definito? locazione di riferimento? e rappresenta un altro modo per ottimizzare le risorse di dati e applicazioni. Le tattiche migliori per una ridondanza pianificata sono il bilanciamento del carico e la resistenza ai malfunzionamenti del server, oltre all’impiego di configurazioni multiple delle risorse a disposizione.
 
Le cadute non spaventano
La caduta della sola sessione indica la capacità di un’applicazione di non interrompersi se viene meno il collegamento con l’utente. Si tratta di una capacità che deve essere progettata nell’ambito del sistema ed è implementata normalmente nei server dedicati alle applicazioni web. La mancanza di tale capacità comporta la perdita di tutte le elaborazioni non salvate nel momento della caduta della sessione.
Ad esempio, se un consumatore sta perfezionando un acquisto, verranno perdute tutte le informazioni relative al pagamento da effettuare. Questi dati, relativi alle informazioni sulla sessione attiva, spesso sono indicati con l’acronimo TSD (Transient Session Data).
Per la soluzione di questo problema, esistono due approcci: sessioni persistenti a livello del database e sessioni da memoria a memoria. Entrambe le tecniche sono definite spesso come raggruppamento delle sessioni. Una sessione su database persistente, nel corso del proprio svolgimento memorizza e mantiene i dati di proprio interesse in un database dedicato.
In caso di arresto del server, la sessione viene trasferita su di un altro server web dedicato all’applicazione, in modo trasparente per l’utente. Esiste però una penalizzazione in termini di performance, perché i dati della sessione interessati debbono essere identificati e recuperati per mantenere inalterato lo stato della sessione stessa. Le sessioni da memoria a memoria operano in maniera simile, con la differenza che i dati vengono costantemente duplicati su di un altro server.
Questo approccio elimina il ritardo nella ripartenza dovuto alla ricerca dei dati nel database di riferimento.
Utilizzando Java, l’implementazione della capacità di gestire la caduta della sessione può creare un certa confusione. Prima di tutto, il raggruppamento delle sessioni (Session Clustering) è definito come standard aperto nelle API Java Server. Ma, poiché è implementato in maniera differente e con prodotti diversi, non potete contare su di un raggruppamento tra server di questo tipo, sui quali girano prodotti Java di origine diversa.
Se usate un ambiente J2EE, non utilizzate sessioni EJB per memorizzare i dati delle sessioni TSD. Queste, infatti, mantengono le informazioni di stato come dati in una memoria cache, in modo da consentire un miglioramento delle prestazioni. Il problema deriva dal fatto che, in caso di caduta dell’applicazione, tutti i dati TSD vengono perduti e l’utente deve ripartire dall’inizio.
Un’alternativa migliore è progettare sessioni EJB senza indicazione di stato. In tal modo, questi bean non mantengono in memoria uno stato della sessione e ciascun metodo all’interno della sessione senza stato viene eseguito indipendentemente, evitando collegamenti con dati in memoria.
Tornando all’esempio citato precedentemente, una lista di acquisti può essere mantenuta su di un oggetto persistente e poi spostata nel DBMS a cura della codifica dell’applicazione relativa all’accesso ai dati. Quando l’utente ha terminato gli acquisti e vuole procedere al pagamento, gli articoli prescelti vengono ritrovati all’interno del DBMS (ancora una volta mediante la codifica di accesso ai dati), e la transazione può essere completata.
Se questo tipo di sessione, senza indicazione di stato, si interrompe, il sistema di raggruppamento delle sessioni la sposta su di un server alternativo (vedi Figura 1). Al momento della richiesta del pagamento, il nuovo server legge la shopping list direttamente dal DBMS.
Per realizzare tutto questo in Java, possiamo estendere l’oggetto carrello della spesa?, aggiungendo un altro oggetto denominato SelectedItems, ovvero merce selezionata, che è una JavaArrayList di MerchandiseItems. Al momento del pagamento, l’applicazione ritroverà l’oggetto SelectedItems. Questo presuppone l’uso della tecnica di raggruppamento da memoria a memoria.
In termini pratici, avviene questo: se il server cade, gli oggetti saranno parte della sessione dell’utente e, se stiamo utilizzando il raggruppamento delle sessioni, la sessione interessata verrà trasferita in modo trasparente. Le performance miglioreranno perché SectedItems è rappresentato da un bean (in memoria) e non all’interno del DBMS.
Questo approccio opera meglio nel caso di un numero limitato di dati. In caso contrario, grandi quantità di dati non dovrebbero essere memorizzate come oggetti delle sessioni utente. Questo esempio presuppone anche che stiamo utilizzando un approccio allo sviluppo delle applicazioni che isoli la codifica di accesso ai dati, come quello di Model-View-Controller (MVC).
 
Il problema della disponibilità
Per essere sempre disponibile, un’applicazione con alte performance deve essere scalabile. La scalabilità orizzontale significa che un’applicazione clonata gira su due o più server, configurati in modo da poter superare i malfunzionamenti. La scalabilità verticale pone istanze multiple di un’applicazione su di un server singolo. Questo fornisce una capacità addizionale e una resistenza ai malfunzionamenti a livello di server. Nella figura 2, App 1 possiede una scalabilità orizzontale e verticale, mentre App 2 ha solamente una scalabilità orizzontale.
Il modo più accurato per pianificare la ridondanza, è condurre un’analisi completa di capacità. In primo luogo, determinate le relazioni tra le risorse e la base di riferimento del server utente. Catalogate il numero totale degli utenti, il carico di lavoro concorrente medio e di picco, gli accessi random alla memoria per ogni istanza richiesti dall’applicazione, lo spazio necessario sull’hard disk, ecc.
Se un sistema o un’applicazione cadono, deve esistere una capacità elaborativa sufficiente a supportare il carico medio di utenti, compresi i server web e le applicazioni, la memoria e le altre risorse necessarie. A tale proposito, alcune organizzazioni hanno calcolato che, sotto un carico di lavoro medio, i server non debbano girare oltre il limite del 40 per cento della loro capacità.
 
Lo sviluppo di un sistema ad alta disponibilità non è una questione di tecnologia, ma piuttosto richiede la progettazione del sistema delle applicazioni in modo da corrispondere alle necessità dell’impresa, realizzando applicazioni con alte prestazioni, disponibili e facilmente utilizzabili.
Questo significa rimuovere i singoli punti di criticità, fornendo una scalabilità orizzontale e isolando la codifica relativa ai dati mediante un approccio del tipo MVC. Altri fattori importanti comprendono l’uso delle tecniche di raggruppamento e di ripartenza delle sessioni, oltre al trattamento dei dati transienti con una logica di recovery ad alta velocità.
Le applicazioni web complesse costituiscono una sfida che può essere affrontata con successo mediante un giusto approccio di progettazione.