by Larry English

Aprile 2008

Qualità delle Informazioni e Datawarehousing

Da lungo tempo il management sente la necessità di misurare le performance dell’impresa. I sistemi di gestione operativa supportano i processi delle attività, ma non consentono l’analisi diretta delle operazioni. La Business Intelligence, quindi, deve fornire informazioni a supporto dei processi tattici e strategici, comprese le decisioni del management che debbono basarsi sui fatti e sulla conoscenza dei trend relativi alla base clienti, ai prodotti e ai servizi. Negli anni 70, le organizzazioni crearono le funzioni di “Gestione delle informazioni” per assicurarne la corretta distribuzione, mentre gli anni 80 videro l’esplosione degli “Information center”, precursori degli attuali ambienti di Business Intelligence. Successivamente fu la volta degli “Executive information systems” (Eis), ovvero dei sistemi informativi dedicati al management con lo scopo di estrarre e presentare gli “indicatori fondamentali dell’impresa”, per arrivare poi ai cruscotti aziendali e ai datawarehouse odierni.

Business Intelligence e qualità delle informazioni
Inizialmente, i datawarehouse avevano forti problemi di qualità delle informazioni contenute al loro interno:

    • i database operativi eccessivi, ridondanti e definiti in maniera incoerente creavano enormi difficoltà di estrazione, trasformazione e caricamento dei dati nel datawarehouse;
    • dati perduti, non validi oppure imprecisi creavano la necessità di pesanti processi di verifica, identificando gli errori ma non fornendo la possibilità di correggerli;
    • la duplicazione dei record dei clienti, sia all’interno di un database che in database diversi causavano pesanti costi per la verifica della corrispondenza, riconciliazione e sincronizzazione dei dati, con errori di ogni tipo nel cercare di consolidare in maniera univoca due o più informazioni fondamentali delle persone.

Una lezione imparata circa la qualità delle informazioni era che il valore delle informazioni del mio dipartimento non corrispondeva necessariamente a quello delle informazioni dell’intera impresa. I “miei” dati potevano essere Ok per me, ma potevano causare gravi errori nei “vostri” processi operativi. Gli sforzi di integrazione semplicemente non potevano risolvere tutti i problemi. Queste esperienze di datawarehousing provarono che la definizione comune di qualità dei dati come “adatti allo scopo” non era sufficiente per la qualità dell’informazione. I processi di datawarehousing indicano che per definire le informazioni di alta qualità, queste debbono contenere tutti i dati disponibili di cui ha bisogno l’utente, non solo quelli forniti dai “produttori d’informazioni”. Le organizzazioni che hanno questi problemi non governano le informazioni come risorsa strategica, né applicano esatti principi di gestione della qualità alle informazioni per la corretta distribuzione di queste ultime come prodotto da condividere tra gli utenti.

Il valore della qualità dell’informazione
La spinta fondamentale dietro la Business Intelligence è un semplice fatto comune a tutte le risorse, da quelle finanziarie e umane, oppure relative a materiali e apparecchiature, fino a considerare le informazioni. Il valore di ogni risorsa diviene effettivo solamente quando la utilizziamo in maniera operativa. Il denaro ha valore unicamente quando lo spendiamo o lo investiamo saggiamente; le persone contribuiscono a creare valore solo quando esplicano il loro “lavoro valido”; una fabbrica ha valore quando è operativa e realizza i prodotti attesi.L’informazione ha valore solo quando applicazioni aziendali o operatori della conoscenza ne vengono in possesso e la applicano per eseguire un’attività o prendere decisioni consapevoli.Ma in tutto questo si nasconde una trappola: l’informazione senza qualità è pericolosa, perché induce a prendere decisioni errate.

L’evoluzione delle pratiche di qualità dell’informazione nella BI
La maggior parte dei primi approcci alla “qualità” dei datawarehouse risultavano reattivi, in quanto prevedevano la correzione dei dati all’interno del datawarehouse stesso, oppure in un’area di transito prima del loro caricamento. Questo approccio iniziale e immaturo era concettualmente analogo alle prime pratiche di qualità nelle aziende manifatturiere all’inizio dell’era industriale. In queste ultime, qualità significava mettere ispettori al termine della linea di assemblaggio per ispezionare i prodotti e scartare quelli difettosi, per ricondizionarli successivamente o per distruggerli se non potevano essere rimessi in lavorazione. Si trattava, quindi, di un approccio alla qualità definibile come “verifica e correggi” oppure “rimetti in lavorazione o distruggi” La qualità nell’area manifatturiera è poi maturata, rimpiazzando l’approccio “verifica e correggi” con quello maggiormente propositivo di “inserisci la qualità nel progetto”. Questo ha eliminato il costo delle “ispezioni” (che non aggiungono valore) e del “rimetti in lavorazione o distruggi” (una perdita di tempo e di materiali che poteva essere risparmiata, realizzando il prodotto correttamente). Le organizzazioni di maggiore successo dimostrano che “progettare la qualità” dei processi e dei sistemi di gestione operativa alla fonte rappresenta un effettivo risparmio di costi nella soluzione dei problemi di IQ, ovvero di qualità dell’informazione (Information Quality). Alcune delle lezioni imparate dalle esperienze passate raccomandano di:

      • usare il concetto di Ods (Operational data store), ossia di banca dati operativa, per creare un forte Odb (Operational database), ovvero un efficace database operativo dell’impresa, in modo da poter riprogettare e rimpiazzare, con un approccio di revisione graduale e per fasi successive, tutte le strutture dei dati definite in modi diversi e obsolete. Questo riduce i costi e i rischi dell’integrazione, eliminando una delle cause principali della scarsa qualità dell’informazione;
      • risolvere alla fonte i problemi di qualità delle informazioni all’interno dei processi – non nelle fasi successive. Questo previene i problemi di non corrispondenza dei dati contenuti nei database di partenza e di arrivo;
      • considerare la “pulizia” dei dati come un progetto univoco per ciascun insieme di dati;
      • migliorare il processo di acquisizione e applicazione dei dati mediante tecniche di verifica mirate a prevenire gli errori;
      • fornire un’adeguata preparazione ai manager dedicati alla produzione dei dati, aiutandoli a comprendere le necessità relative alla qualità dei dati da parte dei rispettivi utenti, mediante l’applicazione di metodi e tecniche volte a migliorare i loro processi di lavoro;
      • inserire la responsabilità per la qualità dell’informazione nella job description di ogni manager. Fornire a questi una preparazione adeguata e dare loro sei mesi di tempo per applicare i principi dell’IQ, migliorare i processi operativi e preparare adeguatamente i rispettivi dipendenti.

Intelligent learning organizations

Attualmente, le organizzazioni operano in due maniere diverse: (1) costruire un numero sempre crescente di datawarehouse senza affrontare in modo propositivo i problemi della qualità delle informazioni; (2) risolvere i problemi di qualità alla fonte, consentendo alle rispettive organizzazioni di diventare “Intelligent Learning Organizations”, ovvero organizzazioni intelligenti in grado di imparare dall’esperienza.