Progettare, costruire e gestire un Multi-purpose Data Lake

Descrizione

Molte aziende oggi devono trattare con molti silos di informazione come sistemi Cloud e sistemi on-premise, diversi Data Warehouses, Data Marts, sistemi RDM (Reference Data Management), sistemi MDM (Master Data Management), sistemi ECM (Enterprise Content Management), piattaforme NoSQL per Big Data come Hadoop o altri databases NoSQL. In aggiunta le sorgenti dati stanno aumentando vertiginosamente, in particolare quelle esterne all’azienda.

Trovandosi questa situazione, non sorprende che molte aziende stiano smettendo di gestire queste informazioni in silos con tools differenti usati per preparare e gestire i dati attraverso questi sistemi con vari gradi di governance. Per di più oggi non è solo l’IT che gestisce i dati. Gli utenti del business cominciano ad avere i propri dati.

A questo punto la domanda è: ma è questo il solo modo per gestire i dati? Esiste un altro livello che possiamo raggiungere che ci permetta di gestire e governare molto più facilmente i dati in questo panorama sempre più complesso?

Questo seminario esamina le problematiche che le aziende si trovano ad affrontare relativamente alla proliferazione delle sorgenti dati, alla difficoltà di raccogliere questi dati in diversi data stores (Cloud e on-premise), in diversi sistemi analitici e spiega quali sono i requisiti affinché un’azienda sia in grado di definire, governare, gestire e condividere un’informazione sicura e di qualità in questo ambiente ibrido di computing.

Viene descritto un nuovo approccio affinché gli architetti dei dati, gli utenti del business e gli sviluppatori IT possono collaborare per costruire e gestire un Logical Data Lake e riprendere il controllo dei propri dati.

Questo include data ingestion, automated data discovery, data profiling, tagging e pubblicazione dei dati in un catalogo dell’informazione disponibile per tutta l’azienda. Vengono anche introdotte configurazioni multiple di Data Lake, includendo un Data Lake centralizzato e un “Logical” e distribuito Data Lake. In fine si enfatizza la necessità di avere un processo collaborativo comune e un comune approccio per governare e gestire tutti i tipi di dati.

Cosa Imparerete

  • Come definire una strategia per produrre Data-as-a-Service in un ambiente distribuito di multipli data stores e sorgenti multiple di dati
  • Come organizzare i dati in un ambiente centralizzato o distribuito per superare la complessità e il caos
  • Come progettare, costruire e gestire un Logical o centralizzato o distribuito Data Lake
  • L’importanza di un catalogo dell’informazione per produrre Data-as-a-Service
  • Come la standardizzazione dei dati e i glossari di business possono aiutare a rendere i dati più comprensibili
  • Un modello operativo per una efficace governance dell’informazione distribuita
  • Le tecnologie e le metodologie di implementazione di cui avete bisogno per tenere tutto sotto controllo
  • Quali metodologie applicare per tenere sotto controllo Master e Reference Data, Big Data, Data Warehouse e dati non strutturati, sia che si trovino su Cloud o su sistemi on-premise

Argomenti Trattati

  • Strategia e Pianificazione Metodologia e Tecnologie
  • Standardizzazione dei dati e il glossario del business
  • Organizzare il Data Lake
  • Il processo di Data Refinery
  • Raffinare i Big Data e i dati per i Data Warehouses
  • Information audit e protezione – L’aspetto trascurato della Data Governance

Costo

€1.100,00

Data

12 - 13 Nov 2020
Expired!

Luogo

Evento online
Share on:
Facebook
Twitter
LinkedIn
Email
WhatsApp
Pocket
Reddit