Linee guida pratiche per implementare un Data Mesh

Data Catalog, Data Fabric, Data Products, Data Marketplace

Descrizione

La maggior parte delle aziende oggi archivia dati ed esegue applicazioni in un ambiente multi-Cloud ibrido. I sistemi analitici tendono a essere centralizzati e isolati come Data Warehouse e Data Mart per BI, Hadoop o Data Lake memorizzati su Cloud per Data Science e sistemi analitici di streaming stand-alone per l’analisi in tempo reale.

Questi sistemi centralizzati si affidano a Data Engineer e Data Scientist che lavorano all’interno di ciascun silos per acquisire dati da molte fonti diverse, pulirli e integrarli per l’utilizzo in uno specifico sistema analitico o in modelli di Machine Learning.

Ci sono molti problemi con questo approccio centralizzato e in silos, tra cui più strumenti per preparare e integrare i dati, reinvenzione delle pipeline di integrazione dei dati in ogni silos e ingegneria dei dati centralizzata con scarsa comprensione dei dati di origine che non permettono di tenere il passo con le richieste del Business che richiedono sempre nuovi dati. Anche i Master Data non sono ben gestiti.

Per affrontare questi problemi è emerso un nuovo approccio che tenta di accelerare la creazione di dati da utilizzare in più workload analitici, l’approccio è il Data Mesh.

Questo seminario esamina in dettaglio il Data Mesh evidenziando i suoi punti di forza e di debolezza. Qual è la migliore Architettura per implementarlo? Come coordinare più team orientati al dominio e usare una comune infrastruttura software dati, come Data Fabric, per creare prodotti dati di qualità, conformi e riusabili in un Data Mesh e come usare i Data Marketplace per condividere i prodotti dati? L’obiettivo è abbreviare il time to value, garantendo al contempo che i dati siano gestiti correttamente in un ambiente decentralizzato.

Questo corso si sofferma inoltre sulle implicazioni organizzative del Data Mesh e su come creare prodotti dati condivisibili Master Data Management e per l’uso nell’analisi multi-dimensionale su un Data Warehouse, Data Science, Graph Analysis e real time streaming Analytics per creare valore di business. Le tecnologie discusse includono cataloghi di dati, Data Fabric per lo sviluppo collaborativo di pipeline di integrazione dati per creare prodotti dati, DataOps per velocizzare il processo, automazione della Data Orchestration, marketplace di dati e piattaforme di governance dei dati.

Cosa imparerete

  • I punti di forza e di debolezza delle Architetture centralizzate usate nell’Analitica
  • I problemi causati nei sistemi analitici esistenti da un panorama dati ibrido multi-Cloud
  • Cosa è un Data Mesh e in cosa differisce da un Data Lake e da un Data Lakehouse?
  • Quali benefici offre il Data Mesh e quali sono le opzioni di implementazione?
  • Quali sono in principi, requisiti e sfide nell’implementazione di questi approcci?
  • Come organizzarsi per creare prodotti dati in un ambiente decentralizzato senza creare caos?
  • L’importanza di un Catalogo dati per capire quali dati sono disponibili come un servizio
  • Come i glossari di business possono aiutare ad assicurarci che i prodotti dati siano capiti e semanticamente collegati
  • Un modello operativo per una efficace Data Governance Federata
  • Quale infrastruttura software è richiesta per costruire, operare e governare un Data Mesh di prodotti dati da usare in un Data Lake, Data Lakehouse o Data Warehouse?
  • Cosa è il software di Data Fabric e come si integra con i cataloghi dati?
  • Una metodologia di implementazione per produrre prodotti dati affidabili e riusabili
  • Sviluppo collaborativo orientato al dominio di pipeline distribuite DataOps per creare prodotti dati
  • Come un Catalogo dati e software di automazione possono essere usati per generare pipeline di DataOps
  • A gestire la qualità dei dati, privacy, sicurezza dell’accesso, versioning e il ciclo di vita dei prodotti dati
  • A mettere a disposizione prodotti dati collegati semanticamente in un mercato dati dove altri possono consumarli e usarli
  • A consumare prodotti dati in un sistema MD
  • A consumare e assemblare prodotti dati in sistemi analitici multipli come Data Warehouse, Lakehouse e graph database per ridurre il time to value

Argomenti Trattati

  • Cosa è un Data Mesh, un Data Lake o un Data Lakehouse? Perché usarli?
  • Metodologie per creare Prodotti Dati
  • Usare un glossario di business per definire i Prodotti Dati
  • Sviluppo e operatività standardizzati in un Data Mesh, Data Lake o Lakehouse
  • Costruire Pipelines di DataOps per creare Prodotti Dati multiuso
  • Implementare una Data Governance Federata per produrre e usare Prodotti Dati conformi

Costo

€ 1200 + IVA

Data

30 - 31 Ott 2023
Expired!

Luogo

Evento online
Share on:
Facebook
Twitter
LinkedIn
Email
WhatsApp
Pocket
Reddit