Linee guida pratiche per implementare un Data Mesh

Data Catalog, Data Fabric, Data Products, Data Marketplace

Descrizione

La maggior parte delle aziende oggi archivia dati ed esegue applicazioni in un ambiente multi-Cloud ibrido. I sistemi analitici tendono a essere centralizzati e isolati come Data Warehouse e Data Mart per BI, Hadoop o Data Lake memorizzati su Cloud per Data Science e sistemi analitici di streaming stand-alone per l’analisi in tempo reale. Questi sistemi centralizzati si affidano a Data Engineer e Data Scientist che lavorano all’interno di ciascun silos per acquisire dati da molte fonti diverse, pulirli e integrarli per l’utilizzo in uno specifico sistema analitico o modelli di Machine Learning. Ci sono molti problemi con questo approccio centralizzato e in silos, tra cui più strumenti per preparare e integrare i dati, reinvenzione delle pipeline di integrazione dei dati in ogni silos e ingegneria dei dati centralizzata con scarsa comprensione dei dati di origine che non permettono di tenere il passo con le richieste del Business che richiedono sempre nuovi dati. Anche i Master Data non sono ben gestiti.

Per affrontare questi problemi è emerso un nuovo approccio che tenta di accelerare la creazione di dati da utilizzare in più workload analitici, l’approccio è il Data Mesh.

Questo seminario esamina in dettaglio il Data Mesh evidenziando i suoi punti di forza e di debolezza. Qual è la migliore Architettura per implementarlo? Come coordinare più team orientati al dominio e usare una comune infrastruttura software dati, come Data Fabric, per creare prodotti dati di qualità, conformi e riusabili in un Data Mesh e come usare i Data Marketplace per condividere i prodotti dati? L’obiettivo è abbreviare il time to value, garantendo al contempo che i dati siano gestiti correttamente in un ambiente decentralizzato.

Questo corso si sofferma inoltre sulle implicazioni organizzative del Data Mesh e su come creare prodotti dati condivisibili Master Data Management e per l’uso nell’analisi multi-dimensionale su un Data Warehouse, Data Science, Graph Analysis e real time streaming Analytics per creare valore di business. Le tecnologie discusse includono Cataloghi di dati, Data Fabric per lo sviluppo collaborativo di pipeline di integrazione dati per creare prodotti dati, DataOps per velocizzare il processo, automazione della Data Orchestration, marketplace di dati e piattaforme di governance dei dati.

Cosa imparerete

  • Punti di forza e di debolezza delle Architetture dati centralizzate usate nell’Analitica
  • I problemi causati nei sistemi analitici esistenti dagli ambienti multi-Cloud ibridi
  • Cosa è un Data Mesh e come differisce dagli altri approcci?
  • Quali benefici offre il Data Mesh e quali sono le opzioni di implementazione?
  • Quali sono i principi, i requisiti e le sfide dell’implementazione di un Data Mesh?
  • Come organizzarsi per creare prodotti dati in un ambiente decentralizzato senza creare caos?
  • L’importanza di un Catalogo Dati per capire quali dati sono disponibili come un servizio
  • Come i glossari di business possono aiutare ad assicurarci che i prodotti dati siano capiti e semanticamente collegati
  • Un modello organizzativo di Best Practices per coordinare lo sviluppo di prodotti dati in diversi domini per riuscire a implementare un Data Mesh
  • Quale infrastruttura software è richiesta per operare e governare un Data Mesh di prodotti dati da essere usati in un Data Lake, in un Data Lakehouse, in un Data Warehouse o in altri workload analitici?
  • Cosa è il software Data Fabric, come si integra con i Cataloghi dati e come si connette al vostro patrimonio dati?
  • Una metodologia di implementazione per produrre prodotti dati affidabili e riusabili
  • Sviluppo collaborativo orientato al dominio di pipeline distribuite DataOps per creare prodotti dati
  • Come un Catalogo dati, IA Generativa e software di automazione possono essere usati per generare pipeline di DataOps
  • A gestire la qualità dei dati, privacy, sicurezza dell’accesso, versioning e il ciclo di vita dei prodotti dati
  • Pro e contro di diverse opzioni di Architettura Dati per implementare un Data Mesh
  • A mettere a disposizione prodotti dati collegati semanticamente in un mercato dati dove altri  possono consumarli e usarli
  • Architettura di dati federati e prodotti dati: l’emergere di tabelle aperte Lakehouse come modo per consentire a più carichi di lavoro analitici di accedere a prodotti di dati condivisi
  • Prodotti Maser Data persistenti in un sistema MDM
  • A consumare e assemblare prodotti dati in sistemi analitici multipli come Datahouse, Lakehouse e Graph database per ridurre il time to value
  • Come implementare una Data Governance federata

Argomenti Trattati

  • Cosa è un Data Mesh e perché è necessario
  • Metodologie per creare Prodotti Dati
  • Usare un glossario di business per definire i Prodotti Dati
  • Sviluppo e operatività standardizzati in un Data Mesh
  • Costruire Pipelines di DataOps per creare Prodotti Dati multiuso
  • Implementare una Data Governance Federata per produrre e usare Prodotti Dati conformi
Mike Ferguson

Costo

€1.200,00

Data

11 - 12 Nov 2024
Expired!

Luogo

Evento online
Share on:
Facebook
Twitter
LinkedIn
Email
WhatsApp
Pocket
Reddit