Il Corso fornisce una panoramica dell'ecosistema Hadoop con esempi pratici su progetti di Big Data Analytics. Descrive i principali sottosistemi ed approfondisce in modo particolare l'uso di Spark, framework per l'analisi distribuita di BigData fino a 100 volte più veloce di Hadoop Map Reduce.
Nessun prerequisito.
Map Reduce: concetti di base e scrittura di programmi
Introduzione all'Ecosistema di Apache Hadoop
Illustrazione dei Componenti per la gestione di File System, DataStore, Serializzazione, Data Transfer, Schedulazione di Job e Sicurezza
Framework per l'elaborazione di Grafi e Networks (Giraph)
Apache Oozie per il Workflow
Introduzione a Mahout ed Mlib per il Machine Learning
Apache Cassandra
Apache Spark: oltre il Map Reduce
Come realizzare procedure con Spark
Amministrazione, Sicurezza e Troubleshooting di un Sistema Hadoop
Sistemi Big Data in Cloud: Amazon Elastic Map Reduce e Google Big Query
Case Study