Tesi etd-04092016-201830 |
Link copiato negli appunti
Tipo di tesi
Tesi di laurea magistrale
Autore
PESTILLO, CHIARA SABINA
URN
etd-04092016-201830
Titolo
Realizzazione di una piattaforma Big Data per un'azienda leader nel settore manufactoring
Dipartimento
INFORMATICA
Corso di studi
INFORMATICA PER L'ECONOMIA E PER L'AZIENDA (BUSINESS INFORMATICS)
Relatori
relatore Prof. Trasarti, Roberto
Parole chiave
- analisi dei dati
- Big Data
- ETL
- Hadoop
- Motif discovery
Data inizio appello
29/04/2016
Consultabilità
Completa
Riassunto
Realizzazione e progettazione di una piattaforma tecnologica basata su strumenti Big Data quali Hadoop e le sue componenti principali per l’analisi e la gestione dei dati di un’azienda leader nel settore manufactoring con l'obiettivo di creare uno strumento di reportistica utile a supportare le decisioni aziendali. Nell’elaborato verranno affrontati tutti i passaggi, sia architetturali sia di analisi, che hanno portato alla realizzazione della suddetta piattaforma.
Nel primo capitolo viene data una panoramica sui Big Data e sulle loro caratteristiche principali; nel secondo capitolo vengono descritti gli strumenti tecnologici utilizzati per lo svolgimento del progetto, quali ad esempio Hadoop, HDFS, Hive; nel terzo capitolo vengono descritte tutte le fasi che vanno dall’importazione dei dati alla creazione dei report finali sia a livello architetturale che a livello analitico, mostrando nel dettaglio le trasformazioni effettuate sui dati sorgente e le analisi statistiche effettuate. In particolare, nell’ambito del data mining, è stato utilizzato un algoritmo per scoprire pattern ricorrenti, denominati “motif”, all’interno di serie temporali. Infine nel quarto capitolo, vengono mostrati e analizzati i principali report costruiti per supportare le decisioni aziendali.
Nel primo capitolo viene data una panoramica sui Big Data e sulle loro caratteristiche principali; nel secondo capitolo vengono descritti gli strumenti tecnologici utilizzati per lo svolgimento del progetto, quali ad esempio Hadoop, HDFS, Hive; nel terzo capitolo vengono descritte tutte le fasi che vanno dall’importazione dei dati alla creazione dei report finali sia a livello architetturale che a livello analitico, mostrando nel dettaglio le trasformazioni effettuate sui dati sorgente e le analisi statistiche effettuate. In particolare, nell’ambito del data mining, è stato utilizzato un algoritmo per scoprire pattern ricorrenti, denominati “motif”, all’interno di serie temporali. Infine nel quarto capitolo, vengono mostrati e analizzati i principali report costruiti per supportare le decisioni aziendali.
File
Nome file | Dimensione |
---|---|
TesiDiLaurea.pdf | 9.66 Mb |
Contatta l’autore |