Campus Digitale

Corso Tecnologie e Software di Data Science

Categoria:
Senza stage
Finanziamento:
Finanziato/Gratuito
Durata corso:
120
Corso Tecnologie e Software di Data Science

Uno dei principi chiave per operare con i Big Data è lo stoccaggio di tutti i dati originali, indipendentemente da quando questi saranno utilizzati. Quindi col tempo gli archivi possono assumere dimensioni anche incredibilmente elevate.

Anche se nulla impedisce di realizzare l’archiviazione dei dati tramite un classico database relazionale, spesso questa scelta porta a investire risorse economiche importanti sia in termini computazioniali, sia di storage. Questi e altri motivi portano alcuni colossi dell’innovazione, tra cui Google e Facebook, ad adottare strumenti diversi dagli RDBMS per gestire e i loro Dataset: tra le tecnologie Open Source create per questo scopo una delle più diffuse e utilizzate è Apache Hadoop.

Il progetto ha come obiettivo quello di permettere ai partecipanti di comprendere le architetture esistenti per il trattamento di Big Data e per la memorizzazione in db noSQL, in modo da essere in grado di utilizzare le principali funzionalità di questi strumenti.

Richiedi info

A chi è rivolto

12 Giovani in possesso di una laurea triennale o magistrale o una laurea a ciclo unico, conseguita da non più di 24 mesi, residenti o domiciliati in Regione Emilia Romagna in data antecedente l’iscrizione alle attività. Il progetto è particolarmente rivolto a soggetti con formazione di tipo tecnico-scientifico.

È un progetto destinato a profili con già un’esposizione alle seguenti tematiche: livello base di gestione server e cloud, livello base di gestione Data Base, livello base di programmazione Java.

Cosa imparerai a fare

Il percorso è verticale rispetto al principale framework dei Big Data: Apache Hadoop, che supporta applicazioni distribuite con elevato accesso ai dati sotto una licenza libera, in particolare consente di elaborare in modo efficiente grandi set di dati.

La gestione dei dati può comportare query su dati strutturati all’interno di database di grandi dimensioni, oppure ricerche su file system distribuiti od infine operazioni di manipolazione, visualizzazione, trasferimento e cancellazione di file e directory distribuite su più server. L’analisi computazionale comporta lo sviluppo di metodi ed algoritmi scalabili per la gestione e l’analisi di Big Data. L’analisi dei dati e la modellazione può comportare la riduzione dimensionale, la suddivisione (clustering), la classificazione (ranking), la previsione e la possibilità di future estrazioni.

La Visualizzazione può coinvolgere modalità grafiche che forniscono informazioni su grandi quantità di dati, ricchi di informazioni visive con riepiloghi dei risultati, dove l’analisi visuale talvolta è il momento stesso in cui i dati vengono valutati. Apache Hadoop è un framework che consente l’elaborazione distribuita di grandi insiemi di dati attraverso cluster di servers, oppure sui servizi di cloud computing. È stato progettato per scalare da singolo server a migliaia di macchine distribuite, ognuna delle quali offre capacità di calcolo e di immagazzinamento.

Per la gestione dei Big Data offre alcune componenti molto utilizzate: HDFS e MAP Reduce. Apache Hadoop è un ambiente che supporta applicazioni distribuite con elevato accesso ai dati sotto una licenza libera; permette alle applicazioni di lavorare con migliaia di nodi e petabyte di dati. Hadoop è stato ispirato dalla MapReduce di Google e dal Google File System. Hadoop è un progetto Apache di alto livello costruito e usato da una comunità globale di contributori, che usano il linguaggio di programmazione Java.

È prevista la certificazione digitale delle competenze acquisite attraverso la collaborazione con Reiss Romoli. Saranno emessi open badge sulle competenze specifiche rilasciate in esito ai progetti, previo raggiungimento del 70% di frequenza.

Contenuti del corso

  • MODULO TECNOLOGIE E SOFTWARE DI DATA SCIENCE

    112 ore

    • Principi base dei Big Data
    • Elenco sorgenti big data
    • Data lake e Data warehouse
    • Sistemi transazionali e database relazionali
    • Teorema Brewer
    • Introduzione alle logiche di programmazione SQL e ai DB NoSQL
    • Introduzione a Python
    • Hadoop common
    • Hadoop Distributed
    • File System Hadoop tools, ecosistema e distribuzioni
    • Comprendere MapReduce
    • Operazioni CRUD e aggregazioni avanzate
    • Elaborazione dati ed esportazione verso NOSQL
    • Utilizzo di MongoDB Connector for Hadoop
    • Algoritmi di data mining
    • Algoritmi per la market basket analysis
    • Algoritmi per trovare item simili in larghe quantità di dati
    • Librerie Python per la gestione e la visualizzazione dei dati
    • Apache Spark per l’analisi dei dati: RDD, Structured queries e use case di esempio

Come Funziona

Per poter accedere al corso i candidati devono essere in possesso di:

  • Laurea triennale o magistrale o una laurea a ciclo unico conseguita da non più di 24 mesi;
  • Residenza o domicilio in regione Emilia Romagna.

Quanto costa e modalità di pagamento

Il corso è completamente gratuito.

Certificazioni

  • Attestato di frequenza IFOA

Estremi finanziamento

“Anticipare la crescita con le nuove competenze sui Big Data” Operazione Rif. PA 2023-19167/RER approvata con Deliberazione della Giunta Regionale n° 843/2023 del 29 maggio 2023 e co-finanziata dal Fondo Sociale Europeo+ 2021-2027 Regione Emilia-Romagna

Enti finanziatori

Corso Tecnologie e Software di Data Science

Richiedi info

Compila il form sottostante per ottenere il download della scheda di dettaglio del corso.

Grazie!
Scarica la scheda per scoprire tutti i dettagli del corso.

Download

Compila il form sottostante per iscriverti all'evento di presentazione.