Modulo Introduttivo
Sessione Pubblica
15/5/2019 | 16/5/2019 | 17/5/2019 |
---|---|---|
08.30 - 09.30 Registrazione | 08.30 - 09.00 Registrazione | 08.30 - 09.00 Registrazione |
09.30 - 10.30 | 09.00 - 09.45 09.45 - 10.30 | 09.00 - 10.30 |
10.30 - 11.00 Coffee Break | 10.30 - 11.00 Coffee Break | 10.30 - 11.00 Coffee Break |
11.00 - 12.30 | 11:00 - 12.30 | 11.00 - 12.30 |
Sessione Riservata
15/5/2019 | 16/5/2019 | 17/5/2019 |
---|---|---|
12.30 - 14.00 Working Lunch | 12.30 - 14.00 Working Lunch | 12.30 - 14.00 Working Lunch |
14.00 - 17.00 | 14.00 - 15.30 15.30 - 17.00 | 14.00 - 15.30 15.30 - 17.00 |
Mercoledì, 15 Maggio 2019
Saluto delle Autorità e Apertura dei Lavori
______________________________
Big Data Analytics
Diego Reforgiato Recupero
Sommario: I big data hanno un ruolo pilota nei cambiamenti economici e sociali mondiali. La raccolta di dati nel mondo sta raggiungendo un punto di svolta per importanti cambiamenti tecnologici che possono portare nuovi modi nel processo decisionale, gestendo la nostra salute, le città, la finanza e l'istruzione. Mentre la complessità dei dati aumenta, tra cui il volume, la varietà, la velocità e la veridicità dei dati, il vero impatto dipende dalla nostra capacità di scoprire il "valore" nei dati attraverso le tecnologie di Big Data Analytics. Le tecnologie di Big Data Analytics rappresentano una grande sfida per la progettazione di algoritmi e sistemi altamente scalabili per integrare i dati e scoprire grandi valori nascosti da set di dati diversi, complessi e di grandi dimensioni. Potenziali innovazioni includono nuovi algoritmi, metodologie, sistemi e applicazioni in Big Data Analytics che scoprono conoscenze utili e nascoste dai Big Data in modo efficiente ed efficace. In ultimo, ma non meno importante, la disponibilità di hardware potente (e.g. sistemi cloud, GPUs, etc.) rende possibile la gestione e l'analisi di grosse quantita' di dati che oggi sono disponibili.

Giovedì, 16 Maggio 2019
Architetture flessibili per dispositivi IoT
Massimo Gaggero
Sommario: Nell'Urban Computing il cittadino non è solo il punto di arrivo della ricerca ma è anche il suo punto di partenza. Questi infatti altre ad essere destinatario dei risultati ottenuti attraverso la pubblicazione di OpenData, è attivamente coinvolto nella raccolta dei dati. Sensori e stazioni di misura devono essere pensati per essere realizzati, installati e ospitati dai cittadini che intendono partecipare. A tal fine è necessario che essi possano scegliere gli strumenti da adottare in base alle proprie disponibilità, al mercato, ed, eventualmente, alla capacità di realizzarli da zero e di crearne di nuovi. L'eterogeneità di tipi e formati che possono concorrere al progetto rappresenta quindi un problema per l'infrastruttura di raccolta e calcolo, problema che viene generalmente affrontato o attraverso la standardizzazione, che riduce però la scelta per i sensori e di conseguenza costituisce una barriera di accesso economica, o con la duplicazione e specializzazione delle strutture interne del Cloud di raccolta, che però ne aumenta complessità e costo. La soluzione adottata dal progetto TDM sta nell'introdurre nel percorso tra i sensori e il cloud un dispositivo perimetrale, l'Edge Gateway, che traduce i dati acquisiti dal loro formato nativo in un messaggio standard da inoltrare. Requisito fondamentale per l'Edge Gateway TDM è quindi la flessibilità: la possibilità cioè di poter ospitare 'interpreti' diversi per oggetti diversi, di aggiungerne di nuovi, di rimuoverne o modificarne alcuni senza compromettere gli altri e poter fornire allo stesso tempo al cittadino un modo per trattare e visualizzare i propri dati prodotti.

______________________________
Servizi digitali e smart city del Comune di Cagliari basati su tecnologie cloud
Pierangelo Lucio Orofino
Sommario: Il Comune di Cagliari ha avviato una Governance attiva e partecipata per rilanciare la Città nei nuovi ecosistemi digitali con l’uso di tecnologie intelligenti in grado di rendere semplice ed efficace l’interazione tra PA, cittadini e imprese. In questo contesto sta sviluppando, in collaborazione con AGID ed il Team Digitale, il nuovo modello di Portale dei servizi al cittadino pensato come standard per tutti i Comuni, che adotterà come prima Amministrazione in Italia, pensato come punto di accesso centrale per tutte le tematiche di interesse. Nell'ambito dei progetti relativi alla sensoristica IoT sono in corso alcune sperimentazioni relative alla gestione dei parcheggi per i disabili, alla rilevazione del traffico, alla qualità dell'aria, alla mobilità sostenibile (car e bike sharing) oltre alla produzione di dati generati dalle telecamere di videosorveglianza. Tutti questi progetti sono accomunati dall’utilizzo di tecnologie Cloud e dall’erogazione dei dati provenienti dai sensori in formato aperto mediate API pubbliche. Mediante gli interventi PON-Metro dedicati alla città Metropolitana sono stati predisposti progetti dedicati all’evoluzione delle infrastrutture fisiche (Datacenter) verso il Cloud della PA, oltre a specifici servizi di Smart City basati sui dispositivi IoT che partiranno nel corso del 2019.

______________________________
Metodi statistici per l'analisi dei dati
Claudio Conversano
Sommario: L’analisi statistica dei dati è il “core” dei moderni sistemi di raccolta ed elaborazione delle informazioni a fini decisionali. Il decision maker moderno deve essere capace di trasformare un problema reale in un problema statistico, nonché di individuare e saper impiegare consapevolmente i metodi o modelli statistici più adatti alle specifiche esigenze di business. In un periodo in cui la rilevazione del dato è resa più semplice e immediata dal proliferare di nuove tecnologie e applicazioni, e in cui termini come Big Data, Business Analytics e Internet of Things sono divenuti di utilizzo e interesse comune, riveste importanza fondamentale la capacità di saper “pre-processare” ed “editare” i dati, nonché di saperli analizzare con metodi o modelli appropriati in grado di esplicitare le relazioni causali tra le variabili e di massimizzare la capacità predittiva dei modelli o metodi tenendo sotto controllo il rischio di sovra-parametrizzazione. Il modulo di metodi statistici per l’analisi dei dati si propone di effettuare una rassegna critica, attraverso la presentazione di casi studio, degli strumenti statistici maggiormente utilizzati nella moderna scienza dei dati (Data Science), con particolare riferimento agli approcci di tipo esplorativo e confermativo, supervisionato e non supervisionato, parametrico vs. nonparametrico o semiparametrico.

Venerdì, 17 Maggio 2019
Intelligenza Artificiale e Comprensione Automatica del Linguaggio Naturale
Maurizio Atzori
Sommario: Il Natural Language Understanding (NLU) è la branca dell'intelligenza artificiale che studia la comprensione, da parte delle macchine, del testo in linguaggio naturale (inglese, italiano, ecc.). Dopo una introduzione all'Intelligenza Artificiale, Machine Learning, e dei vari task di Natural Language Processing, durante la lezione si approfondirà come una macchina, senza supervisione umana, sia in grado di comprendere autonomamente la similarità tra termini, sappia dare un nome alla relazione che intercorre tra due parole e possa rispondere a delle domande in linguaggio naturale. Verranno mostrati dei risultati sviluppati recentemente dal gruppo di ricerca del DMI e accennati possibili utilizzi degli stessi in alcuni contesti applicativi.

______________________________
Machine Learning e Deep Learning
Giovanni Busonera e Marco Cogoni
Sommario: Nella prima parte della presentazione verrà dato qualche veloce richiamo di probabilità e statistica seguito da una carrellata generale sui metodi di Machine Learning supervisionati e non: metodi di classificazione, regressione, clustering e riduzione della dimensionalità: PCA e LDA. Cenni sui metodi di riduzione della dimensionalità non lineari e quando sono utili. Nella seconda parte verranno descritti alcuni metodi genericamente chiamati Deep Learning che è una branca del Machine Learning che si fonda su successivi stati di rappresentazione dei dati d’ingresso. Si basa tipicamente sul modello delle reti neurali ed è usato principalmente per l’apprendimento supervisionato. Questa parte ha come obiettivo l’illustrazione dei concetti di base su cui si basano le reti neurali e la loro capacità di apprendere relazioni non lineari. Verrà inoltre introdotta la API di alto livello Keras mediante degli esempi di applicazioni delle reti neurali a dei problemi reali.

