Modulo Introduttivo

Sessione Pubblica

15/5/201916/5/201917/5/2019
08.30 - 09.30

Registrazione
08.30 - 09.00

Registrazione
08.30 - 09.00

Registrazione
09.30 - 10.30

09.00 - 09.45


09.45 - 10.30

09.00 - 10.30

10.30 - 11.00

Coffee Break
10.30 - 11.00

Coffee Break
10.30 - 11.00

Coffee Break
11.00 - 12.30

11:00 - 12.30

11.00 - 12.30

Sessione Riservata

15/5/201916/5/201917/5/2019
12.30 - 14.00

Working Lunch
12.30 - 14.00

Working Lunch
12.30 - 14.00

Working Lunch
14.00 - 17.00

14.00 - 15.30


15.30 - 17.00


14.00 - 15.30


15.30 - 17.00

Mercoledì, 15 Maggio 2019

09.30 - 10.30
Sala Convegni
Saluto delle Autorità e Apertura dei Lavori

______________________________

11.00 - 12.30
Sala Convegni
Big Data Analytics
Diego Reforgiato Recupero
Sommario: I big data hanno un ruolo pilota nei cambiamenti economici e sociali mondiali. La raccolta di dati nel mondo sta raggiungendo un punto di svolta per importanti cambiamenti tecnologici che possono portare nuovi modi nel processo decisionale, gestendo la nostra salute, le città, la finanza e l'istruzione. Mentre la complessità dei dati aumenta, tra cui il volume, la varietà, la velocità e la veridicità dei dati, il vero impatto dipende dalla nostra capacità di scoprire il "valore" nei dati attraverso le tecnologie di Big Data Analytics. Le tecnologie di Big Data Analytics rappresentano una grande sfida per la progettazione di algoritmi e sistemi altamente scalabili per integrare i dati e scoprire grandi valori nascosti da set di dati diversi, complessi e di grandi dimensioni. Potenziali innovazioni includono nuovi algoritmi, metodologie, sistemi e applicazioni in Big Data Analytics che scoprono conoscenze utili e nascoste dai Big Data in modo efficiente ed efficace. In ultimo, ma non meno importante, la disponibilità di hardware potente (e.g. sistemi cloud, GPUs, etc.) rende possibile la gestione e l'analisi di grosse quantita' di dati che oggi sono disponibili.
Relatore: Diego Reforgiato Recupero è Professore Associato al DMI dell'Università di Cagliari dal 2015. Insegna Big Data per il corso di laurea magistrale in informatica. Dopo due lauree in Informatica e un PhD, nel 2005 vince un Post Doc alla Università del Maryland. Vince nel 2006 il Computer World Horizon Award. Nel 2008 vince un Grant Marie Curie per un Post Doc di 3 anni al DIEEI dell'Università di Catania. Vince il premio "Best Researcher Award 2012". Vince "Startup Weekend" nel 2012 e Telecom Italia Working Capital di un Award di 25k euro. Nel 2012 co-fonda R2M Solution. Nel 2013 vince un Post Doc a STLAB del CNR. Nel 2013 pubblica un articolo su Science sull'efficienza energetica di Internet. Fonda anche R2M Solution ltd, La Zenia s.r.l., B-UP e VISIOSCIENTIAE (spin-off universitario dell'Università di Cagliari). E' proprietario di un brevetto nel campo del data mining e del sentiment analysis (20100023311).

Giovedì, 16 Maggio 2019

09.30 - 09.45
Sala Convegni
Architetture flessibili per dispositivi IoT
Massimo Gaggero
Sommario: Nell'Urban Computing il cittadino non è solo il punto di arrivo della ricerca ma è anche il suo punto di partenza. Questi infatti altre ad essere destinatario dei risultati ottenuti attraverso la pubblicazione di OpenData, è attivamente coinvolto nella raccolta dei dati. Sensori e stazioni di misura devono essere pensati per essere realizzati, installati e ospitati dai cittadini che intendono partecipare. A tal fine è necessario che essi possano scegliere gli strumenti da adottare in base alle proprie disponibilità, al mercato, ed, eventualmente, alla capacità di realizzarli da zero e di crearne di nuovi. L'eterogeneità di tipi e formati che possono concorrere al progetto rappresenta quindi un problema per l'infrastruttura di raccolta e calcolo, problema che viene generalmente affrontato o attraverso la standardizzazione, che riduce però la scelta per i sensori e di conseguenza costituisce una barriera di accesso economica, o con la duplicazione e specializzazione delle strutture interne del Cloud di raccolta, che però ne aumenta complessità e costo. La soluzione adottata dal progetto TDM sta nell'introdurre nel percorso tra i sensori e il cloud un dispositivo perimetrale, l'Edge Gateway, che traduce i dati acquisiti dal loro formato nativo in un messaggio standard da inoltrare. Requisito fondamentale per l'Edge Gateway TDM è quindi la flessibilità: la possibilità cioè di poter ospitare 'interpreti' diversi per oggetti diversi, di aggiungerne di nuovi, di rimuoverne o modificarne alcuni senza compromettere gli altri e poter fornire allo stesso tempo al cittadino un modo per trattare e visualizzare i propri dati prodotti.
Relatore: Massimo Gaggero si è laureato in Ingegneria Elettronica nel 2006 all'Università degli Studi di Cagliari con una tesi sull'uso degli acceleratori FPGA del supercomputer Cray XD1 per la parallelizzazione di algoritmi di filtraggio digitale. Nel 2000 inizia a lavorare presso il CRS4 occupandosi di reti, sistemi e calcolo distribuito. Nel 2007 come Expert Software Engineer del gruppo Advanced Computing si occupa di sistemi per il deployment distribuito su scala geografica di cluster di calcolo virtuali. Nel 2008 ha partecipato al Research Assistantship Programme presso il NURC, NATO Undersea Research Centre, dove ha svolto attività di analisi e progettazione di sensori distribuiti per reti acustiche sottomarine e architetture Delay-Tolerant/Disruption-Tollerant per applicazioni marittime. Attualmente è Senior Technologist presso il Programma Data-intensive Computing dove si occupa di telemetria di processi industriali, dispositivi clinici, IoT e applicazioni per le Smart City.

______________________________

09.45 - 10.30
Sala Convegni
Servizi digitali e smart city del Comune di Cagliari basati su tecnologie cloud
Pierangelo Lucio Orofino
Sommario: Il Comune di Cagliari ha avviato una Governance attiva e partecipata per rilanciare la Città nei nuovi ecosistemi digitali con l’uso di tecnologie intelligenti in grado di rendere semplice ed efficace l’interazione tra PA, cittadini e imprese. In questo contesto sta sviluppando, in collaborazione con AGID ed il Team Digitale, il nuovo modello di Portale dei servizi al cittadino pensato come standard per tutti i Comuni, che adotterà come prima Amministrazione in Italia, pensato come punto di accesso centrale per tutte le tematiche di interesse. Nell'ambito dei progetti relativi alla sensoristica IoT sono in corso alcune sperimentazioni relative alla gestione dei parcheggi per i disabili, alla rilevazione del traffico, alla qualità dell'aria, alla mobilità sostenibile (car e bike sharing) oltre alla produzione di dati generati dalle telecamere di videosorveglianza. Tutti questi progetti sono accomunati dall’utilizzo di tecnologie Cloud e dall’erogazione dei dati provenienti dai sensori in formato aperto mediate API pubbliche. Mediante gli interventi PON-Metro dedicati alla città Metropolitana sono stati predisposti progetti dedicati all’evoluzione delle infrastrutture fisiche (Datacenter) verso il Cloud della PA, oltre a specifici servizi di Smart City basati sui dispositivi IoT che partiranno nel corso del 2019.
Relatore: Funzionario tecnico del Comune di Cagliari, responsabile dell’ Ufficio Infrastrutture Hardware, Software e Reti, laureato in Informatica, Ingegnere dell’Informazione iscritto all’Albo della provincia di Cagliari. Lavora al Comune dal 1999, si occupa di tecnologie datacenter e di reti dati, di cooperazione applicativa e servizi digitali per i cittadini. E’ esperto di tecnologie cloud e lavora attualmente sull’evoluzione dei datacenter comunali verso il cloud della PA e sui sistemi IoT per l’erogazione di dati aperti e di servizi digitali.

______________________________

11.00 - 12.30
Sala Convegni
Metodi statistici per l'analisi dei dati
Claudio Conversano
Sommario: L’analisi statistica dei dati è il “core” dei moderni sistemi di raccolta ed elaborazione delle informazioni a fini decisionali. Il decision maker moderno deve essere capace di trasformare un problema reale in un problema statistico, nonché di individuare e saper impiegare consapevolmente i metodi o modelli statistici più adatti alle specifiche esigenze di business. In un periodo in cui la rilevazione del dato è resa più semplice e immediata dal proliferare di nuove tecnologie e applicazioni, e in cui termini come Big Data, Business Analytics e Internet of Things sono divenuti di utilizzo e interesse comune, riveste importanza fondamentale la capacità di saper “pre-processare” ed “editare” i dati, nonché di saperli analizzare con metodi o modelli appropriati in grado di esplicitare le relazioni causali tra le variabili e di massimizzare la capacità predittiva dei modelli o metodi tenendo sotto controllo il rischio di sovra-parametrizzazione. Il modulo di metodi statistici per l’analisi dei dati si propone di effettuare una rassegna critica, attraverso la presentazione di casi studio, degli strumenti statistici maggiormente utilizzati nella moderna scienza dei dati (Data Science), con particolare riferimento agli approcci di tipo esplorativo e confermativo, supervisionato e non supervisionato, parametrico vs. nonparametrico o semiparametrico.
Relatore: Claudio Conversano è professore associato di Statistica presso il dipartimento di Scienze Economiche ed Aziendali dell’Università di Cagliari. Attualmente è titolare degli insegnamenti di Statistica, Quantitative methods for management, Statistical models for portfolio asset allocation, Analisi dei Big Data e Laboratorio di Big Data. I suoi interessi di ricerca vertono principalmente su statistica computazionale, data mining, pattern recognition, statistical learning, qualità dei dati statistici, inferenza causale e finanza computazionale.

Venerdì, 17 Maggio 2019

09.00 - 10.30
Sala Convegni
Intelligenza Artificiale e Comprensione Automatica del Linguaggio Naturale
Maurizio Atzori
Sommario: Il Natural Language Understanding (NLU) è la branca dell'intelligenza artificiale che studia la comprensione, da parte delle macchine, del testo in linguaggio naturale (inglese, italiano, ecc.). Dopo una introduzione all'Intelligenza Artificiale, Machine Learning, e dei vari task di Natural Language Processing, durante la lezione si approfondirà come una macchina, senza supervisione umana, sia in grado di comprendere autonomamente la similarità tra termini, sappia dare un nome alla relazione che intercorre tra due parole e possa rispondere a delle domande in linguaggio naturale. Verranno mostrati dei risultati sviluppati recentemente dal gruppo di ricerca del DMI e accennati possibili utilizzi degli stessi in alcuni contesti applicativi.
Relatore: Maurizio Atzori è Professore Associato al DMI dell'Università di Cagliari, dove ha fondato il Semantic Web Lab ed è referente del Laboratorio CINI su Big Data, e precedentemente Ricercatore dal 2010. Laureato con lode e PhD in Informatica su temi di Intelligenza Artificiale all'Università di Pisa, ha lavorato come Postdoc e Ricercatore presso il Laboratorio di Knowledge Discovery and Delivery dell'ISTI, Consiglio Nazionale delle Ricerche (CNR, Pisa). E' stato visiting scholar/professor presso il Queen Mary (UK), Sabanci University (Turchia), Purdue Univ. (Indiana, USA), University of California Los Angeles (UCLA, USA). Ha vinto il primo startup Weekend a Cagliari nel 2013, il Google Research Award nel 2015 e il best paper award dell'IEEE AIKE nel 2018. E' General Chair della 2019 IEEE conference on Artificial Intelligence and Knowledge Engineering.

______________________________

11.00 - 12.30
Sala Convegni
Machine Learning e Deep Learning
Giovanni Busonera e Marco Cogoni
Sommario: Nella prima parte della presentazione verrà dato qualche veloce richiamo di probabilità e statistica seguito da una carrellata generale sui metodi di Machine Learning supervisionati e non: metodi di classificazione, regressione, clustering e riduzione della dimensionalità: PCA e LDA. Cenni sui metodi di riduzione della dimensionalità non lineari e quando sono utili. Nella seconda parte verranno descritti alcuni metodi genericamente chiamati Deep Learning che è una branca del Machine Learning che si fonda su successivi stati di rappresentazione dei dati d’ingresso. Si basa tipicamente sul modello delle reti neurali ed è usato principalmente per l’apprendimento supervisionato. Questa parte ha come obiettivo l’illustrazione dei concetti di base su cui si basano le reti neurali e la loro capacità di apprendere relazioni non lineari. Verrà inoltre introdotta la API di alto livello Keras mediante degli esempi di applicazioni delle reti neurali a dei problemi reali.
Relatore: Giovanni Busonera ha conseguito la laurea specialistica in Ingegneria Elettronica presso l'Università degli Studi di Cagliari nel 2004 e il Dottorato di ricerca in Ingegneria Elettronica ed Informatica presso la stessa Università nel 2008. Ha collaborato con il Microsoft Research Embedded Group di Redmond realizzando eBug, un supporto per il debugging software per il processore dinamicamente riconfigurabile eMIPS. Dal 2008 è ricercatore al CRS4 e le sue attività di ricerca hanno riguardato la virtualizzazione, la programmazione distribuita e l'accelerazione hardware per il calcolo parallelo sia mediante l'uso di dispositivi FPGA che GPU. Attualmente si occupa di analisi dei dati e di Machine Learning con particolare riferimento alle applicazioni biomediche.
Relatore: Marco Cogoni ha conseguito una Laurea in Fisica all'Università di Cagliari nel 1999 con una tesi sul comportamento caotico nei vetri di spin (con Enzo Marinari e successivamente Marc Mezard, LPTMS Universite’ Paris Sud). Ha un Dottorato in Fisica all'Università di Cagliari incentrato sul problema della creazione e diffusione di difetti nella matrice cristallina dei semiconduttori (con Luciano Colombo e Art Voter, LANL). Ricercatore Post-Doc al Dipartimento di Fisica di Cagliari (2003-2005) , al Dipartimento di Scienza dei Materiali di Milano Bicocca (con Leo Miglio 2005-2007) e al CNRS Laboratoire de Mecanique de Lille (Jean Philippe Laval) e al CEA Saclay (Berengere Dubrulle) (2007-2008) su problemi di strato limite turbolento affrontato con metodi di meccanica statistica. Dal 2008 ricercatore al CRS4, impiegato inizialmente su problemi di energia solare (ottimizzazione ombre in campi di specchi e torre centrale), struttura cristallina del ghiaccio in condizioni estreme e, più recentemente, analisi della congestione in reti di comunicazione e di trasporto, analisi di segnali EEG e l’applicazione di metodi di teoria dei grafi a problemi di Scienze Sociali. In generale l'attività di ricerca e’ caratterizzata dall’uso e dallo sviluppo di tecniche numeriche avanzate che hanno in comune metodi di ottimizzazione e metodi derivati dalla meccanica statistica.