Pagine a cura di Maria Chiara Furlò

Ogni giorno vengono creati 2,5 miliardi di miliardi di byte di dati. «Il 90% dei dati presenti al mondo oggi è stato prodotto negli ultimi due anni. Entro il 2020 si stimano 7,7 miliardi di persone e 26 miliardi di dispositivi connessi a Internet – Internet of Things. Basta pensare che nel settore sanitario, la conoscenza medico-scientifica presto raddoppierà ogni 73 giorni». Questi i numeri dei big data, snocciolati dal direttore del centro di ricerca Ibm di Zurigo, l’italiano Alessandro Curioni. Quando si parla di big data, si parla di una massa di dati, di informazioni, così estesa in termini di volume, velocità e varietà da richiedere tecnologie e metodi analitici specifici per trarne valore e trasmetterlo a imprese, enti e cittadini. La rivoluzione è ormai partita, ma in Italia stenta a contagiare anche le piccole e medie imprese.

Cosa sono i big data. È del 2001 una delle definizioni di big data ancora attuale, quella dell’analista aziendale Doug Laney (oggi chief data officer research and advisory di Gartner multinazionale della consulenza strategica, ricerca e analisi nel campo dell’Information Technology) che la articolò attraverso tre V: volume, velocità e varietà.

Volume, perché sono diversi i fattori che hanno contribuito all’incremento del volume dei dati: quelli transazionali immagazzinati nel corso degli anni, i dati non strutturati provenienti dai social media, il crescente numero di sensori e dati machine-to-machine che sono stati acquisiti nel tempo.

Velocità. Il flusso di dati scorre a una velocità senza precedenti e per essere compreso e creare valore deve essere gestito in modo tempestivo. La sfida di molte organizzazioni è proprio quella di reagire abbastanza velocemente da riuscire a governare la velocità dei dati.

Infine, la varietà. Oggi i dati si mostrano in diverse forme: dati numerici strutturati in database tradizionali, informazioni ricostruite attraverso applicazioni «line-of-business», documenti di testo non strutturati, e-mail, video, audio, dati provenienti da quotazioni in borsa e da transazioni finanziarie. Gestire, acquisire e governare un’ampia varietà di dati sono temi con i quali le organizzazioni si devono confrontare.

Proprio di varietà parla anche Curioni, «non si tratta solo di volumi e velocità, si tratta di dati non strutturati: non ben etichettati in colonne su un foglio di calcolo», si tratta anche di video, foto, previsioni del tempo e testi e, dal momento che non sono strutturati, i computer non sono in grado di analizzarli a dar loro un senso.

«Questo è il motivo per cui abbiamo bisogno di nuovi strumenti che aumentino la nostra capacità di strutturare le informazioni e ci consentano di trovare dei modelli da applicare. Ibm considera questa come l’era del cognitive computing (tecnologia che permette alle persone di interagire più facilmente con i computer, ndr)», aggiunge Alessandro Curioni.

Il 2017 sarà l’anno della svolta? Si sente spesso dire che il 2017 sarà l’anno della svolta dei big data, ma in realtà una svolta c’è già stata, da un doppio punto di vista.

Lo spiega Renata Trinca, coordinatrice del percorso formativo executive della Sda Bocconi dedicato al Business data analytics: «Da un lato le realtà data intensive (abituate a trattare ampie masse di dati, ndr) si stanno già dotando delle competenze e delle infrastrutture tecnologiche per trattare i big data. Pensiamo, in particolare, a settori come il bancario o il retail. Dall’altro la trasformazione digitale di molti settori tradizionali sta ulteriormente incrementando la capacità di generazione di dati».

Come fa notare la professoressa, sono gli stessi consumatori, che attraverso il loro comportamento, digitale e non, si rendono tracciabili. «Che percorsi faccio normalmente con il car sharing? Che stile di guida ho? Come mi comporto in caso di incidente? Che auto prediligo? Tutte tracce digitali, differenti tra loro, che consentono di profilare meglio l’utente e, in fondo, offrire un servizio migliore. Le compagnie di autonoleggio solo cinque anni fa non sapevano rispondere a queste domande», spiega Trinca.

La diffusione di Analytics e big data nelle imprese italiane. Nel 2016, il mercato degli Analytics (ossia gli strumenti che usano la «scienza dell’analisi», ovvero l’applicazione dell’informatica a problemi che richiedono analisi e interpretazione di un gran numero di dati, con lo scopo di stabilire quali siano le migliori decisioni strategiche da prendere, ad esempio per ottimizzare il business di un’azienda) in Italia è cresciuto del 15%, raggiungendo un valore complessivo di 905 milioni di euro.

Se la business intelligence (insieme di processi aziendali per raccogliere dati e analizzare informazioni strategiche) fa ancora la parte del leone in termini di volumi con un valore di 722 milioni di euro (+9% in un anno), i big data, seppur ancora marginali come valore (183 milioni di euro), sono la componente che mostra la crescita più significativa (+44%).

Gran parte di questo mercato è oggi appannaggio delle grandi imprese, che si dividono l’87% della spesa complessiva, mentre le Pmi si fermano al 13%.

Questi i risultati della ricerca dell’Osservatorio Big Data Analytics & Business Intelligence della School Management del Politecnico di Milano secondo la quale però la consapevolezza delle aziende italiane riguardo alle opportunità offerte dai big data sta crescendo.

Sono quasi 4 su 10 infatti i Cio italiani (chief information officer, ossia i manager responsabili della tecnologia dell’informazione) che vedono nella Business Intelligence, nei Big Data e negli Analytics le priorità di investimento principali per l’innovazione digitale del 2017.

«Le grandi imprese si stanno muovendo nella direzione giusta, con una maggiore attenzione da parte del top management e una spesa crescente nei Big Data e negli Analytics nel loro complesso», commenta Alessandro Piva, responsabile della ricerca dell’Osservatorio Big Data Analytics e Business Intelligence che fa notare però come lo stesso non si possa dire delle Pmi, che coprono oggi solo il 13% del mercato e solo nel 34% dei casi hanno dedicato a sistemi di Analytics una parte del budget Ict 2016: «per le piccole realtà emerge ancora un ritardo nella creazione di competenze e modelli di governo delle iniziative di analytics e una limitata conoscenza delle opportunità», aggiunge Piva.

Le dimensioni delle Pmi frenano lo sviluppo dei big data. La consapevolezza dell’importanza dei big data per le imprese «è molto ampia, le aziende italiane hanno compreso che l’utilizzo dei dati può essere un fattore competitivo molto importante».

A confermarlo è Giuseppe Ragusa, direttore del master in Big data management della Luiss Business School di Roma, che spiega però come il problema principale sia quello della struttura aziendale italiana, «tendenzialmente fatta di piccole aziende, per le quali diventa chiaramente difficile fare investimenti di questo tipo rispetto al loro fatturato. Così si crea un ritardo rispetto ad altri paesi che hanno aziende più grandi e che quindi possono fare più facilmente investimenti importanti».

Occorre poi anche ricordare, come fa Paolo Dell’Olmo, direttore del master in Data intelligence e strategie decisionali dell’Università la Sapienza di Roma, che il Paese «ancora non dispone di una rete a banda larga per la trasmissione dati adeguata a favorire questo tipo di sviluppo. E certamente c’è un problema di formazione e a più livelli. Il management delle imprese deve ridisegnare le proprie strategie e la propria organizzazione alla luce di queste nuove opportunità».

Il professionista dei dati. In Italia sono diversi i corsi di laurea, i master e i percorsi executive dedicati ai big data e contrariamente a quanto si possa immaginare, si tratta di corsi aperti a laureati provenienti da diverse facoltà, con una partecipazione eterogenea di giovani e di molte professionalità già ben inserite nel mondo del lavoro che necessitano però di un percorso di aggiornamento motivato dai cambiamenti intervenuti in questi anni.

«L’idea è quella di trasmettere competenze informatiche, metodologico-statistiche ed economiche, visto che il professionista dei dati («data scientist») deve essere in grado di comprendere il linguaggio che si parla in azienda, quello dei profitti delle perdite e del bilancio non solo quello informatico», spiega il professor Ragusa aggiungendo che a volte è difficile trovare studenti perché la parte quantitativa di questo tipo di studi spaventa ancora, «però stiamo riscontrando un enorme successo del placement, i nostri studenti trovano lavoro prima della fine del master e vanno a lavorare come data scientist nelle aziende».

Un «data scientist» attualmente «viene visto come il profilo professionale che possiede un mix di conoscenze diverse (informatica, statistica, ricerca operativa e management, economia ) e, anche se corretto da un punto di vista di competenze tecniche, questo è un modo riduttivo di vederne le potenzialità», fa notare il professor Dell’Olmo spiegando che questa figura professionale deve avere molti talenti: «essere uno specialista che sa immaginare percorsi anche mai tracciati fino ad ora per rispondere ai business problems aziendali, dialogando con i manager da un lato e con profili più tecnici per dall’altro. È un creativo, un problem solver, una professionista che sa sintetizzare da un mare di dati operativi le informazioni che servono per le decisioni tattiche e strategiche».

© Riproduzione riservata
Fonte:
logoitalia oggi7