Pagina a cura di Antonio Longo
Dall’intrattenimento al credito, dallo shopping alla politica. I big data, soprattutto nell’ultimo ventennio, sono ormai entrati a far parte della quotidianità, senza che spesso ci si accorga di ciò. È quanto evidenzia la «fotografia» scattata da Qlik, azienda che opera nel campo dei data analytics, con cui sono stati delineati i tratti di diversi settori nei quali i big data rivestono un ruolo fondamentale, in alcuni casi cruciale. Scorci dell’odierna società totalmente mutati se rapportati agli scenari presenti all’inizio del nuovo secolo. «Negli anni 20 del ventunesimo secolo i dati sono il fondamento dell’economia e della società, imprescindibili come è imprescindibile l’acqua per la vita. Le similitudini non finiscono qui, perché i dati per poter essere utilizzati devono essere puliti e accessibili, raccolti da fonti diverse e incanalati in una struttura in grado di gestirli. I dati, di per sé, non sono infatti sufficienti: sono le analytics che trasformano i dati in intelligenza attiva» commenta Stefano Nestani, regional director di Qlik per l’Italia.

Un’offerta televisiva senza limiti, studiata su misura. Nell’ormai lontano anno 2000 uniche alternative alle proposte dei canali della tv generalista erano il pay-per-view, oppure il noleggio di videocassette e dvd. Il panorama odierno dell’entertainment è dominato dalla presenza di tante altre piattaforme on-demand che garantiscono la comodità di disporre di una quantità infinita di titoli e la sensazione di un’offerta studiata su misura.

L’algoritmo ordina, infatti, le diverse proposte contenute nel catalogo per il singolo utente, incrociando i dati con lo scopo di fornire contenuti che potrebbero essere di suo interesse o che sono popolari in un particolare momento.

Nel caso di Netflix il sistema adatta persino la locandina alla persona in modo che l’immagine, di un attore o di una scena che potrebbe rientrare nei suoi gusti, richiama immediatamente l’elemento più efficace per quel determinato utente.
I nuovi fattori che influiscono sul credito. La presenza e le attività sul web e sui social, la reputazione digitale, i flussi di pagamento, le rilevazioni effettuate da sensori e dispositivi, le immagini dei satelliti.


Negli ultimi anni sono emersi nuovi fattori che hanno modificato, radicalmente, i meccanismi che governano le scelte delle banche in materia di credito.

La maggiore attenzione all’esperienza del cliente, l’utilizzo di algoritmi di machine learning sempre più sofisticati e, soprattutto, la quantità di dati a disposizione, provenienti dalle fonti più disparate, consentono agli istituti di credito di svolgere analisi e approfondimenti sull’affidabilità della clientela. Anche un semplice post su Instagram o Facebook, testimonianza di un determinato stile di vita sociale, o i dati registrati dalle app di salute possono fare attribuire un diverso grado di affidabilità ad un determinato cliente.
Consigli per gli acquisti sempre più personalizzati. Lo shopping online è divenuto parte integrante della quotidianità per milioni di consumatori. Vedere apparire un certo numero di consigli e banner pubblicitari mentre si naviga su internet è un’esperienza ormai consueta.

Si tratta di raccomandazioni che vengono elaborate sulla base delle attività e degli acquisti passati dell’utente e di utenti simili.

I social media, le informazioni sui vari siti web e le transazioni sui portali e-commerce rappresentano fonti di informazione sempre più preziose. Soltanto alcuni decenni fa lo shopping era ancora legato al negozio fisico e gli unici consigli, o raccomandazioni, di cui si poteva disporre erano quelle dei commessi o degli amici. Poi sono arrivati Amazon nel 1994, eBay nel 1995, Alibaba nel 1999. E tutto è cambiato.

Anche la politica profila gli elettori. Nel 2012, in occasione della sua rielezione, il Washington Post descriveva Obama come «The Big Data President».

Infatti, le campagne elettorali statunitensi utilizzavano già all’epoca, ad ampio raggio, metodi di profilazione, finalizzati a tradurre il comportamento individualizzato in partecipazione politica.

La gestione efficace dei dati, utilizzando tecniche di targettizzazione, consente di tracciare profili ben definiti degli elettori, analizzando i comportamenti ma anche consumi e attività dei singoli. Lo scenario è cambiato radicalmente, i dati sono entrati in maniera massiva anche nella sfera politica.

© Riproduzione riservata

Intelligenza artificiale da maneggiare con cura
L’intelligenza artificiale non è infallibile. È creata dalle persone e gli esseri umani possono commettere errori. Ecco perché bisogna essere consapevoli di quando viene utilizzata, come funziona e come affrontare le decisioni automatizzate. A lanciare il monito è stato Michael O’Flaherty, il direttore della Fra, l’Agenzia dell’Unione Europea per i diritti fondamentali, in occasione della recente presentazione del rapporto «Getting the future right – Artificial intelligence and fundamental rights in the Eu» che individua le insidie nell’uso dell’intelligenza artificiale, chiamata a rispettare i diritti umani fondamentali, proteggendoli e promuovendoli.

Gli esperti dell’agenzia indicano, quindi, sia all’Unione europea sia ai singoli Stati il solco lungo cui sviluppare i progetti di intelligenza artificiale. In primis, necessita mitigare i fattori di rischio che possano intaccare alcuni diritti, con particolare riferimento alla privacy e alla protezione dei dati.

Inoltre, i cittadini devono essere adeguatamente informati quando viene utilizzata, e in che modo, l’intelligenza artificiale, nonché come e a chi presentare eventuali contestazioni.

È altrettanto importante valutare i possibili impatti negativi dell’intelligenza artificiale, in tal senso le organizzazioni pubbliche e private sono chiamate ad effettuare accurate valutazioni circa le eventuali conseguenze sui diritti fondamentali.

E ancora, dalla lettura del report emerge come l’Ue dovrebbe chiarire, ulteriormente, come si applicano le norme sulla protezione dei dati, garantendo maggiore trasparenza sulle implicazioni del processo decisionale automatizzato e sul diritto alla revisione umana. Senza tralasciare i potenziali effetti discriminatori che l’utilizzo dell’intelligenza artificiale può causare, da monitorare attraverso opportuni sistemi di supervisione che dispongano di adeguate risorse e competenze.

Nel mirino ci sono anche gli impieghi nelle attività predittive nelle diagnosi mediche. E proprio in ambito sanitario, nei giorni scorsi è stato siglato l’accordo tra ministero della Salute e Cineca – Consorzio Interuniversitario su intelligenza artificiale e big data. In particolare, l’accordo ha lo scopo di implementare un sistema che, attraverso tecniche di intelligenza artificiale e di analisi, possa sviluppare una nuova governance per il sistema sanitario nazionale e implementare un modello predittivo.

L’accordo consentirà di sviluppare modalità di monitoraggio delle condizioni di salute della popolazione nell’ambito dei programmi avviati dal ministero, utilizzando i dati provenienti dal fascicolo sanitario elettronico in forma aggregata e anonima.

«Il ministero della salute ha più volte sottolineato l’esigenza di rivedere il sistema informativo sanitario nazionale con architetture tecnologiche che possano integrare la moltitudine di dati dematerializzati, in particolare quelli raccolti con il fascicolo sanitario elettronico», ha sottolineato la sottosegretaria di Stato alla Salute Sandra Zampa, che ha sottoscritto l’intesa, «l’accordo firmato è un primo passo di questa strategia». Peraltro, nelle scorse settimane il Garante per la protezione dei dati personali, nel provvedimento numero n. 175, ha dettato alcune utili indicazioni da rispettare in ambito sanitario, in occasione del parere rilasciato alla provincia autonoma di Trento su uno schema di regolamento concernente la medicina di iniziativa nel servizio sanitario provinciale.

Nel provvedimento l’autorità, in particolare, sottolinea l’importanza di porre in rilievo la logica e le modalità attraverso le quali si intende effettuare l’attività di stratificazione, con specifico riferimento all’uso di strumenti sia di analisi statistica che di logica algoritmica.

Assume, quindi, particolare rilievo un’accurata valutazione di impatto, idonea ad evidenziare la logica e le modalità con cui si intende effettuare l’attività, ponendo soprattutto in risalto le misure previste per escludere o minimizzare i rischi connessi a tali trattamenti e riservando particolare attenzione all’impiego di strumenti di intelligenza artificiale.

© Riproduzione riservata

Fonte:
logoitalia oggi7