la logistica dei big data.jpg

Un giorno, rientrando a casa, sentiremo suonare il citofono e una voce ci dirà: “Buonasera, sono qui per consegnarle ciò di cui ha bisogno”. La voce sarà quella del corriere espresso incaricato di servire la nostra zona a partire dalle previsioni sui nostri gusti e consumi percepite da un sistema di intelligenza artificiale attraverso le nostre impronte digitali (dai click del mouse, ai like sul telefonino). E quel giorno non sarà troppo lontano, vista la velocità con cui si sta muovendo la rete a identificare i nostri desiderata e a prevenirli, muovendo in anticipo le scorte verso i magazzini di prossimità (privacy permettendo). Basti pensare a cosa accade in un solo minuto su internet nel mondo: 16 milioni di messaggi WhatsApp, 3,5 milioni di ricerche su Google, 750.000 dollari di acquisti online.

Tareq Rajjal, General Manager di Amazon, il colosso mondiale dell’e-commerce che pensa ed opera ancora da startup: “Bisogna pensare come fosse sempre il primo giorno di un’azienda, perché il declino inizia già al secondo”

Questa miniera di dati e informazioni, strutturate o semi-strutturate, se correttamente incanalate e analizzate, possono fornire un incredibile supporto alla supply chain di qualsiasi azienda, sino al punto di anticipare le esigenze dei clienti proponendogli la spesa consegnata a casa, con una lista di articoli stabilita in base alle tracce lasciate sul web. Sempre più spesso gli esperti del settore parlano di rivoluzione digitale e Digital Supply Chain e chiaro è l’interesse per questo tema nel mondo accademico e industriale. Tale attenzione è stata recentemente confermata dalla presenza di oltre 400 partecipanti all’evento annuale organizzato dal Centro sulla Supply Chain, Operations e Logistica della LIUC Business School, con la collaborazione di Columbus Logistics dal titolo: “Big Data & Digital Supply Chain: a che punto siamo?”

Il termine Big Data è spesso utilizzato per identificare una “grande mole di dati”, tuttavia sono almeno 3 le caratteristiche fondamentali: volume, variabilità e velocità. La “V” più critica è indubbiamente quella della velocità, in quanto i dati devono essere raccolti, elaborati, archiviati e analizzati in tempi estremamente rapidi. Per capire cosa si intende per velocità, basti pensare che si stima che nel 2018 il traffico internet globale raggiungerà i 50 mila GByte al secondo. Poi occorre gestirne la “varietà”: se tradizionalmente i dati presenti in un database hanno un certo grado di omogeneità, analizzare i contenuti in rete significa trovarsi di fronte a un mosaico di immagini, testi, video, suoni, metadati. Si stima addirittura che il 90% dei dati attualmente sia non strutturato.

È evidente, dunque, che per aggregarli, analizzarli e rappresentarli non si può più fare affidamento sulle soluzioni tradizionali, quali ad esempio la statistica classica, per correlare le vendite di acqua minerale con l’aumento della temperatura. Piuttosto è necessario sviluppare meta-algoritmi utilizzati nei processi di machine learning che ci consentano di trovare una spiegazione ad un fenomeno (descriptive), anticiparci cosa succederà (predictive) o suggerirci cosa fare per ottimizzare un processo (prescriptive). In questo contesto, i dati transazionali che derivano dai sistemi informativi aziendali rappresentano ormai solo una piccola quota della più ampia famiglia dei Big Data.

Da Amazon a BTicino, sono sempre di più le aziende che valorizzano le informazioni della rete per migliorare i processi distributivi

Questi, elaborati mediante tecnologie abilitanti quali l’intelligenza artificiale e il data analytics, permettono sia ai manager sia alle macchine stesse di prendere delle decisioni che avranno un impatto sul business. Come dimostrato dalla ricerca svolta sull’intero territorio nazionale l’utilizzo dei Big Data all’interno dell’intera Supply Chain sta diventando ormai pervasivo, coinvolgendo larga parte delle imprese. A fronte del 40% delle aziende che non hanno ancora alcuna esperienza nell’ambito Big Data, il 15% ha già avviato delle sperimentazioni, il 28% ne sta studiando la fattibilità e ben il 17%?ha già adottato almeno una applicazione classificabile come Big Data.

Le aree del forecasting & planning e della gestione delle scorte sembrano quelle maggiormente interessate alle soluzioni Big Data, con oltre il 50% delle aziende rispondenti che hanno dichiarato di essere almeno in uno studio di fattibilità. In questi ambiti, ad esempio, le aziende mediante i click online riescono ad anticipare le richieste del cliente (così come è avvenuto per i vincitori dell’ultimo Festival di Sanremo, identificati in anticipo da Watson, il sistema di IA di IBM). Al contrario, nella gestione del magazzino solo il 46% ha già applicato soluzioni Big Data mentre solo il 37% delle aziende utilizza i Big Data nell’ambito dei trasporti (servizi in larga parte terziarizzati a società esterne). In queste aree della logistica, ad esempio, i Big Data possono consentire di mappare dinamicamente il magazzino o di ottimizzare i percorsi, sfruttando anche i dati e le informazioni fornite dagli automobilisti stessi.

In questa rivoluzione, cosa fa realmente la differenza è la mentalità, come spiegato da Tareq Rajjal, General Manager di Amazon, il colosso mondiale dell’e-commerce che pensa ed opera ancora da startup: “Bisogna pensare come fosse sempre il primo giorno di un’azienda, perché il declino inizia già al secondo”. Questo conferma il fatto che il fenomeno Big Data non può e non deve soffrire di nanismo, ma risiede nella capacità innovativa, nelle idee e apertura a nuove soluzioni delle aziende, come affermato da Giorgio Selvatici, direttore della logistics distributiva di BTicino, azienda varesina che sta già sperimentando la realtà aumentata anche grazie ai Google Glasses.

         

Karl Haberkorn, Managing Director di UPS: "Le aziende devono avere l’ossessione di dare il meglio al proprio cliente"

L’attenzione al dettaglio, come esplicitato dai due colossi dell’e-commerce Amazon e da Karl Haberkorn, Managing Director di UPS, rappresenta la chiave di lettura che permetterà di trarre il massimo vantaggio dalla digitalizzazione della Supply Chain; infatti, le aziende devono “avere l’ossessione di dare il meglio al proprio cliente”. La chiave del successo risiede ormai in un incremento di efficienza, con riduzione di costi, e nel miglioramento della tempestività.

Questo il punto di vista anche di Gianmaria Riccardi di Xerox, che ha dimostrato come la digitalizzazione di numerosi documenti cartacei, anche per grandi aziende quali Leonardo, abbia permesso di ridurre la ricerca documentale per oltre l’80% del tempo. Tuttavia, come emerso nel sondaggio condotto dai ricercatori della LIUC Business School, ancora ampie sono le sfide e le difficoltà che le aziende incontrano nella gestione dei Big Data. Se da un lato vi sono ancora delle lacune di competenze tecniche e delle difficoltà di interpretazione dei dati, dall’altro una delle maggiori sfide sarà quella di integrare i Big Data nella strategia e cultura aziendale, come infatti sottolineato da Francesco Mari, opinion leader di fama mondiale: “Non dobbiamo avere paura dell’errore, ma dobbiamo andare oltre a un mondo di misurabilità assoluta, inserendo anche la probabilità di errore, il cui costo è però trascurabile”. Come è emerso dal convegno della LIUC, le applicazioni dei Big Data nella logistica sono sconfinate: dall’ottimizzazione dinamica dell’ABC di magazzino, fatta sul futuro e non sulla storia dei prelievi; all’avviso anticipato il giorno prima della possibile mancata consegna in base alle condizioni di traffico previste. La fantasia non manca e le soluzioni stanno per arrivare... attenti al citofono.



Articolo precedente Articolo successivo
Edit