Big Data nella Supply Chain

Un giorno non troppo lontano rientrando a casa dopo una lunga giornata di lavoro sentiremo suonare il citofono:
Buonasera, sono qui per consegnarle ciò di cui ha bisogno”.

Questa semplice frase ricorda il vecchio modello distributivo della tentata vendita, ormai pressoché scomparso, in cui un punto vendita tradizionale non faceva ordini in anticipo ma riceveva proposte di acquisto da agenti “piazzisti” con un magazzino viaggiante nel loro furgone (tipico nel settore dei latticini).

Tuttavia ciò che cambia è la logica del processo, che non è guidato da un venditore porta a porta, ma è spinto da una incredibile capacità di previsione della domanda abbinata ad un’analisi del demand sentiment analysis basata sui Big Data.

Impossibile? Io ritengo di no, vista la velocità con cui si sta muovendo la rete a identificare i nostri desideri e ad anticiparli, muovendo in anticipo le scorte verso i magazzini di prossimità.

Basti pensare a cosa accade in un solo minuto su internet nel mondo: 16 milioni di messaggi WhatsApp, 3,5 milioni di ricerche su Google, 750.000 dollari di acquisti on line.

Questa miniera di dati e informazioni, strutturate, semi- strutturate e non, se correttamente incanalate e analizzate, possono fornire un incredibile supporto alla supply
chain, sino al punto di anticipare le esigenze dei clienti proponendogli la spesa consegnata a casa, con una lista di articoli stabilita in base alle sue tracce lasciate sul web: dai dati biometrici rilevati dallo smartwatch e al listening dei suoi gusti.

Volume, variabilità e velocità sono le caratteristiche fondanti dei big data, ma l’affermarsi di questa novità è stata talmente dirompente che spesso si finisce con l’accettare per big data qualsiasi aggregazione di dati che sia caratterizzata anche solo da uno dei tre elementi.

La “V” più critica è indubbiamente quella della velocità, in quanto i dati devono essere raccolti, elaborati, archiviati e analizzati in tempi estremamente rapidi. Per capire cosa si intende per velocità, basti pensare che si stima che nel 2018 il traffico internet globale raggiungerà i 50 mila GByte al secondo.

Poi occorre gestirne la “varietà”: se tradizionalmente i dati presenti in un database hanno un certo grado di omogeneità, analizzare i contenuti in rete significa trovarsi di fronte a un mosaico di immagini, testi, video, suoni, metadati ecc. Si stima addirittura che il 90% dei dati attualmente sia non strutturato.
È evidente, dunque, che per aggregarli, analizzarli e rappresentarli non si può più fare affidamento sulle soluzioni tradizionali, quali ad esempio la statistica classica, per correlare le vendite di acqua minerale con l’aumento della temperatura. Piuttosto è necessario sviluppare meta-algoritmi utilizzati nei processi di machine learning che ci consentano di trovare una spiegazione ad un fenomeno (descriptive), anticiparci cosa succederà (predicitive) o suggerirci cosa fare per ottimizzare un processo (prescriptive).

Le applicazioni nella logistica sono sconfinate: dall’ottimizzazione dinamica dell’ABC di magazzino, fatta sul futuro e non sulla storia dei prelievi; all’avviso anticipato il giorno prima della possibile mancata consegna in base alle condizioni di traffico previste.
La fantasia non ci manca e le soluzioni stanno per arrivare… attenti al citofono.

A cura di Fabrizio Dallari, Direttore del C-log, LIUC Università Cattaneo

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.