Menu

Big Data: Quote di mercato dei Vendor e previsioni 2012-2017

Sintesi del Report redatto dalla comunità mondiale Wikibon (http://wikibon.org) composta da tecnici, tecnologi e consulenti specializzati nelle nuove tecnologie e nel favorirne l’adozione.

Al rumore generato dal primo apparire delle tecnologie e dei progetti basati sull’uso dei Big Data, cominciano a corrispondere quantità di denaro – in termini di valori di mercato e di ritorni sugli investimenti – sempre più consistenti. Il tasso di crescita rilevato da Wikibon tra il 2011 ed il 2012 è davvero impressionante: +59%!

Stando ai dati del report pubblicato solo qualche settimana fa, il mercato totale connesso alla gestione dei Big Data nel 2012 ha raggiunto gli 11,4 miliardi di dollari, superando le previsioni fatte all’inizio dell’anno, mentre per il 2013 si prevede possa superare i 18 miliardi di dollari, con un tasso di crescita del 61% rispetto al 2012. Di questo passo, è facile stimare che entro il 2015 si arriverà a sfiorare i 47 miliardi di dollari, con un tasso di crescita ponderato per il quinquennio 2012-2017 superiore al 30%.

Fattori Moltiplicativi per il Settore dei Big Data

A spingere in su l’intero settore dei Big Data concorrono vari fattori concorrenti, sebbene autonomi l’uno dall’altro:

  1. Mano a mano che vengono pubblicati i risultati dei progetti condotti dai primi sperimentatori di tali pratiche, i ritorni che ne vengono ottenuti spingono sempre più aziende a guardare attentamente il discorso. Guidano il lotto delle imprese – con progetti del valore anche di svariati milioni di dollari - i settori dei servizi finanziari, del farmaceutico, della grande distribuzione e delle telecomunicazioni, ma l’elevato potenziali è facilmente riscontrabile in tutte le aziende che hanno a che fare con grandi quantità di clienti, prodotti, fenomeni.
  2. La maturazione delle tecnologie di gestione dei Big Data, con l’affermarsi di strumenti basati su Hadoop, sulle tecnologie NoSQL, sull’elaborazione dei dati “In Memory”, sui Vertical / Columnar DBMS e sull’integrazione tra i nuovi strumenti di Analytics ed i tradizionali linguaggi derivati dall’SQL per la gestione dei Data Base relazionali.
  3. La nascita di una nuova generazione di specialisti nelle attività di analisi predittiva, capaci di combinare le tecniche di analisi numerica con quelle di analisi statistica, logica fuzzy e altre ancora per la modellazione e l’analisi dei dati usando i nuovi strumenti, che si affiancano a nuove aziende di servizi nel settore.
  4. Il consolidamento del mercato dell’offerta con grandi aziende quali Google, Amazon, IBM che offrono infrastrutture Cloud per la gestione dei Big Data in forma di servizio, integrate da strumenti sempre più affidabili offerti sul mercato da Vendor tradizionali e da nuove organizzazioni specializzate nel campo.

In ogni caso, al momento, è meglio continuare a parlare di un mercato di “Early Adopter”, destinato ad allargarsi in modo significativo solo nei prossimi anni, dopo averne superato alcuni degli attuali limiti.

I Limiti da Superare Affinché i Big Data Divengano un Big Market

Nonostante l’ottimismo ed i consistenti tassi di crescita, al momento nel mercato dei Big Data esistono ancora alcuni ostacoli che ne frenano l’espansione. Vediamone alcuni:

  • La mancanza di competenze ed esperienze è oggettiva: al di là che si tratta di un settore nuovo, spesso ancora in via di avviamento, per cui la mancanza di esperienza è facilmente comprensibile e giustificabile, ciò che più pesa è la difficoltà di reperire persone capaci di operare in questi nuovi contesti. Infatti, sebbene usare le tecnologie sia alla fine complesso, ma relativamente gestibile in tempi ragionevoli, per formare analisi in grado di costruire modelli affidabili nel formulare ipotesi e trarre conclusioni occorrono studi complessi da articolarsi nel corso di anni di formazione, a partire dalle Università. Si tratta infatti di combinare competenze sofisticate matematiche con le tecniche dell’analisi statistica più allargata, fondando le ipotesi attingendo da fonti eterogenei e lavorando con elevati fattori di incertezza, ambiti nei quali sono in pochi ad avere dimestichezza. Il tutto condito da profonde conoscenze delle tecnologie informatiche ed un orientamento a modificare gli strumenti stessi, oltre che i modelli. Opportunità di lavoro per gli attuali laureandi, ma impossibilità a formare nuovi specialisti in modo improvvisato!
  • La parte ancor più difficile è rappresentata da chi, con innovativa creatività, riesce ad intuire le fonti di dati che possono fornire elementi di valutazione, come arrivarvi e come correlarle ai fenomeni utili a formulare nuove previsioni per l’azienda. Questo perché tutto ciò presuppone la capacità di combinare competenze di Business, con la conoscenza delle opportunità offerte dalla tecnologia e ciò su cui si può contare in termini di fonti dei dati. Un insieme di non facile reperibilità e sviluppo.
  • In tale contesto, considerando anche la forte turbolenza che si sta vivendo sul fronte dei Vendor e delle tecnologie, per le imprese vuol dire accettare di fare della sperimentazione, mettendo in conto i potenziali insuccessi dei progetti, o anche il dover cambiare più volte strada lungo il percorso. Atteggiamento che mal si sposa con l’attuale periodo di crisi, nel quale prevalgono come non mai scelte di breve termine, più orientate a presentare dati trimestrali positivi, che non piani strategici di medio/lungo termine. Eppure, tutti i progetti che ruotano attorno ai Big Data non possono che esser di lunga durata, dovendo partire dalla costituzione delle basi di dati (alimentandole con dati nuovi o facendovi confluire dati esistenti, dopo averli opportunamente qualificati e integrati), per arrivare allo sviluppo dei modelli ed alla creazione delle infrastrutture di gestione e di fruizione dei servizi.
  • La turbolenza sul fronte dell’offerta, spaziando dai Vendor più tradizionali alle Start-up di nuova generazione, dalle visioni incentrate su singoli strumenti specializzati, alle Suite integrate, per arrivare ai servizi offerti in modalità Cloud.
  • La cronica carenza di qualità nei dati – in termini di completezza, affidabilità, qualificazione, livello di aggiornamento – che spesso caratterizza le basi dati di un gran numero di aziende.

Fatturati e Quote di Mercato dei Vendor di prodotti e servizi per Big Data

Big-Data-Vendor-List

Il Report di Wikibon propone una dettagliatissima tabella nella quale vengono censiti oltre una sessantina di fornitori di strumenti e servizi per l’elaborazione dei Big Data, molti dei quali non operano ancora in Italia, e forse non vi arriveranno mai in quanto destinati ad esser acquisiti da aziende più grandi e strutturate a livello mondiale.

Per correttezza e completezza di informazione, proponiamo la Tabella nella sua integrità.

Le fonti impiegate per arrivare alla compilazione di questa tabella sono state numerose. Si è partiti dalle informazioni disponibili pubblicamente – dichiarazioni dei Vendor, dati di analisti, articoli della stampa specializzata – combinate con una serie di interviste con i Vendor, i Venture Capitalist, i distributori, le testimonianze degli iscritti alla comunità Wikibon.

Laddove i dati non sono risultati disponibili, in quanto i Vendor non hanno voluto o potuto dichiarare i propri valori, si è attinto ai dati provenienti da ex-dipendenti, da stime economiche e direttamente dagli utenti.

Nell’indagine sono quindi stati contemplati tutti gli elementi che concorrono alla realizzazione di un progetto di Big Data: dall’Hardware, al Software di gestione ed analisi dei dati, dagli strumenti e dai processi per la loro acquisizione e distribuzione, ai servizi di modellazione ed elaborazione. Tutto ciò equivale a dire che nelle valutazioni sono rientrati:

  1. L’Hardware ed il Software Hadoop;
  2. L’Hardware ed il Software per i Database e le interrogazioni di tipo NoSQL;
  3. L’Hardware ed il Software di nuova generazione per Data Warehouse & strumenti di Analytics;
  4. L’Hardware ed il Software per le piattaforme di gestione dei Big Data al di fuori di Hadoop;
  5. I Database che operano In-memory – usando tecnologie sia di tipo DRAM che Flash – utilizzati per la gestione dei Big Data;
  6. Le piattaforme di integrazione e per la qualità dei dati utilizzate in ambito Big Data;
  7. I tool e le piattaforme di Advanced Analytics, Business Intelligence e di sviluppo di applicazioni basate sull’elaborazione dei Big Data;
  8. I servizi, la formazione e l’assistenza per la conduzione di progetti di Big Data.

Considerazioni Generali sui Vendor e Spunti di Riflessione nel mondo dei Big Data

Al di là dei valori specifici, val la pena di porre l’attenzione su alcuni elementi di carattere generale, sui quali probabilmente si svilupperanno le prossime evoluzioni del mercato.

Indubbiamente, per quote di mercato e gamma di servizi, il Leader del settore è IBM che tra componenti sviluppate internamente e acquisizioni dispone di una grande varietà di strumenti, corredati da una consistente presenza anche sul lato servizi. La posizione è rafforzata da una consistente storia e base di installato nell’ambito dei tradizionali DBMS relazionali dove, rivaleggiando con Oracle, il suo DB2 è presente nella stragrande maggioranza delle aziende di grandi dimensioni, e di una decisa proiezione verso il futuro incentrata sui concetti “Smart”: City, Planet, Enterprise, che spesso pongono proprio i Big Data come elemento trainante di nuovi progetti e iniziative.

Paradossalmente, I limiti di questa strategia possono esser ricondotti proprio ad un eccesso di disponibilità di opzioni: alcuni prodotti derivati da acquisizioni o retaggio di un passato con forti basi di installato sono tra loro in sovrapposizione e distinguere tra le diverse alternative può apparire complesso. E anche sul fronte dei servizi professionali, talvolta manca l’indirizzo strategico, mentre abbondano le possibilità tra le quali scegliere all’interno di un portafoglio di offerta veramente ampio sia sul fronte dell’Hardware, che del Software e delle formule d’uso.

Una maggiore focalizzazione su alcuni punti cruciali, supportata da una chiara campagna di comunicazione, forse aiuterebbero sia i clienti che gli stessi funzionari di IBM a chiarire meglio le direzioni da prendere e le soluzioni da impiantare.

Al secondo posto troviamo HP, più per i servizi erogati nell’area dei Big Data che non per le vendite di Hardware e Software. In realtà, la posizione di HP è ancora tutta da decifrare: pur essendo oggi globalmente il primo produttore di Hardware al mondo, a livello di Computer per la gestione dei Big Data HP non ha macchine progettate ad hoc, così come fatto da Oracle e IBM, ma una proposta che si basa su una riconfigurazione calibrata di Server esistenti.

Anche nello Storage, HP non dispone di propri prodotti particolarmente innovativi: l’offerta si basa sulla rivendita di prodotti di altri costruttori.

L’acquisizione di Vertica, che invece è focalizzata proprio nell’area dei Big Data, ha portato in casa HP un prodotto di alto livello, che però solo di recente è stato inquadrato all’interno della struttura di HP: l’Unità è infatti stata gestita a lungo come “società del gruppo”, rallentandone i processi di integrazione.

Come nel caso di IBM, anche per HP c’è poi il problema della focalizzazione: con un’infinita gamma di prodotti a portafoglio negli ambiti più svariati, in mancanza di azioni mirate e specifiche diventa difficile per i clienti - ma anche per lo stesso personale di HP - percepire chiaramente i punti cruciali sui quali porre la propria attenzione.
Ripartizione mercato per tipologia di offerta. Fonte: Wikibon 2013HP, fornisce lo spunto per evidenziare che, al momento, i servizi rappresentano la seconda voce del mercato dei Big Data, con due diversi aspetti.

Il primo è relativo allo stadio di giovinezza del settore, con una forte necessità di impostare i progetti, di allestire le piattaforme, di avviare le iniziative. Attività per le quali sono necessarie competenze specialistiche, più facilmente reperibili - e convenienti - presso aziende di servizi specializzate che non nelle aziende interessate al lancio dei progetti. Ma questo può essere considerato un fatto transitorio: mano a mano che i progetti in corso entreranno in esercizio, la componente “servizi professionali” ridurrà il proprio peso, a vantaggio delle tecnologie impiegate per gestire le operazioni. In quest’area, l’attuale leader è Accenture, con una quota di mercato che sfiora il 40% e a poco meno di 200 milioni di dollari di fatturato.

Su un altro versante troviamo invece i servizi destinati a durare e persino a crescere nel tempo. Si tratta dei servizi di “erogazione” di potenza elaborativa e di Storage, fruibili in modalità Cloud, a integrazione alle infrastrutture interne alle aziende o addirittura in loro sostituzione. Tant’è che proprio dietro ai Big Data stanno prendendo vigore varie forme “as a Service”, tipo quelle Infrastructure, Storage, Backup...

Qui si collocano, tra gli altri, anche Amazon e Google che hanno già lanciato offerte specifiche e altre ne stanno mettendo a punto. Ad esempio, Amazon ha di recente presentato RedShift, un innovativo servizio Analytic Database as a Service e ha siglato un accordo con MapR per permettere ai propri clienti di integrare Hadoop con Amazon Web Service. Dall’altro lato, Google ha iniziato a rilasciare nuovi strumenti per la gestione dei Big Data, come BigQuery e MapR as a service fruibile attraverso Google Compute Engine.

Microsoft è entrata nel settore, rilasciando sia un prodotto Hadoop On Premise, HDInsight Server for Windows, sia un servizio Cloud, Windows Azure HDInsight Service, entrambi basati sulla distribuzione Hadoop di Hortonworks.

Acquisizioni nel mercato dei Big Data

Come in tutti i mercati della storia informatica, alla nascita di nuove tecnologie corrisponde l’apparire di numerose imprese che concorrono per assicurarsene il predominio. Dei molti che si schierano sulla griglia di partenza, col tempo ne rimangono uno sparuto gruppo - generalmente non più di 5 - che possono assumere l’aspetto di nuovi “colossi” del settore, che fanno incetta di chi è stato meno rapido o abile nell’affermarsi sul mercato, o rientrare tra i soliti dominatori del mercato, quali IBM, Microsoft, HP, Oracle, SAP, giusto per citarne alcuni.

Dinamica della quale anche il settore dei Big Data non sarà immune, sebbene al momento siamo più nello stadio della formazione delle nuove imprese - nel solo 2012 sono state decine gli start up a livello internazionale che hanno ricevuto cospicui finanziamenti - che in quello di consolidamento. Tuttavia, alcune importanti operazioni sono già state concluse. Le prime delle quali risalgono all’acquisizione di DataAllegro da parte di Microsoft - ora divenuta parte integrante dell’offerta SQL Server - e di Netezza da parte di IBM.

Già detto dell’acquisizione di Vertica completata da HP, due operazioni che vedono l’ingresso nel settore di aziende provenienti da altri ambiti hanno riguardato VMware, che si è assicurata il controllo di CETAS e WANdisco che ha acquisito AltoStor, una delle distribuzioni di Hadoop. Siamo solo agli inizi, per cui occorre dare al settore il tempo di stabilizzarsi e di vedere il mercato assumere contorni più netti e consistenti, ma altre operazioni sono facilmente immaginabili con protagonisti quali il pioniere del settore MarkLogic, gli innovativi Cloudera, MapR, Hortonworks, 10gen, Aerospike, DataStax, gli storici Teradata, SAS, Sap, in veste di acquirenti, o anche di acquisiti. In particolare, tra il 2011 ed il 2012, Cloudera è passata da 18 a 61 milioni di euro di fatturato, mentre MapR è arrivata a 23, partendo dai 7 del 2011 e Hortonworks ne ha incassati 18 nel 2012, primo anno di piena operatività dell’azienda!

Quote di mercato Vendor specializzati Big Data 2012. Fonte: Wikibon 2013

I due trend principali che si posso tratteggiare sono da un lato l’integrazione tra la possibilità di gestire i dati ed effettuarvi interrogazioni usando tecnologie di tipo SQL o NoSQL. Dall’altro il creare delle Suite sempre più integrate, in grado di funzionare indifferentemente su infrastrutture interne o “In the Cloud”, combinandovi Hardware (CPU e Storage), Software e serviz provenienti da fornitori unici (IBM, Oracle) o da diversi fornitori specializzati per area.

Previsioni mercato Big Data da qui al 2017

Per Wikibon, il 2013 si chiuderà con il mercato dei Big Data a quota 18 miliardi di dollari ed un +61% di crescita sul 2012. Valori destinati ad arrivare a 50 miliardi di dollari per il 2017 ed un tasso di crescita ponderato sui cinque anni del 31%. Questo, nonostante l’imperante crisi economica mondiale, che non sta risparmiando neppure le aree dell’informatica più tradizionale. La spiegazione va cercata nella promessa, finora rispettata, dei progetti fondati sull’eleborazione dei Big Data che consentono di generare nuovo valore per le imprese in modo molto efficace.

BigDataForecast-Wikibon03Come già commentato, anche per Wikibon nell’arco dei cinque anni ci sarà uno spostamento dei pesi del mercato dai servizi professionali e dagli investimenti in Middleware al Software, alle componenti Hardware ed ai servizi di erogazione e gestione dei dati - dalla definizione dei modelli, alle elaborazioni, alla conduzione delle analisi. Attualmente, l’Hardware ha un peso del 40% sull’intero mercato dei Big Data, con il Software di infrastruttura a prevalere su quello specializzato per le analisi e le elaborazioni. Nel tempo, il Software di infrastruttura diverrà sempre di più una Commodity, così come lo saranno i servizi di impostazione e integrazione e dei sistemi, mentre quelli a più alto valore aggiunto assumeranno un rilevo sempre maggiore. Discorso analogo meritano i Database che sfruttano le tecnologie In Memory e nuove architetture di elaborazione, dal momento che le prestazioni costituiranno un elemento cruciale di valutazione, puntando ad usare i Big Data anche in contesti che operano in tempo reale. Problema che accomunerà sia le aziende che decideranno di allestire soluzioni interne alla propria organizzazione, sia i fornitori di servizi Cloud ed i loro clienti.

A tendere, una volta avviati i sistemi, la parte del leone la faranno le aziende in grado di generare dai Big Data il più elevato valore aggiunto. Non più, quindi, gli installatori o gli specialisti tecnologici sul fronte dei servizi, ma chi eroga le elaborazioni più accurate ed in minor tempo, ma anche chi sviluppa i modelli più efficaci e con maggior rapidità per nuovi contesti di elaborazione.

BigDataForecast-Wikibon04

Aggiungi commento


Codice di sicurezza
Aggiorna

Torna in alto

I cookie rendono più facile per noi fornirti i nostri servizi. Con l'utilizzo dei nostri servizi ci autorizzi a utilizzare i cookie.
Maggiori informazioni Ok