Menu

News ITware

Il Machine Learning per la sicurezza

Le convenzionali tecnologie utilizzate per la sicurezza riescono a fronteggiare una notevole parte delle minacce attuali, ma non sono in grado di difenderci da tutte come dimostrano i crescenti numeri di incidenti registrati su scala internazionale. Big Data e nuove generazioni di strumenti di analisi costituiscono la nuova frontiera sulla quale investire.

Ivan Straniero, Regional Manager, Southern & Eastern Europe di Arbor Networks

Leggi tutto...

Sicurezza Applicativa sempre più a rischio: 8 punti per migliorarla

Da qui al 2020, il 60% delle aziende avrà subito gravi perdite imputabili all'incapacità dei team di sicurezza IT di gestire i rischi digitali. Ad aggravare la situazione concorre la constatazione che gran parte del traffico dei dati aziendali fluirà direttamente dai dispositivi mobile al Cloud, saltando totalmente i controlli di sicurezza aziendali... Come intervenire?

Maurizio Desiderio, Country Manager per Italia e Malta di F5 Networks

Leggi tutto...

Verso l'Era degli Analytics 4.0

L'uscita del nuovo libro di Tom Davenport "Only Humans Need Apply: Winners and Losers in the Age of Smart Machines" riporta l'attenzione sui rischi di perdita di posti di lavoro indotti dall'automazione e dalla nuova era degli Analytics 4.0. E' tuttavia fondamentale coglierne gli aspetti positivi sia in senso generale sia in ottica individuale...

Tom Davenport Thomas (Tom) H. Davenport è uno di quei personaggi che nel mondo dell'IT e dei Big Data non ha bisogno di presentazioni: professore universitario, cofondatore dell'International Institute for Analytics, Fellow del MIT Center for Digital Business, è autore di 18 libri nell'area dei Big Data e degli Analytics, il più famoso dei quali è “Competing on Analytics”, uscito nel 2007.

L'interazione tra gli uomini (e le donne) e le macchine sempre più capaci e intelligenti è già da tempo divenuto uno dei tormentoni di Davenport che se da un lato esalta l'importanza e i benefici che possono scaturire dall'automazione delle operazioni, dall'altro cerca di fissare i punti sui quali le persone possono/devono concentrarsi per continuare a generare valore e così mantenere il proprio ruolo centrale in qualsiasi organizzazione. Un compito reso sempre più complesso dal continuo incremento di capacità cognitive acquisite dalle macchine, amplificato dall'impiego dei Big Data e da Analytics estremamente sofisticati.

In sostanza, in "Only Humans Need Apply: Winners and Losers in the Age of Smart Machines", Tom Davenport lancia un allarme sulla consistente perdita di posti di lavoro provocata dalle nuove tecnologie con vittime non solo, come nel passato, a livello di operai e amministrativi, ma anche tra le figure professionali di più alto livello. Per Davenport, si tratta di un fenomeno che potrebbe colpire la metà dei lavoratori degli Stati Uniti e dei Paesi più sviluppati del mondo.

Un allarme significativo, ma per certi versi mi viene da dire "nulla di nuovo sotto il sole" o "la storia si ripete". Consideriamo infatti la nascita delle macchine a vapore prima, di quelle elettriche poi che hanno dato origine alle industrie manifatturiere, oggi messe in crisi dal nuovo avanzare delle tecnologie. Complessivamente, si è trattato di un consistente passo in avanti per l'umanità, sebbene sul breve termine molte persone hanno visto scomparire il proprio posto di lavoro: quanto lavoro toglie una gru a dei manovali, o un treno a dei cocchieri? Dovremmo quindi rimpiangerne la creazione, così come quella dei martelli pneumatici, dei camion e via dicendo?

Attualmente stiamo vivendo un intersecarsi degli effetti della prima rivoluzione industriale - con la sostituzione del lavoro manuale con le macchine - con quelli della seconda, che si sta proiettando verso la quarta nella quale saranno direttamente le macchine ad interagire tra loro, riducendUo i compiti dell'uomo alla sorveglianza, alla riconfigurazione, alla determinazione dei requisiti per i nuovi sistemi. Un processo a più velocità e con differenti direttrici nel quale orientarsi appare sempre più difficile, specie nel tenere il passo alla rapidità con la quale si svolgono i cambiamenti.

Protagonisti di questa trasformazione sono la digitalizzazione, l'intelligenza artificiale, i computer capaci di apprendere attraverso l'acquisizione di immense quantità di dati e di fornire risultati molto accurati spesso in tempo reale. Tecnologie che possono imparare, predire, decidere spesso in modo molto più accurato - oltre che rapido - rispetto agli esseri umani. Il risultato si traduce in consistenti incrementi di produttività e qualità, con il riflesso di stravolgere gli equilibri sul piano del lavoro, rendendo obsolete e inutili molte professionalità.

Un fenomeno che tuttavia, benché molto rapido nel suo evolversi, passa attraverso vari stadi che vanno affrontati in modo consapevole, in corrispondenza di ciascuno dei quali occorrono competenze e tecnologie ben precise. Cosa che lascia un buon margine di reattività a coloro i quali in grado di "cavalcare la trasformazione".

Dall'inizio della Business Intelligence agli Analytics 4.0

Nei suoi studi, Davenport classifica l'evoluzione dell'analisi dei dati in quattro Ere, a partire dai primi anni '70, per arrivare agli Analytics 4.0 di oggi:
Analytics 4.0• 1.0: fase primordiale, nella quale i dati provenienti da fonti esclusivamente interne venivano utilizzati per creare Report di tipo statico e con criteri spesso soggettivi, per opera di alcuni specialisti e ad uso di pochi decisori/pianificatori aziendali. Una fase nella quale le valutazioni di conseguenze venivano svolte raramente, per lo più in modo superficiale.
• 2.0: all'inizio del nuovo millennio, nasce l'era dei Big Data, per iniziativa di poche aziende molto esposte all'uso di grandi quantità di dati, tipo Amazon, Facebook e Google, dai quali hanno capito di poter trarre grande valore. Le analisi cominciano così a considerare i dati non strutturati con nuovi strumenti quali Hadoop e i primi strumenti di analisi predittiva.
• 3.0: la terza fase dell'evoluzione apre l'impiego dei Big Data alle aziende di ogni genere, comincia a considerare usuale nelle analisi l'impiego di fonti di dati esterni all'impresa e di utilizzare varie tecniche per svolgere funzioni predittive e prescrittive. I dati divengono così centrali nell'assunzione delle decisioni e nell'impostazione di strategie e operazioni.
• 4.0: Il salto di qualità della nuova era consiste nel passaggio in automatico dalle valutazioni alle azioni che ne debbono scaturire, creando connessioni Machine-to-Machine, sistemi di Machine e Deep Learning, con i sistemi che agiscono dinamicamente sempre per il meglio, senza alcun intervento umano. Il ruolo delle persone si trasforma così dal dover assumere le decisioni, al creare i modelli decisionali e valutarne gli effetti in un processo di miglioramento continuo. Ad esempio, cita Davenport, in casa Facebook, grazie ai sistemi automatici di gestione dei Server e di correzione dei loro possibili malfunzionamenti, un Network Engineer è in grado di gestire 25.000 Server, contro i 100/200 che vengono considerati come limite massimo nei tradizionali centri EDP.

Per Davenport, attualmente la maggior parte delle imprese sono ancora a livello 1.0, ma ci sono delle aree nelle quali si stanno concretizzando eccellenti esperienze più avanzate. Ad esempio, nell'IT, ma non limitatamente ad esso, si hanno già numerosi casi di impiego:

  • Nella Manutenzione Predittiva di apparati ed elementi soggetti ad usura in modo non determinabile a priori;
  • Previsione fabbisogni in termini di approvviggionamenti e potenziamento impianti;
  • Soluzioni antifronte, basati sull'analisi di comportamenti atipici, indicatori di potenziali compromissioni della sicurezza;
  • Testing automatico dei sistemi e delle infrastrutture esposte a rischi;
  • Rilevazione e risoluzione automatica dei problemi di funzionamento;
  • Guida e supporto automatico nell'assistenza ai clienti/utenti.

Soluzioni per le quali occorre attrezzarsi con strumenti per la gestione e l'elaborazione dei dati con infrastrutture specializzare basate su Hadoop e Spark, Database e Hardware di tipo "in Memory", combinate con Tool di analisi capaci di operare con metodi statistici, intelligenza artificiale, apprendimento autonomo.

Il cuore del sistema restano però le persone capaci di operare a vari livelli, partendo dalle infrastrutture, per arrivare alla progettazione e validazione dei modelli di analisi, scegliendo le fonti, i dati, gli algoritmi, le tecniche predittive più idonee a ciascun caso.

Fondamentali le competenze dei Data Scientist

Se le tecnologie hanno un ruolo critico in tutto il discorso, ad essere realmente fondamentali sono le competenze di chi le usa. A partire dalle fasi di allestimento delle infrastrutture, per proseguire con i sistemi di elaborazione, conservazione, gestione dei dati (prima di tutto sul fronte della qualità), arrivando quindi al punto cruciale della definizione dei modelli, della scelta dei dati, delle fonti, della periodicità dei ricambi e dei controlli dei risultati. Si tratta di un mix di competenze specialistiche e multidisciplinari che non si improvvisa, nella maggior parte dei casi non viene coperto neppure dai corsi universitari, ma che va curato cercando di guidare le persone nel percorso lungo le quattro fasi di evoluzione degli Analytics. Infatti, mentre nella prima fase la focalizzazione andava posta sulle capacità di integrazione dei dati (con tutti i controlli e le conversioni del caso), pur rimanendo questo un aspetto importante, nella seconda fase assumono rilievo altri elementi quali la capacità di visualizzare i risultati, piuttosto che quella di ricombinare i dati tra loro in modo non convenzionale.

Analytics 4.0: le necessarie Competenze CumulativeLa sintesi di questo discorso è che si tratta non di un processo che riguara competenze "sostitutive", ma un accumulo di competenze che vanno sviluppate nel tempo e nell'organizzazione, così come rappresentato nella figura qui a fianco.

Un aspetto particolare degli Analytics 4.0 è che agli occhi degli utenti risultano "invisibili" in quando vengono inseriti direttamente all'interno dei processi per guidarne lo svolgimento evitando alle persone di dover svolgere qualsiasi azione: scelgono, attivano e operano in modo totalmente automatico.

Il messaggio è pertanto "coltivare" Data Scientist, partendo possibilmente da chi ha già competenze informatiche, statistiche, matematiche, ma puntando molto su tutti gli aspetti propri della gestione dei dati, a partire dal come trarvi e generarvi valore. Una cosa che non si improvvisa, ma che deve tenere in massima considerazione la necessità di dotare le persone di visione multidisciplinare, anche quando le si specializza in ben determinate funzioni tecniche. Un investimento oneroso, che però si ripaga facimente nel tempo assicurando all'azienda la marcia in più per competere e svilupparsi.

Fonte: per questo pezzo mi sono liberamente ispirato all'articolo "Analytics and IT: New Opportunity for CIOs" apparso su HBW: http://twimgs.com/custom_content/108572_1116.pdf

Leggi tutto...
Sottoscrivi questo feed RSS