Il futuro di Ibm fa leva sul cognitive computing

Il futuro di Ibm fa leva sul cognitive computing

La strategia infrastrutturale di Big Blue punta su machine learning e intelligenza artificiale per aggiornare sistemi e applicazioni, su mainframe e architetture Power.

di: Roberto Bonino del 02/03/2017 16:52

Big Data & Analytics
 
Il cognitive computing è l’ombrello che oggi racchiude quel che resta dell’offerta architetturale di Ibm, le esperienze derivate dalla ricerca e ormai pronte per il mercato (Watson in testa) e il retaggio ibm-marco-utili.jpgdel passato da convertire alle esigenze della trasformazione digitale. La scelta cavalca molte delle tendenze in corso, ma serve anche a difendere le posizioni acquisite negli anni: “Non è vero che nell’era della digital disruption l’infrastruttura vada ritenuta una commodity – ribadisce Marco Utili, direttore dell’area sistemi in Ibm Italia -. Nella sua attuale declinazione ibrida, invece, dell’elemento abilitante nel passaggio dalla classica elaborazione transazionale dei dati a quella costruita sugli insight”.
All’interno di un’attività fatta confluire nella nuova divisione Cognitive, si collocano le più recenti evoluzioni, come la disponibilità del machine learning all’interno dei mainframe Serie Z, i processori PowerAi e una declinazione dello storage sempre più orientata alla memorizzazione selettiva dei dati in base alla loro rilevanza.
Portando, di fatto, le capacità di Watson sui mainframe, Big Blue si propone di fornire un’esperienza semplificata di modellazione dei dati e di implementazione dei modelli analitici soprattutto per gli specialisti dei dati all’interno delle aziende. Learning Machine for z/Os può supportare diversi framework Big Data, come Apache SparkMl, TensorFlow e H2O, oltre a essere compatibile con linguaggi di programmazione come Java, cala e Python, fra gli altri. Inoltre, la disponibilità èibm---andrea-negro.jpg assicurata anche on premise e non solo in cloud sulla piattaforma Bluemix, particolare questo non trascurabile per chi non vuole essere costretto a migrare i propri dati all’esterno per poterli elaborare: “Le caratteristiche tipiche del deep learning basato su reti neurali, che non richiedono preventiva programmazione – spiega Andrea Negro, Server Solutions Sales Manager di Ibm Italia – creano opportunità applicative, che stiamo già sfruttando, in ambiti come le automobili self-driving, la diagnostica medica o l’e-commerce basato su suggerimenti personalizzati”. 

Processori e storage al servizio dell’analisi dei dati

Dal punto di vista architetturale, sfruttando anche il lavoro della Open Power Foundation (che oggi conta oltre 300 partecipanti), l’ultima evoluzione si chiama PowerAi e si concretizza in un toolkit software, che contiene framework di deep learning e altri “blocchi” perlopiù open source, pacchettizzati per un uso aziendale e di rapida implementazione (40 minuti, secondo il costruttore). La soluzione si adatta ai sistemi di fascia alta, quindi a mercati relativamente ristretti, ma Big Blue intende comunque far leva sui partner per agevolarne la diffusione: “Diverse aziende innovative hanno già intuito il potenziale che si cela dietro deep e machine learning e conoscono i mercati ai quali rivolgersi. Noi intendiamo supportarle con la nostra competenza e la condivisione di metodologie come il design thinking”, aggiunge Negro.
Da ultimo, se i dati sono sempre più al centro delle strategie e dei processi di business delle aziende, il modo di trattarli dipende dal loro valore e, di conseguenza, occorre disporre delle tecnologie adatte ad automatizzare il più possibile la loro allocazione e lo spostamento in base alle necessità operative.
In questa direzione si muovono le più recenti evoluzioni dell’offerta storage di Ibm, che ha da poco rimpolpato la gamma Ds8880, destinata ai mainframe Serie Z e ai server Power, con tre modelli 100% ibm-francesco-casa-light.jpgflash, che si differenziano per capacità complessive e quantità di Dram. Il top di gamma Ds8888F, in particolare, offre capacità complessiva di 1,22 Pb e si indirizza a task avanzati, come l’informatica cognitiva, il linguaggio naturale, l’analisi predittiva e l’ottimizzazione in tempo reale: “Puntiamo su elementi come l’altissima disponibilità – illustra Francesco Casa, Manager of Storage Solutions di Ibm Italia – garantendo un fermo massimo di cinque secondi all’anno. I dispositivi condividono la stessa architettura di Watson e, quindi, si sposano perfettamente tanto alle necessità di flessibilità nello spostamento dei dati quanto alle evoluzioni in direzione del cognitive computing”. 
Tag notizia:

Cosa ne pensi di questa notizia?

Attualità

...continua

Opinioni e Commenti

...continua