▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

HPE Discover 2017, il management italiano interpreta gli annunci. Obiettivo: potenziare la Data Driven Enterprise

Stefano Venturi, Corporate VP e AD, Hewlett Packard Enterprise Italia e Mauro Colombo, Hybrid IT Sales and PreSales Manager, Hewlett Packard Enterprise Italia ripercorrono i recenti annunci di HPE Discover a Madrid e li inquadrano nella strategia aziendale. Obiettivo: aiutare i clienti a valorizzare i dati nell’Era Digitale attraverso tecnologie innovative

Trasformazione Digitale
Lo scorso dicembre si è tenuta l’edizione europea di HPE Discover 2017 a Madrid e, come di consueto, arriva il momento di approfondimento e sintesi fatto dal team italiano. E’ Stefano Venturi, Corporate Vice President e Amministratore Delegato, Hewlett Packard Enterprise Italia, a raccontare il valore degli annunci contestualizzandoli all’interno della strategia aziendale con il supporto di Mauro Colombo, Hybrid IT Sales and PreSales Manager, Hewlett Packard Enterprise Italia, andando in profondità delle principali novità.
everything

Everthing computes
Ogni L’espressione ‘Everthing computes’ racchiude l'essenza del momento attuale: tutto è  digitale e in questo scenario HPE si pone l’obiettivo di valorizzare i dati significativi dei clienti che vivono nell’Era Digitale operando dall’edge, al core fino al cloud in modo sicuro e sostenibile. Venturi ribadisce più volte il ruolo di HPE, tornata alle origini con una forte focalizzazione sulle tecnologie. 

Tre le declinazioni primarie della strategia aziendale
lungo la catena del valore: potenziare l’Intelligent Edge - dati in periferia da portare al centro per fare si che vengano collezionati in modo sicuro ed economicamente sostenibile. “Per fare ciò occorre portare intelligenza in periferia laddove vengono generati, sia per ciò che riguarda la pre- elaborazione dei dati sia in termini di sicurezza”, sostiene Venturi.  
C’è poi la strategia che porta i dati al ‘centro’ dove vengono elaborati in  modo efficiente in due modalità: rendendo semplice l’Hybrid IT  e con nuove piattaforme di computing. “Non si può operare in  modo tradizionale, il computing tradizionale con supercomputer sempre più potenti e muscolosi non regge più, questi devono diventare intelligenti e concepiti con l’Intelligenza Artificiale per ottimizzare i calcoli” - afferma Venturi. In questo senso HPE continua ad avere una posizione di leadership nel mondo del supercomputer dove guadagna quote di mercato ma oggi vuole farlo in modo diverso”. Ed ecco che entra in gioco il progetto pluriennale ‘The Machine’ su cui HPE sta profondendo molti sforzi e investimenti, che porta la memoria al centro: si parla infatti di memory computing. Un modello che non mette più la Cpu al centro e le memorie (inclusi i dischi) in periferia ma porta un’unica memoria persistente al centro (dove ci sono tutti i dati e il know how) e le Cpu diventano periferiche di elaborazione, con risultati soprattutto quando si parla di correlazione complesse nell’ordine a volte 10 mila volte più efficienti (a parità di risorse e di costi). 
venturiitalia
Stefano Venturi, Corporate Vice President e Amministratore Delegato, Hewlett Packard Enterprise Italia
Sul fronte dell’Hybrid IT, spiega Venturi: “Siamo stati dei precursori, quando l’IT ibrido non era considerato, oggi è un concetto che sta prendendo sempre più piede. Il mondo infatti è e sarà i sempre più ibrido, perché i clienti non avranno ne tutto on premise ne tutto solo in cloud, e quando sarà in cloud non sarà un solo cloud, ma un ambiente multi-cloud”, sostiene.
Infine, la declinazione dei servizi PointNext, a sostegno delle due direttrici portanti. In quest’ambito si afferma la logica del Flexible  Capacity - l’infrastruttura IT a consumo, installata dal cliente pagata per l’effettiva capacità di utilizzo - una sorta di cloud on premise. “Vogliamo aiutare i clienti a migrare dal mondo tradizionale al nuovo mondo complesso e articolato dell’Era Digitale a cui rispondiamo con una strategia di servizi che implica di lavorare sempre più in ecosistema coi partner in grado di aggiungere valore”, rimarca Venturi.

Cambio al vertice nella continuità
Venturi conclude soffermandosi sul cambio al vertice che il prossimo 1 febbraio vedrà Meg Whitman lasciare il ruolo di Ceo & Chairman dopo sei anni ad Antonio Neri; dopo aver portato HPE a ritornare a essere una ‘high tech company, focalizzata e specializzata –, rimanendo un membro del board.“Neri, origini italiane e nato in Argentina, è il primo Ceo che viene dall’interno, dalla tecnologia e dall’ingegneria. E’ la persona giusta per il momento di innovazione tecnologica dell’azienda, che ha avuto una metamorfosi ed è tornata a guardare avanti cercando di fare innovazione tecnologica come alle origini, quelle della ‘garage company’  fondata nel 39 da due ingegneri dalla forte carica innovativa proiettati a creare nuove categorie di tecnologie.  E oggi HPE è tornata a fare cose diverse: ‘The Machine’ che rifonda il modo di fare computing , l’AI nell’edge e nella sicurezza, nuovi modelli di consumo dell’infrastruttura IT, l’introduzione del finger print sul firmware nella Gen10. E’ un’azienda tornata ad innovare, che si apre alla collaborazione dei partner”.

E’ tempo di Data Driven Enterprise
Come detto, HPE vuole potenziare la Data Driven Enterprise focalizzandosi su alcuni aspetti principali.
Nel corso di Discover a Madrid queste le aree arricchite e rafforzate attraverso elementi innovativi: Intelligent Edge; Secure edge, cloud & core platform;  Memory Driven Computing & HPC; AI, edge to core; Software Defined & Multi-cloud;  Technology Ecosistem;  Flex Consumption, Advise & Expertise. Le dettaglia una per una Mauro Colombo.
powerdrivenenterprise

Intelligente Edge
Colombo ribadisce l’importanza della periferia nell’era dei Brontobyte in arrivo nel 2020: “Ad oggi il 70% dei dati vengono generati all’Edge, da sensori e dagli essere umani. Con così tanti dati generati in periferia è fondamentale avere sistemi e capacità computazionale in questa posizione; non ci si può più permettere infatti di trasportarli al centro o nel public cloud per elaborarli. Anche se infatti è in arrivo il 5 G e l’incremento di banda aumenta sempre più comunque la crescita esponenziale dei dati non si arresta ed è quindi fondamentale averli vicino alla fonte, inoltre il trasporto al centro può essere anche antieconomico e difficile da realizzare dal punto di vista logistico”.
Per HPE la parte del leone nella componente Intelligent Edge la fa la tecnologia Aruba Networks -  azienda riconosciuta da Gartner come leader nel wireless e wired network acquisita oltre due anni fa da HPE e oggi parte integrante della tecnologia aziendale. A Madrid questa componente si è arricchita e ampliata nelle aree del mobile engagement e del digital workplace ma anche, e soprattutto, con un’offerta più estesa  in ambito IoT.
colombo

Mauro Colombo, Hybrid IT Sales and PreSales Manager, Hewlett Packard Enterprise Italia
Sicurezza edge, core e cloud
La sicurezza deve essere trasversale a tutte le piattaforme e built-in: “Non è un accessorio ma interna ai sistemi”, spiega Colombo. In questa direzione a Discover l’enfasi è stata posta sulla nuove soluzioni Gen 10, i sistemi server Proliant lanciati a ottobre 2017. Si tratta di sistemi con un nuovo processore Intel (Skylake) caratterizzati da performance e sicurezza, in questo caso con l’introduzione del concetto Firmware Bios Security con la sicurezza a livello Bios. E’ stato quindi introdotto un 'fingerprint' su silicio per permettere di riconoscere eventuali  modifiche a livello hardware. Non solo: è anche stato fatto un annuncio relativo alla sicurezza di accesso nel mondo wireless. Dal prodotto tradizionale Clearpass di Aruba Networks per una sicurezza contestuale, circa sei mesi fa HPE con l’acquisizione di Niara ha introdotto nella sicurezza anche elementi di Artificial Intelligence/Machine Learning. In questo senso il prodotto presentato a Discover, ribrandizzato HPE Introspect permette di analizzare i comportamenti sulla rete e di comandare a strutture  e software gestionali di rete se permettere di entrare o meno, aprendo o chiudendo le porte. “Un prodotto che aiuta a gestire meglio il proliferare dei device professionali e personali così come il mondo dei sensori IoT che ad oggi hanno un bassissimo livello di sicurezza, diventando facili vettori di accesso alla rete”, argomenta Colombo. 

Memory driven computing & HPC
La capacità computazionale per estrarre il valore dei dati è fondamentale. Tre gli annunci principali di Discover a Madrid in quest’ambito: il rafforzamento dell’acquisizione di SGI effettuata oltre un anno fa, perfezionata a inizi 2017 e oggi completamente operativa, che aiuta HPE a mantenere la leadership nell’ambito del super computer estendendola al mondo HPC (un trend molto importante per l’elaborazione di dati esistenti); l’introduzione di Superdome Flex: “La prima e, allo stato attuale, ‘unica’ macchina x86 mission critical in grado di scalare fino a 48 Tera (da 6 fino a 48, con approccio modulare, il record precedente apparteneva ad HPE e arrivava a 24 Tera), che porta a un livello superiore la possibilità di fare real time analytics e in memory computing"; c’è poi la storia di ‘The Machine’, un progetto che porta la ricerca HPE sempre al limite, volto a rivoluzionare l’architettura di computing dei server. Di fatto, una processo di evoluzione continua che oggi sta passando dalla teoria alla pratica:  il prototipo è infatti utilizzato in molti progetti; per esempio, HPE ha siglato un accordo di collaborazione con la fondazione Cosmos Research Group di Sthephen Hawking per l’utilizzo del prototipo nella ricerca spaziale, così come con un ente di ricerca tedesco per la ricerca sull’Alzahimer e una collaborazione con un’istituzione bancaria americana per utilizzare il prototipo nella Simulazione di Montecarlo.Un progetto di ricerca che deriva alcune soluzioni sperimentate e testate portandole sulla produzione di serie. In questa direzione nel 2018 HPE porterà la fotonica all’interno dell’infrastruttura Sinergy, la prima infrastruttura componibile, primo esempio concreto di The Machine presentato a fine 2016 e lanciato nel 2017, che si arricchirà con la parte di fotonica.
superdome

AI, edge to core
Un tema caldo su cui HPE pone molta enfasi è quello dell’Intelligenza Artificiale su tutta la filiera, dall’edge al core.  Il messaggio più importante passato a Madrid è la volontà dell’azienda di realizzare un Autonomous Data Center, un data center autonomo in grado di autoripararsi e autoadattarsi, grazie alle funzionalità derivanti dalle soluzioni dell’acquisita Nimble.
Una soluzione storage innovativa quest’ultima, che si distingue per il software HPE InfoShigt  in grado di  abilitare funzionalità di ‘predictive maintanance’ e la capacità di autoadattarsi alle diverse esigenze applicative attraverso la sensoristica (al momento esteso allo storage HPE 3Par). “Gli apparati Nimble distribuiti nel mondo inviano le informazioni del loro funzionamento a un centro di raccolta; da parte sua InfoShigt analizza i dati e permette di  prevedere dei fault. Il prodotto ha un livello di customer sactisfaction molto elevato e consente di raggiungere il 99,9999%  di availability attraverso la funzionalità di predictive maintanance. Grazie ad esso, inoltre, i failour classici – risolti in genere dal primo e dal secondo livello di supporto – sono stati azzerati scalando di conseguenza direttamente al terzo livello di supporto”, spiega Colombo.  Nel corso dell’anno le funzionalità di InfoSight saranno estese a tutta la linea di prodotti HPE, passando dallo storage al mondo del computing fino al data center network per realizzare la vision del data center autonomo e autoriparante.

Software Defined & Multi-cloud
L’IT è ibrido:
come più volte ribadito è questo un mantra per HPE: “Nel passato HPE era un po’ fuori dal coro nel sostenerlo, oggi è questa la direzione da seguire per molti, in logica multi-cloud”. L’annuncio più importante in questa direzione a Discover è relativo al software HPE OneSphere nelle sue tre declinazioni principali: come dashboard di monitoraggio a disposizione degli IT manager al fine di capire lo stato del proprio IT – on premise, public cloud,…; come piattaforma di provisioning multi-cloud per presentare alle differenti funzioni aziendali un catalogo on premise o su public cloud (per es.  Microsoft Azure, Aws e Goolge … ) con refresh del catalogo in modo automatico:  “Le differenti funzioni -  possono fare provisioning on premise o su public cloud con un processo approvativo snello e semplice”; come elemento  di controllo economico/finanziario dei costi on premise e su public cloud, grazie alle funzionalità abilitata da una soluzione di ‘misurazione' in ambiente cloud derivante dell’acquisizione di Cloud Cruiser.

Technology Ecosystem
Ed ecco il tema delle partnership, oggi più che nel passato, tanto caro ad HPE: “Oggi se si vogliono realizzare soluzioni end-to-end per i clienti non si può avere la presunzione di fare tutto da soli. E’ necessario integrare componenti di altre di altri vendor e aziende. L’innovazione è infatti uno sport di team”, enfatizza Colombo. Tre le tipologie di partner principali riconosciute da HPE nel suo ecosistema: Global Technology Partner – sono partnership a livello mondiale declinata a livello locale -  tra queste per esempio da citare quella con Microsoft che guarda al mondo ibrido con Azure Stack e quella con SAP con la tecnologia in memory computing Sap Hana; PathFinder, l'iniziativa attraverso cui  nell’ultimo anno e mezzo HPE ha avviato un programma mondiale relativo alla nascita di una Business Unit che si occupa di venture capital al fine di investire in startup promettenti. “A differenza dei ventur capital puri che entrano a tempo zero nel percorso di crescita della start up e a costi molto bassi e ad alti rischi, PathFinder entra a metà del percorso – circa uno-due anni dopo l’avvio -  quindi a costi di ingesso più alti ma con meno rischi. Ad oggi il 99% delle aziende nel mirino di PathFinder sono realtà software  - due aziende su cui ha già fatto un terzo round di venture capital di  recente rientrano Choesity e Mesosphere,” afferma Colombo; Local Partnership: partnership a livello locale siglate con partner di  territorio. “In quest’ambito entra a pieno diritto il programma HPE Innovation Lab sviluppato in Italia nel corso del 2017 (19 sedi di partner e distributori, ndr) al fine di portare e fare toccare con mano le tecnologie ai clienti sul territorio”.
abb
La partnership più importante annunciata a Discover è quella con ABB: una relazione che dura da 28 anni perché ABB è OEM di Hpe dal 1989 che oggi si intensifica ulteriormente con l’obiettivo di aiutare i clienti a combinare sempre di più la componente OT con quella IT.  “Sono due global player leader nel loro mercato di riferimento: ABB si distingue nel mondo della robotica e dell’automazione industriale, HPE nella tecnologia IT che esce dal data center e arriva all’edge; edge che è proprio il punto di contatto tra le due aziende. Vogliamo portare soluzioni congiunte al cliente, combinando ciò che è già disponibile oggi  e altresì favorendo la ricerca congiunta con risultati attesi entro l’anno in corso e un programma di finanziamento congiunto per i clienti desiderosi di introdurre le tecnologie combinate”, dice Colombo.

PointNext: Flex Consumtpion,  Advise & Expertise
C’è poi la componente servizi PointNext che abbraccia le due declinazioni tecnologiche portanti. Due gli annunci principali ascrivibili in questa area: Flex Consumption “Due anni fa HPE ha lanciato sul mercato i Flexible Capacity Services, servizi che vanno oltre  un meccanismo tradizionale di locazione finanziaria, portandolo a un livello superiore. Si tratta di un meccanismo finanziario adattabile alle esigenze dei clienti che cercano la flessibilità del public cloud  a casa loro con la sicurezza dell’on premise”, afferma Colombo. A Madrid è stato aggiunto un tassello ulteriore a tutto ciò, da qui l’annuncio di HPE GreenLake, intesa come la standardizzazione di un’offerta di Flexible Capacity. Oggi quindi HPE accanto a soluzioni ritagliate su misura sulle esigenze del cliente propone soluzioni pacchettizzate ‘ready to use’ – sono quattro ad oggi i building block disponibili di GreenLake: Big Data Hadoop, DB Machine, Backup as a service, Compute a cui nel corso dell’anno seguiranno altri due nuovi package relativi a Microsoft Azure Stack e Docker (conteinerizzazione).
L’offerta PointNext non si esaurisce però con la proposta Flexible Capacity e GreenLake ma prevede anche capabilities, declinabili lungo tre macrofiloni di servizi: Advisory & Transformation (per definire insieme al cliente la rotta da seguire); Professional (relativi all’implementazione del percorso); Operational (al fine di mantenere l’ambiente up  & running sia dal punto di vista della manutenzione hardware e software che dal punto di vista della gestione operativa).
Nel 2018 Il cammino di innovazione di HPE prosegue da qui.
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di ImpresaCity.it iscriviti alla nostra Newsletter gratuita.

Notizie correlate

Speciali Tutti gli speciali

Reportage

Red Hat Summit Connect 2024

Reportage

WPC 2024

Speciale

Speciale Data Center

Speciale

Speciale Hybrid Working

Reportage

Cybertech Europe 2024

Calendario Tutto

Gen 23
Nutanix Cloud Day Roadshow - Bari

Magazine Tutti i numeri

ImpresaCity Magazine


Leggi il Magazine

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter