Sistema per il License Optimization in un data center

CNR - ICAR

Risultato della ricerca:

Le attività di ricerca presso l’ICAR‐CNR hanno portato alla definizione di un algoritmo ed all’implementazione di un’architettura e di un software in versione prototipale per l’ottimizzazione delle risorse in un data center. L’algoritmo consente di scalare efficacemente rispetto al numero di applicazioni da eseguire e di adattare l’ottimizzazione in real time rispetto alle variazioni dei carichi.

Il vantaggio rispetto agli approcci classici deriva dall’utilizzo di algoritmi distribuiti ed auto‐organizzanti basati sulla ricerca condotta presso l’ICAR‐CNR sui sistemi di swarm intelligence e bio‐ispirati.  L’algoritmo si caratterizza per il metodo utilizzato per la gestione delle applicazioni ed il loro assegnamento ai server del data center. L’approccio è di tipo decentralizzato/statistico, e prevede che ogni server decida autonomamente se accettare una applicazione, o se richiederne la migrazione verso un altro server.

Il principio di base è che i server poco carichi tendono a rifiutare nuove applicazioni, in modo da poter essere disattivati, così come i server molto carichi, per evitare che un possibile sovraccarico possa danneggiare la qualità del servizio. Invece i server con carico intermedio tendono ad accettare nuove applicazioni per favorire il consolidamento. I vantaggi dell’algoritmo di ottimizzazione delle risorse tendono a due obiettivi principali:

‐ la minimizzazione dei costi di acquisto/licenze dei sistemi operativi. Infatti, è possibile eseguire più applicazioni su un unico server, e quindi acquistare/noleggiare una sola licenza su quel server. Considerando l’alto numero di server tipicamente installati su un data center, ridurre il numero di licenze può portare a notevoli risparmi;

– l’allocazione delle applicazioni su un numero minimale di server consente di ridurre i consumi energetici. Questo deriva dal fatto che un server con basso utilizzo consuma comunque una notevole quantità di energia. Mantenere accesi solo i server con alto utilizzo, spegnendo gli altri, consente quindi di risparmiare energia e di ridurre le emissioni di CO2.

Riferimento a finanziamenti precedenti:

L’algoritmo di “License optimization” non è stato finanziato tramite altri bandi.

Innovatività rispetto a soluzioni già esistenti:

Le soluzioni attualmente presenti sul mercato utilizzano un approccio centralizzato che cerca di ottimizzare la distribuzione delle applicazioni sui vari server, ad esempio utilizzando algoritmi basati su programmazione lineare.

Un approccio di questo tipo presenta principalmente due problemi:

1. richiede che un manager centrale sia continuamente aggiornato sullo stato delle macchine, cosa che può comportare la migrazione concorrente di molte applicazioni (avendo come conseguenza un decadimento delle prestazioni);

2. può solo approssimare una soluzione ottima, essendo il problema molto complesso dal punto di vista computazionale (NP‐Hard).

I vantaggi dell’approccio ideato presso l’ICAR‐CNR sono principalmente tre: (1) la natura probabilistica dell’approccio permette di avvicinarsi molto all’allocazione ottima delle applicazioni ed alla minimizzazione del numero di licenze necessarie all’operatività del data center, specialmente nei data center con decine o centinaia di macchine; (2) gestione decentralizzata, scalabile e tollerante ai guasti, che consente di alleviare i costi di amministrazione e di monitoraggio; (3) la migrazione delle applicazioni è graduale e continua, per evitare possibili decadimenti delle prestazioni.

Titoli di proprietà intellettuale:

L’algoritmo di “License optimization” non è al momento oggetto di attività di brevettazione o di difesa della proprietà intellettuale.

Principali applicazioni e mercato di riferimento:

L’applicazione che riteniamo più idonea alla valorizzazione dell’algoritmo di ottimizzazione implementato presso l’ICAR‐CNR, riguarda principalmente la possibilità di ridurre il numero di licenze da acquistare o noleggiare per ospitare le applicazioni di un data center. Questo consente di minimizzare i costi, sia di acquisto/noleggio che di manutenzione, ed anche i consumi di energia elettrica. Gli amministratori del data center potranno impostare parametri importanti quali per esempio la Target Resource Utilization (TA) e la Maximum Resource Utilization (TH).

La Target Resource Utilization definisce il livello di occupazione ideale di un server, in termini di CPU, memoria e banda. La Maximum Resource Utilization (TH) è la soglia massima di utilizzazione di un server.  Questi parametri indicano l’utilizzo di risorse obiettivo degli hosts, e permettono agli utenti di personalizzare il comportamento dell’algoritmo di consolidamento. In particolare la Target Resource Utilization (TA) determina: • per il License Consolidation: il numero di host a cui sarà necessario assegnare una licenza d’uso del sistema operativo • Per il Workload Consolidation: il numero di host che sono necessari per ospitare il carico complessivo del data center. In questo modo, gli host non utilizzati tenderanno ad essere liberati e messi in stand‐by mode. L’algoritmo di ottimizzazione assegnerà le applicazioni ai server del data center in modo da ottimizzare i parametri precedentemente indicati.

Il mercato di riferimento del prodotto che si vuole sviluppare attraverso la valorizzazione della ricerca è quello delle aziende che possiedono un data center con almeno 100 server, e nel mondo sono decine di migliaia, secondo un recente studio di Gartner (http://www.cwi.it). Secondo la stessa fonte, in Italia si calcola che ci siano circa 3.000 data center che potrebbero far parte del mercato di riferimento. In questo spaccato rientrano casi estremi che vanno dal piccolo data center di un’amministrazione locale agli oltre 50 data center degli Internet provider.  Esempi di come i data center italiani appaiano lontani dal performare al meglio sono i seguenti: più del 75% eroga in media meno del 50% della potenza totale disponibile; più del 30% delle strutture non ha procedure automatizzate di system management, il che comporta l’utilizzo di molte risorse e scarsa flessibilità.

Per le aziende italiane emerge la necessità di un cambiamento. Date le problematiche generate da infrastrutture complesse e inefficienti, secondo Oracle il 61% delle imprese prevede la necessità di implementare una nuova struttura di data center entro i prossimi due anni. Per quanto riguarda le PMI, un recente rapporto della School Of Management del Politecnico di Milano rileva che il livello di diffusione del Cloud nelle piccole e medie aziende è ancora nell’ordine del 20‐30%, ma è previsto in grande crescita. Le aspettative delle aziende rispetto al Cloud sono molto alte e riguardano principalmente il contenimento dei costi, su hardware e personale e, in seconda battuta, la velocità di attivazione e la flessibilità.

Esigenze per l’ulteriore sviluppo – Industrializzazione:

L’obiettivo del processo di valorizzazione è quello di coinvolgere uno o più aziende che siano proprietarie di un data center o che abbiano la possibilità di effettuare una sperimentazione reale su data center. Infatti, per testare le caratteristiche di scalabilità dell’algoritmo è necessario effettuare delle sperimentazioni su un data center che contenga almeno un centinaio di server. In questo modo sarà possibile portare il livello di maturità della soluzione da TRL4 a TRL7, “Dimostrazione di un prototipo di sistema in ambiente operativo”.

Codice:

0096

Area di Innovazione:

ICT e terziario innovativo - Ecosistemi digitali anche mediante l’adozione di Internet of Things