Gestione backup GLPI v9.1.4 in ambiente Windows

GLPI (Gestion Libre de Parc Informatique) è un progetto Open Source gratuito distribuito sotto licenza GPL che consente l’IT Asset Management, l’issue tracking system, fornisce una soluzione di service desk solution e consente la gestione di tasks amministrativi e finanziari. Dal momento che il servizio di l’IT Asset Management e/o di issue tracking system, quando implementate all’interno di un’infrastruttura informatica, assumono un’importanza rilevate ai fini della gestione occorre pianificare un’adeguata politica di backup.

Di seguito verrà analizzato come gestire il backup di GLPI 9.1.4 installato in IIS con PHP 7.1.1 su MariaDB 10.2.7 in ambiente Windows Server 2012 R2, inoltre si ipotizzerà che i file di GLPI siano memorizzati in S:\GLPI e che il database sia stato creato col nome glpi.

Funzionalità di backup in GLPI

GLPI offre nativamente la possibilità di eseguire il backup del database tramite il menu Amministrazione – Manutenzione

Tale backup permette di creare un dump sql o XML del contenuto del database, ma come riportato nella pagina WIKI Data/Backup del progetto GLPI al momento non è possibile automatizzare tale operazione, che può quinti tornare utile per backup estemporanei da eseguire prima di operazioni per cui è consigliabile avere una copia di sicurezza del database.

I backup eseguiti tramite l’interfaccia web di GLPI vengono conservati nella subdirectory files\_dumps della cartella d’installazione, è possibile copiarli e incollarli per esempio per gestire il restore su un server differente ad esempio per creare ambienti di test.

Backup del database di GLPI tramite script

Dal momento che come visto precedentemente il backup nativo di GLPI non offre la possibilità di essere eseguito in base ad una schedulazione, per una gestione automatizzata del processo di backup occorrerà creare degli appositi script da eseguire in base ad un’opportuna pianificazione. Di seguito si analizzerà come creare uno script per il backup del database di GLPI ipotizzando che, come detto precedentemente, quest’ultimo sia esposto dal DBMS MariaDB 10.2.7.

In MariaDB 10.2.7 è stato introdotto il tool di backup mariabackup in versione Beta basato su Percona XtraBackup 2.3.8, a riguardo si vedano About MariaDB Backup e MariaDB Backup released with MariaDB Server 10.1.23. Tramite mariabackup è possibile gestire tramite script le operazioni di backup del DBMS MariaDB, di seguito uno script Powershell per il backup gestito dell’intero DBMS MariaDB con possibilità di gestione del numero minimo di backup da mantenere, lo script prevede l’utilizzo dei parametri per poter essere gestito nell’ambito di un’automazione del backup del server GLPI che prevede più step.

Param(
[string]$MariaBackupFile,
[string]$BackupRoot,
[string]$MariaDBHost,
[string]$User,
[string]$Password,
[uint32]$BackupsRetained
)

Set-strictmode -version latest

# Impostazioni di Test
#$MariaBackupFile= $env:ProgramFiles + “\MariaDB 10.2\bin\mariabackup.exe”
#$BackupRoot=”Z:\Backup-MariaDB”
#$MariaDBHost=”.”
#$User=”root”
#$Password=”P@assW0rd!”
#$BackupsRetained = 10

# Inizializzazione Backup
$BackupPath=$BackupRoot + “\” + (Get-Date -format yyyy-MM-dd)
If (Test-Path $BackupPath) {Remove-Item $BackupPath -Force -Recurse}
New-Item -ItemType Directory -Force -Path $BackupPath

# Avvio backup MariaDB
$TargetArg = “–target-dir=” + $BackupPath
$MariaDBHostArg = “–host=” + $MariaDBHost
$UserArg = “–user=” + $User
$PasswordArg = “–password=” + $password

Start-Process -NoNewWindow -Wait -FilePath $MariaBackupFile -ArgumentList “–backup”, $TargetArg, $MariaDBHostArg, $UserArg, $PasswordArg

# Eliminazione backup obsoleti
$BackupDirectories = (Get-ChildItem -Directory $BackupRoot | Sort FullName)
$BackupsCount = ($BackupDirectories | Measure-Object).Count

If ($BackupsCount -gt $BackupsRetained){
For ($i = 1; $i -le $BackupsCount – $BackupsRetained; $i++) {
Remove-Item $BackupDirectories[$i-1].FullName -Force –Recurse
}
}

Lo script è disponibile nel repository GitHub ermannog/PowerShell/Backup-GLPI col nome Backup-MariaDB.ps1.

In alternativa è anche possibile ovviamente eseguire solo il backup del database di GLPI, di seguito uno script Powershell per il backup gestito del singolo database di GLPI con possibilità di gestione del numero minimo di backup da mantenere, lo script prevede l’utilizzo dei parametri per poter essere gestito nell’ambito di un’automazione del backup del server GLPI che prevede più step.

Param(
[string]$MariaBackupFile,
[string]$BackupRoot,
[string]$MariaDBHost,
[string]$GLPIDatabaseName,
[string]$User,
[string]$Password,
[uint32]$BackupsRetained
)

Set-strictmode -version latest

# Impostazioni di Test
#$MariaBackupFile= $env:ProgramFiles + “\MariaDB 10.2\bin\mariabackup.exe”
#$BackupRoot=”Z:\Backup-MariaDB”
#$GLPIDatabaseName=”glpi”
#$User=”root”
#$Password=”P@assW0rd!”
#$BackupsRetained = 10

# Inizializzazione Backup
$BackupPath=$BackupRoot + “\” + (Get-Date -format yyyy-MM-dd)
If (Test-Path $BackupPath) {Remove-Item $BackupPath -Force -Recurse}
New-Item -ItemType Directory -Force -Path $BackupPath

# Avvio backup Database GLPI
$TargetArg = “–target-dir=” + $BackupPath
$MariaDBHostArg = “–host=” + $MariaDBHost
$GLPIDatabaseNameArg = “–databases=” + $GLPIDatabaseName
$UserArg = “–user=” + $User
$PasswordArg = “–password=” + $password

Start-Process -NoNewWindow -Wait -FilePath $MariaBackupFile -ArgumentList “–backup”, $TargetArg, $MariaDBHostArg, $GLPIDatabaseNameArg, $UserArg, $PasswordArg

# Eliminazione backup obsoleti
$BackupDirectories = (Get-ChildItem -Directory $BackupRoot | Sort FullName)
$BackupsCount = ($BackupDirectories | Measure-Object).Count

If ($BackupsCount -gt $BackupsRetained){
For ($i = 1; $i -le $BackupsCount – $BackupsRetained; $i++) {
Remove-Item $BackupDirectories[$i-1].FullName -Force –Recurse
}
}

Lo script è disponibile nel repository GitHub ermannog/PowerShell/Backup-GLPI col nome Backup-DB-GLPI.ps1.

Backup dell’applicazione web GLPI tramite script

Dopo aver eseguito il backup del database di GLPI occorre anche eseguire il backup dell’applicazione web, di seguito uno script Powershell per il backup gestito dell’applicazione GLPI con possibilità di gestione del numero minimo di backup da mantenere, lo script prevede l’utilizzo dei parametri per poter essere gestito nell’ambito di un’automazione del backup del server GLPI che prevede più step.

Param(
[string]$BackupRoot,
[string]$WebApplicationPath,
[string]$WebSiteName,
[uint32]$BackupsRetained
)

Set-strictmode -version latest

# Impostazioni di Test
#$BackupRoot=”Z:\Backup-WebApplication-GLPI”
#$GLPIWebApplicationPath=”C:\inetpub\wwwroot\glpi”

#$WebSiteName=”Default Web Site”
#$BackupsRetained = 10

# Inizializzazione Backup
$BackupPath=$BackupRoot + “\” + (Get-Date -format yyyy-MM-dd)
If (Test-Path $BackupPath) {Remove-Item $BackupPath -Force -Recurse}
New-Item -ItemType Directory -Force -Path $BackupPath

# Arresto Web Site
Stop-WebSite $WebSiteName

# Avvio Backup Web Application GLPI
Copy-Item -Path $WebApplicationPath -Destination $BackupPath –Recurse

# Avvio Web Site
Start-WebSite $WebSiteName

# Eliminazione backup obsoleti
$BackupDirectories = (Get-ChildItem -Directory $BackupRoot | Sort FullName)
$BackupsCount = ($BackupDirectories | Measure-Object).Count

If ($BackupsCount -gt $BackupsRetained){
For ($i = 1; $i -le $BackupsCount – $BackupsRetained; $i++) {
Remove-Item $BackupDirectories[$i-1].FullName -Force –Recurse
}
}

Lo script è disponibile nel repository GitHub ermannog/PowerShell/Backup-GLPI col nome Backup-WebApplication-GLPI.ps1.

Backup del sistema del server GLPI

Oltre al backup del database e dell’applicazione web di GLPI è consigliabile eseguire un backup dell’intero sistema per gestire anche eventuali disaster recovery. Per gestire tali scenari di ripristino è ovviamente consigliabile che il server GLPI sia una macchina virtuale in modo da poter gestire il backup del sistema con vari approcci.

Un primo modo di eseguire il backup dell’intero sistema è quello di utilizzare Windows Backup dedicandogli ad esempio un disco virtuale. Nel la macchina virtuale del server GLPI sia in esecuzione in Hyper-V conviene connettere il disco virtuale su un controller virtuale SCSI in quanto permette di gestire tramite script la connessione e la disconnessione del VHD a caldo per copiare lo stesso su un server di backup.

In alternativa è possibile eseguire il backup dall’Hypervisor e nel caso che quest’ultimo sia Hyper-V tramite Windows Backup o altri software di backup come ad esempio System Center 2016 Data Protection Manager, Veeam Backup & Replication.

Conclusioni

La gestione del backup di GLPI in ambiente Windows non risulta eccessivamente complessa e può essere automatizzata tramite scripts PowerShell, per un recupero dei dati più semplice conviene eseguire il backup con vari livelli di granularità per consentire il ripristino di dati in tabelle, database, applicazione o intero sistema.

Come calcolare il check-digit di un barcode in T-SQL

Chi ha avuto l’opportunità di sviluppare software per la movimentazione delle merci, sa che per identificare, memorizzare e gestire in modo efficiente la movimentazione dei prodotti all’interno di un magazzino, è necessario adottare un sistema di movimentazione basato su codici a barre.

Un codice a barre è la rappresentazione grafica di una sequenza di numeri e altri simboli. La rappresentazione consiste di linee (barre) e spazi. Un codice a barre è tipicamente composto da cinque parti, una di queste è il carattere di controllo, noto anche come cifra di controllo.

L’articolo seguente descrive l’algoritmo di calcolo della cifra di controllo di un codice a barre UCC/EAN, confronta due possibili implementazioni per determinare la cifra di controllo di un barcode EAN13 utilizzando il linguaggio T-SQL..

How to calculate barcode check-digit using T-SQL language

Buona lettura!

Un nuovo orizzonte per l’Agile: Heart of Agile (pt.3)

Heart of Agile è la proposta di evoluzione, o forse sarebbe meglio dire di “snellimento”, dell’Agile di Alistair Cockburn (tra i firmatari del manifesto stesso), che, come Modern Agile, si focalizza su quattro Elementi principali:

  • Collaborate
  • Deliver
  • Reflect
  • Improve

rappresentati graficamente attraverso una sorta di “diamante”.

heart of agile

Heart of Agile

Esattamente come Kerievsky, Cockburn esplicita che Heart of Agile non è né un framework né una metodologia, ma non riesce a proporre una definizione chiara, affermando che:

“I think I’ll call it ‘Do this: collaborate, deliver, reflect, and improve.’”

contribuendo, così, ad acuire quel grado di confusione di cui parlavamo nel primo post della serie.

L’idea di fondo è però ben rappresentata dal “cuore” al centro del diamante, ovvero dal “Kokoro”, traduzione della parola in giapponese: tornare al cuore dell’Agile, spogliando quest’ultimo degli “orpelli” e delle “decorazioni” che nel corso degli anni hanno distratto dalla sua essenza.

Ognuno dei quattro elementi può essere espanso secondo la filosofia Shu-Ha-Ri, dettagliando le azioni specifiche con un diverso livello di attuazione e padronanza da parte degli utilizzatori.

È così che il diamante visto in precedenza, rappresentativo della fase “Shu”, si espande come segue nella fase “Ha”:

heartofagile expanded

andando ad associare agli Elementi portanti una prima serie di Comportamenti effettivi:

  • Collaborate: Collaboration e Trust
  • Deliver: Deliver for Learning e Deliver for Income
  • Reflect: Reflect for Insights e Reflect for Improvements
  • Improve: Experiment (remember, it’s just an experiment) e Change (actually change)

È importante sottolineare come Cockburn evidenzi che questa non sia l’unica possibile estensione degli Elementi portanti, ma è quella che, nel momento in cui ha dato vita ad Heart of Agile (settembre 2015), meglio rappresentava la sua idea in merito.

Una ulteriore espansione si ha nel momento in cui si passa alla di “Ri

heartofagile expanded ri

Se vi steste chiedendo in che modo Cockburn abbia scelto i diversi elementi ai diversi livelli, sappiate che il tutto ha preso forma partendo da “Ha”, per poi condensare ed estendere tutti gli aspetti relativi e mettere al centro il Kokoro, la cui posizione è dovuta al “Valore nobile da acquisire”, raggiungibile solo dopo la fase di “Ri”, che consente, a chi lo raggiunge, di operare nel senso più nobile dell’Agile.

Heart of Agile è quindi maggiormente focalizzato sul “tornare alle origini” e ritrovare i Valori che hanno ispirato i firmatari del Manifesto Agile, più che preoccuparsi di come renderlo “moderno” e applicabile in seno alla Business Agility.

Per ora ci salutiamo qui, in attesa del prossimo post dove, provando a fare un confronto di merito tra Modern Agile ed Heart of Agile, cercheremo di fare una serie di considerazioni relative.

Stay tuned J

Office build numbers

Office build numbers

Office 2016

Build Number (MSO)KBDescription
16.0.4229.1024Office 2016 RTM
16.0.4266.1003Office 2016 RTM (Volume license)

Office 2013

Build Number (MSO)KBDescription
15.0.4420.1017Office 2013 RTM
15.0.4569.1506KB2850036Office 2013 SP1 32-bit 64-bit

Office 2010

Build Number (MSO)KBDescription
14.0.4760.1000Office 2010 RTM
14.0.6023.1000KB2510690Office 2010 SP1 32-bit 64-bit
14.0.7015.1000KB2687521Office 2010 SP2 32-bit 64-bit

Office 2007

Build Number (MSO)KBDescription
12.0.4518.1014Office 2007 RTM
12.0.6213.1000KB936982Office 2007 SP1
12.0.6425.1000KB953195Office 2007 SP2
12.0.6607.1000KB2526086Office 2007 SP3

Office 2003

Build Number (MSO)KBDescription
11.0.5614.0Office 2003 RTM
11.0.6361.0KB842532Office 2003 SP1
11.0.7969.0KB887616Office 2003 SP2
11.0.8173.0KB923618Office 2003 SP3

SQL Server: i retroscena del porting Linux

SQL Server 2017

Fonte: sito ufficiale Microsoft

Questa settimana è stata rilasciata la release candidate 1 (RC1) di SQL Server 2017, prossima major release (sviluppata a tempo di record) del noto RDBMS Microsoft. All’indomani dell’annuncio ufficiale, TechChrunch ha avuto modo di parlare direttamente con uno dei membri del team che ha supervisionato il complesso e delicato porting di SLQ Server su Linux:  Rohan Kumar (general manager Database Systems group presso Microsoft).

A rendere possibile lo sbarco di SQL in ambienti Linux è stata la nomina di Satya Nadella a CEO della compagnia. Lo conferma indirettamente Kumar in questo passaggio:

In passato abbiamo avuto un paio di colloqui [sulla questione del porting Linux ma il progetto non fu approvato]. Non era qualcosa che veniva considerato strategico per il [nostro business]”. Ma tre anni fa – con Satya Nadella ai vertici della compagnia – il team decise di riproporre nuovamente il progetto. ” La cosa più sorprendente è che ci aspettavamo [diverse esitazioni da parte dei piani alti]. Fu una sorpresa constatare la rapidità con la quale fu presa la decisione [di approvare il progetto].

In seconda battuta bisogna poi ricordare i feedback ricevuti dalle aziende. Kumar afferma che, sebbene SQL Server venisse sempre più di frequente utilizzato per workload mission critical, quindi un ottimo segnale per Redmond, diverse compagnie trovavano limitante il dover utilizzare obbligatoriamente Windows Server – tenendo conto della crescente popolarità degli ambienti di lavoro misti (Windows/Linux) in ambito enterprise. Molte aziende cercavano poi un’alternativa ai prodotti Oracle: a coloro che volevano utilizzare un database relazionale proprietario (avvalendosi del supporto enterprise) su Linux il mercato non offriva molte soluzioni.

Parlando con le imprese [abbiamo capito che il porting era necessario]. Stavamo obbligando i nostri clienti ad utilizzare Windows come piattaforma principale.

E’ il caso di notare come il giornalista sottolinei il cambio di mentalità in casa Microsoft: in passato (in un’altra “incarnazione” di Microsoft) quanto appena evidenziato da Kumar non sarebbe stato giudicato come un fattore negativo.

Pianificazione del porting SQL Server

Una volta ottenuta l’approvazione dei piani alti, il team di Kumar si è trovato davanti ad un problema apparentemente insormontabile: come effettuare il porting Linux di milioni di linee di codice senza sacrificare funzionalità ed altre caratteristiche? Sono stati due gli elementi che hanno consentito ai programmatori di rendere possibile l’arrivo di SQL Server su Linux: Drawbridge e SQLOS.

Il primo è un progetto sperimentale (interno all’azienda) avviato nel 2011 e riscoperto, per fortuna di Kumar e colleghi, proprio in quel periodo. L’idea alla base di Drawbridge era quella incrementare la sicurezza delle VM: per ottenere questo risultato si era pensato ad un container con una versione minale di Windows in grado di eseguire applicazioni, gestire la memoria ed altre importanti funzioni integrandosi allo stesso tempo con il sistema operativo sottostante.

SQLOS è invece una parte fondamentale del database relazionale Microsoft pensata per eseguire funzioni solitamente ad appannaggio dei sistemi operativi. Nell’articolo si spiega sinteticamente che ad SQL Server la piattaforma Windows Server stava “stretta”, era necessario gestire “in prima persona” determinate task – come la gestione della memoria. Ed è grazie all’OS Layer che SQL Server è stato in grado di gestire ad esempio la memoria in Drawbridge, osserva l’editorialista. Il passo successivo è stato quello di far convergere l’SQL OS Layer e Drawbridge nell’SQL Platform Abstraction Layer – grazie al quale SQL Server è in grado di funzionare sia su Windows che Linux.

Per quanto riguarda le prossime release…

Anche se SQL Server Linux raggiungerà la disponibilità generale entro la fine dell’anno, alcune compagnie hanno già avuto l’occasione di testarlo in produzione constatando, afferma l’articolo, prestazioni allineate alla controparte Windows (logicamente a parità di hardware).

Interessante infine il commento di Kumar circa la finestra di rilascio della prossima major release (SQL Server 2018): sebbene occorra innovare costantemente le proprie soluzioni per restare altamente competitivi nel settore, non tutti i clienti Microsoft gradiscono aggiornare frequentemente i propri sistemi mission critical – procedura alquanto delicata. Questo significa che SQL Server 2018 uscirà più tardi del previsto? Il giornalista di TechCrunch non ne è molto sicuro.

Fonte: 1

 

 

L’anno dell’infrastruttura iperconvergente

Motivi per cui i clienti ricorrono in massa all’infrastruttura iperconvergente:

L’avvento dell’infrastruttura iperconvergente (HCI) ha trasformato drasticamente i modelli di distribuzione rispetto alle operation IT in sili dell’ultimo decennio, rivoluzionando il modo in cui le aziende gestiscono storage, server e rete. Il trend di convergenza non mostra alcun segnale di rallentamento: secondo IDC, nel primo trimestre del 2017 l’aumento delle vendite di sistemi iperconvergenti si è attestato al 64,7% su base annua.

Possiamo quindi definire il 2017 come l’anno dell’HCI? Ecco cosa pensano i nostri esperti VMware:

L’aspetto più interessante è che non esiste un unico motivo specifico per cui le aziende si stanno indirizzando verso l’HCI. Si tratta di una soluzione che risolve numerose problematiche e che spesso garantisce vantaggi inaspettati per i clienti.

L’ufficio delle imposte della Catalogna, ad esempio, doveva affrontare molte sfide contemporaneamente. Javier Fernandez, Head of ITC, doveva gestire la migrazione dei servizi aziendali verso un data center aziendale e l’upgrade dell’infrastruttura, che si presentava in gran parte obsoleta. L’azienda doveva inoltre migliorare i propri livelli di sicurezza a causa della sensibilità dei dati che lo stesso ufficio delle imposte si ritrovava a gestire.

“I costi legati agli investimenti e alla manutenzione sono diminuiti drasticamente grazie alla riduzione rilevante delle infrastrutture e dei sistemi di comunicazione fisici”, ha dichiarato.

Lee Dilworth, EMEA Practice Lead, Storage & Availability, vede nel desiderio dei clienti di svolgere le attività in modo differente uno dei motivi del crescente uso dell’infrastruttura iperconvergente. L’infrastruttura HCI permette ai clienti di adottare un modello Pay As You Go per la creazione dei data center, iniziando con i componenti necessari al momento ma con la possibilità di scalare in base alle esigenze future. Questa flessibilità rappresenta la differenza più eclatante rispetto ai sistemi legacy, dove tutto è basato sull’overprovisioning e su ingenti investimenti iniziali di capitale.

La semplicità nella gestione e nella distribuzione, unita alla maggiore visibilità e alla disponibilità di un punto di gestione centralizzato, rende le infrastrutture iperconvergenti particolarmente appetibili per le aziende che hanno bisogno di funzionalità di data center remoti.

Un buon esempio è rappresentato dall’ONO Academic College, il più grande college in Israele. Alla ricerca di un nuovo array di storage, ha deciso di adottare un’infrastruttura iperconvergente per ottenere maggiore flessibilità. Optando per una soluzione basata su dischi a stato solido, il college è stato in grado di conseguire prestazioni venti volte superiori, secondo il responsabile IT Oren Laufer, utilizzando vSAN per fornire un servizio di eccellenza anche ai propri siti remoti.

“Nella ricerca di un nuovo array di storage ci siamo imbattuti nel concetto di iperconvergenza, perfetto per le nostre esigenze di flessibilità”, ha affermato.

In questo modo, i tempi di backup si sono ridotti in modo significativo, ma non solo: ora è sufficiente una sola persona per gestire l’infrastruttura di storage virtuale, e il personale IT può dedicarsi allo sviluppo di nuove applicazioni anziché alle attività di routine.

In questa così come in molte altre aziende, VMware contribuisce a rendere più semplice la transizione a un’infrastruttura iperconvergente in grado di garantire un ROI in tempi rapidi. Oltre ad avere un impatto sull’IT e sulla tecnologia, l’infrastruttura iperconvergente permette al personale IT di concentrarsi su problemi aziendali più rilevanti, quali il supporto a DevOps, lo sviluppo di iniziative di digital transformation e il conseguimento degli obiettivi strategici.

Per maggiori informazioni sui vantaggi offerti al business dalle soluzioni HCI, è possibile scaricare le nostre guide:

link a «Infrastruttura iperconvergente: perché è il momento giusto»

link a «Perché le imprese adottano l’infrastruttura iperconvergente (HCI)»

“Il mio VMworld”: Leonardo partecipa al VMworld Europe 2017 e anticipa i temi del Cybertech Europe

 

Andrea Biraghi, Managing Director della Divisione Security & Information Systems di Leonardo

Il VMworld rappresenta un evento fondamentale per comprendere meglio i trend e le novità tecnologiche, e credo che anche quest’anno sarà per Leonardo e per tutti i partecipanti un’occasione per approfondire le tendenze del mercato IT.

Dall’edizione 2017 mi aspetto di conoscere nuove soluzioni per le architetture Cross-Cloud – dopo l’annuncio della partnership con Amazon Web Services – in grado di supportare la trasformazione digitale, e alcune novità per la fruizione in sicurezza di contenuti anche in mobilità.

Ho partecipato al VMworld del 2016 a Barcellona e sono rimasto molto colpito dalla enorme partecipazione: 10 mila persone provenienti da 96 Paesi, più di 2.900 partner, oltre 2.000 clienti. In particolare, il momento che ritengo più significativo è stato l’intervento di Pat Gelsinger, CEO di VMware, che, oltre a spiegare come l’era in cui viviamo sia caratterizzata dal passaggio da “traditional business” a “digital business”, ha parlato di Leonardo come di un’azienda leader nel settore della sicurezza e come un esempio di innovazione digitale, motivo per noi di grande orgoglio.

Non solo, uno degli episodi del VMworld 2016 che ricordo con più piacere è stato l’incontro a cena con Pat, durante il quale il CEO ha ripercorso alcuni frammenti di vita professionale passata, quando aveva collaborato con Steve Jobs. La leadership di VMware in questo settore è frutto, anche in questo caso, di una grande visione unita all’attenzione “maniacale” per il cliente.

 

 

Il VMworld anticiperà di pochi giorni un evento che anche quest’anno vede Leonardo protagonista in qualità di co-organizzatore e di sponsor, il Cybertech Europe 2017, uno dei più grandi appuntamenti a livello mondiale dedicato alle soluzioni di cyber security e intelligence, e VMware sarà dinuovo fra gli sponsor della manifestazione.

Nel corso dell’evento, che si svolgerà a Roma il 26 e 27 settembre presso il nuovo Centro Congressi “La Nuvola”, sono previsti incontri e conferenze nonché l’esposizione delle ultime soluzioni innovative del panorama cibernetico: un’occasione unica di dialogo internazionale per approfondire e confrontarsi su minacce informatiche, esigenze di mercato e future strategie.

Leonardo, in particolare, esporrà le tecnologie e i servizi sviluppati per garantire la sicurezza delle infrastrutture, della pubblica amministrazione, delle imprese e del singolo cittadino. Leonardo fornisce, infatti, sistemi per il mondo della Difesa e per il mercato civile, offrendo il massimo livello di supporto durante tutte le possibili fasi di intervento: dall’analisi del rischio, alla progettazione ed  implementazione dell’architettura di sicurezza, al training per la prevenzione e la gestione degli incidenti, fino al ripristino delle attività in seguito ad attacco cibernetico.

Il Cybertech Europe, come il VMworld, sarà quindi un’occasione unica di dialogo e di incontro sui temi legati all’innovazione e alla tecnologia.


Il VMworld 2017 sarà il più incredibile di sempre e noi abbiamo deciso di renderlo anche il più divertente!
Pubblica una tua foto ricordo significativa di un VMworld passato e lancia la sfida ai tuoi colleghi utilizzando l’hashtag #VMworldMemories.

 

Come crittografare una VM su Azure utilizzando Key Vault e lo standard BitLocker

Microsoft Azure mette a disposizione nuovi strumenti per la sicurezza dei nostri dati. Utilizzando pochi comandi PowerShell e concetti base su Key Vault in questo articolo vedremo come crittografare il disco di una VM con lo standard BitLocker.

Prerequisiti:

  • Azure PowerShell
  • Configurazione di un Key Vault

Per soddisfare i prerequisiti potete consultare il precedente articolo https://www.ictpower.it/guide/configurare-microsoft-azure-keyvault.htm

Configurare la VM

Creiamo una nuova VM associata al resource group NewResourceGroup, che avevamo creato nel precedente articolo, utilizzando Resource Manager come modello di deployment.

Figura 1: Scelta del deployment model

Figura 2: parametri per la creazione della nuova VM

Assicuriamoci che tutte le configurazioni siano relative al resource group corretto, cioè quello dentro il quale abbiamo abilitato Key Vault.

Al termine della creazione della VM, cliccando su Disks è possibile constatare che il disco non è crittografato.

Figura 3: Verifica che il disco creato non è crittografato

Scarichiamo dal repository GitHub ufficiale di Azure lo script denominato Azure Disk Encryption Prerequisite Setup, che si occuperà di soddisfare i prerequisiti necessari.

Utilizzando PowerShell ISE, configuriamo il contesto nel quale lo script verrà eseguito con i comandi:

Login-AzureRmAccount

Set-AzureRmContext -SubscriptionId <SubscriptionID>

Eseguiamo lo script:

Figura 4: Esecuzione dello script che verifica i prerequisiti per Azure Disk Encryption

Durante l’esecuzione, lo script chiederà alcune informazioni:

  • Il resource group da utilizzare
  • Il nome di una chiave; se non presente sarà creata automaticamente
  • L’area geografica
  • Il nome di un’applicazione: questa verrà usata per scrivere il segreto nel Key Vault; se non presente, verrà anch’essa creata automaticamente.

Figura 5: Inserimento dei parametri nello script di verifica

Crittografare la VM

Per crittografare la VM è necessario alcuni comandi PowerShell. Dichiariamo qual è il resource group da utilizzare e il nome della VM interessata utilizzando i comandi:

$resourceGroupName ‘NewResourceGroup’

$vmName ‘VMtestKV’

Dopo aver configurato il contesto corretto, possiamo utilizzare il seguente comando per eseguire l’azione di crittografia:

Set-AzureRmVMDiskEncryptionExtension -ResourceGroupName $resourceGroupName -VMName $vmName -AadClientID $aadClientID -AadClientSecret $aadClientSecret -DiskEncryptionKeyVaultUrl $diskEncryptionKeyVaultUrl -DiskEncryptionKeyVaultId $keyVaultResourceId -VolumeType All

Confermiamo per concludere l’operazione:

Figura 6: richiesta di conferma prima dell’abilitazione della crittografia del disco

Al termine dell’esecuzione, lo script ritorna il seguente output:

Figura 7: Crittografia del disco completata

Verificando nuovamente nei dettagli della macchina potremo constatare che l’operazione è avvenuta correttamente.

Figura 8: Il disco della VM risulta crittografato

Conclusioni

Azure fornisce diverse soluzioni in ambito crittografico e quella descritta in questo articolo è particolarmente utile soprattutto se il monitoraggio delle macchine viene effettuato tramite Azure Security Center. Inoltre, con pochi click è possibile applicare la stessa procedura agli storage account in merito a files e blob, rispettando lo standard BitLocker e aumentando la sicurezza delle nostre infrastrutture su cloud.

Windows Server 2008 R2: Verify WinRM 3.0 service is installed, running, and required firewall ports are open

#Note
 Verify WinRM 3.0 service is installed, running, and required firewall ports are open

#Product affected
Windows Server 2008 R2

#Issue
Management from 2012 Server Manager return the error:
Windows Server 2008 R2: Verify WinRM 3.0 service is installed, running, and required firewall ports are open

#Resolution 
To narrow down this issue, would you check if have you installed both Windows Management Framework 3.x and .NET Framework 4.x in Windows Server 2008 R2 SP1? If not, get the appropriate .msu from the following link and install them on Windows Server 2008 R2 SP1:

Windows Management Framework 3.0
http://www.microsoft.com/en-us/download/details.aspx?id=34595

Microsoft .NET Framework 4.5.1 (Offline Installer) for Windows Vista SP2, Windows 7 SP1, Windows 8, Windows Server 2008 SP2 Windows Server 2008 R2 SP1 and Windows Server 2012
http://www.microsoft.com/en-us/download/details.aspx?id=40779

After that,  run winrm qc from PowerShell or cmd prompt and check is it persists.

If the issue persists

Running winrm id to see if WinRM was all installed correctly on each server.
Use netsh advfirewall firewall show rule name="Windows Remote Management (HTTP-In)" to verify that the firewall rules had port 5985 open on our current NLA profile.
Use netstat -a -b to confirm that if there is any local process that was actually bound to port 5985.
Finally, please run winrm enumerate winrm/config/listener to confirm that if WinRM is actually listening on the port.

Oracle Cloud: nuovi investimenti in Europa, Medio Oriente ed Africa

Oracle Cloud

“Il nostro business cloud sta crescendo a velocità incredibile, è quindi il momento giusto per portare [in Oracle] una nuova generazione di talenti” ha dichiarato nella giornata di ieri Tino Scholman, vicepresidente Oracle cloud computing per l’area EMEA. A circa un mese dal verdetto dei mercati e degli azionisti, le cui aspettative sono state ampiamente ripagate dai buoni risultati della compagnia (+58% di crescita su base annuale per i servizi cloud o +2.9 miliardi rispetto all’anno precedente), Oracle rilancia la propria piattaforma cloud computing incrementando lo staff in area EMEA.

Sebbene non siano stati resi noti gli uffici di destinazione dei nuovi arrivati (potrebbero essere anche aperte nuove sedi), si è appreso che l’azienda necessita di 1000 figure professionali con almeno 2-6 anni di esperienza alle spalle per supportare varie attività legate ai servizi cloud: finance, management, staff sales, recruitment, marketing e human resources.

EU: nuovo terreno di scontro

Attualmente Oracle dispone di 51.000 impiegati negli USA e 85.000 a livello internazionale. L’area EMEA, nel consueto bilancio dell’anno fiscale, ha contribuito al 28% delle rendite totali ma ha registrato anche un calo delle vendite pari al 2% – che si sono assestate sui 10.6 miliardi di dollari. La causa principale della flessione, osserva Data Center Knowledge, è la migrazione dei clienti dalle “vecchie” soluzioni software enterprise ai servizi cloud.

Degli 82 miliardi di spesa in servizi cloud previsti per l’anno 2020 potrebbe beneficiarne anche Oracle, prevedono gli analisti: “[le soluzioni IaaS Oracle] stanno guadagnando popolarità ed il prossimo anno potrebbero diventare uno dei principali pilastri di crescita, [pur con] la crescente competitività di Amazon” sottolinea Bloomberg Intelligence nel rapporto di Luglio.

In generale la notizia di nuovi posti di lavoro ed investimenti destinati anche alla region europea è un buon segno. A discapito di Brexit, GDPR ed altre problematiche, l’interesse dei cloud provider per il Vecchio continente resta sempre elevato. Ne è ulteriore conferma la recente apertura della region londinese di Google (europe-west2) che in futuro progetta di aprirne ulteriori a Francoforte, nei Paesi Bassi ed in Finlandia (arriveranno nel corso del 2018?).

Fonti: 1, 2

 

Blog italiani (e in italiano) nel mondo IT/ICT