Archivi categoria: Storage

StarWind Virtual SAN setup datastore – pt.3

StarWind Virtual SAN setup datastore – pt.3

starwindvsandatastore01

La configurazione di StarWind Virtual SAN viene finalizzata connettendo i device creati con gli hosts ESXi del cluster StarWind.

Per garantire l’affidabilità dello storage, l’applicazione si affida ai link di rete ridondati tra gli host StarWind permettendo di mantenere un cluster storage pienamente fault tolerant solo con gli host. Questa soluzione elimina la necessità di utilizzare terze parti per mantenere l’affidabilità in caso di problemi hardware.

 

Blog serie

StarWind Virtual SAN installazione – pt.1
StarWind Virtual SAN configurazione – pt.2
StarWind Virtual SAN setup datastore – pt.3

 

Rilevare i target

Per connettere i device precedentemente creati con gli host ESXi, è necessario selezionare il primo host e posizionarsi in Configure > Storage Adapters. Selezionare gli adapter sotto la voce iSCSI Software Adapter e quindi accedere alla sezione Network Port Binding. Qui è possibile ritrovare il bind StarWind_iSCSI_VMs creato nella parte 1.

starwindvsandatastore02

Posizionarsi su Targets e verificare che sia selezionata l’opzione Dynamic Discovery. Cliccare Add per aggiungere i nodi dei Server StarWind.

starwindvsandatastore03

Inserire l’indirizzo IP del primo nodo del Server StarWind e cliccare su OK.

starwindvsandatastore04

Ora inserire l’indirizzo IP del secondo nodo del Server StarWind quindi cliccare su OK.

starwindvsandatastore05

Cliccare sul bottone Rescan per rilevare i nuovi storage device aggiunti.

starwindvsandatastore06

I device StarWind sono stati rilevati correttamente.

starwindvsandatastore07

Ripetere la stessa procedura per il secondo host ESXi.

starwindvsandatastore08

 

Creare il datastore

Selezionare il primo host e posizionarsi in Configure > Datastore. Cliccare sull’icona Create a new datastore per configurare il datastore.

starwindvsandatastore09

Selezionare VMFS come tipologia di datastore e cliccare Next.

starwindvsandatastore10

Digitare il Datastore name e selezionare il device StarWind iSCSI da utilizzare. Cliccare su Next.

starwindvsandatastore11

Specificare la versione del VMFS (es. VMFS 6) e cliccare su Next per continuare.

starwindvsandatastore12

Specificare la Partition Configuration e cliccare su Next.

starwindvsandatastore13

Controllare le impostazioni effettuate e cliccare su Finish per creare il datastore.

starwindvsandatastore14

Il datastore StarWind è stato creato correttamente.

starwindvsandatastore15

Verificare che lo storage creato sia connesso anche con il secondo host del cluster StarWind.

 

Datastore path

Poichè StarWind Virtual SAN non supporta nessuna modalità di NIC teaming per l’affidabilità o capacità di aggregazione, la modalità consigliata per l’MPIO è Round-Robin.

Effettuare un click con il tasto destro del mouse sul datastore StarWind creato e selezionare la voce Settings.

starwindvsandatastore16

Posizionarsi nella sezione Connectivity and Multipathing e selezionare il primo host. Cliccare sul bottone Set Multipathing.

starwindvsandatastore17

Nel campo Path selection policy, specificare Round Robin (VMware) e cliccare su OK.

starwindvsandatastore18

La policy è ora impostata come Round Robin.

starwindvsandatastore19

Ripetere la stessa procedura per il secondo host.

starwindvsandatastore20

Le virtual machine possono essere ora salvate nel nuovo datastore fornito da StarWind.

Lo storage locale di entrambi gli host deve essere convertito in uno storage condiviso fault tolerant replicato tra i nodi. La soluzione StarWind garantisce la sicurezza dei dati e mantiene una disponibilità continua dell’applicazione.

starwindvsandatastore21

StarWind vSAN è disponibile come 30-day trial per provare e testare l’applicazione.

StarWind offre inoltre una Free Edition, una versione supportata in autonomia o tramite la community che può essere gestita tramite le Windows PowerShell o SCVMM poichè l’accesso alla StarWind Management Console è limitato a 30 giorni dopo l’installazione.

signature

Copyright Nolabnoparty. All Rights Reserved.

StarWind Virtual SAN configurazione – pt.2

StarWind Virtual SAN configurazione – pt.2

starwindvsanconfig01

Terminata l’installazione dei Server StarWind nel cluster VMware, la fase successiva della procedura di setup prevede la configurazione dei device e della replica.

Per fornire l’HA e le performance, StarWind Virtual SAN supporta le seguenti configurazioni RAID:

  • FLAT image – RAID 0, 1, e 10 (RAID 5, 50, 6, e 60 solo per gli array all-flash)
  • LSFS –  RAID 0, 1, 10, 5, 50, 6, 60

I volumi possono essere separati in due modi possibili. L’OS e i Device immagine StarWind possono essere mantenuti su un singolo volume fisico utilizzando le partizioni (GPT è consigliato per lo storage condiviso per permettere la creazione di volumi maggiori di 2 TB) o segregare l’OS in un array RAID1 dedicato.

 

Blog serie

StarWind Virtual SAN installazione – pt.1
StarWind Virtual SAN configurazione – pt.2
StarWind Virtual SAN setup datastore – pt.3

 

Impostare le regole VMware VM/Host

Se si opera in un cluster VMware con vMotion abilitato, è consigliato mantenere i Server StarWind in host ESXi separati. Accedere a vSphere Web Client, selezionare il cluster in cui i Server StarWind sono configurati e posizionarsi nella sezione Configure > VM/Host Rules.

Cliccare su Add per creare una nuova regola ed assegnare un Name (es. Separate StarWind Servers). Dal menu a tendina selezionare la voce Separate Virtual Machines e cliccare Add.

starwindvsanconfig02

Selezionare i due Server StarWind e cliccare su OK per confermare.

starwindvsanconfig03

La regola è stata creata correttamente.

starwindvsanconfig04

 

Configurare il Device

Effettuare il login al primo Server StarWind ed accedere alla StarWind Management Console. Effettuare un click con il tasto destro del mouse sul server e selezionare la voce Connect.

starwindvsanconfig05

Dalla sezione General cliccare sull’opzione Add Device (advanced).

starwindvsanconfig06

Selezionare l’opzione Hard Disk Device e cliccare su Next.

starwindvsanconfig07

Specificare Virtual Disk come Disk Device Type e cliccare Next.

starwindvsanconfig08

Selezionare Create a New Virtual Disk e specificare Name e Size. Cliccare su Next per continuare.

starwindvsanconfig09

Selezionare Thick-provisioned come Virtual Disk ed utilizzare un Block Size di 512, raccomandato se si utilizza l’host ESXi. Cliccare su Next.

starwindvsanconfig10

Specificare Write-Back come modalità per la policy della cache Device RAM e la Size della cache stessa. Cliccare Next.

starwindvsanconfig11

A seconda dell’ambiente operativo, specificare i parametri della Flash Cache. Una size del 10% rispetto alla dimensione del Device è la dimensione raccomandata per la Flash Cache. Cliccare su Next per continuare.

starwindvsanconfig12

Specificare Create New Target come Target Attachment Method. Editare il campo Target Name se si intende customizzare il nome del Target, quindi cliccare successivamente su Next.

starwindvsanconfig13

Cliccare su Create per creare il nuovo Device.

starwindvsanconfig14

Completata l’operazione, cliccare su Close per uscire dal wizard.

starwindvsanconfig15

Il nuovo Device è stato creato correttamente.

starwindvsanconfig16

 

Configurare la Replica

Dalla StarWind Mangement Console, effettuare un click con il tasto destro del mouse sul Device creato in precedenza e selezionare l’opzione Replication Manager.

starwindvsanconfig17

Dal Replication Manager cliccare Add Replica.

starwindvsanconfig18

Selezionare la voce Synchronous “Two-Way” Replication e cliccare su Next.

starwindvsanconfig19

Inserire l’IP address del partner di replica e cliccare Next.

starwindvsanconfig20

Selezionare l’opzione Heartbeat e cliccare su Next.

starwindvsanconfig21

Selezionare Create new Partner Device e cliccare Next.

starwindvsanconfig22

Lasciare la Location di default e cliccare Next per continuare.

starwindvsanconfig23

Cliccare Change Network Settings per specificare le reti di Heartbeat e Sync.

starwindvsanconfig24

Selezionare attentamente le reti da utilizzare e cliccare su OK quando terminato.

starwindvsanconfig25

Quando le reti per i canali di Synchronization e Heartbeat sono stati impostati, cliccare su Next.

starwindvsanconfig26

Selezionare l’opzione Synchronize from existing Device e cliccare su Next.

starwindvsanconfig27

Cliccare sul bottone Create Replica per procedere con la creazione della replica.

starwindvsanconfig28

Il Device è ora configurato per essere replicato con il partner.

starwindvsanconfig29

Cliccare Close quando il processo è stato completato.

starwindvsanconfig30

Il Device viene sincronizzato con il partner.

starwindvsanconfig31

Quando la procedura di sincronizzazione è completa, cliccare su Close per uscire dal wizard.

starwindvsanconfig32

Lo storage creato è ora disponibile al sistema.

starwindvsanconfig33

Connettersi al secondo Server StarWind per verificare lo stato del Device replicato.

starwindvsanconfig34

Nella parte 3 viene illustrata la creazione del datastore vSphere utilizzando StarWind Virtual SAN.

signature

Copyright Nolabnoparty. All Rights Reserved.

StarWind Virtual SAN installazione – pt.1

StarWind Virtual SAN installazione – pt.1

starwindvsaninstall01

StarWind Virtual SAN è una soluzione storage nativa priva di hardware pienamente fault tolerant e performante pensata per i sistemi virtualizzati.

Lo storage effettua il mirror tra i nodi del cluster configurato e viene trattato come uno storage locale da entrambi gli hypervisor e le applicazioni in cluster.

 

Blog serie

StarWind Virtual SAN installazione – pt.1
StarWind Virtual SAN configurazione – pt.2
StarWind Virtual SAN setup datastore – pt.3

 

Prerequisiti

Per l’installazione di StarWind VSAN sono richiesti i seguent prerequisiti:

 

Configurazione networking

StarWind VSAN richiede una corretta configurazione di rete per la sua funzionalità. Per fornire una soluzione storage highly available, tutti i componenti dell’infrastruttura devono essere ridondati per evitare di avere un singolo punto di failure. Oltre ai server in cluster, verificare che anche tutti gli switch utilizzati siano ridondati.

starwindvsaninstall02

 

Setup VMKernel per iSCSI

Dal VMware vSphere Web Client, selezionare il primo host da configurare e posizionarsi nella sezione Configure. Selezionare la voce Virtual Switches e cliccare sull’icona Add Host Networking.

starwindvsaninstall03

Selezionare l’opzione VMKernel Network Adapter e cliccare su Next.

starwindvsaninstall04

Creare un New standard switch (raccomandato) o selezionare l’opzione Select an existing standard switch per configurare l’iSCSI VMKernel e cliccare su Next. Nell’esempio è utilizzato lo vSwitch0 esistente.

starwindvsaninstall05

Specificare una Network label (es. StarWind_iSCSI_VMs) e cliccare su Next.

starwindvsaninstall06

Specificare i VMKernel IPv4 settings con una subnet non utilizzata nel sistema.

starwindvsaninstall07

Cliccare su Finish per salvare la configurazione.

starwindvsaninstall08

La porta VMKernel è stata creata correttamente.

starwindvsaninstall09

Editare le proprietà dello vSwitch0 e verificare che i Jumbo Frames siano abilitati. Editare le proprietà del VMKernel ed impostare i NIC Settings > MTU 9000 e cliccare su OK per confermare.

starwindvsaninstall10

Se il vSwitch utilizzato è configurato con due o più NIC, iSCSI può effettuare il bind solo su un NIC attivo. Selezionare l’iSCSI VMKernel e cliccare sull’icona Edit settings.

Posizionarsi nella sezione Teaming and Failover ed abilitare l’ozione Override. Spostare il secondo NIC negli Unused adapters e cliccare su OK per confermare.

starwindvsaninstall12

 

Creazione del canale Heartbeat

Ora è necessario creare il canale Heartbeat utilizzato per evitare situazioni di split-brain, cioè quando i nodi del cluster HA non riescono a sincronizzarsi ma continuano ad accettare i comandi di scrittura dagli iniziatori

Dalla sezione Configuration selezionare Virtual Switches e cliccare sull’icona Add Host Networking. Selezionare l’opzione Virtual Machine Port Group for a Standard Switch e cliccare su Next.

starwindvsaninstall13

Creare un New standard switch (raccomandato) o selezionare l’opzione Select an existing standard switch per configurare la Port Group e cliccare su Next. Nell’esempio è utilizzato lo vSwitch0 esistente.

starwindvsaninstall14

Specificare una Network label (es. StarWind_VMs) e cliccare su Next.

starwindvsaninstall15

Cliccare su Finish per salvare la configurazione.

starwindvsaninstall16

La Port Group StarWind_VMs è stato creato correttamente.

starwindvsaninstall17

Editare le proprietà del vSwitch0 e verificare che i Jumbo Frames siano abilitati con il campo MTU impostato a 9000. Cliccare su OK per confermare.

starwindvsaninstall18

 

Creazione del canale di Synchronization

Ora creare il canale di sincronizzazione utilizzato per effettuare il mirror di ogni operazione di scrittura indirizzato allo storage HA.

Creare un nuovo vSwitch e definire solo una virtual machine Port Group per il canale di Sync. Dalla sezione Configuration selezionare la voce Virtual Switches e cliccare sull’icona Add Host Networking.

Selezionare l’opzione Virtual Machine Port Group for a Standard Switch e cliccare su Next.

starwindvsaninstall19

Creare un New standard switch (raccomandato) o selezionare l’opzione Select an existing standard switch per configurare la Port Group e cliccare su Next. Nell’esempio è utilizzato un vSwitch1 esistente.

starwindvsaninstall20

Specificare la Network label (es. StarWind_Sync_VMs) e cliccare Next.

starwindvsaninstall21

Cliccare su Finish per salvare la configurazione.

starwindvsaninstall22

La Port Group è stata creata correttamente.

starwindvsaninstall23

Editare le proprietà del vSwitch1 e verificare che i Jumbo Frames siano abilitati con il campo MTU impostato a 9000. Cliccare su OK per confermare.

starwindvsaninstall24

Ripetere la stessa procedura per il secondo nodo ESXi. Quando completato, il secondo host sarà configurato con i canali iSCSI e HeartBeat nel vSwitch0.

starwindvsaninstall25

Mentre il vSwitch1 avrà configurato il canale di Sync.

starwindvsaninstall26

 

Bind iSCSI port

Selezionare il primo host ESXi e posizionarsi in Configure > Storage Adapters. Abilitare l’iSCSI Software Adapter, selezionare l’adapter configurato e nell’area Network Port Binding cliccare sull’icona Add per effettuare il bind dell’adapter con il VMKernel Adapter.

starwindvsaninstall27

Ripetere la stessa procedura per il secondo host.

starwindvsaninstall28

 

Installare il Server StarWind

La VM in cui viene installato StarWind, deve avere i seguenti prerequisiti:

  • OS: Windows 2012 R2
  • Memory: almeno 8 Gb (più la RAM della cache che si intende utilizzare)
  • CPUs: 4 virtual sockets, 1 core per socket
  • HDD1: 100 Gb per OS
  • HDD2: dimensione che si intende utilizzare come storage condiviso

Ogni hard disk deve essere di tipo Thick Provisioned Eager Zeroed.

  • NIC1: Management
  • NIC2: iSCSI per le VM
  • NIC3: Sync per le VM

Tutti gli adattatori di rete devono essere VMXNET3.

 

Aggiungere un nuovo disco e NIC al server

Una volta che l’installazione del Server Windows è stata completata, effettuare un click con il tasto destro del mouse sulla VM e selezionare Edit Settings.

starwindvsaninstall29

Nel campo New device selezionare la voce New Hard Disk dal menu a tendina e cliccare sul bottone Add.

starwindvsaninstall30

Impostare il disk size e assicuarsi di impostare il Disk Provisioning come Thick Provisioned Eager Zeroed.

starwindvsaninstall31

Nel campo New device selezionare la voce Network dal menu a tendina e cliccare sul bottone Add due volte in modo da aggiungere i NIC richiesti.

starwindvsaninstall32

Assegnare la rete corretta ai Network adapters e cliccare su OK per salvare la configurazione. Da tenere a mente che un NIC (nell’esempio l’adattatore di rete VM Traffic-10) è utilizzato per la rete iSCSI.

starwindvsaninstall33

Ripetere la stessa procedura di installazione per il secondo Server StarWind.

 

Installare il software StartWind

Scaricare StarWind Virtual SAN per VMware vSphere ed eseguire l’installer. Cliccare su Next per continuare.

starwindvsaninstall34

Accettare l’EULA e cliccare Next.

starwindvsaninstall35

Cliccare su Next per continuare.

starwindvsaninstall36

Lasciare la locazione di default e cliccare su Next.

starwindvsaninstall37

Specificare i componenti da installare e cliccare su Next.

starwindvsaninstall38

Cliccare su Next.

starwindvsaninstall39

Abilitare l’opzione Create a desktop icon e cliccare su Next.

starwindvsaninstall40

Ci sono tre tipi di Licence keys che si possono utilizzare:

  • Evaluation – edizione di 30-giorni pienamente funzionale
  • Free – edizione pienamente funzionale con alcune limitazioni
  • Purchased

Selezionare la licenza da utilizzare e cliccare su Next.

starwindvsaninstall41

Se la chiave della licenza è già disponibile, effettuare il Browse del computer e selezionare la chiave quindi cliccare su Next.

starwindvsaninstall42

Sono visualizzati i dettagli della licenza acquistata. Cliccare su Next.

starwindvsaninstall43

Cliccare su Install per procedere con l’installazione.

starwindvsaninstall44

StarWind Virtual SAN viene installato nel sistema.

starwindvsaninstall45

Quando l’operazione viene completata correttamente, abilitare l’opzione Launch StarWind Mangement Console e cliccare su Finish per uscire dal wizard.

starwindvsaninstall46

Quando si effettua l’accesso alla Management Console per la prima volta, è necessario specificare lo Storage pool di default. Cliccare su Choose path per specificare la locazione.

starwindvsaninstall47

Selezionare il disco del server da utilizzare come storage condiviso e specificare una directory. Cliccare su Open per confermare la locazione.

starwindvsaninstall48

L’installazione del software è ora completa.

starwindvsaninstall49

Nella parte 2 è illustrata la configurazione dei devices e replication di StarWind Virtual SAN.

signature

Copyright Nolabnoparty. All Rights Reserved.

ESXi 6.5 configurare uno storage locale come RDM

ESXi 6.5 configurare uno storage locale come RDM

esxi65localhdd01

Durante la configurazione di uno storage locale come RDM in VMware ESXi 6.5, i device di storage locale non sono visibili per installare il datastore.

I controller locali che non rispettano i requisiti hardware sono spesso il motivo di problemi durante la configurazione dei datastore locali.

 

Configurare un datastore locale

Per configurare un nuovo datastore, è necessario accedere al vCenter o all’ESXi locale. Aprire il VMWare vSphere Web Client ed inserire le credenziali corrette per accedere al vCenter Server e cliccare su Login.

esxi65localhdd02

Selezionare un host ESXi e posizionarsi in Configure > Storage Devices. Gli hard disk connessi localmente sono visibili nella lista e riconosciuti dal sistema.

esxi65localhdd03

Per creare un datastore locale, posizionarsi in Configure > Datastores e cliccare l’icona Create a new datastore.

esxi65localhdd04

Selezionare l’opzione VMFS come tiplogia di datastore e cliccare su Next.

esxi65localhdd05

I dispositivi di storage locali per la configurazione del nuovo datastore non sono visibili nella lista anche se il sistema li ha correttamente riconosciuti come visto in precedenza nella sezione Storage Devices.

esxi65localhdd06

Come default, i dispositivi di storage locali sono disabilitati come potenziali candidati RDM negli host ESXi poichè la maggior parte dei controller locali esistenti non rispetta i requisiti hardware per indirizzare e comunicare correttamente con il disco RDM.

 

Abilitare l’RDM locale

Per abilitare i device di storage locali, selezionare l’ESXi da configurare e posizionarsi nella sezione Configure > Advanced System Settings e cliccare sul bottone Edit.

esxi65localhdd07

Cercare il parametro RdmFilter.HbalsShared per gestire la visibilità dei dispositivi di storage locali. Per default questo parametro è Enabled.

esxi65localhdd08

Disabilitare il parametro rimuovendo la spunta dall’opzione Enable e cliccare su OK per confermare.

esxi65localhdd09

Cliccare sull’icona Rescan all storage adapters per effettuare il discover di nuovi dispositivi di storage.

esxi65localhdd10

Cliccare su OK per procedere.

esxi65localhdd11

Effettuare un click con il tasto destro del mouse e selezionare l’opzione Power > Reboot per riavviare l’ESXi.

esxi65localhdd12

Quando viene eseguito nuovamente il wizard per la creazione del datastore, i dischi locali sono ora visualizzati nella lista.

esxi65localhdd13

Specificare la versione di VMFS da utilizzare e cliccare su Next.

esxi65localhdd14

Specificare i dettagli del datastore e cliccare Next.

esxi65localhdd15

Cliccare su Finish per salvare la configurazione e creare il nuovo datastore.

esxi65localhdd16

Il datastore locale è stato creato correttamente.

esxi65localhdd17

In caso di problemi, verificare di avere un controller compatibile per la configurazione del dispositivo locale come RDM.

signature

Copyright Nolabnoparty. All Rights Reserved.

Gestire i datastore StorMagic con VMware vCenter

Nel post precedente ho descritto come utilizzare l’integrazione di StorMagic all’interno del vCenter per gestire il deploy e la configurazione delle VSA. Come già scritto non è l’unico modo e su larga scala forse l’uso degli scripting è la scelta migliore e più naturale. Anche perché esistono comunque molti passi da realizzare prima a livello di infrastruttura di virtualizzazione (ad esempio la configurazione delle reti virtuali) che potrebbero essere automatizzate pure loro tramite scripting. Dove invece l’integrazione con il vCenter rende il meglio di sé è nella parte di creazione dei datastore: anche in questo […]

The post Gestire i datastore StorMagic con VMware vCenter appeared first on vInfrastructure Blog.

Gestire le StorMagic VSA con VMware vCenter

StorMagic SvSAN è una soluzione molto interessante di storage iperconvergente (e multi-hypervisor) specifico per l’ambiente PMI e soprattutto ROBO (Remote Office  / Branch Office) dove molto spesso un’infrastruttura di virtualizzazione a due nodi è più che sufficiente, ma uno storage esterno condiviso potrebbe costare troppo, essere sovradimensionato o per assurdo sottodimensionato (in Italia ho visto troppe volte realizzare infrastrutture a due nodi con NAS entry level). Uno degli aspetti più interessanti di questo prodotto è la semplicità di gestione (una volta che è stato configurato), ma se vogliamo anche la semplicità nella fase di installazione […]

The post Gestire le StorMagic VSA con VMware vCenter appeared first on vInfrastructure Blog.

Le mille ragioni per amare Windows Server 2016

Windows Server 2016 è sempre più una realtà, e credo sia d’obbligo un approfondimento sulle potenzialità, novità e caratteristiche che lo distinguono in questa ultima versione super innovativa.

Prima di approfondire l’argomento, un ringraziamento all’autore di questo articolo:

Nicola Ferrini 2015 500x619  

Nicola Ferrini è un Trainer con oltre 15 anni di esperienza e le sue qualifiche sono focalizzate sull’attività sistemistica, dalle reti ai sistemi integrati, dalla virtualizzazione dei server e dei desktop a quella delle applicazioni. E’ un esperto di Private e Public Cloud e collabora con le più importanti community italiane. E’ Microsoft MVP per la categoria Windows and Devices for IT e per la categoria Microsoft Azure, nonché Regional Director per tutti gli MVP italiani.

Da pochi giorni, dopo anni di sviluppo (che seguo dal lontano Aprile 2014), è stato rilasciato ufficialmente Windows Server 2016. Il nuovo sistema operativo Server, che graficamente assomiglia molto al suo predecessore, in realtà apporta delle novità tecniche davvero interessanti. Molti lo hanno definito a buon diritto il Cloud-ready OS, un sistema operativo pensato per il Cloud che ci permette di avere in azienda la possibilità di realizzare un Software Defined Datacenter.
Le novità introdotte a livello di virtualizzazione, storage e networking sono state pensate per ottimizzare le risorse hardware e per permetterci di aumentare scalabilità e performance dei sistemi.
Tra le novità introdotte in Windows Server 2012 e 2012 R2 che sono state migliorate in Windows Server 2016 possiamo citare quelle che ritengo le più interessanti:
  • Work Folders: Permettono di accedere ai file aziendali sia alle macchine in dominio che alle macchine in workgroup e permettono di sincronizzarli.
  • IPAM (IP Address Management): Permette di gestire e monitorare gli indirizzi IP rilasciati dai server DHCP e di amministrare i DNS. IPAM permette anche di poter tenere traccia degli IP rilasciati per diversi anni, a fini legali.
  • Dynamic Access Control: Permette di poter accedere alle risorse condivise in rete sfruttando la claim-based authorization, cioè usando gli attributi degli utenti, dei gruppi e dei computer, oltre al loro SID, per poter settare le permission di security.
  • Data Deduplication: Permette di conservare dati in minor spazio andando a deduplicare i chunk, cioè le singole porzioni di memorizzazione del dato sul disco. Adesso Data Deduplication supporta i file di Backup di System Center Data Protection Manager, supporta Nano Server e supporta volumi fino a 64TB e singoli file fino a 1TB.
  • Storage Spaces: Permette di aggregare più dischi fisici in storage pools e di usarli per gestire in maniera più efficiente lo storage, aumentando efficacia, alta disponibilità e scalabilità.
  • Storage Tiers: Permettono di utilizzare diversi tipi di dischi (HDD e SSD) negli Storage Spaces in modo tale da migliorare le performance. Un ottimo compromesso tra Capacity (HDD) e Performance (SSD).
  • Multiterabyte volumes: I volumi NTFS che usano MBR (master boot record) possono arrivare fino a 2TB, mentre i volumi che usano GPT (GUID partition table) possono essere grandi fino a 18 EB.
    • ReFS: Il nuovo Resilient File System introdotto in Windows Server 2012 offre la possibilità di avere integrità, disponibilità e scalabilità migliorata, oltre al controllo di errore per i file.

Tra le nuove funzionalità introdotte in Windows Server 2016 vi segnalo invece:

  • Nano Server: Una nuova modalità di installazione di Windows Server senza interfaccia grafica e senza prompt dei comandi, pensata per far girare il workload di Hyper-V e degli Scale-Out File Server.
  • Windows Server Containers e Hyper-V Containers: I Containers permettono di far girare le applicazioni in maniera isolata tra loro e rispetto al sistema operativo. Questo permette di avere maggiore flessibilità nella distribuzione delle applicazioni e maggiore sicurezza. Gli Hyper-V Containers hanno un livello di isolamento maggiore perché girano all’interno di macchine virtuali.
  • Docker: È una tecnologia studiata per la gestione dei containers che nasce nel mondo Open Source e che Microsoft ha introdotto anche in Windows Server 2016 e Windows 10.
  • Hyper-V Nested Virtualization: La nested virtualization permette di far girare macchine virtuali all’interno di macchine virtuali. La funzionalità è stata pensata per gli Hyper-V Containers.
  • Production CheckPoint: La funzionalità permette ad Hyper-V di catturare checkpoint consistenti delle macchine virtuali, non catturando più soltanto lo stato della memoria della VM ma avvisando il sistema operativo guest, tramite i provider VSS per Windows e file system freeze per Linux, in modo tale da avere storage snapshot consistenti.
  • PowerShell Direct: Questa funzionalità permette di eseguire dei comandi PowerShell direttamente dal sistema Host all’interno delle macchine virtuali, senza configurare la rete o il firewall.
  • Shielded VM: L’accesso alle macchine virtuali viene consentito solo a chi è autorizzato, crittografando di fatto la macchina virtuale e la connessione alla stessa console della VM ed impedisce agli amministratori non abilitati di potervi accedere.
  • Storage Spaces Direct: Questa funzionalità permette di usare i dischi locali delle macchine fisiche per creare un unico spazio condiviso, altamente scalabile e affidabile, in cui poterci mettere file oppure dischi delle macchine virtuali. Ciò permette di fatto di semplificare la distribuzione e la gestione dei sistemi di software-defined storage e permette l’utilizzo dei nuovi dischi SSD e NVMe. Non è più necessario infatti avere storage condiviso e i singoli server gestiscono e muovono i dati utilizzando il protocollo SMB 3.0
  • Storage Replica: Permette di replicare volumi tra server e/o cluster diversi, a livello di blocchi, sia in maniera sincrona che in maniera asincrona, per assicurare il disaster recovery. I dati possono essere così copiati tra server che si trovano in siti fisicamente distanti e i volumi possono essere crash-consistent in modo tale da non avere perdita di dati.
  • Storage Quality of Service (QoS): Con questa funzionalità è possibile creare delle policy di QoS in uno Scale-Out File Server e assegnarle ai dischi virtuali delle macchine virtuali eseguite in Hyper-V. Il QoS assicura che le performance dello storage si adattino per rispettare le policy ogni volta che il carico di lavoro sullo storage si modifica.
  • Cluster Operating System Rolling Upgrade: È ora possibile aggiornare il sistema operativo dei nodi del cluster da Windows Server 2012 R2 a Windows Server 2016 senza interrompere le funzionalità di Hyper-V o dello Scale-Out File Server.
  • Cloud Witness: Il quorum witness della funzionalità di Failover Cluster può essere ospitato in uno storage account su Microsoft Azure, permettendo di creare un cluster geografico tra due sedi diverse dell’azienda, senza necessità di avere una terza sede per l’arbitration point.
  • Microsoft Passport: Questo servizio vuole essere un valido sostituto delle password per autenticare gli utenti. Adesso è possibile autenticarsi usando Windows Hello (funzionalità biometrica) oppure usando un PIN. Interessante anche la possibilità di usare la Multi-factor Authentication.
  • Windows Defender: Per la prima volta Microsoft introduce un antimalware su un sistema operativo Server.

Windows Server 2016, come Windows Server 2012/2012R2, è stato rilasciato in due versioni: Standard e Datacenter.
Mentre in Windows Server 2012/2012R2 non c’era differenza tra le funzionalità offerte dalle due versioni del sistema operativo, in Windows Server 2016 sono state introdotte delle differenze:

versions

Come si può notare dalla tabella le differenze tra le diverse versioni riguardano alcune funzionalità Azure-inspired dello Storage e del Networking.
Altra cosa da tenere in considerazione è la modifica al Pricing and Licensing delle due versioni. Windows Server 2016 non è più licenziato per socket ma per core fisico (senza hyper-threading).
In Windows Server 2016 dovrete:
  • Licenziare tutti i core fisici del server
  • Licenziare un minimo di 8 core per ogni processore fisico
  • Licenziare un minimo di 16 core per ogni server
  • Acquistare le licenze in pacchetti da 2

È bene sottolineare che dovranno essere licenziati solo i core fisici e non quelli “virtuali” (abilitati tramite l’hyper-threading) e solo quelli realmente disponibili sulla macchina fisica.
Per quanto riguarda Nano Server, essendo una modalità di installazione e non una versione diversa del sistema operativo, dovrà essere licenziata esattamente con i parametri precedentemente indicati.
Maggiori informazioni sono disponibili nel Windows 2016 licensing datasheet pubblicato da Microsoft.
Windows Server 2016 trasforma realmente il Datacenter, aumentano la flessibilità e portando in azienda delle funzionalità da Cloud pubblico, stravolgendo i modi con cui distribuiamo e gestiamo i nostri workloads e aumentando sicurezza, performance, scalabilità e integrazione.
Per provare il nuovo sistema operativo Server potete scaricare la Windows Server 2016 Evaluation.

Virtual SAN 2-node cluster configurazione – pt2

Virtual SAN 2-node cluster configurazione – pt2

vsan2nodeclusterconfiguration01

Virtual SAN è la soluzione che VMware ha introdotto per soddisfare le esigenze delle filiali e degli uffici remoti con dei costi contenuti e convenienti.

Nonostante il limite delle 25 VM per site, la funzione più interessante introdotta con l’edizione VSAN ROBO è la possibilità di far funzionare Virtual SAN con solo 2 nodi con l’utilizzo di una Witness appliance (ESXi nested) che non richiede una licenza aggiuntiva. 

vsan2nodeclusterconfiguration02

 

Blog serie

Virtual SAN 2-node cluster installazione per ROBO – pt1
Virtual SAN 2-node cluster configurazione – pt2

 

Configurare la rete VSAN

Selezionare l’host su cui abilitare VSAN e posizionarsi nella sezione Manage > Networking > VMKernel adapters. Cliccare sull’icona Add host networking per configurare l’adapter VMKernel.

vsan2nodeclusterconfiguration03

Selezionare l’opzione VMKernel Network Adapter e cliccare Next.

vsan2nodeclusterconfiguration04

Nel campo Select an existing standard switch, cliccare Browse e selezionare lo vSwitch da usare. Cliccare OK per confermare la selezione e cliccare su Next per proseguire.

vsan2nodeclusterconfiguration05

Inserire una Network label e specificare la VLAN ID utilizzata. Abilitare il servizio Virtual SAN traffic e quindi cliccare su Next.

vsan2nodeclusterconfiguration06

Impostare un’indirizzo IPv4 statico e una Subnet mask e cliccare Next.

vsan2nodeclusterconfiguration07

Cliccare su Finish per salvare la configurazione.

vsan2nodeclusterconfiguration08

Ripetere la stessa procedura anche per l’altro host utilizzato per il setup del cluster VSAN.

vsan2nodeclusterconfiguration09

 

Configurare il cluster VSAN

Se il cluster è configurato con vSphere HA, è possibile utilizzare il Virtual SAN con il cluster vSphere HA solo se le seguenti condizioni vengono soddisfatte:

  • Tutti gli host ESXi del cluster devono essere installati con la versione 5.5 o successiva
  • Il cluster deve avere un minimo di tre host ESXi

Se sono presenti solo due host nella rete, prima di effettuare la configurazione di VSAN assicurarsi che vSphere HA sia disabilitato.

vsan2nodeclusterconfiguration10

Selezionare il cluster da configurare e posizionarsi nella sezione Manage > Settings > General. Cliccare sul bottone Configure.

vsan2nodeclusterconfiguration11

Impostare il campo Add disk to storage come Manual e scegliere l’opzione Configure two host Virtual SAN cluster. Cliccare Next per continuare.

vsan2nodeclusterconfiguration12

Se tutti gli host del cluster hanno l’adapter VMKernel configurato con il traffico VSAN abilitato, cliccare Next.

vsan2nodeclusterconfiguration13

Selezionare quali dischi devono essere utilizzati per la cache nel cluster VSAN e cliccare sull’icona Claim for cache tier.

vsan2nodeclusterconfiguration14

Selezionare quali dischi devono essere utilizzati come storage nel cluster VSAN e cliccare sull’icona Claim for capacity tier.

vsan2nodeclusterconfiguration15

Verificare i valori di Total cache and capacity disponibile nel cluster VSAN e cliccare Next per continuare.

vsan2nodeclusterconfiguration16

Selezionare il Witness host precedentemente configurato e cliccare Next.

vsan2nodeclusterconfiguration17

Selezionare i dischi dell’host Witness per la funzione di cache e storage e cliccare su Next.

vsan2nodeclusterconfiguration18

Cliccare su Finish per completare la configurazione.

vsan2nodeclusterconfiguration19

Quando la configurazione è stata completata, il Virtual SAN è impostato come ON.

vsan2nodeclusterconfiguration20

Verificare la configurazione dei Fault Domains dalla sezione Manage > Settings > Fault Domains & Stretched Cluster.

I Fault Domains permettono di mantenere una copia completa dei dati della virtual machine anche quando un rack fallisce poichè i componenti della virtual machine sono distribuiti nei Fault Domains. Nel caso di un problema nel singolo rack, la VM rimane accessibile.

vsan2nodeclusterconfiguration21

Nella sezione Monitor > Virtual SAN > Health è possibile verificare lo stato funzionale del VSAN.

vsan2nodeclusterconfiguration22

Il nuovo storage vsanDatastore compare ora nell’area storage.

vsan2nodeclusterconfiguration23

Quando la configurazione è stata completata, vSphere HA può essere nuovamente abilitato.

vsan2nodeclusterconfiguration24

L’installazione della soluzione VSAN è piuttosto semplice e molto conveniente in termini di costi. Non c’è più la necessità di acquistare costosi SAN e onerosi Contratti di Assistenza dai produttori di dispositivi storage.

 signature

Copyright Nolabnoparty. All Rights Reserved.

Virtual SAN 2-node cluster installazione per ROBO – pt1

Virtual SAN 2-node cluster installazione per ROBO – pt1

vsan2nodeclustersetup01

Virtual SAN for ROBO è una soluzione indicata per i piccoli Uffici Remoti e Filiali (ROBO) per poter beneficiare dei servizi forniti da un’implementazione tradizionale Virtual SAN senza il requisito minimo dei tre nodi.

Versione introdotta con VSAN 6.1, è stata notevolmente migliorata nella versione 6.2 in termini di QoS, prestazioni del servizio e delle metriche.

 

Blog serie

Virtual SAN 2-node cluster installazione per ROBO – pt1
Virtual SAN 2-node cluster configurazione – pt2

 

Edizione Virtual SAN for ROBO

Questa edizione implementata sul concetto dei Fault Domains, è basata su tre nodi per le zone di failure:

vsan2nodeclustersetup02

Utilizzando la Witness VA si elimina il requisito di un terzo nodo fisico permettendo una diminuzione dei costi di implementazione per l’ufficio remoto (ROBO).

 

Witness Virtual Appliance

La Witness VA è richiesta per fornire il cluster quorum service durante gli eventi di failure, per salvare gli oggetti witness e le informazioni metadata del cluster.

 

Limitazioni della Witness VA

  • Una Witness VA è richiesta per il cluster Virtual SAN ROBO.
  • L’appliance non contribuisce a fornire risorse di calcolo o risorse di storage al cluster e non è in grado di funzionare come host per le virtual machine.
  • La witness VA è supportata e disponibile solo per i Virtual SAN Stretched Clusters e l’edizione Virtual SAN ROBO.
  • L’edizione Virtual SAN ROBO è in grado di tollerare solamente una singola failure nel cluster (FTT=1) dovuto al supporto di solo tre fault domain.

 

Installazione della Witness VA

Accedere a VMware vSphere Web Client ed effettuare un click con il tasto destro sul cluster configurato. Selezionare l’opzione Deploy OVF Template ed avviare il wizard.

vsan2nodeclustersetup03

Cliccare Browse e selezionare il file .ova della Witness appliance scaricata dal sito VMware e cliccare su Next.

vsan2nodeclustersetup04

Cliccare Next per continuare.

vsan2nodeclustersetup05

Accettare l’EULA e cliccare Next.

vsan2nodeclustersetup06

Assegnare il Name all’appliance e selezionare la cartella desiderata. Cliccare Next per continuare.

vsan2nodeclustersetup07

A seconda della dimensione della propria rete, selezionare la Configuration che meglio rispecchia il proprio ambiente.

vsan2nodeclustersetup08

Selezionare il formato disco e la locazione dove salvare la VA e cliccare Next. Non è richiesto l’utilizzo di dispositivi flash per l’appliance.

vsan2nodeclustersetup09

Gli IP statici dovrebbero essere utilizzati nella configurazione network della VA. Cliccare Next.

vsan2nodeclustersetup10

Impostare la Password per l’account di root e cliccare Next.

vsan2nodeclustersetup11

Cliccare Finish per avviare l’installazione.

vsan2nodeclustersetup12

 

Configurare la Management Network

Accendere la VA ed accedere alla console.

vsan2nodeclustersetup13

Inserire le credenziali di root per accedere alla configurazione.

vsan2nodeclustersetup14

Assegnare un IP statico alla Management Network ed attivare la configurazione.

vsan2nodeclustersetup15

 

Aggiungere la Witness VA al vCenter Server

Una volta che la Witness virtual appliance è stata installata e configurata con un IP statico, deve essere aggiunto al vCenter come un host ESXi. Effettuare un click con il tasto destro del mouse sul Datacenter e selezionare l’opzione Add Host.

vsan2nodeclustersetup16

Digitare l’Host name or IP address e cliccare Next.

vsan2nodeclustersetup17

Inserire le credenziali per connettersi all’host e cliccare Next.

vsan2nodeclustersetup18

Cliccare Yes per accettare il certificato.

vsan2nodeclustersetup19

Cliccare su Next per continuare.

vsan2nodeclustersetup20

La Witness appliance incorpora una propria licenza in modo da non consumare le licenze già installate nel sistema.

vsan2nodeclustersetup21

Se si ha l’esigenza di restringere l’accesso all’appliance, abilitare il Lockdown mode. Lasciare il valore di default Disabled e cliccare Next.

vsan2nodeclustersetup22

Specificare la VM location e cliccare Next.

vsan2nodeclustersetup23

Cliccare Finish per salvare la configurazione.

vsan2nodeclustersetup24

La Witness VA è stata aggiunta correttamente al Datacenter. Da notare che la Witness appliance è in colore blu per distinguerla dagli altri host ESXi del cluster. Inoltre è presente nell’host un avviso di warning No datastores have been configured poichè l’host ESXi nested non ha nessun VMFS datastore configurato. Questo messaggio può essere tranquillamente ignorato.

vsan2nodeclustersetup25

 

Configurare la rete VSAN

Dal VMware vSphere Web Client selezionare la Witness VA ed accedere alla sezione Manage > Networking > Virtual switches. Per default l’appliance presenta due virtual standard switch con degli uplink già configurati:

  • vSwitch0 – utilizzato per la management network
  • witnessSwitch – utilizzato per la rete VSAN

vsan2nodeclustersetup26

Poichè la rete VSAN lato witness deve comunicare con la rete VSAN, editare il witnessSwitch ed aggiungere la VLAN della rete VSAN.

vsan2nodeclustersetup27

Impostare la corretta VLAN ID utilizzata per la comunicazione VSAN ecliccare OK.

vsan2nodeclustersetup28

Nella sezione VMKernel adapters, evidenzare il port group witnessPg e cliccare sull’icona penna per editare i parametri. Non rimuovere questo port group perchè è configurato in modo che i MAC address degli adattatori di rete delle virtual machine coincidano con i MAC address dei vmnic dell’host nested ESXi.

vsan2nodeclustersetup29

Nelle Port properties è presente un VMKernel port già configurato con l’opzione Virtual SAN traffic abilitata.

vsan2nodeclustersetup30

Nella sezione IPv4 settings è possibile specificare l’indirizzo IP statico. Cliccare OK per salvare la configurazione.

vsan2nodeclustersetup31

Nella parte 2 viene completata la configurazione con la creazione dei Fault Domain e con la configurazione del cluster VSAN.

signature

Copyright Nolabnoparty. All Rights Reserved.

#TFDx at VMworld EU 2016 – Nimble Storage

Durante il recente Tech Field Day Extra at VMworld EU 2016 (dove sono stato invitato come delegato) ho avuto modo di (re-)incontrare Nimble Storage. Rich Fenton (UK&I Systems Engineering Manager) e Nick Dyer (Senior Systems Engineer) ci hanno fornito un’ottima overview della loro tecnologia, incluse alcune interessanti novità sui prodotti. Come ho già descritto in un post precedente, Nimble Storage ha iniziato con la piattaforma Adaptive Flash, introdutta nel lontano agosto 2010, e costituita da due parti fornamentali: NimbleOS (aka CASL), è il loro sistema operativo (più che altro il loro file system) flash-optimized InfoSight, […]

The post #TFDx at VMworld EU 2016 – Nimble Storage appeared first on vInfrastructure Blog.