NVIDIA MIG + VMware ESXI 7u2= an AI (r)EVOLUTION?

INTRODUZIONE

Questo articolo ha lo scopo di andare ad analizzare la tecnologia MIG (multi instance GPU) che NVIDIA ha presentato qualche mese fa e che finalmente è disponibile sugli hypervisor della famiglia Vmware con il rilascio dell’update 2 di ESXI 7 avvenuto la scorsa settimana.

La tecnologia MIG rappresenta una vera  “milestone” tecnologica per tutti i clienti che hanno carichi di lavoro AI/Simulation/Machine Learning e permette un grosso salto in avanti un po’ come successo con la tecnologia di virtualizzazione delle schede grafiche vGPU nel lontano 2015 (https://www.nvidia.com/it-it/data-center/virtualization/)

N.B. La tecnologia vGPU è compatibile con tutte le schede grafiche della famiglia TESLA di NVIDIA, la tecnologia MIG solo con la nuova scheda A100

Sino ad oggi le aziende che hanno utilizzato per gli scopi sopra indicati le schede grafiche della famiglia TESLA, hanno adottato la tecnologia vGPU, che permette l’allocazione statica della memoria video per ogni VM sulla GPU fisica, condividendo invece il processore grafico tramite il time slicing, ovvero la schedulazione temporale delle potenza di calcolo della GPU che viene assegnata a “turno” e con un preciso intervallo di tempo alle varie VM.

E’ possibile adottare due tipi di schedulazione con la tecnologia vGPU:

  • Best effort
  • Equal share

Best effort è adatta ai seguenti carichi di lavoro:

  • CAD
  • CAM
  • CAE
  • OFFICE

Fixed Share per quelli che stiamo analizzando oggi

  • AI
  • SIMULATION
  • Machine Learning

C’è tuttavia un limite intrinseco in questo tipo di tecnologia: pur partizionando la memoria grafica non è possibile isolare le restanti componenti che fanno parte della scheda NVIDIA ovvero, stream processors, cache, cross bars etc… che vengono utilizzati in modo condiviso e gestiti dallo schedulatore.
In questo modo tutta una serie di operazioni vengono gestite in modo seriale e non parallelo, con una perdita di performance.

LA SOLUZIONE: NVIDIA MIG

NVIDIA ha sviluppato una tecnologia in grado di  effettuare una vera separazione della componente GPU, rendendo le singole vm isolate l’una dall’altra in tutte le loro parti.
Vengono isolati componenti come la cache L2, i memory controller, gli address bus, i control bars etc..

Questo livello di separazione dell’hardware viene interamente gestito dal software, garantendo livelli di performance impensabili sino ad ora

Assieme al nome della tecnologia viene introdotto anche un nuovo termine che va ad identificarne il profilo di performance: “INSTANCE

Una instance è una sorta di partizionemento della scheda grafica che definisce un set di risorse chiamate “streaming multiprocessor” (SMs).

Negli SMs sono compresi i cuda cores, la memoria video etc..
Maggiore è il numero di SMs, maggiore è la potenza di calcolo.
La nostra GPU NVIDIA TESLA diventerà pertanto un insieme di SMs che saranno suddivisi in INSTANCE.

A seconda del numero di macchine virtuali che voglio eseguire su una singola GPU (da un minimo di 1 a un massimo di 7) il numero di SMs potrà variare da 14SMs a 98SMs.

Al variare del profilo grafico e degli SMs, corrisponde un differente quantitativo di memoria video, da un minimo 5gb a un massimo di 40gb

Cosa deduco da tutto ciò?
Che la tecnologia MIG crea un vero parallelismo a livello di risorse di calcolo assegnate alle macchine virtuali.
Dove la tecnologia vGPU rappresenta l’optimum a livello di performance in ambito Virtual Workstation e Virtual PC/Office, la tecnologia MIG è il corrispettivo perfetto per i carichi di lavoro AI/Simulation/Machine Learning, garantendo all’aumentare del numero di VM una performance costante nel tempo.

TEST PRATICI

Abbiamo testato la tecnologia MIG con due differenti relase di ESXI:

  • ESXI-7u1 -> non è supportata l’assegnazione della scheda con tecnologia MIG, ma solo in passtrought su una singola vm, è poi necessario creare manualmente le GPU instance e compute instance.
    Se provo ad accendere una vm con la GPU assegnata in MIG mode, la scheda grafica va in fault e sono costretto a riavviare il server
  • ESXI-7u2 -> su questa versione MIG è pienamente supportato con i requisiti tecnici:
    • Sistema operativo Linux (no windows)
    • Accelerazione GPU a livello calcolo (nessuna accelerazione nella grafica 3d)
    • Licenza vCOMPUTE NVIDIA

Una volta abilitata a livello hypervisor, è possibile aggiungere la risorsa MIG alla macchina virtuale direttamente dall’hypervisor

In questa relase di ESXI7 (u2), l’hypervisor si occupa autonomamente di create le GPU instance e COMPUTE instance, permettendo l’aggiunta della risorsa hw dal Vcenter senza interventi manuali a livello di shell da parte dell’operatore (i test condotti sulla 7u1 imponevano di creare le risorse in modo separato da shell sull’hypervisor)

Una volta installato il sistema operativo sulla VM e i relativi drivers siamo stati in grado di far lavorare correttamente la scheda grafica con la nuova versione di NVIDIA CUDA 11.2.

NEXT STEP E CONSIDERAZIONI FINALI

Ad oggi stiamo testando le performance delle singole istanze MIG con training AI e appena possibile pubblicheremo i primi risultati.

Le considerazioni vanno a quei clienti che fino ad oggi hanno utilizzato la tecnologia vGPU abbinata alle schede grafiche V100/V100S o DGX.

Quale può essere il vero valore aggiunto di questa soluzione?

Indubbiamente questa tecnologia è legata a doppio filo con la nuova generazione di schede della famiglia AMPERE (https://www.nvidia.com/it-it/data-center/nvidia-ampere-gpu-architecture ) e garantisce un notevole aumento di performance grazie all’hardware di nuova generazione (compatibile con lo standard PCIX4) e  a un concetto di assegnazione delle risorse innovativo rispetto al passato.
Oltre a questo la stabilità di prestazioni e la garanzia che esse rimangano costanti al variare delle VM o dei carichi di lavoro rappresentano un qualcosa che fino ad oggi non era possibile nemmeno immaginare.

IMAGE SOURCES

https://docs.nvidia.com/grid/latest/grid-vgpu-user-guide/index.html
https://forums.developer.nvidia.com/t/vgpu-management-and-qos-schduler-api-pascal-preemption-api/53109/3
https://docs.nvidia.com/datacenter/tesla/mig-user-guide/index.html

Remove Windows 10 Appx for SYSPREP – VDI / Windows Virtual Desktop (also multisession) / Horizon cloud /physical

Una delle problematiche più noiose nate con l’introduzione di Windows 10 (ma a dire la verità gia da Windows 8/8.1) è quella del funzionamento o malfunzionamento del sysprep, a causa delle AppX integrate nel sistema operativo.

Tutti quanti almeno una volta ci siamo scontrati con questo problema, e la moltitudine di articoli volti alla sua risoluzione ne sono la dimostrazione.
Ho voluto scrivere un piccolo articolo perchè molte volte le informazioni che si trovano sono parziali o relative a vecchie versioni di Windows 10.

Una nota prima di iniziare riguarda il canale di distribuzione LTSC ( https://docs.microsoft.com/it-it/windows/whats-new/ltsc/) che personalmente consiglio sempre in caso di infrastrutture VDI o personal cloud.
Su tale versione non è presente lo store con tutte le Appx native (e perciò risolve alla base tutti i problemi di sysprep).
Purtroppo in molte situazioni non è possibile adottare questa release, ma si è costretti a scegliere un canale di distribuzione standard (vedi vm su Azure)

PRIMA DI INIZIARE
Microsoft raccomanda sempre di fare boot in audit mode ( https://docs.microsoft.com/en-us/windows-hardware/manufacture/desktop/boot-windows-to-audit-mode-or-oobe) per tutti i login necessari alla configurazione del sistema operativo, ma ciò non è sempre possibile; molte volte è necessario joinare la macchina a dominio, fare configurazioni specifiche, spesso opeate da utenti diversi


Ogni login “sporca” il sistema operativo, effettuando le dovute configurazioni dell’ambiente per preparalo a quell’utente.
Parte di queste configurazioni comprende anche l’installazione delle Appx.

STEP 1 – disabilitare quanto non server
Appena fatto login con il vostro utente potete lanciare una serie di comandi da prompt che eviteranno che il SO operi in backgroud con una serie di download :

Disabilito il download automatico delle Appx dallo store
reg add HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Microsoft\WindowsStore /v AutoDownload /t REG_DWORD /d 00000002 /f

Disabilito la “Microsoft consumer experience”
reg add HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Microsoft\Windows\CloudContent /v DisableWindowsConsumerFeatures /t REG_DWORD /d 00000001 /f

Disabilito l’installazione automatizzata delle “suggested apps”
reg add HKEY_CURRENT_USER\SOFTWARE\Microsoft\Windows\CurrentVersion\ContentDeliveryManager /v SilentInstalledAppsEnabled /t REG_DWORD /d 00000000 /f

STEP 2 – PULIZIA DI BASE
Da powershell con diritti amministrativi lancio i seguenti comandi

Import-Module Appx
Import-Module Dism

Verifico i package installati
Get-AppxPackage -AllUsers | ft Name, PackageFullName -AutoSize

Rimuovo i package per tutti gli utenti (anche se alcuni di questi vi restituiranno degli errori non preoccupatevi)
Get-AppxPackage -AllUsers | Remove-Appxpackage
Get-AppXProvisionedPackage -online | Remove-AppxProvisionedPackage –online

Fatto questo è consigliabile un riavvio e un “rilancio” degli ultimi due comandi.

STEP 3 – PULIZIA “USER BASED”
A questo punto la pulizia potrebbe sembrare completa in realtà ci sono una serie di Appx che sono state installate con una logica “per user” e nel caso in cui più utenti abbiamo fatto accesso per installare e configurare gli applicativi ci troveremo il sistema operativo con installato un sacco di Appx.

NB: A questo punto il peggior errore che potete commettere in questa fase, per rimuovere le appx è eliminare gli altri utenti che hanno fatto login da computer manager o dalla gestione utenti di windows.

Pertanto è necessario verificare quali package ogni utente ha (involontariamente) installato sulla propria macchina.
Il prossimo comando vi restituirà la lista di tutte le Appx installate.

Import-Module Appx
Import-Module Dism

Get-AppxPackage -AllUser | Where PublisherId -eq 8wekyb3d8bbwe | Format-List -Property PackageFullName,PackageUserInformation

A questo punto inizia la fase noiosa, come potete vedere dallo screenshot di esempio ci sono una serie di Appx in stato di staging o installate, quelle che interessano a noi sono quest’ ultime.
E’ necessario prendersi nota del nome di ogni package (notepad++) e agganciarlo al seguente comando Powershell per disinstallarla correttamente.


Get-AppxPackage -AllUser | Where PackageFullName -eq NOMEAPPX | Remove-AppxPackage -AllUsers


NB: Non salvatevi i comandi per utilizzarli tra differenti release di Windows 10, in quanto ognuna ha delle Appx con una nomenclatura differente.

Ecco alcuni esempi pratici:

Get-AppxPackage -AllUser | Where PackageFullName -eq Microsoft.Windows.NarratorQuickStart_10.0.18362.449_neutral_neutral_8wekyb3d8bbwe | Remove-AppxPackage -AllUsers

Get-AppxPackage -AllUser | Where PackageFullName -eq Microsoft.Wallet_2.4.18324.0_x64__8wekyb3d8bbwe | Remove-AppxPackage -AllUsers


Get-AppxPackage -AllUser | Where PackageFullName -eq Microsoft.MixedReality.Portal_2000.20081.1312.0_x64__8wekyb3d8bbwe | Remove-AppxPackage -AllUsers

Anche qui ci potrebbero essere alcune appx di sistema che non potete disinstallare, ignoratele e procedete con le rimanenti.
Fatto questo possiamo lanciare il nostro sysprep (o procedere con la cattura dell’immagine se utilizzare Windows Virtual Desktop / Horizon Cloud).

NOTA FINALE
Se il sysprep dovesse fallire ulteriormente non c’è problema è sufficiente navigare nella cartella dei log

Dove troverete l’indicazione del package che fallisce. A questo punto rilanciate da potershell il comando che abbiamo utilizzato sopra con l’indicazione di quel pacchetto:

Import-Module Appx
Import-Module Dism

Get-AppxPackage -AllUser | Where PackageFullName -eq NOMEAPPX | Remove-AppxPackage -AllUsers

VDI for AUTOVIE VENETE

Un altro bel caso di successo, l’ennesimo che va a dimostrare come il 2020 è l’anno della VDI, è quello realizzato per Autovie Venete, dove un cluster di server #DELL #R740 ready nodes con tecnologia #VSAN ha permesso la configurazione di una soluzione iperconvergente in grado di ospitare oltre 400 desktop virtuali.

L’accelerazione grafica con tecnologia NVIDIA vGPU e schede grafiche Tesla garantisce performance eccellenti per il protocollo VMware Blast sia in LAN che in WAN.

Ciò ha inoltre garantito la possibilità di far lavorare in modo agile i dipendenti con una corretta alternanza ufficio/smart working nel rispetto delle direttive nazionali in merito alla pandemia COVID-19

Leggete la white paper completa:
https://www.beantech.it/clienti/vdi-per-autovie-venete/

VDI for SCAVOLINI – case history

E’ con piacere che vado a condividere il link a dal quale è possibile effettuare il download del white paper di uno dei più progetti VDI più importanti che abbiamo realizzato:

https://www.beantech.it/clienti/vdi-per-scavolini/

Uno dei vantaggi del poter lavorare con aziende importanti è quello di realizzare progetti estermamente complessi che coinvolgano a 360° tutto l’ecosistema IT aziendale.
Per SCAVOLINI abbiamo riunito in un unico progetto tutto questo: assieme al loro team IT abbiamo gestito la migrazione da una configurazione di pc desktop e workstation tradizionali verso una soluzione VDI basata su tecnologie: #DELL #VSAN, #vmwarehorizon,#vmwareAppvolumes,#NVIDIA,#VGPU

Aggregare tanti attori all’interno di un’unico progetto, al di la della complessità, ha consentito di realizzare un qualcosa di estremamente completo, integrato nei processi aziendali e che tramite poche console di management permette la gestione di centinaia di virtual desktop e molte decine di applicazioni.

L’utilizzo di un protocollo di remotizzazione come VMware Blast in accoppiata all’accelerazione grafica Nvidia vGPU ha permesso di erogare Virtual Desktop con configurazioni dual-monitor e risoluzione 2k.

La pandemia di COVID-19 ha costretto nei periodi più gravi allo smart working e utilizzando la soluzione #AccessGateway di VMware abbiamo potuto dare l’accesso alle postazioni dall’esterno del perimetro aziendale in tutta sicurezza

LA VDI AI TEMPI DEL CORONAVIRUS

nvidia VS COVID

Il titolo di questo articolo vuole risultare divertente in un periodo che di divertente non ha molto. L’obiettivo che si prefigge è quello di dare uno spunto alternativo a una delle tematiche di maggior risalto che sta toccando la vita di tutti noi: l’emergenza sanitaria.

La scelta di scriverlo in italiano poggia sul fatto che il nostro paese, rispetto a molte altre nazioni europee, è, attualmente, molto toccato dall’emergenza COVID-19. Non affronterò le tematiche del virus e tutte le sue ripercussioni in questa sede, anche perché giornali e articoli abbondano di notizie a riguardo e ci danno ogni genere di informazione necessaria. Con queste righe vorrei poter dare uno spunto ai lettori di come la scelta di una data tecnologia possa semplificare, facilitare e permettere di migliorare il proprio lavoro in tempi così difficili.

Desidero porre l’attenzione su una frase, riportata oggi da un collega, che mi ha fatto sorridere: ” questa situazione ha sdoganato l’abilitazione universale dello smart working”. É necessario rivedere questo momento storico anche per ciò che di buono ha da offrirci.  Queste parole riassumono il desiderio delle aziende di non fermarsi, di rimanere produttive che, purtroppo, cozzano con le difficoltà dettate da strumenti tecnologici non adatti a far fronte a una simile emergenza.

Personalmente anch’io sono impegnato in questi giorni “all’abilitazione universale dello smart working”  e anche in molti altri task ma, essendo il responsabile per le soluzioni VDI (virtual desktop infrastructure) della mia azienda, mi sto trovando estremamente facilitato in questo compito.
“La dematerializzazione” del proprio posto di lavoro, che viene spostato all’interno del Datacenter, è una tecnologia  che rende il lavoro “flessibile” o smart già quotidianamente all’interno delle mura aziendali.

Horizon-7-Architecture
La VDI garantisce al vostro utente/ dipendente/ collega la possibilità di accedere alla propria postazione di lavoro, ovunque si trovi, dentro o fuori l’azienda. È sufficiente avere una connessione LAN o WAN per accedere al proprio desktop che verrà fruito in pagina web o tramite il client VMware Horizon, come una sorta di youtube interattivo (come mi piace definirlo), rendendo equivalente qualsiasi mezzo si utilizzi.

N.B. Il software di connessione, tra l’altro, è facilmente installabile su qualsiasi tipo di dispositivo, personale o aziendale, desktop, portatile, smartphone, tablet…etc) facilitando enormemente il lavoro del vostro reparto IT.

Per i miei clienti  in questi giorni abilitare i propri utenti al lavoro da remoto significa andare nella pagina web di gestione di VMware Horizon e digitare il nome dell’utente abilitato al lavoro smart. STOP.

Ciò che un reparto IT tradizionale (quindi in una azienda priva una soluzione VDI) deve fare in una simile occasione è nell’ordine:

  1. Dotarsi di un notebook per ogni utente;
  2. Installare gli applicativi necessari al lavoro o predisporre una sessione terminal server se presente;
  3. Configurare e abilitare una VPN per ogni utente;
  4. Testare la configurazione;
  5. Accertarsi che l’utente abbia accesso ai propri file;
  6. Risolvere tutti i problemi di accesso che caratterizzeranno sicuramente i vari utenti non abituati a questo modo di lavorare.

Notate qualche differenza?

Ecco in questi momenti, penso come il mio lavoro sia molto più “semplice” rispetto ad altri colleghi, ma non perché “faccia” delle cose meno elaborate, anzi, i miei progetti sono un intreccio di tecnologie (ESXI, VSAN, vGPU, VDI, AppV,..) estremamente complesse da implementare, ma una volta messe in pista garantiscono vantaggi ineguagliabili rispetto a una configurazione tradizionale.

Vorrei chiudere con una  riflessione, che mi è stata fatta da un prospect, il quale, dopo aver preso visione del preventivo e dei costi associati per implementare un progetto VDI per la virtualizzazione delle sue workstation, ha esclamato: “ma come?? io una workstation la pago 1000€ e ci faccio tutto quello che mi serve. La vostra soluzione mi sembra troppo costosa”
Penso che in questi giorni di emergenza da COVID-19  il reparto IT di questa azienda stia cercando di fare i salti mortali per far lavorare da remoto le sue decine di progettisti… o li stia lasciando a casa direttamente… mentre avrebbe potuto, in un paio di ore di lavoro, configurare il tutto..

…. ma tanto “con 1000€ io ci compro una workstation“…

Incuriositi? Vi lascio alcuni link per maggiori informazioni:
https://www.beantech.it/tecnologie/virtualizzazione-desktop/
https://www.nvidia.com/it-it/data-center/vmware/

 

 

NUOVAMACUT LIVE 019

Last week we took part to the biggest Italian event about Dassault Solidworks, managed by Dassault’s official reseller Nuovamacut ( https://www.nuovamacut.it/ )

A full day at Bologna Fiere where Beantech presented it’s VIRTUAL WORKSTATION SOLUTION based on NVIDIA VGPU, DELLEMC and VMWARE tecnology.

IMG-20181030-WA0010
We’ve prepared a special boot with 3 seats where customers have tested the powerful of a virtualized Solidworks 2019 accelerated by Nvidia VGPU technology.
The feedbacks were great and a special mention to Oscar Simoncelli (part of the Nuovamacut team) that help us to demonstrate the full potentiality of Solidworks Visualize, a special tool that create real time renders of CAD projects.
This tool can move the workload from the CPU to the GPU and speed up the time required to generate a photo-realistic model.
Absolutely impressive!!

IMG-20181030-WA0005

In the afternoon I’ve presented our tecnical proposal  in 3 different conferencies, with the collaboration of Andrea Scandiuzzi, IT Architect of Inglass ( https://www.inglass.it/ita/ ) an italian company that implemented our solution and virtualized over 250 designers seats in 4 different datacenters around the world (Italy, China, USA, India)

IMG-20181030-WA0031

Inglass’s experience with the VDI is great and represents for us a great CASE HYSTORY.

IMG-20181030-WA0016.jpg

Our presentation impressed the partecipants and after the session move to our boot test with their hands the solution.

IMG_20181029_174545.jpg

Let’s see at next event https://www.delltechnologies.com/it-it/events/forum/index.htm

REAL PRE-PRODUCTION VMOTION OF VGPU ENABLED VMS (PART 1)

(This article is splitted in 3 parts)

Today we’re going to talk about state of art of a VDI infrastructure, where all the most advanced technology work together to accomplish the requirements made by exigent customers.

As VMWARE ENTERPRISE SOLUTION PROVIDERS and NVIDIA PREFERRED PARTERS (and myself member of NVIDIA NGCA 😊 ) our proposal is based on hyperconverged DELLEMC infrastructure with Vmware ESXI, VSAN storage and NVIDIA GRID technology.

In this particular case the requirements are the following:

  • Move over 400 pcs/workstations into a VDI solution
  • Grant good 3d performance to virtualized clients
  • Grant same performance of a good workstation
  • Grant same software and environment performance of actual infrastructure
  • The infrastructure must be scalable horizontally, and when we add compute nodes also storage space must grow
  • Guarantee hardware and software security policy and the ability of personalize single VDI seats
  • Simplify the deploy of client and problems troubleshooting, reducing from hours till few minutes

Traditionally VDI was dedicated to office seats, not to medium/hard workload, but in the last 2-3 years NVIDIA changed the game with the introduction of the GRID technology (https://www.nvidia.com/en-us/design-visualization/solutions/virtualization ) that grant an unimaginable performance boost to application.

DELLEMC with R740 server generation had introduced the Intel Xeon Gold processors with a lot of cores and high frequencies.

Our solution is based on the following hw/sw configuration
(first based on 3 server nodes cluster)

1

  • DELLEMC R740 – XEON gold processors / SSD WRITE INTESIVE DISKS (VSAN storage CACHE) /  SSD READ INTENSIVE DISKS (VSAN storage CAPACITY) / NVIDIA TESLA  / 25Gbit networking
  • VMWARE ESXI 6.7
  • Horizon view 7.5 with Appvolumes
  • Nvidia Grid Vgpu 6.2

2

3

4.png

This hw/sw combination can grant fantastic performance in a virtualized environment.

But why we choose the latest version of any software? Because Nvidia and Vmware work closer to grant the following new features to final customers:

  • Suspend and Resume of vGPU Workloads
  • Per-VM EVC
  • New vCenter Server Appliance
  • ESXi Quick Boot
  • Persistent Memory (PMem) Devices
  • Virtual Hardware Version 14

(more info on https://blogs.vmware.com/vsphere/launch )

GO TO PAGE2: vgpu-enabled-vms-part-2

 

REAL PRE-PRODUCTION VMOTION OF VGPU ENABLED VMS (PART 2)

CONFIGURATION HOT POINTS

 

VIRTUAL DISTRIBUTED SWITCH
( https://www.vmware.com/products/vsphere/distributed-switch.html )

We choose a Virtual Distributed Switch configuration to simplify the deployment and future adds of server nodes to cluster.
The load balancing policy choose for this use case is ROUTE BASED ON PHYSICAL NIC LOAD

a.png

b.png

VMware vSphere Distributed Switch (VDS) provides a centralized interface from where you can configure, monitor and manage virtual machine access switching for the entire data center. The VDS provides:

  • Simplified virtual machine network configuration
  • Enhanced network monitoring and troubleshooting capabilities
  • Support for advanced VMware vSphere networking features
  • Provides the core element for VMware vSphere Network I/O Control (NIOC).
  • Maintains network runtime state for virtual machines as they move across multiple hosts, enabling inline monitoring and centralized firewall services.
  • Supports Single Root I/O Virtualization (SR-IOV) to enable low-latency and high-I/O workloads.

 

VMWARE VSAN 6.7
( https://www.vmware.com/products/vsan.html )

 Using the vSAN Cluster Wizard is a relatively easy way to setup vSAN, provided a separate vCenter server is already available in the environment. But what about environments that don’t yet have the vCenter Server Appliance (VCSA) installed?

Starting from 6.7 version the Deployment of a vSAN cluster from scratch is easier than ever before. The (VCSA) installation wizard enables administrators to install vSphere on a single host, configure a vSAN datastore, and deploy a VCSA to this datastore. This is useful when deploying a new cluster where there is no existing infrastructure to host the VCSA.

c

A wizard will guide you to a step by step configuration of the VSAN cluster

d.png

e.png

f.png

When the wizard ends you can start with the configuration of VIRTUAL DISTRIBUTED SWITCHES.

g

The distributed portgroups or kernel ports can be distributed to the hosts trough the central configuration of VDS in Vcenter interface.

h.png

A simply wizard will guide in every step and in the NIC assignments

i.png

l.png

m.png

GO TO PAGE 3: vmotion-of-vgpu-enabled-vms-part-3

 

REAL PRE-PRODUCTION VMOTION OF VGPU ENABLED VMS (PART 3)

HORIZON VIEW
(https://www.vmware.com/products/horizon7.html )

As Vmware Enterprise solution provider, we choose Horizon View solution to deliver virtual desktop and application in the customer’s hyperconverged infrastructure.
Horizon View give a simple web interface to manage and distribute desktop (an application) pools to users, providing a easy solution to update/upgrade every vm running in the datacenter.

aa.png

ab.png

I always say to my customers: “If you IT department is capable to use Vmware Esxi, in a half day can learn  Horizon without any problem”
In fact this solution simplify the deployment but also the troubleshooting of many IT daily operations.

ac.png

For ex: a user calls you on Monday morning saying that “Word is not starting!”. In a classic physical pc situation, you have to make a remote assistance to the pc or move to the user’s seat and spend some time to troubleshoot the problem. But with a VDI solution you can simply tell to the user “Ok take a 5 minutes break for a coffe ” connect to Horizon admin console and make a refresh of the vm, that machine will be redeployed and everything works like a charm.

The 7.5 version of horizon introduce the full compatibility with Esxi 6.7 an Nvidia Grid 6.2 version (with suspend / resume function)

VMWARE APP VOLUMES
(https://www.vmware.com/products/appvolumes.html)

These solutions help IT professionals improve desktop and application
environments by providing faster application delivery, unified application and user management, and cost savings. This is the way how Vmware permits to personalize single seats distributing apps with per user policy

2018-07-24 15_19_16-(101) App Volumes Technical Overview - YouTube.jpg

NVIDIA GRID
(https://blogs.vmware.com/vsphere/2018/07/vsphere-6-7-suspend-and-resume-of-gpu-attached-virtual-machines.html )

As Nvidia says “NVIDIA, in collaboration with VMware, has helped move advanced graphics functionality from the individual workstation to the data center, making immersive 3D graphics available to remote users via virtual desktops. This solution enables users with the most demanding graphics needs, such as 3D engineering applications, to take advantage of the superior computing, storage, and networking power of the data center while freeing them from the limitations of the physical workstation. It also provides enterprises much better control over where their sensitive intellectual property is getting worked on, by keeping it in the datacenter instead on employees’ personal devices”, the great advantage of GRID solution is the possibility of split a single GPU giving to VM’s a fixed memory framebuffer and running up to 24/32 VMs into a single Nvidia card (24 o 32 depending the card model)

ad.png

With a GRID solution you can extend all the advantages of traditional VDI to workstation’s users with a lot of  new features, like the ability  to move vms across datacenter hosts to best redistribute resources or manage maintenance operations.

ae.png

Take a look at the following video for a short demonstration:

..(avaiable soon)..

 

GO TO PAGE 2: vmotion-of-vgpu-enabled-vms-part-2
GO TO PAGE 1: vmotion-of-vgpu-enabled-vms-part-1

 

NVIDIA GRID K2 ON DELL R740

Today I’ve tested in our labo a particular configuration asked by a customer.
The request was to install 2 GRID K2 cards inside a DELL R740 server.
The customer has already a VDI enviroment in house with one DELL R730 with 2 K2 CARDS and now it wants to expand its cluster by adding a second server (and doesn’t want to pay the licensing 🙂 )
Because it has 2 K2 spare cards it give them to us.

The R740 and the K2 card is not a “supported” configuration by DELL because the K2 goes in end of live in December 2016 and the R740 was released in july 2017.

sdr

The first problem is generated by the power connectors of the pci slot, different from the old generation (R730) and incompatibile with the K2.
I’ve searched a lot and find some power connectors from a M60 card, that works great

dav

Configured the 367,124 drivers for esxi 6.5

GRID K2_2

GRID K2_1

GRID K2_3

GRID K2_4

After that configured the windows drivers and launched a benchmark…

 

IMG_20180626_140910.jpg

and nothing bad… all works great!