Modèles de virtualisation de stockage traditionnels 9
Modèles de stockage à définition logicielle 11
API de stockage vSphere 12
Mise en route d'un modèle de stockage traditionnel14
2
Types de stockage physique 14
Adaptateurs de stockage pris en charge 26
Caractéristiques des banques de données 27
Utilisation de la mémoire persistante 31
Présentation de l'utilisation d' ESXi avec un SAN35
3
Cas d'utilisation d' ESXi et du SAN 36
Informations détaillées sur l'utilisation du stockage SAN avec l' ESXi 37
Hôtes ESXi et baies de stockage multiples 37
Prendre des décisions LUN 37
Sélection de l'emplacement des machines virtuelles 39
Applications de gestion tierces 40
Considérations sur la sauvegarde de stockage SAN 40
Utilisation d' ESXi avec un SAN Fibre Channel43
4
Concepts du SAN Fibre Channel 43
Utilisation du zonage avec les SAN Fibre Channel 45
Accès des machines virtuelles aux données sur un SAN Fibre Channel 46
Configuration du stockage Fibre Channel47
5
Conditions requises de SAN Fibre Channel ESXi 47
Étapes d'installation et de configuration 49
Virtualisation d'identification N-Port 49
Configuration de Fibre Channel over Ethernet53
6
Adaptateurs Fibre Channel over Ethernet 53
Instructions de configuration pour le FCoE logiciel 54
Configurer le réseau pour un adaptateur FCoE logiciel 55
Ajout d'adaptateurs FCoE du logiciel 56
VMware, Inc.
3
Page 4
Stockage vSphere
Démarrage ESXi à partir du SAN Fibre Channel57
7
Avantages du démarrage à partir d'un SAN 57
Exigences et considérations lors du démarrage à partir du SAN Fibre Channel 58
Préparation pour le démarrage à partir du SAN 58
Configurer Emulex HBA pour un démarrage à partir du SAN 60
Configurer QLogic HBA pour un démarrage à partir du SAN 62
Démarrage d' ESXi avec le FCoE logiciel64
8
Considérations et exigences de démarrage du FCoE logiciel 64
Configurer le démarrage du FCoE logiciel 65
Résolution des problèmes de démarrage à partir du FCoE logiciel pour un hôte ESXi 67
Meilleures pratiques pour le stockage Fibre Channel68
9
Prévention des problèmes de SAN Fibre Channel 68
Désactiver l'enregistrement automatique de l'hôte 69
Optimisation des performances du stockage SAN Fibre Channel 69
Utilisation d' ESXi avec un SAN iSCSI72
10
À propos du SAN iSCSI 72
Configuration des adaptateurs iSCSI et du stockage81
11
Recommandations et restrictions du SAN ESXi iSCSI 82
Configuration des paramètres iSCSI pour les adaptateurs 82
Configurer des adaptateurs iSCSI matériel indépendants 84
Configurer des adaptateurs iSCSI matériel dépendants 86
Configurer l'adaptateur iSCSI logiciel 89
Configurer les adaptateurs iSER 91
Modifier les propriétés générales des adaptateurs iSCSI ou iSER 93
Configuration du réseau pour iSCSI et iSER 93
Utilisation des trames Jumbo avec iSCSI 106
Configuration des adresses de découverte des adaptateurs iSCSI 107
Configurer des paramètres CHAP pour des adaptateurs iSCSI 109
Configuration des paramètres avancés iSCSI 113
Gestion des sessions iSCSI 115
Démarrage à partir du SAN iSCSI119
12
Recommandations générales pour le démarrage à partir du SAN iSCSI 119
Préparation du SAN iSCSI 120
Configurer l'adaptateur iSCSI matériel indépendant pour le démarrage à partir du SAN 121
Présentation de iBFT iSCSI Boot 122
VMware, Inc. 4
Page 5
Stockage vSphere
Meilleures pratiques pour le stockage iSCSI129
13
Prévention des problèmes de iSCSI SAN 129
Optimisation des performances du stockage SAN iSCSI 130
Consultation des statistiques des commutateurs Ethernet 134
Gestion des périphériques de stockage135
14
Caractéristiques du périphérique de stockage 135
Explication du nommage de périphériques de stockage 140
Opérations de réanalyse du stockage 142
Identification des problèmes de connectivité de périphérique 145
Activer ou désactiver le voyant voyants de localisateur sur les périphériques de stockage 151
Effacer des périphériques de stockage 152
Utilisation des périphériques Flash153
15
Utilisation de périphériques Flash avec ESXi 153
Marquage de périphériques de stockage 155
Surveiller les périphériques Flash 156
Meilleures pratiques des périphériques Flash 157
À propos des ressources Virtual Flash 158
Configuration du cache d'échange d'hôte 161
À propos de VMware vSphere Flash Read Cache163
16
Prise en charge du cache de lecture Flash par DRS 164
Prise en charge de Flash Read Cache par vSphere High Availability 164
Configurer Flash Read Cache pour une machine virtuelle 164
Migrer des machines virtuelles avec Flash Read Cache 165
Utilisation des banques de données167
17
Types de banque de données 167
Présentation des banques de données VMFS 169
Mise à niveau des banques de données VMFS 179
Présentation des banques de données NFS (Network File System) 181
Création de banques de données 194
Administration des banques de données VMFS dupliquées 197
Augmentation de la capacité d'une banque de données VMFS 199
Opérations administratives pour les banques de données 201
Configuration de la mise en miroir des disques dynamiques 209
Collecte d'informations de diagnostic pour les hôtes ESXi sur un périphérique de stockage 210
Vérification de la cohérence des métadonnées avec VOMA 214
Configuration du cache de blocs de pointage VMFS 217
VMware, Inc. 5
Page 6
Stockage vSphere
Présentation de la gestion multivoie et du basculement220
18
Basculements avec Fibre Channel 220
Basculement basé sur hôte avec iSCSI 221
Basculement à base de baie avec iSCSI 223
Basculement de chemin et machines virtuelles 224
Architecture de stockage enfichable et gestion des chemins 225
Affichage et gestion des chemins 237
Utilisation des règles de réclamation 240
Files d'attente de planification pour les E/S de machines virtuelles 251
Mappage de périphérique brut253
19
À propos du mappage de périphérique brut 253
Caractéristiques du mappage de périphérique brut 257
Création de machines virtuelles avec des RDM 259
Gérer les chemins pour un LUN mappé 261
Gestion basée sur des stratégies de stockage (SPBM, Storage Policy Based
20
Management)263
Stratégies de stockage de machine virtuelle 264
Workflow pour les stratégies de stockage de machine virtuelle 264
Remplissage de l'interface des stratégies de stockage de machine virtuelle 265
À propos des règles et groupes de règles 269
Création et gestion de stratégies de stockage de machine virtuelle 272
À propos des composants de stratégie de stockage 284
Stratégies de stockage et machines virtuelles 288
Stratégies de stockage par défaut 294
Utilisation de fournisseurs de stockage296
21
À propos des fournisseurs de stockage 297
Fournisseurs de stockage et représentation des données 298
Exigences et considérations relatives au fournisseur de stockage 299
Enregistrement des fournisseurs de stockage 299
Afficher des informations sur le fournisseur de stockage 301
Gérer les fournisseurs de stockage 301
Utilisation de Virtual Volumes303
22
À propos de Virtual Volumes 303
Concepts Virtual Volumes 304
Virtual Volumes et protocoles de stockage 311
Architecture de Virtual Volumes 312
Virtual Volumes et VMware Certificate Authority 314
Snapshots et Virtual Volumes 315
VMware, Inc. 6
Page 7
Stockage vSphere
Avant d'activer Virtual Volumes 316
Configurer Virtual Volumes 317
Provisionner des machines virtuelles sur des banques de données Virtual Volumes 321
Virtual Volumes et réplication 322
Meilleures pratiques d'utilisation de vSphere Virtual Volumes 328
Dépanner Virtual Volumes 332
Filtrage des E/S de machines virtuelles337
23
À propos des filtres d'E/S 337
Utilisation de périphériques de stockage Flash avec des filtres d'E/S de cache 341
Configuration système requise pour les filtres d'E/S 342
Configurer des filtres d'E/S dans l'environnement vSphere 342
Activer des services de données de filtres d'E/S sur des disques virtuels 345
Gestion des filtres d'E/S 346
Directives et meilleures pratiques applicables aux filtres d'E/S 348
Gestion des incidents d'installation des filtres d'E/S 350
Accélération matérielle du stockage351
24
Avantages de l'accélération matérielle 351
Conditions requises pour l'accélération matérielle 352
État de la prise en charge de l'accélération matérielle 352
Accélération pour les périphériques de stockage de blocs 352
Accélération matérielle sur les périphériques NAS 359
Considérations sur l'accélération matérielle 362
Provisionnement dynamique et récupération d'espace364
25
Provisionnement dynamique du disque virtuel 364
ESXi et provisionnement dynamique de la baie 369
Récupération d'espace de stockage 372
Utilisation de vmkfstools381
26
Syntaxe des commandes vmkfstools 381
Options de la commande vmkfstools 382
VMware, Inc. 7
Page 8
À propos de vSphere Storage
vSphere Storage décrit les technologies de stockage définies par logiciel et virtualisées que VMware
ESXi™ et VMware vCenter Server® offrent et explique comment configurer et utiliser ces technologies.
Public cible
Ces informations s'adressent aux administrateurs système expérimentés qui maîtrisent les technologies
de machine virtuelle et de virtualisation de stockage, les opérations associées aux centres de données et
les concepts de stockage SAN.
vSphere Client et vSphere Web Client
Les instructions de ce guide concernent principalement vSphere Client (une interface utilisateur
graphique basée sur HTML5). La plupart des instructions s'appliquent également à vSphere Web Client
(une interface utilisateur graphique basée sur Flex).
Pour les workflows qui diffèrent de manière significative entre les deux clients, vSphere Storage fournit
des procédures séparées. Ces procédures indiquent si elles concernent exclusivement vSphere Client ou
vSphere Web Client.
Remarque Dans vSphere 6.7, la plupart des fonctionnalités de vSphere Web Client sont implémentées
dans vSphere Client. Pour obtenir une liste actualisée des fonctionnalités non prises en charge, consultez
le Guide de mise à jour des fonctionnalités de vSphere Client.
VMware, Inc.
8
Page 9
Introduction au stockage1
vSphere prend en charge diverses fonctionnalités et options de stockage dans des environnements de
stockage traditionnels et logiciels. Une présentation de haut niveau des éléments et aspects du stockage
vSphere vous permet de planifier une stratégie de stockage appropriée pour votre centre de données
virtuel.
Ce chapitre aborde les rubriques suivantes :
n
Modèles de virtualisation de stockage traditionnels
n
Modèles de stockage à définition logicielle
n
API de stockage vSphere
Modèles de virtualisation de stockage traditionnels
En règle générale, la virtualisation de stockage se rapporte à une abstraction logique de ressources de
stockage physique et de capacités à partir des machines virtuelles et de leurs applications. ESXi offre la
virtualisation de stockage au niveau de l'hôte.
Dans l'environnement vSphere , un modèle traditionnel repose sur les technologies de stockage ainsi que
sur les fonctionnalités de virtualisation ESXi et vCenter Server suivantes.
Stockage local et en
réseau
Réseaux de zone de
stockage
VMware, Inc. 9
Dans les environnements de stockage traditionnels, le processus de
gestion de stockage d'ESXi débute avec l'espace de stockage préalloué
par votre administrateur stockage sur différents systèmes de stockage.
ESXi prend en charge le stockage local et en réseau.
Reportez-vous à Types de stockage physique.
Un réseau de zone de stockage (SAN) est un réseau à haute vitesse
spécialisé qui connecte des systèmes informatiques, ou des hôtes ESXi, à
des systèmes de stockage à hautes performances. L'ESXi peut utiliser les
protocoles Fibre Channel ou iSCSI pour se connecter aux systèmes de
stockage.
Reportez-vous à Chapitre 3 Présentation de l'utilisation d'ESXi avec un
SAN.
Page 10
Stockage vSphere
Fibre ChannelFibre Channel (FC) est un protocole de stockage que le SAN utilise pour
transférer le trafic de données des serveurs d'hôtes ESXi au stockage
partagé. Le protocole conditionne les commandes SCSI en trames FC.
Pour se connecter au SAN FC, votre hôte utilise des adaptateurs de bus
hôte (HBA) Fibre Channel.
Reportez-vous à Chapitre 4 Utilisation d'ESXi avec un SAN Fibre Channel.
Internet SCSIInternet iSCSI (iSCSI) est un protocole de transport SAN qui peut utiliser
des connexions Ethernet entre les systèmes informatiques, ou les hôtes
ESXi, et les systèmes de stockage à hautes performances. Pour vous
connecter aux systèmes de stockage, vos hôtes utilisent des adaptateurs
iSCSI matériels ou des initiateurs iSCSI logiciels avec des adaptateurs
réseau standard.
Reportez-vous à Chapitre 10 Utilisation d'ESXi avec un SAN iSCSI.
Périphérique de
stockage ou LUN
Dans le contexte de l'ESXi, les termes « périphérique » et « LUN » sont
utilisés de façon interchangeable. En général, les deux termes signifient un
volume de stockage qui est présenté à l'hôte à partir d'un système de
stockage des blocs et qui est disponible pour le formatage.
Reportez-vous aux sections Représentations de périphériques et de cibles
et Chapitre 14 Gestion des périphériques de stockage.
Disques virtuelsUne machine virtuelle sur un hôte ESXi utilise un disque virtuel pour
stocker son système d'exploitation, les fichiers d'applications et d'autres
données liées à ses activités. Les disques virtuels sont des fichiers
physiques volumineux, ou des ensembles de fichiers, qui peuvent être
copiés, déplacés, archivés et sauvegardés comme n'importe quel autre
fichier. Vous pouvez configurer les machines virtuelles avec plusieurs
disques virtuels.
Pour accéder à des disques virtuels, une machine virtuelle utilise les
contrôleurs SCSI virtuels. Ces contrôleurs virtuels sont notamment
BusLogic Parallel, LSI Logic Parallel, LSI Logic SAS, et VMware
Paravirtual. Ces contrôleurs sont les seuls types de contrôleurs SCSI
visibles et accessibles par une machine virtuelle.
Chaque disque virtuel réside sur une banque de données qui est déployée
sur un stockage physique. Du point de vue de la machine virtuelle, chaque
disque virtuel apparaît comme un lecteur SCSI connecté à un contrôleur
SCSI. Que le stockage physique soit accessible via des adaptateurs de
stockage ou des adaptateurs réseau sur l'hôte, il est généralement
transparent pour le système d'exploitation invité et les applications sur la
machine virtuelle.
VMware, Inc. 10
Page 11
Stockage vSphere
VMware vSphere
VMFS
®
Les banques de données que vous déployez sur des périphériques de
stockage des blocs utilise le format VMFS (vSphere Virtual Machine File
System) natif. Il s'agit d'un format de système de fichiers haute
performance qui est optimisé pour stocker les machines virtuelles.
Reportez-vous à Présentation des banques de données VMFS.
NFSUn client NFS intégré dans ESXi utilise le protocole NFS (Network File
System) sur TCP/IP pour accéder à un volume NFS qui se trouve sur un
serveur NAS. L'hôte ESXi peut monter le volume et l'utiliser comme une
banque de données NFS.
Reportez-vous à Présentation des banques de données NFS (Network File
System).
Mappage de
périphérique brut
En plus des disques virtuels, vSphere propose un mécanisme appelé
mappage de périphérique brut (RDM). Le RDM est utile lorsqu'un système
d'exploitation invité dans une machine virtuelle requiert un accès direct à un
périphérique de stockage. Pour plus d'informations sur les RDM, consultez
Chapitre 19 Mappage de périphérique brut.
Modèles de stockage à définition logicielle
Outre l'abstraction des capacités de stockage sous-jacentes des machines virtuelles, à l'instar des
modèles de stockage traditionnels, le stockage défini par le logiciel crée une abstraction des capacités de
stockage.
Avec le modèle de stockage à définition logicielle, une machine virtuelle devient une unité de
provisionnement de stockage et peut être gérée au moyen d'un mécanisme flexible basé sur la stratégie.
Le modèle implique les technologies vSphere suivantes.
Gestion basée sur des
stratégies de stockage
(SPBM, Storage Policy
Based Management)
VMware vSphere
®
Virtual Volumes™
SPBM est une infrastructure qui fournit un seul panneau entre les différents
services de données et les solutions de stockage, notamment vSAN et
Virtual Volumes. À l'aide des stratégies de stockage, l'infrastructure aligne
les demandes d'applications de vos machines virtuelles avec les
fonctionnalités proposées par les entités de stockage.
Reportez-vous à la section Chapitre 20 Gestion basée sur des stratégies
de stockage (SPBM, Storage Policy Based Management).
La fonctionnalité Virtual Volumes modifie le paradigme de gestion du
stockage de la gestion de l'espace au sein de banques de données à la
gestion d'objets de stockage abstraits par des baies de stockage. Avec
Virtual Volumes, une machine virtuelle individuelle, pas la banque de
données, devient une unité de gestion de stockage. Par ailleurs, le matériel
de stockage possède le contrôle complet sur le contenu, l'architecture et la
gestion des disques virtuels.
Reportez-vous à la section Chapitre 22 Utilisation de Virtual Volumes.
VMware, Inc. 11
Page 12
Stockage vSphere
VMware vSANvSAN est une couche distribuée de logiciel qui s'exécute nativement en
tant que partie de l'hyperviseur. vSAN cumule des périphériques de
capacité locaux ou à connexion directe d'un cluster hôte ESXi et crée un
pool de stockage unique partagé sur tous les hôtes du cluster vSAN.
Reportez-vous à la section Administration de VMware vSAN.
Filtres d'E/SLes filtres d'E/S sont des composants logiciels pouvant être installés sur les
hôtes ESXi et offrir des services de données supplémentaires aux
machines virtuelles. En fonction de la mise en œuvre, les services peuvent
inclure la réplication, le chiffrement, la mise en cache, etc.
Reportez-vous à la section Chapitre 23 Filtrage des E/S de machines
virtuelles.
API de stockage vSphere
Les API de stockage représentent une famille d'API utilisée par des fournisseurs tiers de matériels, de
logiciels et de stockage pour développer des composants qui améliorent plusieurs fonctionnalités et
solutions de vSphere.
Cette publication de stockage décrit plusieurs API de stockage qui constituent votre environnement de
stockage. Pour plus d'informations sur d'autres API de cette famille, notamment vSphere APIs - Data
Protection, rendez-vous sur le site Web de VMware.
VASA (vSphere APIs for Storage Awareness)
Les API VASA, proposées par des distributeurs tiers ou par VMware, permettent les communications
entre vCenter Server et le stockage sous-jacent. Via VASA, les entités de stockage peuvent indiquer à
vCenter Server leurs configurations, leurs capacités, ainsi que des informations concernant la santé et les
événements de stockage. En retour, VASA peut transmettre des conditions requises de stockage de
machine virtuelle depuis vCenter Server vers une entité de stockage et ainsi garantir que la couche de
stockage répond aux conditions requises.
VASA devient essentiel lorsque vous utilisez Virtual Volumes, vSAN, VAIO (vSphere APIs for I/O Filtering)
et des stratégies de stockage de machine virtuelle. Reportez-vous à Chapitre 21 Utilisation de
fournisseurs de stockage.
VAAI (vSphere APIs for Array Integration)
Les API VAAI incluent les composants suivants :
n
API d'accélération matérielle. Permet aux baies de s'intégrer à vSphere afin que vSphere puisse
décharger certaines opérations de stockage sur la baie. Cette intégration réduit considérablement la
surcharge du CPU sur l'hôte. Reportez-vous à Chapitre 24 Accélération matérielle du stockage.
VMware, Inc. 12
Page 13
Stockage vSphere
n
API à provisionnement dynamique de la baie. Permet de surveiller l'utilisation de l'espace sur les
baies de stockage à provisionnement dynamique pour empêcher des conditions de manque d'espace
et pour effectuer une réclamation d'espace. Reportez-vous à ESXi et provisionnement dynamique de
la baie.
API vSphere pour gestion de chemins multiples
Connues sous l'appellation PSA (Pluggable Storage Architecture), ces API permettent aux partenaires de
stockage de créer et de fournir des plug-ins de gestion de chemins multiples et d'équilibrage de charge
optimisés pour chaque baie. Les plug-ins communiquent avec les baies de stockage et déterminent la
meilleure stratégie de sélection de chemins pour augmenter les performances d'E/S et la fiabilité de l'hôte
ESXi vers la baie de stockage. Pour plus d'informations, consultez Architecture de stockage enfichable et
gestion des chemins.
VMware, Inc. 13
Page 14
Mise en route d'un modèle de
stockage traditionnel2
La configuration de votre stockage ESXi dans les environnements traditionnels comprend la configuration
des systèmes et périphériques de stockage, l'activation des adaptateurs de stockage et la création de
banques de données.
Ce chapitre aborde les rubriques suivantes :
n
Types de stockage physique
n
Adaptateurs de stockage pris en charge
n
Caractéristiques des banques de données
n
Utilisation de la mémoire persistante
Types de stockage physique
Dans les environnements de stockage traditionnels, le processus de gestion de stockage d'ESXi débute
avec l'espace de stockage préalloué par votre administrateur stockage sur différents systèmes de
stockage. ESXi prend en charge le stockage local et en réseau.
Stockage local
Le stockage local peut se composer de disques durs internes situés à l'intérieur de votre hôte ESXi. Il
peut également inclure des systèmes de stockage externes situés à l'extérieur et connectés directement
à l'hôte par le biais de protocoles tels que SAS ou SATA.
Le stockage local ne requiert pas de réseau de stockage pour communiquer avec votre hôte. Vous avez
besoin d'un câble connecté à l'unité de stockage et, si nécessaire, d'un HBA compatible dans votre hôte.
L'illustration suivante décrit une machine virtuelle utilisant un stockage SCSI local.
VMware, Inc.
14
Page 15
Hôte ESXi
vmdk
Périphérique
VMFS
SCSI
Stockage vSphere
Figure 2‑1. Stockage local
Dans cet exemple de topologie de stockage local, l'hôte ESXi utilise une connexion unique à un
périphérique de stockage. Sur ce périphérique, vous pouvez créer une banque de données VMFS que
vous utilisez pour stocker les fichiers de disque de la machine virtuelle.
Bien que cette configuration de stockage soit possible, elle n'est pas recommandée. L'utilisation de
connexions uniques entre des périphériques de stockage et des hôtes crée des points de défaillance
uniques (SPOF) pouvant causer des interruptions lorsqu'une connexion devient instable ou échoue.
Toutefois, puisque la plupart des périphériques de stockage local ne prennent pas en charge les
connexions multiples, vous ne pouvez pas utiliser plusieurs chemins d'accès pour accéder au stockage
local.
ESXi prend en charge divers périphériques de stockage local, notamment SCSI, IDE, SATA, USB, SAS,
Flash et les périphériques NVMe.
Remarque Vous ne pouvez pas utiliser de lecteurs IDE/ATA ou USB pour stocker des machines
virtuelles.
Le stockage local ne prend pas en charge le partage sur plusieurs hôtes. Seul un hôte peut accéder à
une banque de données sur un périphérique de stockage local. Par conséquent, bien que vous puissiez
utiliser un stockage local pour créer des machines virtuelles, vous ne pouvez pas utiliser les
fonctionnalités de VMware qui exigent un stockage partagé, telles que HA et vMotion.
Cependant, si vous utilisez un cluster d'hôtes disposant uniquement de périphériques de stockage local,
vous pouvez implémenter vSAN. vSAN transforme des ressources de stockage locales en stockage
partagé défini par logiciel. Avec vSAN, vous pouvez utiliser des fonctionnalités qui exigent un stockage
partagé. Pour plus d'informations, voir la documentation Administration de VMware vSAN.
Stockage en réseau
Le stockage en réseau est composé de systèmes de stockage externes que votre hôte ESXi utilise pour
stocker des fichiers de machine virtuelle à distance. En règle générale, l'hôte accède à ces systèmes sur
un réseau de stockage haut-débit.
VMware, Inc. 15
Page 16
Stockage vSphere
Les périphériques de stockage en réseau sont partagés. Les banques de données sur des périphériques
de stockage en réseau sont accessibles par plusieurs hôtes simultanément. ESXi prend en charge
plusieurs technologies de stockage en réseau.
Outre le stockage en réseau traditionnel abordé dans cette rubrique, VMware prend en charge les
technologies de stockage partagé virtualisé telles que vSAN. vSAN transforme les ressources de
stockage internes de vos hôtes ESXi en stockage partagé qui fournit des fonctionnalités telles que High
Availability et vMotion aux machines virtuelles. Pour plus d'informations, voir la documentation
Administration de VMware vSAN.
Remarque Un même LUN ne peut pas être présenté à un hôte ESXi ou à plusieurs hôtes via différents
protocoles de stockage. Pour accéder au LUN, les hôtes doivent toujours utiliser un seul protocole, par
exemple uniquement Fibre Channel ou uniquement iSCSI.
Fibre Channel (FC)
Stocke des fichiers de machine virtuelle à distance sur un réseau de zone de stockage FC (SAN). FC
SAN est un réseau haut débit spécialisé qui connecte vos hôtes à des périphériques de stockage haute
performance. Le réseau utilise le protocole Fibre Channel pour acheminer le trafic SCSI depuis des
machines virtuelles vers des périphériques FC SAN.
Pour se connecter au FC SAN, votre hôte doit être équipé d'adaptateurs de bus hôte (HBA) Fibre
Channel. À moins d'utiliser un stockage de connexion directe Fibre Channel, vous avez besoin de
commutateurs Fibre Channel pour acheminer le trafic de stockage. Si votre hôte contient des adaptateurs
FCoE (Fibre Channel over Ethernet), vous pouvez vous connecter à vos périphériques Fibre Channel
partagés à l'aide d'un réseau Ethernet.
Stockage Fibre Channel décrit les machines virtuelles utilisant le stockage Fibre Channel.
VMware, Inc. 16
Page 17
Hôte ESXi
vmdk
Baie
Fibre Channel
VMFS
SAN
HBA
Fibre
Channel
Stockage vSphere
Figure 2‑2. Stockage Fibre Channel
Dans cette configuration, un hôte se connecte à une infrastructure SAN, qui est constituée de
commutateurs Fibre Channel et de baies de stockage, en utilisant un adaptateur Fibre Channel. Les LUN
d'une baie de stockage deviennent disponibles pour l'hôte. Vous pouvez accéder aux LUN et créer des
banques de données pour vos besoins de stockage. Les banques de données utilisent le format VMFS.
Pour plus d'informations spécifiques sur la configuration du SAN Fibre Channel, consultez Chapitre 4
Utilisation d'ESXi avec un SAN Fibre Channel.
Internet SCSI (iSCSI)
Stocke des fichiers de machine virtuelle sur des périphériques de stockage iSCSI à distance. iSCSI
rassemble le trafic de stockage SCSI dans le protocole TCP/IP, de sorte qu'il puisse être acheminé via
des réseaux TCP/IP standard et non le réseau FC spécialisé. Grâce à une connexion iSCSI, votre hôte
sert d'initiateur qui communique avec une cible, située dans des systèmes de stockage iSCSI à distance.
VMware, Inc. 17
Page 18
Baie iSCSI
VMFSVMFS
LANLAN
HBA
iSCSI
Carte réseau
Ethernet
Hôte ESXi
Adaptateur
logiciel
vmdkvmdk
Stockage vSphere
ESXi offre les types de connexions iSCSI suivants :
iSCSI matérielVotre hôte se connecte au stockage via un adaptateur tiers capable de
décharger la gestion de réseau et iSCSI. Les adaptateurs matériels
peuvent être dépendants et indépendants.
iSCSI logicielVotre hôte utilise un initiateur iSCSI logiciel dans le VMkernel pour se
connecter au stockage. Avec ce type de connexion iSCSI, votre hôte ne
requiert qu'un adaptateur réseau standard pour la connectivité réseau.
Vous devez configurer les initiateurs iSCSI de l'hôte pour qu'il accède et affiche les périphériques de
stockage iSCSI.
Le stockage iSCSI décrit différents types d'initiateurs iSCSI.
Figure 2‑3. Stockage iSCSI
Dans l'exemple de gauche, l'hôte utilise l'adaptateur iSCSI matériel pour se connecter au système de
stockage iSCSI.
Dans l'exemple de droite, l'hôte utilise un adaptateur iSCSI logiciel et un adaptateur d'interface réseau
Ethernet pour se connecter au stockage iSCSI.
Les périphériques de stockage iSCSI du système de stockage deviennent disponibles pour l'hôte. Vous
pouvez accéder aux périphériques de stockage et créer des banques de données VMFS pour vos
besoins de stockage.
VMware, Inc. 18
Page 19
Hôte ESXi
Dispositif
NAS
vmdk
NFS
LAN
Carte réseau
Ethernet
Stockage vSphere
Pour plus d'informations spécifiques sur la configuration du SAN iSCSI, consultez Chapitre 10 Utilisation
d'ESXi avec un SAN iSCSI.
Stockage relié au réseau (NAS)
Stocke les fichiers de machine virtuelle sur des serveurs de fichiers à distance accessibles sur un réseau
TCP/IP standard. Le client NFS intégré dans ESXi utilise le protocole NFS (Network File System)
versions 3 et 4.1 pour communiquer avec les serveurs NAS/NFS. Pour une connectivité réseau, l'hôte
requiert un adaptateur réseau standard.
Vous pouvez monter un volume NFS directement sur l'hôte ESXi. Vous utilisez ensuite des banques de
données NFS pour stocker et gérer des machines virtuelles de la même manière que vous utilisez des
banques de données VMFS.
Stockage NFS décrit une machine virtuelle utilisant la banque de données NFS pour stocker ses fichiers.
Dans cette configuration, l'hôte se connecte au serveur NAS stockant les fichiers du disque virtuel via un
adaptateur réseau normale.
Figure 2‑4. Stockage NFS
Pour des informations spécifiques sur la configuration du stockage NFS, consultez Présentation des
banques de données NFS (Network File System).
VMware, Inc. 19
Page 20
Baie de stockage
Cible
LUNLUNLUN
Baie de stockage
CibleCibleCible
LUNLUNLUN
Stockage vSphere
SAS (Serial Attached SCSI) partagé
Stocke des machines virtuelles sur des systèmes de stockage directement reliés au SAS qui offrent un
accès partagé à plusieurs hôtes. Ce type d'accès permet à plusieurs hôtes d'accéder à la même banque
de données VFMS sur un LUN.
Représentations de périphériques et de cibles
Dans un contexte ESXi, le terme cible identifie une unité de stockage unique accessible par l'hôte. Les
termes périphérique de stockage et LUN décrivent un volume logique représentant l'espace de stockage
sur une cible. Dans le contexte ESXi, les deux termes signifient également un volume de stockage
présenté à l'hôte à partir d'une unité de stockage cible et disponible pour le formatage. Périphérique de
stockage et LUN sont souvent interchangeables.
Différents fournisseurs de stockage présentent les systèmes de stockage pour les hôtes ESXi de
différentes manières. Certains fournisseurs présentent une cible unique comportant plusieurs LUN ou
périphériques de stockage, tandis que d'autres proposent plusieurs cibles disposant chacune d'un LUN.
Figure 2‑5. Représentations LUN et de cibles
Dans cette illustration, trois LUN sont disponibles pour chaque configuration. Dans un cas, l'hôte se
connecte à une cible, mais cette cible comporte trois LUN à utiliser. Chaque LUN représente un volume
de stockage individuel. Dans l'autre exemple, l'hôte détecte trois cibles différentes, chacune disposant
d'un LUN.
Les cibles accessibles via le réseau ont des noms uniques fournis par les systèmes de stockage. Les
cibles iSCSI utilisent des noms iSCSI, alors que les cibles Fibre Channel utilisent des noms mondiaux
dits Noms mondiaux (WWN).
Remarque ESXi ne prend pas en charge l'accès au même LUN via différents protocoles de transport,
tels que iSCSI et Fibre Channel.
Un périphérique, ou LUN, est identifié par son nom UUID. Si un LUN est partagé par plusieurs hôtes, il
doit être présenté à tous les hôtes ayant le même UUID.
VMware, Inc. 20
Page 21
Baie iSCSI
VMFSVMFS
LANLAN
HBA
iSCSI
Carte réseau
Ethernet
Hôte ESXi
Requiert une connectivité TCP/IP
Adaptateur
logiciel
iSCSI
Dispositif
NAS
NFS
LAN
Carte réseau
Ethernet
Groupe
Fibre Channel
VMFS
VMFS
vmdk
vmdkvmdkvmdkvmdk
SAN
HBA
Fibre
Channel
Périphérique
SCSI
Stockage vSphere
Accès des machines virtuelles au stockage
Lorsqu'une machine virtuelle communique avec son disque virtuel stocké sur une banque de données,
elle lance des commandes SCSI. Étant donné que les banques de données peuvent résider sur plusieurs
types de stockage physique, ces commandes sont encapsulées dans d'autres formes, selon le protocole
utilisé par l'hôte ESXi pour se connecter à un périphérique de stockage.
ESXi prend en charge les protocoles Fibre Channel (FC), Internet SCSI (iSCSI), Fibre Channel over
Ethernet (FCoE) et NFS. Quel que soit le type de périphérique de stockage utilisé par votre hôte, le
disque virtuel apparaît toujours en tant que périphérique SCSI monté pour la machine virtuelle. Le disque
virtuel masque une couche de stockage physique au système d'exploitation de la machine virtuelle. Cette
action permet d'exécuter des systèmes d'exploitation non certifiés pour un équipement de stockage
spécifique, tel que SAN, dans une machine virtuelle.
L'illustration suivante décrit cinq machines virtuelles utilisant différents types de stockage afin d'illustrer
leurs différences.
Figure 2‑6. Machines virtuelles accédant à diérents types de stockage
Remarque Ce diagramme est uniquement destiné à des fins conceptuelles. Ce n'est pas une
configuration recommandée.
Caractéristiques du périphérique de stockage
Lorsque votre hôte ESXi se connecte aux systèmes de stockage basés sur des blocs, les LUN ou les
périphériques de stockage prenant en charge l'ESXi deviennent disponibles pour l'hôte.
VMware, Inc. 21
Page 22
Stockage vSphere
Une fois les périphériques enregistrés avec votre hôte, vous pouvez afficher tous les périphériques
réseau et locaux disponibles et vérifier leurs informations. Si vous utilisez des plug-ins de gestion
multivoie tiers, les périphériques de stockage disponibles via les plug-ins apparaissent également dans la
liste.
Remarque Si une baie prend en charge la fonction ALUA (Asymmetric Logical Unit Access) implicite et
qu'elle possède seulement des chemins inactifs, l'enregistrement du périphérique échoue. Le
périphérique peut s'enregistrer auprès de l'hôte une fois que la cible active un chemin inactif et que l'hôte
détecte le chemin comme actif. Le paramètre /Disk/FailDiskRegistration système avancé contrôle
ce comportement de l'hôte.
Pour chaque adaptateur de stockage, vous pouvez afficher une liste distincte de périphériques de
stockage disponibles pour cet adaptateur.
En règle générale, lorsque vous consultez les périphériques de stockages, vous voyez les informations
suivantes.
Tableau 2‑1. Informations du périphérique de stockage
Informations du périphérique
de stockageDescription
NomAppelé également Nom d'affichage. C'est un nom que l'hôte ESXi affecte à un périphérique
selon le type de stockage et le fabricant. Vous pouvez changer ce nom par le nom de votre
choix.
IdentificateurIdentificateur universel unique intrinsèque au périphérique.
État opérationnelIndique si le périphérique est attaché ou détaché. Pour des détails, veuillez vous reporter au
Déconnexion des périphériques de stockage.
LUNLUN (Logical Unit Number) à l'intérieur de la cible SCSI. Le numéro de LUN est fourni par le
système de stockage. Si une cible possède un seul LUN, le numéro de LUN est toujours zéro
(0).
TypeType de périphérique, par exemple, disque ou CD-ROM.
Type de lecteurInformations précisant si le périphérique est en lecteur Flash ou un simple disque dur. Pour
plus d'informations sur les lecteurs Flash et les périphériques NVMe, reportez-vous à Chapitre
15 Utilisation des périphériques Flash.
TransportProtocole de transport utilisé par votre hôte pour accéder au périphérique. Le protocole dépend
du type de stockage utilisé. Reportez-vous à la section Types de stockage physique.
CapacitéCapacité totale du périphérique de stockage.
PropriétaireLe plug-in, tel que le NMP ou un plug-in tiers, que l'hôte utilise pour gérer les chemins vers le
périphérique de stockage. Pour des détails, veuillez vous reporter au Architecture de stockage
enfichable et gestion des chemins.
Accélération matérielleInformations indiquant que le périphérique de stockage assiste l'hôte avec des opérations de
gestion de machine virtuelle. L'état peut être Pris en charge, Non pris en charge ou Inconnu.
Pour des détails, veuillez vous reporter au Chapitre 24 Accélération matérielle du stockage.
Format de secteurIndique si le périphérique utilise un format de secteur traditionnel, 512n ou avancé, tel que
512e ou 4 Kon. Pour plus d'informations, consultez Formats de secteur des périphériques.
EmplacementChemin d'accès au périphérique de stockage dans l'inventaire /vmfs/devices/.
VMware, Inc. 22
Page 23
Stockage vSphere
Tableau 2‑1. Informations du périphérique de stockage (suite)
Informations du périphérique
de stockageDescription
Format de partitionUn système de partition utilisé par le périphérique de stockage. Ce peut être un format MBR
(master boot record) ou un format GPT (GUID partition table). Les périphériques GPT peuvent
prendre en charge des banques de données d'une taille supérieure à 2 To. Pour plus
d'informations, consultez Formats de secteur des périphériques.
PartitionsPartitions logiques et principales, y compris une banque de données VMFS, si configurée.
Règles de gestion multivoieStratégie de sélection de chemin et règle de type de baie de stockage utilisées par l'hôte pour
gérer les chemins de stockage. Pour plus d'informations, consultez Chapitre 18 Présentation
de la gestion multivoie et du basculement.
CheminsChemins utilisés pour accéder au stockage et leur état.
Achage des périphériques de stockage d'un hôte
Afficher tous les périphériques de stockage disponibles pour un hôte. Si vous utilisez des plug-ins de
gestion multivoie tiers, les périphériques de stockage disponibles via les plug-ins apparaissent également
dans la liste.
La vue Périphériques de stockage vous permet de répertorier les périphériques de stockage des hôtes,
d'analyser leurs informations et de modifier leurs propriétés.
Procédure
1Accédez à l'hôte.
2Cliquez sur l'onglet Configurer.
3Sous Stockage, cliquez sur Périphériques de stockage.
Tous les périphériques de stockage accessibles par l'hôte sont répertoriés dans le tableau
Périphériques de stockage.
4Pour afficher les détails d'un périphérique spécifique, sélectionnez-le dans la liste.
5Utilisez les icônes pour effectuer des tâches de gestion du stockage de base.
La disponibilité d'icônes spécifiques varie selon le type et la configuration du périphérique.
IcôneDescription
RégénérerActualiser les informations sur les adaptateurs de stockage, la topologie et les
systèmes de fichiers.
RéanalyserRéanalyser tous les adaptateurs de stockage de l'hôte pour découvrir les
périphériques de stockage ou les banques de données VMFS récemment ajoutés.
DétacherDétacher le périphérique sélectionné de l'hôte.
AttacherAttacher le périphérique sélectionné à l'hôte.
RenommerModifier le nom complet du périphérique sélectionné.
Activer la LEDAllumer le voyant du localisateur pour les périphériques sélectionnés.
Désactiver la LEDÉteindre le voyant du localisateur pour les périphériques sélectionnés.
VMware, Inc. 23
Page 24
Stockage vSphere
IcôneDescription
Marquer en tant que disque flashMarquer les périphériques sélectionnés en tant que disques Flash.
Marquer en tant que Disque dur
(HDD)
Marquer en tant que localMarquer les périphériques sélectionnés en tant que locaux pour l'hôte.
Marquer en tant que distantMarquer les périphériques sélectionnés en tant que distants pour l'hôte.
Effacer les partitionsEffacer les partitions sur les périphériques sélectionnés.
Marquer les périphériques sélectionnés en tant que disques HDD.
6Utilisez les onglets dans Détails du périphérique pour accéder à des informations supplémentaires et
modifier les propriétés du périphérique sélectionné.
OngletDescription
PropriétésAfficher les propriétés et caractéristiques du périphérique. Afficher et modifier les
stratégies des chemins multiples du périphérique.
CheminsAfficher les chemins disponibles pour le périphérique. Désactiver ou activer un
chemin sélectionné.
Détails de la partitionAffiche des informations sur les partitions et leurs formats.
Achage des périphériques de stockage d'un adaptateur
Afficher une liste des périphériques de stockage accessibles grâce à un adaptateur de stockage
spécifique sur l'hôte.
Procédure
1Accédez à l'hôte.
2Cliquez sur l'onglet Configurer.
3Sous Stockage, cliquez sur Adaptateurs de stockage.
Tous les adaptateurs de stockage installés sur l'hôte sont répertoriés dans le tableau Adaptateurs de
stockage.
4Sélectionnez l'adaptateur dans la liste et cliquez sur l'onglet Périphériques.
Les périphériques de stockage auxquels l'hôte peut accéder grâce à l'adaptateur sont affichés.
5Utilisez les icônes pour effectuer des tâches de gestion du stockage de base.
La disponibilité d'icônes spécifiques varie selon le type et la configuration du périphérique.
IcôneDescription
RégénérerActualiser les informations sur les adaptateurs de stockage, la topologie et les
systèmes de fichiers.
RéanalyserRéanalyser tous les adaptateurs de stockage de l'hôte pour découvrir les
périphériques de stockage ou les banques de données VMFS récemment ajoutés.
DétacherDétacher le périphérique sélectionné de l'hôte.
AttacherAttacher le périphérique sélectionné à l'hôte.
VMware, Inc. 24
Page 25
Stockage vSphere
IcôneDescription
RenommerModifier le nom complet du périphérique sélectionné.
Activer la LEDAllumer le voyant du localisateur pour les périphériques sélectionnés.
Désactiver la LEDÉteindre le voyant du localisateur pour les périphériques sélectionnés.
Marquer en tant que disque flashMarquer les périphériques sélectionnés en tant que disques Flash.
Marquer en tant que Disque dur
(HDD)
Marquer en tant que localMarquer les périphériques sélectionnés en tant que locaux pour l'hôte.
Marquer en tant que distantMarquer les périphériques sélectionnés en tant que distants pour l'hôte.
Effacer les partitionsEffacer les partitions sur les périphériques sélectionnés.
Marquer les périphériques sélectionnés en tant que disques HDD.
Comparaison des types de stockage
La prise en charge de certaines fonctionnalités de vSphere peut dépendre de la technologie de stockage
que vous utilisez.
Le tableau suivant compare les technologies de stockage en réseau pris en charge par ESXi.
Tableau 2‑2. Stockage en réseau pris en charge par ESXi
TechnologieProtocolesTransfertsInterface
Fibre ChannelFC/SCSIBloquer l'accès de
données/LUN
Fibre Channel sur
Ethernet
iSCSIIP/SCSIBloquer l'accès de
FCoE/SCSIBloquer l'accès de
données/LUN
données/LUN
FC HBA
n
Adaptateur réseau convergé (FCoE matériel)
n
Carte NIC avec prise en charge FCoE (FCoE
logiciel)
n
Carte NIC compatible iSCSI HBA ou iSCSI
(iSCSI matériel)
n
Adaptateur réseau (iSCSI logiciel)
NASIP/NFSFichier (pas d'accès direct à
LUN)
Adaptateur réseau
Le tableau suivant compare les fonctions de vSphere pris en charge par différents types de stockage.
Tableau 2‑3. Fonctions vSphere pris en charge par le stockage
API de
stockage
-
Protectio
Type de
stockage
Stockage localOuiNonVMFSNonOuiNonOui
Fibre ChannelOuiOuiVMFSOuiOuiOuiOui
VMware, Inc. 25
Démarrage
VMvMotion
Banque de
donnéesRDMCluster VM
VMware HA
et DRS
n des
données
Page 26
Stockage vSphere
Tableau 2‑3. Fonctions vSphere pris en charge par le stockage (suite)
API de
stockage
-
Protectio
Type de
stockage
iSCSIOuiOuiVMFSOuiOuiOuiOui
Démarrage
VMvMotion
Banque de
donnéesRDMCluster VM
VMware HA
et DRS
n des
données
NAS sur NFSOuiOuiNFS 3 et
NFS 4.1
NonNonOuiOui
Remarque Le stockage local prend en charge un cluster de machines virtuelles sur un seul hôte (connu
également sous le nom cluster dans une boîte). Un disque virtuel partagé est requis. Pour plus
d'informations sur cette configuration, consultez la documentation Gestion des ressources vSphere.
Adaptateurs de stockage pris en charge
Les adaptateurs de stockage assurent la connectivité de votre hôte ESXi à un réseau ou une unité de
stockage spécifique.
ESXi prend en charge différentes catégories d'adaptateurs, y compris SCSI, iSCSI, RAID, Fibre Channel,
Fibre Channel over Ethernet (FCoE) et Ethernet. ESXi accède directement aux adaptateurs via des
pilotes de périphériques dans le VMkernel.
Selon le type de stockage utilisé, vous devrez peut-être activer ou configurer un adaptateur de stockage
sur votre hôte.
Pour plus d'informations sur la configuration des adaptateurs FCoE logiciels, consultez Chapitre 6
Configuration de Fibre Channel over Ethernet.
Pour plus d'informations sur la configuration des différents types d'adaptateurs iSCSI, consultez Chapitre
11 Configuration des adaptateurs iSCSI et du stockage.
Consulter les informations sur les adaptateurs de stockage
L'hôte utilise des adaptateurs de stockage pour accéder aux différents périphériques de stockage. Vous
pouvez afficher les informations des adaptateurs de stockage disponibles et les vérifier.
Prérequis
Vous devez activer certains adaptateurs, par exemple iSCSI ou FCoE, pour pouvoir afficher leurs
informations. Pour configurer des adaptateurs, reportez-vous aux chapitres suivants :
n
Chapitre 11 Configuration des adaptateurs iSCSI et du stockage
n
Chapitre 6 Configuration de Fibre Channel over Ethernet
Procédure
1Accédez à l'hôte.
VMware, Inc. 26
Page 27
Stockage vSphere
2Cliquez sur l'onglet Configurer.
3Sous Stockage, cliquez sur Adaptateurs de stockage.
4Utilisez les icônes pour effectuer des tâches liées aux adaptateurs de stockage.
La disponibilité d'icônes spécifiques dépend de la configuration du stockage.
IcôneDescription
Ajouter un adaptateur
logiciel
RégénérerActualisez les informations sur les adaptateurs de stockage, la topologie et les systèmes de
Réanalyser le stockageRéanalyser tous les adaptateurs de stockage de l'hôte pour découvrir les périphériques de
Réanalyser un adaptateurRéanalysez l'adaptateur sélectionné pour détecter les périphériques de stockage nouvellement
Ajoutez un adaptateur de stockage. S'applique aux iSCSI logiciels et aux FCoE logiciels.
fichiers de l'hôte.
stockage ou les banques de données VMFS récemment ajoutés.
ajoutés.
5Pour afficher les détails d'un adaptateur spécifique, sélectionnez-le dans la liste.
6Utilisez les onglets dans Détails adaptateur pour accéder à des informations supplémentaires et
modifier les propriétés de l'adaptateur sélectionné.
OngletDescription
PropriétésVérifiez les propriétés générales de l'adaptateur qui incluent généralement le nom et le
modèle de l'adaptateur, ainsi que les identifiants uniques formés selon les normes de
stockage spécifiques. Pour les adaptateurs iSCSI et FCoE, utilisez cet onglet pour configurer
des propriétés supplémentaires, par exemple l'authentification.
PériphériquesAffichez les périphériques de stockage auxquels l'adaptateur peut accéder. Utilisez l'onglet
pour effectuer des tâches de gestion de périphériques de base. Reportez-vous à la section
Affichage des périphériques de stockage d'un adaptateur.
CheminsRépertoriez et gérez tous les chemins que l'adaptateur utilise pour accéder aux périphériques
de stockage.
Cibles (Fibre Channel et
iSCSI)
Liaison de port réseau
(iSCSI uniquement)
Options avancées (iSCSI
uniquement)
Vérifiez et gérez les cibles accessibles via l'adaptateur.
Configurez la liaison de port des logiciels et adaptateurs iSCSI matériels dépendants.
Configurez les paramètres avancés d'iSCSI.
Caractéristiques des banques de données
Les banques de données sont des conteneurs logiques, analogues à des systèmes de fichiers, qui
masquent les informations de chaque périphérique de stockage et fournissent un modèle uniforme pour
stocker des fichiers de machine virtuelle. Vous pouvez afficher toutes les banques de données
disponibles pour vos hôtes et analyser leurs propriétés.
VMware, Inc. 27
Page 28
Stockage vSphere
Les banques de données sont ajoutées à vCenter Server de la façon suivante :
n
Vous pouvez créer une banque de données VMFS, une banque de données NFS version 3 ou 4.1,
ou une banque de données Virtual Volumes à l'aide de l'assistant Nouvelle banque de données. Une
banque de données vSAN est automatiquement créée lorsque vous activez vSAN.
n
Lorsque vous ajoutez un hôte ESXi à vCenter Server, toutes les banques de données sur l'hôte sont
ajoutées à vCenter Server.
Le tableau suivant fournit des informations détaillées sur les banques de données que vous pouvez
afficher lorsque vous effectuez une analyse des banques de données avec vSphere Client. Certaines
caractéristiques peuvent ne pas être disponibles ou ne pas s'appliquer à tous les types de banques de
données.
Tableau 2‑4. Informations sur les banque de données
Informations sur les
banque de données
NomVMFS
TypeVMFS
Sauvegarde de
périphériques
Points de terminaison
de protocole
Type de banque de données
applicableDescription
NFS
vSAN
Virtual Volumes
NFS
vSAN
Virtual Volumes
VMFS
NFS
vSAN
Virtual VolumesInformations sur les points de terminaison du protocole
Nom modifiable affecté à la banque de données. Pour plus
d'informations sur la manière de renommer une banque de
données, consultez Modifier le nom d'une banque de
données.
Système de fichiers utilisé par la banque de données. Pour
plus d'informations sur les banques de données VMFS et
NFS et sur la manière de les gérer, reportez-vous à Chapitre
17 Utilisation des banques de données.
Pour obtenir des informations sur les banques de données
vSAN, reportez-vous à la documentation de Administrationde VMware vSAN.
Pour obtenir des informations sur Virtual Volumes, reportezvous à Chapitre 22 Utilisation de Virtual Volumes.
Informations relatives au stockage sous-jacent, comme le
périphérique de stockage sur lequel la banque de données
est déployée (VMFS), le serveur et le dossier (NFS) ou les
groupes de disques (vSAN).
correspondant. Reportez-vous à la section Points de
terminaison de protocole.
ExtensionsVMFSExtensions individuelles de la banque de données et
capacité correspondante.
Type de lecteurVMFSType de périphérique de stockage sous-jacent (par exemple,
un lecteur Flash ou disque dur ordinaire). Pour des détails,
veuillez vous reporter au Chapitre 15 Utilisation des
périphériques Flash.
CapacitéVMFS
NFS
vSAN
Virtual Volumes
VMware, Inc. 28
Inclut la capacité totale, l'espace alloué et l'espace libre.
Page 29
Stockage vSphere
Tableau 2‑4. Informations sur les banque de données (suite)
Informations sur les
banque de données
Point de montageVMFS
Ensembles de
capacités
Storage I/O ControlVMFS
Accélération matérielleVMFS
Type de banque de données
applicableDescription
NFS
vSAN
Virtual Volumes
VMFS
Remarque Une banque de données
VMFS multi-extensions assume les
capacités d'une seule de ses extensions.
NFS
vSAN
Virtual Volumes
NFS
NFS
vSAN
Virtual Volumes
Chemin d'accès à la banque de données dans le
répertoire /vmfs/volumes/ de l'hôte.
Informations sur les services de données de stockage
fournies par l'entité de stockage sous-jacente. Vous ne
pouvez pas les modifier.
Informations sur l'activation de la priorisation E/S du
stockage dans l'ensemble des clusters. Consultez la
documentation de Gestion des ressources vSphere.
Informations précisant si l'entité de stockage sous-jacente
prend en charge l'accélération matérielle. L'état peut être Pris
en charge, Non pris en charge ou Inconnu. Pour des détails,
veuillez vous reporter au Chapitre 24 Accélération matérielle
du stockage.
Remarque NFS 4.1 ne prend pas en charge l'accélération
matérielle.
BalisesVMFS
NFS
vSAN
Virtual Volumes
Connectivité avec les
hôtes
Gestion multivoieVMFS
VMFS
NFS
Virtual Volumes
Virtual Volumes
Capacités de la banque de données que vous définissez et
associez à des banques de données sous forme de balises.
Pour plus d'informations, consultez Affecter des balises à des
banques de données.
Hôtes sur lesquels la banque de données est montée.
Règles de sélection de chemin d'accès utilisées par l'hôte
pour accéder aux espaces de stockage. Pour plus
d'informations, consultez Chapitre 18 Présentation de la
gestion multivoie et du basculement.
Acher les informations relatives aux banques de données
Accédez à la vue Banques de données avec le navigateur de vSphere Client.
Utilisez la vue Banques de données pour répertorier toutes les banques de données disponibles dans
l'inventaire d'infrastructure vSphere, analyser les informations et modifier les propriétés.
VMware, Inc. 29
Page 30
Stockage vSphere
Procédure
1Accédez à n'importe quel objet de l'inventaire qui est un objet parent valide d'une banque de
données, comme un hôte, un cluster ou un centre de données, puis cliquez sur l'onglet Banques de
données.
Les banques de données disponibles dans l'inventaire figurent dans le panneau central.
2Utilisez les icônes d'une banque de données disponible dans le menu contextuel pour effectuer des
tâches basiques sur la banque de données sélectionnée.
La disponibilité des icônes spécifiques dépend du type de la banque de données et de sa
configuration.
Icône Description
Enregistrer une machine virtuelle existante dans l'inventaire.
Augmenter la capacité de la banque de données.
Accédez à l'explorateur de fichiers de la banque de données.
Gérez les fournisseurs de stockage.
Monter une banque de données attachée à certains hôtes.
Supprimer une banque de données
Démonter une banque de données attachée à certains hôtes.
3Pour afficher les détails d'une banque de données spécifique, cliquez sur une banque de données
sélectionnée.
4Utilisez les onglets pour accéder à des informations supplémentaires et modifier les propriétés des
banques de données.
OngletDescription
RésuméAfficher les statistiques et la configuration de la base de données sélectionnée.
SurveillerAfficher les alarmes, les données de performance, l'allocation des ressources, les événements et autres
informations sur l'état relatives à la banque de données.
ConfigurerAfficher et modifier les propriétés de la banque de données. Les éléments de menu qui s'affichent dépendent
du type de banque de données.
Autorisations Attribuer ou modifier les autorisations pour la banque de données sélectionnée.
FichiersAccédez à l'explorateur de fichiers de la banque de données.
HôtesAffichez les hôtes sur lesquels la banque de données est montée.
VMAffichez les machines virtuelles résidant sur la banque de données.
VMware, Inc. 30
Page 31
Stockage vSphere
Utilisation de la mémoire persistante
ESXi prend en charge les périphériques à mémoire persistante de nouvelle génération, également
appelés périphériques à mémoire non volatile (NVM). Ces périphériques combinent les performances et
la vitesse de la mémoire avec la persistance du stockage traditionnel. Ils peuvent conserver les données
stockées en cas de redémarrages ou de défaillances de la source d'alimentation.
Les machines virtuelles qui nécessitent une bande passante élevée, une latence faible et la persistance
peuvent bénéficier de cette technologie. Il s'agit, par exemple, des machines virtuelles qui fournissent
l'accélération des bases de données et l'analyse de la charge de travail.
Pour utiliser la mémoire persistante avec votre hôte ESXi, vous devez être familiarisé avec les concepts
suivants.
Banque de données
PMem
Une fois la mémoire persistante ajoutée à votre hôte ESXi, l'hôte détecte le
matériel, puis le formate et le monte comme une banque de données
PMem locale. ESXi utilise VMFS-L comme format de système de fichiers.
Une seule banque de données PMem locale par hôte est prise en charge.
Remarque Lorsque vous gérez la mémoire persistante physique,
assurez-vous de supprimer toutes les machines virtuelles de l'hôte et de
placer ce dernier en mode de maintenance.
Pour réduire la surcharge administrative, la banque de données PMem
offre un modèle de gestion simplifié. Les tâches de banque de données
traditionnelles ne s'appliquent généralement pas à la banque de données,
car l'hôte effectue automatiquement toutes les opérations requises en
arrière-plan. En tant qu'administrateur, vous ne pouvez pas afficher la
banque de données dans la vue Banques de données de vSphere Client,
ni effectuer d'autres actions classiques sur la banque de données. La seule
opération possible est la surveillance des statistiques pour la banque de
données PMem.
VMware, Inc. 31
Page 32
Stockage vSphere
La banque de données PMem permet de stocker les périphériques
NVDIMM virtuels et les disques virtuels traditionnels d'une machine
virtuelle. Le répertoire de base de machine virtuelle contenant les fichiers
vmx et vmware.log ne peut pas être placé sur la banque de données
PMem.
Modes d'accès PMemESXi expose la mémoire persistante à une machine virtuelle dans deux
modes différents. Les machines virtuelles prenant en charge PMem
peuvent avoir un accès direct à la mémoire persistante. Les machines
virtuelles traditionnelles peuvent utiliser les disques virtuels rapides stockés
sur la banque de données PMem.
Mode à accès directDans ce mode, une région PMem peut être présentée à une machine
virtuelle en tant que module NVDIMM (Non-Volatile Dual In-line Memory
Module). La machine virtuelle utilise le module NVDIMM comme une
mémoire adressable en octets standard pouvant persister pendant les
cycles d'alimentation.
Vous pouvez ajouter un ou plusieurs modules NVDIMM lors du
provisionnement de la machine virtuelle.
Les machines virtuelles doivent être dans la version matérielle ESXi 6.7 et
avoir un système d'exploitation invité prenant en charge PMem. Le
périphérique NVDIMM est compatible avec les systèmes d'exploitation
invités les plus récents qui prennent en charge la mémoire persistante, par
exemple, Windows 2016.
Chaque périphérique NVDIMM est automatiquement stocké sur la banque
de données PMem.
Mode de disque virtuelCe mode est disponible sur toute machine virtuelle traditionnelle et il prend
en charge n'importe quelle version matérielle, y compris toutes les versions
héritées. Il n'est pas nécessaire que les machines virtuelles prennent en
charge PMem. Lorsque vous utilisez ce mode, vous créez un disque virtuel
SCSI standard et associez une stratégie de stockage de machine virtuelle
PMem au disque. La stratégie place automatiquement le disque sur la
banque de données PMem.
Stratégie de stockage
PMem
Pour placer le disque virtuel sur la banque de données PMem, vous devez
appliquer la stratégie de stockage PMem locale de l'hôte par défaut sur le
disque. La stratégie n'est pas modifiable.
Elle ne peut être appliquée qu'aux disques virtuels. Étant donné que le
répertoire de base de machine virtuelle ne se trouve pas sur la banque de
données PMem, veillez à le placer sur une banque de données standard
quelconque.
VMware, Inc. 32
Page 33
Mode
Accès direct
Mode
Disque virtuel
Périphérique
NVDMM
Stratégie de
stockage PMem
Disque virtuel
Banque de données
Mémoire persistante
Machine virtuelleMachine virtuelle
prenant en charge PMemtraditionnelle
PMem
Stockage vSphere
Après avoir attribué la stratégie de stockage PMem pour le disque virtuel,
vous ne pouvez pas la modifier via la boîte de dialogue Modifier lesparamètres VM. Pour modifier la stratégie, migrez la machine virtuelle ou
clonez-la.
Le graphique suivant illustre la façon dont les composants de mémoire persistante interagissent.
Pour plus d'informations sur la configuration et la gestion de machines virtuelles dotées de modules
NVDIMM ou de disques à mémoire persistante virtuels, consultez la documentation Gestion desressources vSphere.
Surveiller les statistiques de la banque de données PMem
Vous pouvez utiliser vSphere Client et la commande esxcli pour vérifier la capacité de la banque de
données PMem et certains de ses autres attributs.
Cependant, contrairement aux banques de données standard, comme les VMFS ou VVols, la banque de
données PMem n'apparaît pas dans la vue Banques de données de vSphere Client. Les tâches
administratives de la banque de données normale ne s'appliquent pas à la banque de données PMem.
Procédure
u
Passez en revue les informations de la banque de données PMem.
OptionDescription
vSphere Clienta Accédez à l'hôte ESXi et cliquez sur Résumé.
Commande esxcliUtilisez la commande esxcli storage filesystem list pour afficher la
b Dans le panneau Matériel, vérifiez que la Mémoire persistante s'affiche et
vérifiez sa capacité.
banque de données PMem.
VMware, Inc. 33
Page 34
Stockage vSphere
Exemple : Achage de la banque de données PMem
L'exemple de sortie suivant s'affiche lorsque vous utilisez la commande esxcli storage filesystem
list pour répertorier la banque de données.
# esxcli storage filesystem list
Mount Point Volume Name UUID Mounted Type Size Free
L'utilisation d'ESXi avec un SAN signifie plus de souplesse, plus d'efficacité et plus de fiabilité. L'utilisation
d'ESXi avec un SAN prend également en charge la gestion centralisée et les technologies de
basculement et d'équilibrage de charge.
L'utilisation d'ESXi avec un SAN vous offre les avantages suivants :
n
Vous pouvez stocker vos données de manière sécurisée et configurer plusieurs chemins vers votre
lieu de stockage afin d'éliminer tout risque de défaillance d'un point de stockage unique.
n
L'utilisation d'un SAN avec les systèmes ESXi prolonge la résistance aux pannes sur le serveur.
Lorsque vous utilisez un stockage SAN, toutes les applications peuvent être immédiatement
redémarrées sur un autre hôte suite à la panne de l'hôte d'origine.
n
Vous pouvez effectuer la migration en direct des machines virtuelles à l'aide de VMware vMotion.
n
Utilisez VMware High Availability (HA) avec un SAN pour redémarrer des machines virtuelles dans
leur dernier état connu sur un serveur différent en cas de défaillance de leur hôte.
n
Utilisez VMware Fault Tolerance (FT) pour copier les machines virtuelles protégées sur deux hôtes
différents. Les machines virtuelles continuent à fonctionner sans interruption sur l'hôte secondaire en
cas de défaillance de l'hôte principal.
n
Utilisez VMware Distributed Resource Scheduler (DRS) pour migrer les machines virtuelles depuis un
hôte vers un autre afin d'obtenir un équilibrage de charge. Le stockage se trouvant sur une baie SAN
partagée, les applications continuent de s'exécuter de manière transparente.
n
Si vous utilisez des clusters VMware DRS, mettez l'hôte ESXi en mode maintenance afin que le
système migre toutes les machines virtuelles en service vers d'autres hôtes ESXi. Ensuite, vous
pouvez effectuer les mises à niveau ou d'autres opérations de maintenance sur l'hôte d'origine.
La portabilité et l'encapsulation des machines virtuelles VMware sont un complément à la nature
partagée de ce stockage. Lorsque les machines virtuelles se trouvent sur un stockage SAN, vous pouvez
rapidement arrêter une machine virtuelle sur un serveur et la démarrer sur un autre serveur, ou la
suspendre sur un serveur et reprendre l'activité sur un autre serveur sur le même réseau. Ainsi, vous
pouvez migrer des ressources informatiques tout en maintenant un accès partagé cohérent.
Ce chapitre aborde les rubriques suivantes :
n
Cas d'utilisation d'ESXi et du SAN
n
Informations détaillées sur l'utilisation du stockage SAN avec l'ESXi
VMware, Inc.
35
Page 36
Stockage vSphere
n
Hôtes ESXi et baies de stockage multiples
n
Prendre des décisions LUN
n
Sélection de l'emplacement des machines virtuelles
n
Applications de gestion tierces
n
Considérations sur la sauvegarde de stockage SAN
Cas d'utilisation d' ESXi et du SAN
Lorsque l'ESXi est utilisé avec un SAN, il peut bénéficier de multiples fonctionnalités vSphere, y compris
Storage vMotion, Distributed Resource Scheduler (DRS), High Availability, etc.
L'utilisation de l'ESXi avec un SAN est efficace pour les tâches suivantes :
Consolidation du
stockage et
simplification de
l'architecture de
Si vous travaillez avec plusieurs hôtes et que chacun d'entre eux utilise
plusieurs machines virtuelles, le stockage sur les hôtes n'est plus suffisant.
Vous allez devoir utiliser un stockage externe. Le SAN peut fournir une
architecture système simple et offrir d'autres avantages.
stockage
Maintenance sans
interruption de service
Lors de la maintenance d'une infrastructure ou d'un hôte ESXi, utilisez
vMotion pour migrer les machines virtuelles vers un autre hôte. Si le
stockage partagé se trouve sur le SAN, vous pouvez effectuer les
opérations de maintenance sans aucune interruption pour les utilisateurs
des machines virtuelles. Les processus de travail de VM continuent au
cours d'une migration.
Équilibrage de chargeVous pouvez ajouter un hôte à un cluster DRS et les ressources de l'hôte
font partie des ressources du cluster. La répartition et l'utilisation du CPU et
des ressources mémoire de tous les hôtes et des machines virtuelles du
cluster sont constamment surveillées. DRS compare ces mesures à une
utilisation idéale des ressources. L'utilisation idéale prend en compte les
attributs des pools de ressources du cluster et des machines virtuelles, la
demande actuelle et la cible de déséquilibre. Si besoin est, DRS effectue
ou recommande des migrations de machine virtuelle.
Récupération
d'urgence
Vous pouvez utiliser VMware High Availability pour configurer plusieurs
hôtes ESXi comme un cluster. Le cluster offre une récupération rapide à la
suite de pannes et une haute disponibilité à moindre coût pour les
applications s'exécutant dans les machines virtuelles.
Migrations de baies et
mises à niveau du
stockage simplifiées
Lorsque vous achetez de nouveaux systèmes de stockage, utilisez Storage
vMotion pour effectuer des migrations en direct des machines virtuelles
d'un stockage existant vers leurs nouvelles destinations. Vous pouvez
effectuer les migrations sans aucune interruption des machines virtuelles.
VMware, Inc. 36
Page 37
Stockage vSphere
Informations détaillées sur l'utilisation du stockage SAN
avec l' ESXi
L'utilisation d'un SAN avec un hôte ESXi diffère de l'utilisation classique d'un SAN de différentes
manières.
Lorsque vous utilisez le stockage SAN avec l'ESXi, les considérations suivantes s'appliquent :
n
Vous ne pouvez pas utiliser les outils d'administration du SAN pour accéder aux systèmes
d'exploitation des machines virtuelles qui résident sur le stockage. Avec les outils traditionnels, vous
pouvez uniquement surveiller le système d'exploitation VMwareESXi. Pour surveiller les machines
virtuelles, vous devez utiliser vSphere Client.
n
Le HBA visible aux outils d'administration du SAN fait partie du système ESXi et non de la machine
virtuelle.
n
En règle générale, votre système ESXi effectue la gestion multivoie pour vous.
Hôtes ESXi et baies de stockage multiples
Un hôte ESXi peut accéder aux périphériques de stockage présentés depuis plusieurs baies de stockage,
y compris des baies provenant de différents fournisseurs.
Si vous utilisez plusieurs baies provenant de différents fournisseurs, les considérations suivantes
s'appliquent :
n
Si votre hôte utilise le même SATP pour plusieurs baies, soyez prudent lorsque vous modifiez le PSP
par défaut pour ce SATP. La modification s'applique à toutes les baies. Pour plus d'informations sur
les SATP et PSP, consultez Chapitre 18 Présentation de la gestion multivoie et du basculement.
n
Certaines baies de stockage formulent des recommandations sur la profondeur de la file d'attente et
d'autres paramètres. En général, ces paramètres sont configurés de manière globale au niveau de
l'hôte ESXi. La modification des paramètres d'une baie aura des répercussions sur les autres baies
qui présenteront les LUN à l'hôte. Pour plus d'informations sur la modification de profondeur de la file
d'attente, consultez l'article de la base de connaissances VMware sur http://kb.vmware.com/kb/1267.
n
Utilisez le zonage à initiateur et cible uniques lors du zonage d'hôtes ESXi vers des baies Fibre
Channel. Avec ce type de configuration, les événements liés à une infrastructure qui se produisent
sur une baie n'ont pas de répercussions sur les autres baies. Pour plus d'informations sur le zonage,
consultez Utilisation du zonage avec les SAN Fibre Channel.
Prendre des décisions LUN
Vous devez planifier la configuration du stockage de vos systèmes ESXi avant de formater les LUN avec
les banques de données VMFS.
Lorsque vous prenez une décision LUN, les considérations suivantes s'appliquent :
n
Chaque LUN doit avoir le bon niveau RAID et des caractéristiques de stockage correctes pour les
applications s'exécutant dans les machines virtuelles utilisant le LUN.
VMware, Inc. 37
Page 38
Stockage vSphere
n
Chaque LUN ne doit contenir qu'une banque de données VMFS.
n
Si plusieurs machines virtuelles ont accès au même VMFS, utilisez les partages de disque pour
classer les machines virtuelles par ordre de priorité.
Vous pourriez souhaiter utiliser moins de LUN mais de plus grande taille pour les raisons suivantes :
n
Plus de souplesse de création des machines virtuelles sans avoir à demander plus d'espace de
stockage à l'administrateur.
n
Plus de souplesse de redimensionnement des disques virtuels, de prise de snapshots et de bien
d'autres choses encore.
n
Moins de banques de données VMFS à gérer.
Vous pourriez souhaiter utiliser moins de LUN et de plus petite taille pour les raisons suivantes :
n
Gain d'espace.
n
Différentes applications pourraient nécessiter des caractéristiques RAID différentes.
n
Plus de souplesse grâce à la définition de la règle de gestion multivoie et des partages de disque par
LUN.
n
L'utilisation du service de cluster de Microsoft (Microsoft Cluster Service) exige que chaque ressource
de disque en cluster soit dans sa LUN respective.
n
Meilleures performances car un volume unique subit moins de contention.
Lorsque les caractéristiques de stockage d'une machine virtuelle ne sont pas disponibles, il peut s'avérer
difficile de déterminer le nombre et la taille des LUN à provisionner. Vous pouvez essayer d'utiliser un
schéma prédictif ou adaptatif.
Utilisation du schéma prédictif pour prendre les décisions de LUN
Lors de la définition du stockage pour les systèmes ESXi, et avant la création de banques de données
VMFS, vous devez décider de la taille et du nombre de LUN à mettre en place. Vous pouvez essayer le
schéma prédictif.
Procédure
1Mettez en place plusieurs LUN avec différentes caractéristiques de stockage.
2Créez une banque de données VMFS sur chaque LUN, en étiquetant chaque banque de données
selon ses caractéristiques.
3Créez des disques virtuels qui contiendront les données des applications de la machine virtuelle dans
les banques de données VMFS créées sur les LUN avec le niveau RAID approprié aux conditions
requises des applications.
VMware, Inc. 38
Page 39
Stockage vSphere
4Utilisez les partages de disque pour distinguer les machines virtuelles disposant des priorités les plus
hautes de celles ayant les priorités les plus basses.
Remarque Les parts de disque sont uniquement utiles au sein d'un hôte défini. Les parts assignées
aux machines virtuelles sur un hôte n'exercent aucun effet sur des machines virtuelles sur d'autres
hôtes.
5Exécutez les applications pour déterminer si les performances de la machine virtuelle sont
acceptables.
Utilisation du schéma adaptatif pour prendre les décisions de LUN
Lors de la définition du stockage pour les hôtes ESXi, avant la création de banques de données VMFS,
vous devez décider de la taille et du nombre de LUN à mettre en place. Vous pouvez essayer le schéma
adaptatif.
Procédure
1Mettez en place une LUN (RAID 1+0 ou RAID 5) de grande taille et activez la mise en cache des
écritures.
2Créez un VMFS sur cette LUN.
3Créez quatre ou cinq disques virtuels sur le VMFS.
4Exécutez les applications pour déterminer si les performances du disque sont acceptables.
Si les performances sont acceptables, placez les disques virtuels supplémentaires sur le VMFS. Si les
performances ne sont pas acceptables, créez un nouveau LUN de grande taille avec un niveau RAID
différent et répétez la procédure. Utilisez la migration afin de ne pas perdre les données des machines
virtuelles lorsque vous recréez la LUN.
Sélection de l'emplacement des machines virtuelles
Si vous souhaitez optimiser les performances de vos machines virtuelles, l'emplacement du stockage est
un facteur important. Selon vos besoins de stockage, vous pouvez sélectionner un stockage avec des
performances élevées et une haute disponibilité ou un stockage avec des performances inférieures.
Le stockage peut être divisé en plusieurs niveaux, selon un certain nombre de facteurs :
n
Niveau élevé. Offre de hautes performances et une grande disponibilité. Peut offrir des snapshots
intégrés pour faciliter les sauvegardes et les restaurations instantanées. Prend en charge la
réplication, la redondance complète des processeurs de stockage et les lecteurs SAS. Utilise des
axes de prix élevé.
n
Niveau intermédiaire Offre des performances de milieu de gamme, une disponibilité plus faible,
quelques redondances de processeurs de stockage et des lecteurs SCSI ou SAS. Peut fournir des
snapshots. Utilise des axes de prix moyen.
n
Niveau inférieur Offre des performances faibles, peu de redondance de stockage interne. Utilise des
lecteurs SCSI bas de gamme ou SATA.
VMware, Inc. 39
Page 40
Stockage vSphere
Les machines virtuelles ne doivent pas toutes se trouver sur le stockage possédant les meilleures
performances et la plus grande disponibilité tout au long de leur cycle de vie.
Lors du choix de l'emplacement d'une machine virtuelle, les considérations suivantes s'appliquent :
n
Criticité de la machine virtuelle
n
Exigences en matière de performances et de disponibilité
n
Exigences en matière de restauration instantanée
n
Exigences en matière de sauvegarde et de réplication
Une machine virtuelle peut changer de niveau tout au long de son cycle de vie en raison de modifications
de la criticité ou de la technologie. Son importance est relative et peut changer pour diverses raisons,
parmi lesquelles les modifications apportées à l'organisation, les processus opérationnels, les obligations
réglementaires, la planification suite à un incident, etc.
Applications de gestion tierces
Vous pouvez utiliser les applications de gestion tierces avec votre hôte ESXi.
La majorité des matériels SAN sont délivrés avec le logiciel de gestion du stockage. Dans la majorité des
cas, ce logiciel est une application Web qui peut être utilisée avec tout navigateur Web connecté à votre
réseau. Dans certains autres cas, ce logiciel s'exécute habituellement sur le système de stockage ou sur
un serveur unique, indépendamment des serveurs utilisant le SAN pour le stockage.
Utilisez le logiciel de gestion tiers pour effectuer les tâches suivantes :
n
La gestion des baies de stockage, y compris la création de LUN, la gestion de la mémoire cache des
baies, le mappage de LUN et la sécurité des LUN.
n
La configuration de la réplication, des points de vérification, des snapshots ou de la mise en miroir.
Si vous exécutez le logiciel de gestion du SAN sur une machine virtuelle, vous bénéficiez de tous les
avantages d'une machine virtuelle, y compris le basculement à l'aide de vMotion et de VMware HA.
Toutefois, en raison du niveau supplémentaire d'indirection, il se peut que le logiciel de gestion ne soit
pas en mesure de voir le SAN. Dans ce cas, utilisez un RDM.
Remarque Le succès d'exécution d'un logiciel de gestion par une machine virtuelle dépend du système
de stockage.
Considérations sur la sauvegarde de stockage SAN
Une stratégie de sauvegarde appropriée est l'un des aspects les plus importants de la gestion d'un SAN.
Dans un environnement SAN, les sauvegardes ont deux objectifs. Le premier objectif est d'archiver des
données en ligne sur des supports hors ligne. Ce processus est répété régulièrement pour toutes les
données en ligne, selon un calendrier. Le second objectif est de fournir un accès aux données hors ligne
pour une restauration en cas de problème. Par exemple, la récupération de bases de donnée nécessite
souvent la récupération des fichiers de journalisation archivés qui ne sont pas en ligne à ce moment.
VMware, Inc. 40
Page 41
Stockage vSphere
La programmation d'une sauvegarde dépend de plusieurs facteurs :
n
L'identification des applications critiques nécessitant des cycles de sauvegarde plus rapprochés dans
une période donnée.
n
Les points de restauration et les objectifs de période restaurée. Définissez la précision nécessaire de
vos points de récupération et la durée d'attente souhaitée.
n
Le taux de changement (RoC) associé aux données. Par exemple, si vous utilisez une réplication
synchrone/asynchrone, le RoC affecte la quantité de bande passante requise entre les périphériques
de stockage primaires et secondaires.
n
L'impact global sur un environnement SAN, les performances de stockage et les autres applications.
n
L'identification des horaires de pointe sur le SAN. Les sauvegardes prévues pendant ces heures de
pointe peuvent ralentir les applications et le processus de sauvegarde.
n
Le temps passé à programmer toutes les sauvegardes dans le centre de données.
n
Le temps passé à sauvegarder une application spécifique.
n
La disponibilité des ressources pour l'archivage des données, telles que l'accès des supports hors
ligne.
Incluez un objectif de temps de restauration pour chaque application lorsque vous concevez votre
stratégie de sauvegarde. C'est-à-dire que vous devez envisager le temps et les ressources nécessaires
pour effectuer une sauvegarde. Par exemple, si une sauvegarde programmée stocke tant de données
que leur restauration cause un délai considérable, réexaminez la programmation des sauvegardes. Vous
pouvez effectuer des sauvegardes plus fréquemment, de façon à sauvegarder moins de données à la
fois, et diminuer ainsi le délai de restauration.
Si une application nécessite une récupération dans un délai précis, le processus de sauvegarde doit
fournir un horaire et un traitement des données pour ce délai. La récupération rapide peut exiger
l'utilisation des volumes de récupération qui résident sur le stockage en ligne. Ce processus permet de
réduire ou d'éliminer le besoin d'accéder aux supports hors ligne lents pour récupérer des composants de
données manquants.
Utilisation des modules de sauvegarde tiers
Vous pouvez utiliser des solutions de sauvegarde tierces pour protéger le système, l'application et les
données utilisateur dans vos machines virtuelles.
Les API de stockage - Protection des données proposées par VMware peuvent fonctionner avec des
produits tiers. Lors de l'utilisation des API, le logiciel tiers peut effectuer les sauvegardes sans charger les
hôtesESXi du traitement des tâches de sauvegarde.
Les produits tiers utilisant les API de stockage - Protection des données peuvent effectuer les tâches de
sauvegarde suivantes :
n
Effectuer une sauvegarde d'images complète, différentielle et incrémentielle, et la restauration des
machines virtuelles.
VMware, Inc. 41
Page 42
Stockage vSphere
n
Effectuer, au niveau du fichier, une sauvegarde des machines virtuelles qui utilisent les systèmes
d'exploitation Windows et Linux pris en charge.
n
Vérifiez la cohérence des données en utilisant VSS (Microsoft Volume Shadow Copy Services) pour
les machines virtuelles qui exécutent les systèmes d'exploitation Microsoft Windows pris en charge.
Étant donné que les API de stockage - Protection des données utilisent les capacités de snapshot de
VMFS, les sauvegardes ne nécessitent pas d'arrêter les machines virtuelles. Ces sauvegardes ne sont
pas perturbatrices ; elles peuvent être effectuées à tout moment et ne nécessitent pas des fenêtres de
sauvegarde étendues.
Pour plus d'informations sur les API de stockage - Protection des données et sur l'intégration aux produits
de sauvegarde, consultez le site Web de VMware ou contactez votre fournisseur.
VMware, Inc. 42
Page 43
Utilisation d' ESXi avec un SAN
Fibre Channel4
Lorsque vous installez des hôtes ESXi pour utiliser des baies de stockage SAN FC, certaines
considérations spéciales sont nécessaires. Cette section vous fournit une première approche de
l'utilisation d'ESXi avec une baie SAN FC.
Ce chapitre aborde les rubriques suivantes :
n
Concepts du SAN Fibre Channel
n
Utilisation du zonage avec les SAN Fibre Channel
n
Accès des machines virtuelles aux données sur un SAN Fibre Channel
Concepts du SAN Fibre Channel
Si vous êtes administrateur de ESXi et envisagez de configurer les hôtes pour fonctionner avec des SAN,
vous devez avoir une connaissance pratique des concepts SAN. Vous trouverez des informations sur les
SANs en livre et sur Internet. Du fait que ce secteur technologique évolue constamment, cherchez les
ressources les plus récentes.
Si vous êtes novices en technologie SAN, familiarisez-vous avec la terminologie de base.
Un réseau de zone de stockage (SAN) est un réseau à haute vitesse spécialisé qui connecte des
serveurs hôtes à des sous-systèmes de stockage à hautes performances. Les composants SAN
comprennent les adaptateurs de bus hôte (HBA), les commutateurs qui aident à diriger le trafic de
stockage, les câbles, les processeurs de stockage (SPs), et les baies de disques de stockage.
Une topologie SAN avec au moins un commutateur présent sur le réseau forme une structure SAN.
Pour transférer le trafic des serveurs hôtes vers le stockage partagé, le SAN utilise le protocole Fibre
Channel (FC) qui rassemble les commandes SCSI en trames Fibre Channel.
Pour restreindre l'accès d'un serveur aux baies de stockage non allouées à ce serveur, le SAN utilise le
zonage. Classiquement, des zones sont créées pour chaque groupes de serveurs accédant à un groupe
partagé de périphériques de stockage et de LUN. Ces zones définissent quels HBA peuvent se connecter
à quels SPs. Les périphériques en dehors d'une zone ne sont pas visibles aux périphériques inclus dans
cette zone.
Le zonage est similaire au masquage des LUN, fréquemment utilisé pour l'administration des
permissions. Le masquage des LUN est un processus qui rend un LUN disponible pour certains hôtes,
mais indisponibles pour d'autres hôtes.
VMware, Inc.
43
Page 44
Stockage vSphere
Lors du transfert de données entre le serveur hôte et le stockage, le SAN utilise une technique connue
sous le nom de gestion chemins multiples. La fonction de chemin multiple permet de disposer de
plusieurs chemins physiques depuis un hôte ESXi vers une LUN dans un système de stockage.
De manière générale, un chemin unique partant d'un hôte vers un LUN se compose d'un HBA, de ports
de commutateur, de câbles de connexion et du port de contrôleur de stockage. Si un des composants du
chemin subit une défaillance, l'hôte sélectionne un autre chemin disponible pour l'E/S. Le processus de
détection d'un chemin défaillant et de changement vers un autre chemin est connu sous le nom de
basculement de chemin.
Ports dans le SANPorts dans le SAN Fibre Channel
Dans le contexte de ce document, un port est une connexion à partir d'un périphérique dans le SAN.
Chaque nœud du SAN, tel qu'un hôte, un périphérique de stockage ou un composant de l'infrastructure
d'interconnexion dispose d'un ou de plusieurs ports qui le connectent au SAN. Les ports sont identifiés de
plusieurs manières.
WWPN (World Wide
Port Name)
Port_ID (ou adresse du
port)
Lorsque N-Port ID Virtualization (NPIV) est utilisé, un seul port FC HBA (N-port) peut s'enregistrer sur
l'infrastructure d'interconnexion en utilisant plusieurs WWPN. Cette méthode permet à un N-port de
réclamer plusieurs adresses d'interconnexion, chacune d'entre-elles apparaissant en tant qu'entité
unique. Lorsque l'hôte ESXi utilise un SAN, ces nombreux identificateurs exclusifs permettent l'affectation
des WWN à des machines virtuelles individuelles dans le cadre de leur configuration.
Un identificateur global unique pour un port qui permet à certaines
applications d'accéder au port. Le commutateur FC détecte le WWPN d'un
périphérique ou d'un hôte et affecte une adresse de port au périphérique.
Dans un SAN, chaque port a un ID de port exclusive qui lui sert d'adresse
FC pour le port. Cette ID exclusive permet le routage des données via le
SAN vers ce port. Les commutateurs FC affectent l'ID du port lorsque le
périphérique se connecte à l'infrastructure d'interconnexion. L'ID du port est
valide uniquement lorsque le périphérique est connecté.
Types de baie de stockage Fibre Channel
ESXi prend en charge différents systèmes de stockage et de baies.
VMware, Inc. 44
Page 45
Stockage vSphere
Votre hôte prend en charge les types de stockage suivants : actif-actif, actif-passif et conforme à ALUA.
Système de stockage
actif-actif
Prend en charge l'accès simultané aux LUN par tous les ports de stockage
qui sont disponibles sans dégradation importante des performances. Tous
les chemins sont actifs, sauf si un chemin est défaillant.
Système de stockage
actif-passif
Un système dans lequel un processeur de stockage fournit l'accès à un
LUN donné. Les autres processeurs sont utilisés en tant que sauvegarde
pour le LUN et peuvent fournir l'accès à d'autres E/S de LUN. L'E/S peut
uniquement être envoyée avec succès vers un port actif pour un LUN
spécifique. Si l'accès via le port de stockage actif échoue, un des
processeurs de stockage passifs peut être activé par les serveurs qui y
accèdent.
Système de stockage
asymétrique
Prend en charge Asymmetric Logical Unit Access (ALUA). Les systèmes
de stockage conforme à ALUA offrent des niveaux différents d'accès par
port. Avec ALUA, l'hôte peut déterminer les états des ports cibles et classer
les chemins par priorité. L'hôte utilise certains des chemins actifs comme
étant principaux et d'autres comme secondaires.
Utilisation du zonage avec les SAN Fibre Channel
Le zonage fournit le contrôle d'accès dans la topologie du SAN. Le zonage définit quels HBA peuvent se
connecter aux cibles. Lorsque vous configurez un SAN en utilisant le zonage, les périphériques
extérieurs à une zone ne peuvent pas être vus par les périphériques se trouvant à l'intérieur de la zone.
Le zonage a les effets suivants :
n
Réduit le nombre de cibles et de LUN présentées à l'hôte.
n
Contrôle et isole les chemins dans une infrastructure d'interconnexion.
n
Interdit aux systèmes non ESXi l'accès à un système de stockage particulier et empêche toute
destruction potentielle des données VMFS.
n
Peut être utilisé pour séparer des environnements différents, par exemple, un environnement de tests
d'un environnement de production.
Avec les hôtes ESXi, utilisez un zonage à initiateur unique ou un zonage à initiateur unique et à cible
unique. La dernière étant la méthode de zonage la plus pratiquée. L'utilisation d'un zonage plus restrictif
évite les problèmes et les risques de mauvaises configurations et le SAN.
Pour des instructions plus détaillées et les bonnes méthodes de zonage, contactez l'éditeur de la baie de
stockage ou du commutateur.
VMware, Inc. 45
Page 46
Stockage vSphere
Accès des machines virtuelles aux données sur un SAN
Fibre Channel
ESXi stocke les fichiers disque d'une machine virtuelle dans une banque de données VMFS se trouvant
sur un périphérique de stockage du SAN. Lorsque les systèmes d'exploitation invités de la machine
virtuelle envoient des commandes SCSI à leurs disques virtuels, la couche de virtualisation SCSI traduit
ces commandes en opérations de fichier VMFS.
Lorsqu'une machine virtuelle interagit avec son disque virtuel stocké sur un SAN, le processus suivant a
lieu :
1Lorsque le système d'exploitation invité sur une machine virtuelle lit ou écrit sur le disque SCSI, il
envoie des commandes SCSI au disque virtuel.
2Les pilotes de périphériques dans le système d'exploitation de la machine virtuelle communiquent
avec les contrôleurs SCSI virtuels.
3Le contrôleur SCSI virtuel transmet la commande au VMkernel.
4Le VMkernel effectue les tâches suivantes :
aLocalisation du fichier de disque virtuel approprié dans le volume VMFS.
bMappage des requêtes de blocs sur le disque virtuel sur les blocs sur le périphérique physique
approprié.
cEnvoi de la demande d'E/S modifiée à partir du pilote du périphérique du VMkernel vers le HBA
physique.
5Le HBA physique effectue les tâches suivantes :
aPréparation de la demande d'E/S selon les règles du protocole FC.
bTransmission de la requête au SAN.
6En fonction d'un port que le HBA utilise pour se connecter à l'infrastructure, l'un des commutateurs
SAN reçoit la demande. Le commutateur achemine la demande vers le périphérique de stockage
approprié.
VMware, Inc. 46
Page 47
Configuration du stockage Fibre
Channel5
Lorsque vous utilisez des systèmes ESXi avec un stockage SAN, il existe des conditions requises
spécifiques au matériel et au système.
Ce chapitre aborde les rubriques suivantes :
n
Conditions requises de SAN Fibre Channel ESXi
n
Étapes d'installation et de configuration
n
Virtualisation d'identification N-Port
Conditions requises de SAN Fibre Channel ESXi
Lors de la préparation de la configuration de votre SAN et de votre système ESXi pour que celui-ci utilise
le stockage SAN, consultez les conditions requises et les recommandations.
n
Assurez-vous que les systèmes ESXi prennent en charge les combinaisons micrologicielles et
matérielles de stockage SAN que vous utilisez. Pour obtenir une liste à jour, consultez le Guide decompatibilité VMware.
n
Configurez votre système pour avoir un seul volume VMFS par LUN.
n
Sauf si vous utilisez des serveurs sans disque, ne configurez pas la partition de diagnostic sur un
LUN SAN.
Si vous utilisez un serveur sans disque démarrant à partir d'un SAN, il est approprié d'utiliser une
partition de diagnostic partagée.
n
Utilisez les RDM pour accéder aux disques bruts. Pour plus d'informations, consultez Chapitre 19
Mappage de périphérique brut.
n
Pour que les chemins multiples fonctionnent correctement, chaque LUN doit présenter le même ID de
LUN pour tous les hôtes ESXi.
n
Assurez-vous que le pilote du périphérique de stockage définisse une file d'attente suffisamment
grande. Vous pouvez définir la profondeur de file d'attente pour le HBA physique lors de la
configuration du système.
n
Sur les machines virtuelles qui exécutent Microsoft Windows, augmentez la valeur du paramètre
TimeoutValue SCSI à 60. Avec cette augmentation, Windows peut tolérer des E/S différées
provenant d'un basculement de chemin. Pour plus d'informations, consultez Définir le délai
d'expiration du SE invité Windows.
VMware, Inc.
47
Page 48
Stockage vSphere
Restrictions de SAN Fibre Channel ESXi
Lorsque vous utilisez ESXi avec un SAN, certaines restrictions s'appliquent.
n
ESXi ne prends pas en charge les périphériques de bande connectés au FC.
n
Vous ne pouvez pas utiliser un logiciel de chemins multiples à l'intérieur d'une machine virtuelle pour
effectuer un équilibrage de charge E/S sur un LUN physique unique. Cependant, lorsque votre
machine virtuelle Microsoft Windows utilisez des disques dynamiques, cette restriction ne s'applique
pas. Pour plus d'informations sur la configuration des disques dynamiques, consultez Configuration
de la mise en miroir des disques dynamiques.
Définition des allocations de LUN
Cette rubrique fournit des informations générales sur l'allocation des LUN lorsque votre ESXi fonctionne
avec le SAN.
Lorsque vous définissez les allocations de LUN, tenez compte des points suivants :
Provisionnement de
stockage
DRS vMotion et
VMware
Baies actives/actives
par rapport à baies
actives/passives.
Pour garantir que le système ESXi reconnaisse les LUN au démarrage,
provisionnez tous les LUN aux HBA appropriés avant de connecter le SAN
au système ESXi.
Provisionnez tous les LUN à tous les HBA ESXi en même temps. Le
basculement de HBA fonctionne uniquement si tous les HBA voient les
mêmes LUN.
Pour les LUN qui sont partagés entre plusieurs hôtes, veillez à ce que les
ID de LUN soient cohérents sur les différents hôtes.
Vous utilisez vCenter Server et vMotion ou DRS, veillez à ce que les LUN
des machines virtuelles soient provisionnés pour tous les hôtes ESXi. Cette
action permet de déplacer le plus facilement les machines virtuelles.
Lorsque vous utilisez vMotion ou DRS avec un matériel de stockage SAN
actif-passif, vérifiez bien que dans tous les systèmes ESXi les chemins
vers tous les processeurs de stockage sont cohérents. Sans cette
vérification, une migration vMotion peut provoquer un écrasement de
chemin.
Pour les baies de stockage actives/passives non énumérées dans la
section Compatibilité de stockage/SAN, VMware ne prend pas en charge le
basculement des ports de stockage. Dans ces cas, vous devez connecter
le serveur au port actif sur la baie de stockage. Cette configuration garantit
que les LUN sont présentés à l'hôte ESXi.
VMware, Inc. 48
Page 49
Stockage vSphere
Configuration des HBA Fibre Channel
En général, les FC HBA que vous utilisez sur votre hôte ESXi fonctionnent correctement avec les
paramètres de configuration par défaut.
Vous devez suivre les instructions de configuration données par votre fournisseur de baie de stockage.
Lors de la configuration du FC HBA, prenez en considération les aspects suivants.
n
Ne mélangez pas les FC HBA de différents fournisseurs sur un même serveur. Il est possible d'avoir
différents modèles du même HBA, mais on ne peut pas accéder à un même LUN via deux types
différents de HBA; ceci est possible uniquement via un même type.
n
Assurez-vous que le niveau du microprogramme sur chaque HBA est le même.
n
Définissez le délai pour la détection d'un basculement. Pour assurer une performance optimale, ne
modifiez pas la valeur par défaut.
n
ESXi prend en charge la connectivité Fibre Channel de bout en bout de 16 Go.
Étapes d'installation et de configuration
Cette rubrique décrit les étapes d'installation et de configuration que vous devez suivre lors de la
configuration de votre environnement SAN pour que celui-ci fonctionne avec l'ESXi.
Suivez ces étapes pour configurer votre environnement SAN ESXi.
1Configurez votre SAN si ce n'est déjà fait. La plupart des SAN existants ne nécessitent que quelques
modifications mineures pour fonctionner avec ESXi.
2Assurez-vous que tous les composants SAN remplissent les conditions requises.
3Apportez toute modification nécessaire à la baie de stockage.
La plupart des fournisseurs possèdent leur propre documentation pour la configuration d'un SAN pour
que celui-ci fonctionne avec VMware ESXi.
4Configurez les HBA pour les hôtes connectés au SAN.
5Installez ESXi sur les hôtes.
6Créez des machines virtuelles et installez les systèmes d'exploitation client.
7(Facultatif) Configurez votre système pour le basculement de VMware HA ou pour utiliser Microsoft
Cluster Services.
8Mettez à niveau ou modifiez votre environnement selon vos besoins.
Virtualisation d'identification N-Port
La virtualisation d'ID N-Port (NPIV) est un standard ANSI T11 qui décrit comment un port HBA unique
Fibre Channel peut s'enregistrer dans la structure avec plusieurs noms worldwide mondiaux (WWPNs).
Cela permet au N-Port attaché au fabric de posséder des adresses de structure multiples. Chaque
adresse apparaît comme une entité unique dans la structure Fibre Channel.
VMware, Inc. 49
Page 50
Stockage vSphere
Comment fonctionne l'accès à un LUN par NPIV
NPIV permet à un unique port HBA FC d'enregistrer plusieurs WWN uniques dans la structure, chacun
pouvant être assigné à une machine virtuelle.
Les objets SAN comme les commutateurs, HBA, périphériques de stockage ou machines virtuelles
peuvent se voir assignés des identifiants Nom mondial WWN. Les WWN identifient de manière unique
ces objets dans la structure Fibre Channel.
Lorsque les machines virtuelles possèdent des affectations WWN, elles les utilisent pour tout leur trafic
RDM. Les LUN vers lesquels pointent tous les RDM de la machine virtuelle doivent donc rester non
masqués pour ces WWN. Si les machines virtuelles ne possèdent pas d'affectations WWN, elles peuvent
accéder aux LUN de stockage au moyen des WWN des HBA physiques de leur hôte. Grâce à NPIV, un
administrateur SAN peut surveiller et router l'accès au stockage pour une machine virtuelle.
Lorsqu'une machine virtuelle possède un WWN qui lui est assigné, le fichier de configuration de la
machine virtuelle (.vmx) est mis à jour pour inclure une paire WWN. Cette paire est composée d'un nom
de port mondial (WWPN) et d'un nom de nœud mondial (WWNN). Au démarrage de cette machine
virtuelle, VMkernel active un port virtuel (VPORT) sur le port physique HBA utilisé pour accéder au LUN.
Le VPORT est un HBA virtuel qui s'affiche dans la structure FC comme un HBA physique. Le VPORT a
son propre identifiant unique, la paire WWN qui a été attribuée à la machine virtuelle.
Chaque port VPORT est spécifique à la machine virtuelle. Lorsque cette machine est éteinte, le VPORT
est détruit sur l'hôte et n'apparaît plus dans la structure FC. Lorsqu'une machine virtuelle est migrée d'un
hôte vers un autre, le VPORT se ferme sur le premier hôte et s'ouvre sur l'hôte de destination.
Si NPIV est activé, les paires WWN (WWPN et WWNN) sont spécifiées pour chaque machine virtuelle au
moment de leur création. Lorsqu'une machine virtuelle utilisant NPIV est mise sous tension, elle utilise
chacune de ces paires WWN par séquence afin de découvrir un chemin d'accès au stockage. Le nombre
de VPORT instanciés est égal au nombre de HBA physiques présents sur l'hôte. Un VPORT est créé sur
chaque HBA physique où un chemin physique est trouvé. Chaque chemin physique détermine le chemin
virtuel qui est utilisé pour accéder au LUN. Les HBA ne prenant pas en charge NPIV sont ignorés lors de
ce processus de découverte, car les VPORT ne peuvent y être instanciés.
Conditions nécessaires pour l'utilisation de NPIV
Si vous prévoyez d'activer NPIV sur vos machines virtuelles, vous devez connaître certaines conditions
préalables.
Les conditions suivantes sont requises :
n
NPIV ne peut être utilisé que pour des machines virtuelles avec disques RDM. Les machines
virtuelles dotées de disques virtuels standard utilisent les noms WWN des HBA physiques de l'hôte.
n
Les HBA doivent prendre en charge NPIV.
VMware, Inc. 50
Page 51
Stockage vSphere
Pour plus d'informations, consultez le Guide de compatibilité VMware ainsi que la documentation du
fournisseur.
n
Utilisez les HBA du même type, soit tout QLogic, soit tout Emulex. VMware ne prend pas en
charge les HBA hétérogènes sur le même hôte ayant accès aux mêmes LUN.
n
Si un hôte utilise de multiples HBA physiques en tant que chemins vers le stockage, sélectionnez
tous les chemins physiques vers la machine virtuelle. Cela est nécessaire afin de prendre en
charge le chemins multiples, même si un seul chemin sera actif à la fois.
n
Vérifiez que les HBA physiques sur l'hôte ont accès à tous les LUN auxquels les machines
virtuelles compatibles NPIV exécutées sur cet hôte doivent avoir accès.
n
Les commutateurs de structure doivent prendre en charge NPIV.
n
Lorsque vous configurez un LUN pour un accès NPIV au niveau du stockage, assurez-vous que le
numéro de LUN NPIV et l'ID NPIV de la cible correspondent au LUN physique et à l'ID cible.
Capacités et limitations NPIV
Découvrez les capacités et limitations spécifiques de l'utilisation de NPIV avec ESXi.
ESXi avec NPIV prend en charge les éléments suivants :
n
NPIV prend en charge vMotion. Lorsque vous utilisez vMotion pour migrer une machine virtuelle, elle
conserve le WWN assigné.
Si vous migrez une machine virtuelle activée par NPIV vers un hôte qui ne prend pas en charge
NPIV, VMkernel repasse à l'utilisation d'un HBA physique pour acheminer l'E/S.
n
Si votre environnement FC SAN prend en charge les E/S simultanées sur les disques depuis une
baie active-active, les E/S simultanées vers deux ports NPIV différents sont également prises en
charge.
Lorsque vous utilisez ESXi avec NPIV, les limitations suivantes s'appliquent :
n
Étant donné que la technologie NPIV est une extension du protocole FC, elle exige un commutateur
FC et ne fonctionne pas sur les disques FC directement reliés.
n
Lorsque vous clonez une machine virtuelle ou un modèle avec un WWN assigné, les clones ne
conservent pas le WWN.
n
NPIV ne prend pas en charge Storage vMotion.
n
La désactivation puis réactivation du NPIV sur un commutateur FC alors que des machines virtuelles
fonctionnent peut provoquer la panne du lien FC et l'arrêt des E/S.
Configurer ou modifier des attributions WWN
Attribuez des paramètres WWN à une machine virtuelle. Vous pourrez modifier des attributions WWN
ultérieurement.
Vous pouvez créer de 1 à 16 paires de WWN, pouvant être mappées vers les premières HBA FC
physiques 1 à 16 de l'hôte.
VMware, Inc. 51
Page 52
Stockage vSphere
De manière générale, vous ne devez pas changer les attributions WWN existantes sur votre machine
virtuelle. Dans certaines circonstances, par exemple, lorsque des WWN attribués manuellement
provoquent des conflits sur le SAN, il peut être nécessaire de changer ou de supprimer les WWN.
Prérequis
n
Avant de configurer un WWN, vérifiez que l'hôte ESXi peut accéder à la liste de contrôle d'accès LUN
de stockage configurée du côté baie.
n
Si vous souhaitez modifier les WWN existants, mettez la machine virtuelle hors tension.
Procédure
1Cliquez avec le bouton droit de la souris sur la machine virtuelle dans l'inventaire et sélectionnez
Modifier les paramètres.
2Cliquez sur Options VM et développez Fibre Channel NPIV.
3Créez ou modifiez les attributions WWN en sélectionnant l'une des options suivantes :
OptionDescription
Désactivez temporairement NPIV pour
cette machine virtuelle.
Laisser tel quelConserver les attributions WWN existantes. La section Attributions de WWN en
Générer nouveaux WWNGénérer de nouveaux WWN, en écrasant les WWN existants. Les WWN des
Supprimer l'attribution WWNSupprimer les WWN attribués à la machine virtuelle. La machine virtuelle utilise
Désactivez, mais ne supprimez pas les attributions de WWN existantes pour la
machine virtuelle.
lecture seule affiche les valeurs de nœud et de port des attributions WWN
existantes.
HBA ne sont pas affectés. Spécifiez le nombre de WWNN et de WWPN. Un
minimum de deux WWPN est requis pour prendre en charge le basculement avec
NPIV. Généralement, un seul WWNN est créé pour chaque machine virtuelle.
les WWN du HBA pour accéder au LUN de stockage.
4Cliquez sur OK pour enregistrer vos modifications.
Suivant
Enregistrez les nouveaux WWN dans la structure.
VMware, Inc. 52
Page 53
Configuration de Fibre Channel
over Ethernet6
Un hôte ESXi peut utiliser le protocole Fibre Channel over Ethernet (FCoE) pour accéder au stockage
Fibre Channel.
Le protocole FCoE encapsule les trames Fibre Channel dans des trames Ethernet. Par conséquent, votre
hôte n'a pas besoin de liaisons Fibre Channel spéciales pour se connecter au stockage Fibre Channel.
L'hôte peut utiliser Ethernet sans perte 10 Gbits pour fournir le trafic Fibre Channel.
Ce chapitre aborde les rubriques suivantes :
n
Adaptateurs Fibre Channel over Ethernet
n
Instructions de configuration pour le FCoE logiciel
n
Configurer le réseau pour un adaptateur FCoE logiciel
n
Ajout d'adaptateurs FCoE du logiciel
Adaptateurs Fibre Channel over Ethernet
Pour utiliser Fibre Channel over Ethernet (FCoE), vous devez configurer les adaptateurs appropriés sur
votre hôte.
Les adaptateurs pris en charge par VMware entrent généralement dans deux catégories : adaptateurs
FCoE matériels et adaptateurs FCoE logiciels qui utilisent la pile de FCoE en natif dans l'ESXi.
Pour plus d'informations sur les adaptateurs pouvant être utilisés avec VMware FCoE, reportez-vous au
Guide de compatibilité VMware
Adaptateurs FCoE matériels
Cette catégorie inclut les cartes CNA (Converged Network Adapters) spéciales complètement
déchargées qui contiennent des fonctions de réseau et Fibre Channel sur la même carte.
Lorsque ce type d'adaptateur est installé, l'hôte détecte et peut utiliser les deux composants CNA. Dans
vSphere Client, le composant de mise en réseau est un adaptateur réseau standard (vmnic) et le
composant Fibre Channel un adaptateur FCoE (vmhba). Il n'est pas nécessaire de configurer l'adaptateur
FCoE matériel pour l'utiliser.
VMware, Inc.
53
Page 54
Stockage vSphere
Adaptateur FCoE de logiciel
Un adaptateur FCoE logiciel utilise la pile de protocole FCoE native de l'ESXi pour effectuer certaines
opérations de traitement FCoE. Vous devez utiliser l'adaptateur FCoE logiciel avec une carte réseau
compatible.
Avec les adaptateurs FCoE logiciels, VMware prend en charge deux catégories de cartes réseau.
Cartes réseau avec le
déchargement FCoE
partiel
L'extension des fonctionnalités de déchargement peut être requise selon le
type de la carte réseau. En règle générale, les cartes réseau offrent des
fonctionnalités de déchargement des E/S et de Data Center Bridging
(DCB).
Cartes réseau sans le
déchargement FCoE
Toute carte réseau offrant le Data Center Bridging (DCB) et ayant une
vitesse minimale de 10 Gbits/s. La prise en charge des fonctionnalités de
déchargement FCoE ne nécessite pas d'adaptateurs réseau.
Contrairement à l'adaptateur FCoE matériel, l'adaptateur logiciel doit être activé. Avant d'activer
l'adaptateur, vous devez configurer la mise en réseau de manière appropriée.
Remarque Le nombre d'adaptateur FCoE de logiciel que vous pouvez activer correspond au nombre de
ports de carte réseau physiques. ESXi prend en charge au maximum quatre adaptateurs FCoE de
logiciel sur un hôte.
Instructions de configuration pour le FCoE logiciel
Lors de la configuration de votre environnement réseau de façon à ce qu'il fonctionne avec le FCoE du
logiciel ESXi, suivez les instructions et les meilleures pratiques proposées par VMware.
Instructions concernant le commutateur de réseau
Suivez ces instructions lorsque vous configurez un commutateur de réseau pour l'environnement FCoE
logiciel :
n
Sur les ports qui communiquent avec votre hôte ESXi, désactivez le protocole d'arborescence de
répartition (STP). Le fait d'avoir le STP activé pourrait retarder la réponse du protocole d'initialisation
du FCoE (FIP) au niveau du commutateur et provoquer un état APD (Tous chemins bas).
Le FIP est un protocole utilisé par FCoE pour trouver et initialiser les entités FCoE sur l'Ethernet.
n
Démarrez le PFC (Contrôle de flux basé sur les priorités) et définissez-le sur AUTO.
n
Assurez-vous que vous disposez d'une version de microprogramme compatible sur le commutateur
FCoE.
n
Définissez le MTU du vSwitch sur 2 500 ou plus.
VMware, Inc. 54
Page 55
Stockage vSphere
Directives et meilleures pratiques de l'adaptateur réseau
Si vous envisagez d'activer les adaptateurs FCoE logiciels pour qu'ils fonctionnent avec les adaptateurs
réseau, des considérations particulières s'appliquent.
n
Si vous utilisez une carte réseau partiellement déchargée ou une carte réseau non compatible FCoE,
assurez-vous que le tout dernier microcode est installé sur l'adaptateur réseau.
n
Si vous utilisez une carte réseau compatible FCoE, assurez-vous qu'elle dispose de la capacité DCB
pour l'activation du FCoE logiciel.
n
Si l'adaptateur réseau comporte plusieurs ports, lors de la configuration de la mise en réseau, ajoutez
chaque port à un vSwitch séparé. Cette pratique vous permet d'éviter un état APD lorsqu'un
événement perturbateur, tel qu'un changement de MTU, se produit.
n
Ne déplacez pas un adaptateur réseau d'un vSwitch vers un autre lorsque le trafic FCoE est actif. Si
vous faites ce changement, redémarrez ensuite votre hôte.
n
Si vous avez remplacé le vSwitch par un port d'adaptateur réseau et provoqué une défaillance,
redéplacez le port vers le vSwitch d'origine pour résoudre le problème.
Configurer le réseau pour un adaptateur FCoE logiciel
Avant d'activer les adaptateurs FCoE logiciels, créez des adaptateurs réseau VMkernel pour toutes les
cartes NIC FCoE physiques installées sur votre hôte.
La présente procédure explique comment créer un adaptateur réseau VMkernel unique connecté à un
adaptateur réseau FCoE physique unique par un commutateur standard vSphere. Si l'hôte est doté de
plusieurs adaptateurs réseau ou de plusieurs ports sur l'adaptateur, connectez chaque carte NIC FCoE à
un commutateur standard séparé. Pour plus d'informations, consultez la documentation Mise en réseauvSphere.
Procédure
1Accédez à l'hôte.
2Cliquez sur Actions > Ajouter une mise en réseau.
3Sélectionnez Adaptateur réseau VMkernel, puis cliquez sur Suivant.
4Sélectionnez Nouveau commutateur standard pour créer un commutateur vSphere Standard.
5Pour activer les trames Jumbo, affectez à l'option MTU (octets) une valeur égale ou supérieure à
2 500, puis cliquez sur Suivant.
6Cliquez sur l'icône Ajouter des adaptateurs, puis sélectionnez l'adaptateur réseau (vmnic #) qui
prend en charge FCoE.
Veillez à affecter l'adaptateur à des adaptateurs actifs.
VMware, Inc. 55
Page 56
Stockage vSphere
7Entrez une étiquette de réseau.
L'étiquette de réseau est un nom descriptif qui identifie l'adaptateur VMkernel que vous créez, par
exemple, FCoE.
8Précisez un ID VLAN et cliquez sur Suivant.
Le trafic FCoE nécessite un réseau isolé. Assurez-vous que l'ID de VLAN que vous entrez est
différent de celui utilisé pour les communications réseau normales sur votre hôte. Pour plus
d'informations, consultez la documentation Mise en réseau vSphere.
9Après avoir terminé la configuration, passez vos informations en revue et cliquez sur Terminer.
Vous avez créé l'adaptateur virtuel VMkernel de l'adaptateur réseau FCoE physique installé sur l'hôte.
Remarque Pour éviter les perturbations du trafic FCoE, ne retirez pas la carte réseau FCoE (vmnic#) du
commutateur standard vSphere après avoir défini la mise en réseau FCoE.
Ajout d'adaptateurs FCoE du logiciel
Vous devez activer les adaptateurs FCoE du logiciel afin que votre hôte puisse les utiliser pour accéder
au stockage Fibre Channel.
Le nombre d'adaptateur FCoE de logiciel que vous pouvez activer correspond au nombre de ports NIC
FCoE physiques sur l'hôte. ESXi prend en charge au maximum quatre adaptateurs FCoE de logiciel sur
un hôte.
Prérequis
Configurez le réseau pour l'adaptateur FCoE du logiciel.
Procédure
1Accédez à l'hôte.
2Cliquez sur l'onglet Configurer.
3
Sous Stockage, cliquez sur Adaptateurs de stockage, puis cliquez sur l'icône Ajouter ( ).
4Sélectionnez Adaptateur FCoE de logiciel.
5Dans la boîte de dialogue Ajouter l'adaptateur FCoE de logiciel, sélectionnez la carte réseau vmnic
appropriée dans la liste déroulante des adaptateurs réseau physiques.
Seuls les adaptateurs qui ne sont pas encore utilisés pour le trafic FCoE figurent dans la liste.
6Cliquez sur OK.
L'adaptateur FCoE de logiciel figure dans la liste des adaptateurs de stockage.
Après avoir activé l'adaptateur FCoE de logiciel, vous pouvez afficher ses propriétés. Si vous n'utilisez
pas l'adapteur, vous pouvez le supprimer de la liste des adaptateurs.
VMware, Inc. 56
Page 57
Démarrage ESXi à partir du SAN
Fibre Channel7
Lorsque vous paramétrez votre hôte pour qu'il démarre depuis un SAN, l'image de démarrage de votre
hôte est archivée sur une ou plusieurs numéros d'unité logique (LUN) du système de stockage du SAN.
Lorsque l'hôte démarre, il se lance à partir de la LUN se trouvant sur le SAN et non pas à partir du disque
local.
ESXiprend en charge des démarrages par le biais d'un adaptateur de bus hôte (HBA) Fibre Channel ou
d'un adaptateur de réseau convergé (CNA) Fibre Channel sur Ethernet (FCoE).
Ce chapitre aborde les rubriques suivantes :
n
Avantages du démarrage à partir d'un SAN
n
Exigences et considérations lors du démarrage à partir du SAN Fibre Channel
n
Préparation pour le démarrage à partir du SAN
n
Configurer Emulex HBA pour un démarrage à partir du SAN
n
Configurer QLogic HBA pour un démarrage à partir du SAN
Avantages du démarrage à partir d'un SAN
Le démarrage à partir du SAN présente de nombreux avantages pour votre environnement ESXi.
Cependant, dans certains cas, le démarrage à partir du SAN n'est pas compatible avec vos hôtes. Avant
de configurer votre système pour un démarrage à partir du SAN, vous devez décider si cela est
nécessaire pour votre environnement.
Avertissement Lorsque vous utilisez le démarrage à partir du SAN avec plusieurs hôtes ESXi, chaque
hôte doit posséder sa propre LUN de démarrage. Si vous configurez de nombreux hôtes pour partager le
LUN de démarrage, une corruption de l'image d'ESXi peut se produire.
Si vous utilisez le démarrage à partir du SAN, les avantages pour votre environnement sont les suivants :
n
Coût moins élevé des serveurs. Les serveurs sont plus denses et leur température de
fonctionnement beaucoup moins élevée sans stockage interne.
n
Remplacement plus facile des serveurs. Vous pouvez remplacer les serveurs par un nouveau serveur
que vous pointez vers l'ancien emplacement de démarrage.
n
Gain d'espace. Les serveurs sans disques locaux sont souvent moins volumineux.
VMware, Inc.
57
Page 58
Stockage vSphere
n
Processus de sauvegarde plus faciles. Vous pouvez sauvegarder les images de démarrage du
système dans le SAN dans le cadre des procédures de sauvegarde générales du SAN. Vous pouvez
également utiliser les fonctionnalités avancées de la baie, telles que les snapshots de l'image de
démarrage.
n
Gestion améliorée. La création et la gestion de l'image du système d'exploitation sont encore plus
faciles et plus efficaces.
n
Meilleure fiabilité. Vous pouvez accéder au disque de démarrage via différents chemins. Le disque
est ainsi protégé en ne représentant pas un point unique de panne.
Exigences et considérations lors du démarrage à partir du
SAN Fibre Channel
Votre configuration de démarrage ESXi doit répondre à certaines exigences particulières.
Tableau 7‑1. Conditions requises du démarrage à partir du SAN
ServerDescription
Spécifications système
ESXi
Conditions requises
d'une carte
Contrôle d'accès
Prise en charge de la
gestion de chemins
multiples
Considérations SANSi la baie n'est pas certifiée pour une topologie à connexion directe, les connexions SAN doivent se faire
Considérations
spécifiques au matériel
Respectez les recommandations du fournisseur pour le démarrage du serveur à partir d'un SAN.
Configurez la carte afin qu'elle puisse accéder au LUN de démarrage. Consultez la documentation du
fabricant.
n
Chaque hôte doit ne pouvoir accéder qu'à son propre LUN de démarrage et non aux LUN de
démarrage des autres hôtes. Utilisez le logiciel du système de stockage pour vérifier que l'hôte
accède uniquement aux LUN qui lui sont assignés.
n
Plusieurs serveurs peuvent partager une partition de diagnostic. Vous pouvez utiliser un masquage
des LUN spécifiques à la baie pour obtenir cette configuration.
La gestion de chemins multiples vers un LUN de démarrage sur des baies actives/passives n'est pas pris
en charge car le BIOS ne prend pas en charge la gestion de chemins multiples et ne peut pas activer un
chemin de veille.
via une topologie à commutateur. Si la baie est certifiée pour la topologie à connexion directe, les
connexions SAN peuvent être établies directement sur la baie. Le démarrage à partir du SAN est pris en
charge à la fois pour la topologie à commutateur et à connexion directe.
Si vous exécutez un IBM eServer BladeCenter et que vous utilisez le démarrage à partir du SAN, vous
devez mettre hors tension les lecteurs IDE sur les lames.
Préparation pour le démarrage à partir du SAN
Lorsque vous préparez votre hôte ESXi pour qu'il démarre à partir d'un SAN, vous effectuez plusieurs
tâches.
Ce chapitre décrit le processus d'activation d'un démarrage générique à partir du SAN sur des serveurs
montés sur rack. Pour plus d'informations sur l'activation de l'option de démarrage à partir du SAN sur
des serveurs lame Cisco Unified Computing System FCoE, reportez-vous à la documentation de Cisco.
VMware, Inc. 58
Page 59
Stockage vSphere
1Configurer des composants SAN et un système de stockage
Lorsque vous paramétrez votre hôte ESXi pour qu'il démarre depuis un LUN SAN, configurez les
composants du SAN et un système de stockage.
2Configurer l'adaptateur de stockage pour un démarrage à partir du SAN
Lorsque vous configurez votre hôte pour effectuer un démarrage à partir du SAN, vous devez
activer l'adaptateur de démarrage dans le BIOS de l'hôte. Vous devez ensuite configurer
l'adaptateur de démarrage afin de lancer une connexion primitive vers le LUN de démarrage cible.
3Configurer votre système pour effectuer un démarrage à partir du support d'installation
Lorsque vous configurez votre hôte pour effectuer un démarrage à partir du SAN, vous devez
d'abord démarrer l'hôte à partir du support d'installation de VMware. Pour démarrer à partir du
support d'installation, modifiez la séquence de démarrage du système dans la configuration du
BIOS.
Configurer des composants SAN et un système de stockage
Lorsque vous paramétrez votre hôte ESXi pour qu'il démarre depuis un LUN SAN, configurez les
composants du SAN et un système de stockage.
La configuration des composants SAN étant propre au fournisseur, reportez-vous à la documentation
produit de chaque élément.
Procédure
1Connectez les câbles réseau en vous référant au guide de câblage correspondant à votre
configuration.
Vérifiez le câblage du commutateur, le cas échéant.
2Configurez la baie de stockage.
aÀ partir de la baie de stockage SAN, rendez l'hôte ESXi visible sur le SAN. Ce processus est
souvent considéré comme la création d'un objet.
bÀ partir de la baie de stockage SAN, configurez l'hôte pour avoir les WWPN des adaptateurs de
l'hôte comme noms de port ou noms de nœud.
cCréez des LUN.
dAttribuez des LUN.
eEnregistrez les adresses IP des commutateurs et des baies de stockage.
fEnregistrez le WWPN de chaque SP.
Avertissement Si vous utilisez un processus d'installation par script pour installer l'ESXi en mode
de démarrage à partir du SAN, effectuez quelques étapes spécifiques afin d'éviter toute perte
accidentelle de données.
VMware, Inc. 59
Page 60
Stockage vSphere
Configurer l'adaptateur de stockage pour un démarrage à partir
du SAN
Lorsque vous configurez votre hôte pour effectuer un démarrage à partir du SAN, vous devez activer
l'adaptateur de démarrage dans le BIOS de l'hôte. Vous devez ensuite configurer l'adaptateur de
démarrage afin de lancer une connexion primitive vers le LUN de démarrage cible.
Prérequis
Déterminez le WWPN de l'adaptateur de stockage.
Procédure
u
Configurez l'adaptateur de stockage pour effectuer un démarrage à partir du SAN.
Étant donné que la configuration des adaptateurs de démarrage est propre au fournisseur, consultez
la documentation de votre fournisseur.
Configurer votre système pour eectuer un démarrage à partir du
support d'installation
Lorsque vous configurez votre hôte pour effectuer un démarrage à partir du SAN, vous devez d'abord
démarrer l'hôte à partir du support d'installation de VMware. Pour démarrer à partir du support
d'installation, modifiez la séquence de démarrage du système dans la configuration du BIOS.
La modification de la séquence de démarrage dans le BIOS étant propre au fournisseur, reportez-vous à
la documentation du fournisseur pour plus d'instructions. La procédure suivante explique comment
modifier la séquence de démarrage sur un hôte IBM.
Procédure
1Mettez sous tension votre système et entrez l'utilitaire d'installation/de configuration du BIOS
système.
2Sélectionnez Options de démarrage et appuyez sur Entrée.
3Sélectionnez Options des séquences de démarrage et appuyez sur Entrée.
4Modifiez le Premier dispositif de démarrage en [CD-ROM].
Vous pouvez maintenant installer l'ESXi.
Configurer Emulex HBA pour un démarrage à partir du
SAN
La configuration du BIOS HBA Emulex pour démarrer l'ESX à partir du SAN comprend l'activation de
l'invite BootBIOS et du BIOS.
VMware, Inc. 60
Page 61
Stockage vSphere
Procédure
1Activation de l'invite BootBIOS
Lorsque vous configurez le BIOS HBA Emulex pour démarrer ESXi à partir du SAN, vous devez
activer l'invite BootBIOS.
2Activation du BIOS
Lorsque vous configurez le BIOS HBA Emulex pour démarrer ESXi à partir du SAN, vous devez
activer le BIOS.
Activation de l'invite BootBIOS
Lorsque vous configurez le BIOS HBA Emulex pour démarrer ESXi à partir du SAN, vous devez activer
l'invite BootBIOS.
Procédure
1Exécutez lputil.
2Sélectionnez 3. Maintenance du microprogramme.
3Sélectionnez un adaptateur.
4Sélectionnez 6. Maintenance du BIOS du démarrage.
5Sélectionnez 1. Activer BIOS du démarrage.
Activation du BIOS
Lorsque vous configurez le BIOS HBA Emulex pour démarrer ESXi à partir du SAN, vous devez activer le
BIOS.
Procédure
1Redémarrez l'hôte.
2Pour configurer les paramètres de l'adaptateur, appuyez sur ALT+E à l'invite Emulex et suivez les
étapes indiquées.
aSélectionnez un adaptateur (avec prise en charge BIOS).
bSélectionnez 2. Configurer les paramètres de cet adaptateur.
cSélectionnez 1. Activer ou mettre hors tension BIOS
dSélectionnez 1 pour activer le BIOS.
eSélectionnez x pour quitter et Esc pour revenir au menu précédent.
3Pour configurer le périphérique de démarrage, suivez les étapes suivantes à partir du menu principal
Emulex.
aSélectionnez la même carte.
bSélectionnez 1. Configurer des périphériques de démarrage
VMware, Inc. 61
Page 62
Stockage vSphere
cChoisir l'emplacement pour l'entrée de démarrage.
dSaisissez le périphérique de démarrage à deux chiffres.
eSaisissez le LUN de démarrage à deux chiffres (HEX) (par exemple, 08).
fSélectionnez le LUN de démarrage.
gSélectionnez 1. WWPN. (Démarrez ce périphérique avec WWPN et non DID).
hSélectionnez X pour quitter et Y pour redémarrer.
4Démarrez dans le BIOS système et déplacez tout d'abord Emulex dans la séquence du contrôleur de
démarrage.
5Redémarrez et procédez à l'installation sur un LUN de réseau SAN.
Configurer QLogic HBA pour un démarrage à partir du
SAN
Cette procédure, proposée à titre d'exemple, explique comment configurer QLogic HBA pour effectuer un
démarrage ESXi à partir du SAN. Cette procédure implique l'activation du BIOS QLogic HBA, du
démarrage sélectionnable et la sélection du LUN de démarrage.
Procédure
1Tout en démarrant le serveur, appuyez sur Ctrl+Q pour saisir l'utilitaire de configuration Fast!UTIL.
2Effectuez l'action appropriée selon le nombre de HBA.
OptionDescription
Un HBASi vous disposez d'un seul HBA, la page Options de Fast!UTIL s'affiche. Passez
à l'Étape 3.
Plusieurs HBASi vous disposez de plusieurs HBA, sélectionnez manuellement le HBA.
a Sur la page Sélection de la carte d'hôte, utilisez les touches de flèches pour
positionner le pointeur sur le HBA approprié.
b Appuyez sur Entrée.
3Sur la page Options de Fast!UTIL, sélectionnez Paramètres de configuration et appuyez sur
Entrée.
4Sur la page Paramètres de configuration, sélectionnez Paramètres de l'adaptateur et appuyez sur
Entrée.
5Définissez le BIOS pour qu'il recherche les périphériques SCSI.
aSur la page Paramètres de la carte d'hôte, sélectionnez BIOS de l'adaptateur hôte.
bAppuyez sur Entrée pour basculer la valeur sur Activé.
cAppuyez sur Échap pour quitter.
VMware, Inc. 62
Page 63
Stockage vSphere
6Activation du démarrage sélectionnable.
aSélectionnez Paramètres de démarrage sélectionnable et appuyez sur Entrée.
bSur la page Paramètres du démarrage sélectionnable, sélectionnez Démarrage sélectionnable.
cAppuyez sur Entrée pour basculer la valeur sur Activé.
7Sélectionnez l'entrée Nom du port de démarrage dans la liste des processeurs de stockage (SP) et
appuyez sur Entrée.
La page Sélection d'un périphérique Fibre Channel s'ouvre.
8Sélectionnez le SP choisi et appuyez sur Entrée.
Si vous utilisez une baie de stockage active/passive, le SP sélectionné doit se trouver sur le chemin
(actif) préféré à destination de la LUN de démarrage. Si vous ne savez pas quel SP se trouve sur le
chemin actif, utilisez votre logiciel de gestion de baie de stockage pour le découvrir. Les ID cibles
sont créées par le BIOS et peuvent changer à chaque redémarrage.
9Effectuez l'action requise en fonction du nombre de LUN attachés au SP.
OptionDescription
Une LUNLa LUN est sélectionnée en tant que LUN de démarrage. Vous n'avez pas besoin
de renseigner la page Sélectionner un LUN.
LUN multiplesLa page Sélectionner un LUN s'ouvre. Utilisez le pointeur pour sélectionner le
LUN de démarrage et appuyez sur Entrée.
10 Si des processeurs de stockage apparaissent dans la liste, appuyez sur C pour effacer les données.
11 Appuyez deux fois sur Esc pour quitter et appuyez sur Entrée pour enregistrer le paramétrage.
VMware, Inc. 63
Page 64
Démarrage d' ESXi avec le FCoE
logiciel8
ESXi prend en charge le démarrage à partir des adaptateurs réseau compatibles avec FCoE.
Seules les cartes réseau avec délestage FCoE partiel prennent en charge les capacités de démarrage
avec le FCoE logiciel. Si vous utilisez les cartes réseau sans délestage FCoE, le démarrage du FCoE
logiciel n'est pas pris en charge.
Lorsque vous installez et démarrez ESXi depuis un LUN FCoE, l'hôte peut utiliser un adaptateur FCoE
logiciel VMware et un adaptateur réseau doté de capacités FCoE. L'hôte n'exige pas un HBA FCoE
dédié.
Vous effectuez la plupart des configurations à partir de la option ROM de votre adaptateur réseau. Les
adaptateurs réseau doivent prendre en charge un des formats suivants, qui communiquent les
paramètres relatifs à un périphérique de démarrage à VMkernel.
n
Démarrage FCoE Firmware Table (FBFT). FBFT est une propriété d'Intel.
n
FCoE Boot Parameter Table (FBPT). FBPT est défini par VMware pour permettre à des fournisseurs
tiers de mettre en œuvre un démarrage avec le FCoE logiciel.
Les paramètres de configuration sont définis dans la option ROM de votre adaptateur. Pendant une
installation ESXi ou un démarrage ultérieur, ces paramètres sont exportés vers la mémoire système au
format FBFT ou au format FBPT. Le VMkernel peut lire les paramètres de configuration et les utiliser pour
accéder au LUN de démarrage.
Ce chapitre aborde les rubriques suivantes :
n
Considérations et exigences de démarrage du FCoE logiciel
n
Configurer le démarrage du FCoE logiciel
n
Résolution des problèmes de démarrage à partir du FCoE logiciel pour un hôte ESXi
Considérations et exigences de démarrage du FCoE
logiciel
Lorsque vous démarrez l'hôte ESXi à partir du SAN en utilisant un FCoE logiciel, certaines considérations
et exigences sont applicables.
VMware, Inc.
64
Page 65
Stockage vSphere
Configuration requise
n
Utiliser ESXi d'une version compatible.
n
L'adaptateur réseau doit avoir les capacités suivantes :
n
Être compatible FCoE.
n
Prendre en charge une pile FCoE ouverte ESXi.
n
Contenir le microprogramme de démarrage FCoE pouvant exporter les informations de
démarrage au format FBFT ou FBPT.
Considérations
n
Vous ne pouvez pas modifier la configuration de démarrage du FCoE dans ESXi.
n
Le coredump n'est pas pris en charge sur les LUN de FCoE logiciel, y compris le LUN de démarrage.
n
La gestion multivoie n'est pas prise en charge au pré-démarrage.
n
Le LUN de démarrage ne peut être partagé avec d'autres hôtes, même en mode de stockage
partagé. Assurez-vous que l'hôte a accès à l'intégralité du LUN de démarrage.
Configurer le démarrage du FCoE logiciel
Votre hôteESXi peut démarrer à partir d'un LUN FCoE utilisant l'adaptateur FCoE logiciel et un
adaptateur réseau.
Lorsque vous configurez votre hôte pour le démarrage d'un FCoE logiciel, vous effectuez plusieurs
tâches.
Prérequis
L'adaptateur réseau a les capacités suivantes :
n
Prise en charge partielle des déchargements FCoE (FCoE logiciel).
n
Il contient un FBFT (FCoE Boot Firmware Table) ou un FBPT (FCoE Boot Parameter Table).
Pour de plus amples informations sur les adaptateurs réseau prenant en charge le démarrage du FCoE
logiciel, consultez le Guide de compatibilité VMware.
Procédure
1Configurer les paramètres de démarrage du FCoE logiciel
Pour prendre en charge le processus de démarrage d'un FCoE logiciel, un adaptateur réseau de
votre hôte doit avoir un microprogramme FCoE de démarrage spécialement configuré. Lorsque vous
configurez le microprogramme, vous activez l'adaptateur pour le démarrage du FCoE logiciel et
spécifiez les paramètres du LUN de démarrage.
2Installer et démarrer ESXi à partir d'un LUN FCoE logiciel
Lorsque vous configurez votre système pour démarrer à partir d'un LUN FCoE logiciel, vous
installez l'image ESXi sur le LUN cible. Vous pouvez ensuite démarrer votre hôte à partir de ce LUN.
VMware, Inc. 65
Page 66
Stockage vSphere
Configurer les paramètres de démarrage du FCoE logiciel
Pour prendre en charge le processus de démarrage d'un FCoE logiciel, un adaptateur réseau de votre
hôte doit avoir un microprogramme FCoE de démarrage spécialement configuré. Lorsque vous
configurez le microprogramme, vous activez l'adaptateur pour le démarrage du FCoE logiciel et spécifiez
les paramètres du LUN de démarrage.
Procédure
u
Dans la ROM optionnelle de l'adaptateur réseau, spécifiez les paramètres de démarrage du FCoE
logiciel.
Ces paramètres comprennent une cible de démarrage, le LUN de démarrage, l'ID VLAN, etc.
Étant donné que la configuration de la carte réseau est propre au fournisseur, consultez la
documentation correspondante pour obtenir des instructions.
Installer et démarrer ESXi à partir d'un LUN FCoE logiciel
Lorsque vous configurez votre système pour démarrer à partir d'un LUN FCoE logiciel, vous installez
l'image ESXi sur le LUN cible. Vous pouvez ensuite démarrer votre hôte à partir de ce LUN.
Prérequis
n
Configurez la option ROM de l'adaptateur réseau afin qu'elle pointe vers un LUN de démarrage cible.
Assurez-vous de posséder les informations relatives au LUN amorçable.
n
Modifiez la séquence de démarrage du BIOS système pour parvenir à la séquence suivante :
aL'adaptateur réseau utilisé pour le démarrage du FCoE logiciel.
bLe support d'installation ESXi.
Voir la documentation du fournisseur du système.
Procédure
1Lancez une installation interactive depuis le CD/DVD d'installation ESXi.
Le programme d'installation ESXi vérifie que FCoE est activé dans le BIOS et, si besoin, crée un
commutateur virtuel standard pour l'adaptateur réseau compatible FCoE. Le nom du commutateur
virtuel est VMware_FCoE_vSwitch. Le programme d'installation utilise alors les paramètres de
démarrage FCoE préconfigurés pour découvrir et afficher tous les LUN FCoE disponibles.
2Sur la page Sélectionner un disque, sélectionnez le LUN FCoE logiciel que vous avez spécifié lors
du réglage du paramètre de démarrage.
Si le LUN de démarrage n'apparaît pas dans ce menu, assurez-vous d'avoir configuré correctement
les paramètres de démarrage dans la option ROM de l'adaptateur réseau.
3Terminez l'installation en suivant les invites.
4Redémarrez l'hôte.
VMware, Inc. 66
Page 67
Stockage vSphere
5Modifiez la séquence de démarrage dans le BIOS système, de façon à ce que le LUN de démarrage
soit le premier périphérique amorçable.
ESXi continue à démarrer à partir du LUN de FCoE logiciel jusqu'à ce qu'il soit prêt à être utilisé.
Suivant
Si besoin est, vous pouvez renommer et modifier le commutateur virtuel FCoE VMware que le
programme d'installation a automatiquement créé. Assurez-vous que le CDP (Cisco Discovery Protocol)
est défini sur Écouter ou Les deux.
Résolution des problèmes de démarrage à partir du FCoE
logiciel pour un hôte ESXi
Si l'installation ou le démarrage d'ESXi à partir d'un LUN du FCoE logiciel échoue, vous pouvez utiliser
plusieurs méthodes de dépannage.
Problème
Lorsque vous installez ou démarrez ESXi depuis le stockage FCoE, l'installation ou le processus de
démarrage échoue. L'installation FCoE que vous utilisez inclut un adaptateur FCoE logiciel VMware et un
adaptateur réseau avec des capacités de décharge FCoE partielles.
Solution
n
Assurez-vous d'avoir configuré correctement les paramètres de démarrage dans la ROM optionnelle
de l'adaptateur réseau FCoE.
n
Pendant l'installation, surveillez le BIOS et l'adaptateur réseau FCoE pour détecter toute erreur.
n
Si possible, vérifiez le journal VMkernel pour y rechercher des erreurs.
n
Utilisez la commande esxcli pour vérifier si le LUN de démarrage est présent.
esxcli conn_options hardware bootdevice list
VMware, Inc. 67
Page 68
Meilleures pratiques pour le
stockage Fibre Channel9
Lorsque vous utilisez ESXi avec un SAN Fibre Channel, suivez les recommandations pour éviter des
problèmes de performances.
vSphere Client offre de nombreuses fonctionnalités pour collecter des informations sur les performances.
Ces informations sont affichées sous forme graphique et sont régulièrement mises à jour.
Vous pouvez utiliser les utilitaires de commande resxtop ou esxtop. Les utilitaires fournissent une vue
détaillée du mode d'utilisation des ressources de ESXi. Pour plus d'informations, consultez la
documentation Gestion des ressources vSphere.
Consultez votre représentant de stockage pour savoir si votre système de stockage prend en charge les
fonctionnalités d'accélération matérielle API de stockage - Intégration de baie. Le cas échéant, consultez
la documentation du fournisseur pour activer la prise en charge de l'accélération matérielle du côté du
système de stockage. Pour plus d'informations, consultez Chapitre 24 Accélération matérielle du
stockage.
Ce chapitre aborde les rubriques suivantes :
n
Prévention des problèmes de SAN Fibre Channel
n
Désactiver l'enregistrement automatique de l'hôte
n
Optimisation des performances du stockage SAN Fibre Channel
Prévention des problèmes de SAN Fibre Channel
Lorsque vous utilisez ESXi avec un SAN Fibre Channel, suivez les directives spécifiques afin d'éviter des
problèmes de SAN.
Pour éviter des problèmes avec votre configuration SAN, suivez ces conseils :
n
Placez une seule banque de données VMFS sur chaque LUN.
n
Ne changez pas la politique de chemin que le système définit, sauf si vous comprenez les
implications de tels changements.
n
Documentez tout ce que vous faites. Incluez des informations sur le zonage, le contrôle d'accès, le
stockage, le commutateur, le serveur et la configuration HBA FC, les versions de logiciel et de
microprogramme, et le plan des câbles de stockage.
VMware, Inc.
68
Page 69
Stockage vSphere
n
Plan en cas de panne :
n
Faîtes plusieurs copies de vos mappages topologiques. Pour chaque élément, envisagez les
conséquences sur votre SAN si cet élément tombe en panne.
n
Vérifiez chaque lien, commutateurs, HBA et autres éléments pour vous assurer que vous n'avez
omis aucun point de panne critique dans votre architecture.
n
Assurez-vous que les HBA Fibre Channel sont installés dans les slots corrects de l'hôte, selon la
vitesse de l'emplacement et du bus. Équilibrez la charge de bus PCI entre les divers bus du serveur.
n
Familiarisez-vous avec les différents points de contrôle de votre réseau de stockage, sur tous les
points de visibilité, y compris les graphiques de performance de l'hôte, les statistiques des
commutateurs FC et des performances de stockage.
n
Soyez prudent lorsque vous modifiez les ID des LUN qui prennent en charge des banques de
données en cours d'utilisation par votre hôte ESXi. Si vous modifiez les ID, la banque de données
devient inactive et ses machines virtuelles tombent en panne. Resignez la banque de données pour
la réactiver. Reportez-vous à Administration des banques de données VMFS dupliquées.
Après avoir modifié l'ID du LUN, réanalysez le stockage pour réinitialiser l'ID sur votre hôte. Pour plus
d'informations sur l'utilisation de la réanalyse, consultez Opérations de réanalyse du stockage.
Désactiver l'enregistrement automatique de l'hôte
Certaines baies de stockage imposent l'enregistrement des hôtes ESXi dans les baies. ESXi effectue un
enregistrement d'hôte automatique en envoyant le nom de l'hôte et l'adresse IP à la baie. Si vous
préférez utiliser le logiciel de gestion de stockage pour effectuer un enregistrement manuel, désactivez la
fonction d'enregistrement automatique de ESXi.
Procédure
1Accédez à l'hôte.
2Cliquez sur l'onglet Configurer.
3Sous Système, cliquez sur Paramètres système avancés.
4Dans Paramètres système avancés, sélectionnez le paramètre Disk.EnableNaviReg et cliquez sur
l'icône Edit.
5Modifiez la valeur sur 0.
Cette opération désactive l'enregistrement automatique de l'hôte qui est activé par défaut.
Optimisation des performances du stockage SAN Fibre
Channel
Plusieurs facteurs contribuent à l'optimisation d'un environnement SAN classique.
VMware, Inc. 69
Page 70
Stockage vSphere
si l'environnement est correctement configuré, les composants de la structure SAN (en particulier les
commutateurs SAN) ne sont que des contributeurs mineurs, à cause de leurs latences basses par
rapport aux serveurs et aux baies de stockage. Assurez-vous que les chemins dans le commutateur de la
structure ne sont pas saturés, c'est-à-dire que le commutateur fonctionne avec le débit maximal.
Performances des baies de stockage
Les performances des baies de stockage sont l'un des principaux facteurs contribuant aux performances
de la totalité de l'environnement SAN.
Si vous rencontrez des problèmes avec les performances des baies de stockage, consultez la
documentation du fournisseur de votre baie de stockage pour obtenir tous les renseignements utiles.
Pour améliorer les performances des baies dans l'environnement vSphere, suivez ces directives
générales :
n
Lorsque vous attribuez des LUN, souvenez-vous que plusieurs hôtes peuvent accéder au LUN et que
plusieurs machines virtuelles peuvent s'exécuter sur chaque hôte. Un LUN utilisé par un hôte peut
servir à des E/S provenant d'applications très variées et exécutées sur différents systèmes
d'exploitation. En raison de ces charges de travail très variées, le groupe RAID contenant les LUN
ESXi n'inclut généralement pas les LUN utilisés par d'autres serveurs qui n'exécutent pas d'ESXi.
n
Assurez-vous que le cache de lecture/écriture est disponible.
n
Les baies de stockage SAN nécessitent des modifications et des ajustements permanents pour
s'assurer que les charges d'E/S sont équilibrés sur tous les chemins d'accès des baies de stockage.
Pour répondre à cette exigence, répartissez les chemins d'accès vers les LUN entre tous les SP pour
assurer un équilibrage de charge optimal. Une surveillance attentive permet de savoir lorsqu'il est
nécessaire de rééquilibrer la répartition des LUN.
Le réglage de baies de stockage statiquement équilibrées consiste à surveiller des statistiques de
performances spécifiques telles que les opérations d'E/S par seconde, les blocs par seconde et le
temps de réponse. La distribution de la charge de travail des LUN visant à répartir la charge de travail
entre tous les SP est également importante.
Remarque L'équilibrage de charge dynamique n'est pas pris en charge actuellement avec ESXi.
Performances des serveurs avec Fibre Channel
Vous devez tenir compte de différents facteurs pour garantir des performances optimales des serveurs.
Chaque application de serveur doit avoir accès à son stockage désigné aux conditions suivantes :
n
Vitesse d'E/S élevée (nombre d'opérations d'entrée-sortie par seconde)
n
Rendement élevé (mégaoctets par seconde)
n
Latence minimale (temps de réponse)
Comme chaque application a différentes exigences, ces objectifs peuvent être remplis en sélectionnant
un groupe RAID approprié sur la baie de stockage.
VMware, Inc. 70
Page 71
Stockage vSphere
Pour atteindre les objectifs de performance, procédez comme suit :
n
Placez chaque LUN sur un groupe RAID qui offre les niveaux de performance nécessaires. Surveillez
les activités et l'utilisation des ressources des autres LUN dans le groupe RAID attribué. Un groupe
RAID haute performance ayant un nombre excessif d'applications effectuant des E/S risque de ne
pas satisfaire aux exigences de performance requises par une application exécutée sur l'hôte ESXi.
n
Assurez-vous que chaque hôte dispose d'un nombre suffisant de HBA pour augmenter le débit des
applications sur l'hôte en période de pointe. Les entrées/sorties réparties sur plusieurs HBA
présentent un débit plus rapide et moins de latence pour chaque application.
n
Pour assurer la redondance en cas de panne éventuelle du HBA, assurez-vous que l'hôte est
connecté à une infrastructure à double redondance.
n
Lors de l'allocation de groupes LUN ou RAID aux systèmes ESXi, n'oubliez pas que plusieurs
systèmes d'exploitation utilisent et partagent cette ressource. Les performances des LUN requises
par l'hôte ESXi peuvent être beaucoup plus élevées que lorsque vous utilisez des machines
physiques standard. Par exemple, si vous pensez exploiter quatre applications à fortes E/S, allouez
quatre fois les capacités de performance aux LUN de l'ESXi.
n
Lorsque vous utilisez plusieurs systèmes ESXi avec vCenter Server, les exigences de performance
requises pour le sous-système de stockage augmentent en conséquence.
n
Le nombre d'E/S en attente requises par les applications exécutées sur le système ESXi doit
correspondre au nombre d'E/S pouvant être traitées par le HBA et la baie de stockage.
VMware, Inc. 71
Page 72
Utilisation d' ESXi avec un SAN
iSCSI10
ESXi peut se connecter à un stockage SAN externe à l'aide du protocole iSCSI (Internet SCSI). Outre le
protocole iSCSI traditionnel, ESXi prend également en charge iSER (iSCSI Extensions for RDMA).
Lorsque le protocole iSER est activé, l'hôte peut utiliser la même structure d'iSCSI, mais il remplace le
transport TCP/IP par le transport RDMA (Remote Direct Memory Access).
À propos du SAN iSCSI
Les SAN iSCSI utilisent des connexions Ethernet entre les hôtes et les sous-systèmes de stockage haute
performance.
Du côté hôte, les composants SAN iSCSI comprennent les adaptateurs de bus hôte (HBA) iSCSI ou les
cartes d'interface réseau (NIC). Le réseau iSCSI comprend également les commutateurs et les routeurs
qui acheminent le trafic de stockage, les câbles, les processeurs de stockage (SPs) et les systèmes de
disque de stockage.
VMware, Inc.
72
Page 73
Baie iSCSI
VMFSVMFS
LANLAN
HBA
iSCSI
Carte réseau
Ethernet
Hôte ESXi
Adaptateur
logiciel
vmdkvmdk
Stockage vSphere
Le SAN iSCSI utilise une architecture client-serveur.
Le client, appelé initiateur iSCSI, agit sur votre hôte ESXi. Il lance des sessions iSCSI en émettant des
commandes SCSI et en les transmettant, encapsulées dans le protocole iSCSI, à un serveur iSCSI. Le
serveur est connu sous le nom de cible iSCSI. En général, la cible iSCSI représente un système de
stockage physique sur le réseau.
Elle peut également être un SAN iSCSI virtuel, par exemple un émulateur cible iSCSI s'exécutant sur une
machine virtuelle. La cible iSCSI répond aux commandes de l'initiateur en transmettant les données
iSCSI requises.
Chemins multiples iSCSI
Lors du transfert de données entre le serveur hôte et le stockage, le SAN utilise une technique connue
sous le nom de gestion multivoie. Avec la gestion multivoie, votre hôte ESXi peut disposer de plusieurs
chemins physiques vers un LUN sur un système de stockage.
De manière générale, un chemin unique partant d'un hôte vers un LUN se compose d'un adaptateur
iSCSI ou NIC, de ports de commutateur, de câbles de connexion et du port de contrôleur de stockage. Si
un des composants du chemin subit une défaillance, l'hôte sélectionne un autre chemin disponible pour
l'E/S. Le processus de détection d'un chemin défaillant et de changement vers un autre chemin est connu
sous le nom de basculement de chemin.
Pour plus d'informations sur la gestion chemins multiples, consultez Chapitre 18 Présentation de la
gestion multivoie et du basculement.
VMware, Inc. 73
Page 74
Stockage vSphere
Nœuds et ports du SAN iSCSI
Une entité simple détectable sur le SAN iSCSI, telle qu'un initiateur ou une cible, représente un nœud
iSCSI.
Chaque nœud possède un nom de nœud. ESXi utilise plusieurs méthodes pour identifier un nœud.
Adresse IPChaque nœud iSCSI peut être associé à une adresse IP de sorte que le
matériel d'acheminement et de commutation du réseau puisse établir la
connexion entre l'hôte et le stockage. Cette adresse est semblable à
l'adresse IP que vous attribuez à votre ordinateur pour bénéficier de l'accès
au réseau de votre entreprise ou à Internet.
nom iSCSINom unique international permettant d'identifier le nœud. iSCSI utilise les
formats IQN (iSCSI Qualified Name) et EUI (Extended Unique Identifier).
Par défaut, ESXi génère des noms iSCSI uniques pour vos initiateurs
iSCSI, par exemple, iqn.1998-01.com.vmware:iscsitestox-68158ef2.
Il n'est généralement pas nécessaire de modifier la valeur par défaut, mais
si vous la modifiez, veillez à ce que le nouveau nom iSCSI que vous
saisissez soit unique mondialement.
Alias iSCSIUn nom plus explicite pour le port ou le périphérique iSCSI utilisé à la place
du nom iSCSI. Les alias iSCSI ne sont pas uniques et sont destinés à être
un nom convivial à associer à un port.
Chaque nœud possède un ou plusieurs ports qui le connectent au SAN. Les ports iSCSI sont les points
limites d'une session iSCSI.
Conventions de dénomination iSCSI
iSCSI utilise un nom unique spécial pour identifier un nœud iSCSI, cible ou initiateur.
Les noms iSCSI sont formatées de deux manières différentes. Le format le plus courant est le format
IQN.
Pour plus d'informations sur les exigences de dénomination iSCSI et les profils de chaîne, reportez-vous
aux sections RFC 3721 et RFC 3722 sur le site Web IETF.
Format IQN (iSCSI Qualified Name)
Le format IQN présente le nom sous la forme iqn.yyyy-mm.naming-authority:unique, où :
n
yyyy-mm représente l'année et le mois où l'autorité de dénomination a été établie.
n
naming-authority représente la syntaxe inverse du nom de domaine Internet de l'autorité de
dénomination. Par exemple, l'autorité de dénomination iscsi.vmware.com peut avoir le nom iqn.1998-01.com.vmware.iscsi au format IQN. Le nom indique que le nom de domaine vmware.com a
été enregistré en janvier 1998 et que iscsi est un sous-domaine géré par vmware.com.
VMware, Inc. 74
Page 75
Stockage vSphere
n
unique name représente n'importe quel nom à votre guise, par exemple le nom de votre hôte.
L'autorité de dénomination doit s'assurer que tous les éventuels noms attribués après les deux-points
sont uniques, comme :
n
iqn.1998-01.com.vmware.iscsi:name1
n
iqn.1998-01.com.vmware.iscsi:name2
n
iqn.1998-01.com.vmware.iscsi:name999
Format EUI (Enterprise Unique Identifier)
Le format EUI se présente sous la forme eui.16_hex_digits.
Par exemple, eui.0123456789ABCDEF.
Les 16 chiffres hexadécimaux sont des représentations de texte d'un nombre 64 bits au format EUI
(extended unique identifier) de l'IEEE. Les 24 premiers bits représentent l'identifiant d'une société que
l'IEEE enregistre avec une société spécifique. Les 40 bits restants sont attribués par l'entité possédant
l'identifiant de cette société et doivent être uniques.
Initiateurs iSCSI
Pour accéder aux cibles iSCSI, votre hôte ESXi utilise des initiateurs iSCSI.
L'initiateur est un logiciel ou un matériel installé sur votre hôte ESXi. L'initiateur iSCSI est issu de la
communication entre votre hôte et un système de stockage iSCSI externe et envoie des données au
système de stockage.
Dans l'environnement ESXi, les adaptateurs iSCSI configurés sur votre hôte jouent le rôle d'initiateurs.
ESXi prend en charge plusieurs types d'adaptateurs iSCSI.
Pour plus d'informations sur la configuration et l'utilisation des adaptateurs iSCSI, consultez Chapitre 11
Configuration des adaptateurs iSCSI et du stockage.
Adaptateur de logiciel iSCSI
Un adaptateur de logiciel iSCSI est un code VMware intégré au VMkernel. À l'aide de l'adaptateur iSCSI
logiciel, votre hôte peut se connecter au périphérique de stockage iSCSI via des adaptateurs réseau
standard. L'adaptateur de logiciel iSCSI gère le traitement iSCSI tout en communiquant avec l'adaptateur
réseau. Avec l'adaptateur de logiciel iSCSI, vous pouvez employer la technologie iSCSI sans acheter de
matériel spécialisé.
Adaptateur de matériel iSCSI
Un adaptateur de matériel iSCSI est un adaptateur tiers qui décharge le traitement iSCSI et le réseau de
votre hôte. Les adaptateurs matériels iSCSI se divisent en plusieurs catégories.
Adaptateur de matériel
iSCSI dépendant
VMware, Inc. 75
Dépend du réseau VMware et des interfaces de configuration et de gestion
iSCSI fournies par VMware.
Page 76
Stockage vSphere
Ce type d'adaptateur peut être un adaptateur réseau standard disposant de
la fonction de déchargement iSCSI pour le même port. La fonction de
déchargement iSCSI dépend de la configuration du réseau pour obtenir les
paramètres IP, MAC et d'autres paramètres utilisés pour les sessions
iSCSI. La carte réseau Broadcom 5709 sous licence iSCSI est un exemple
d'adaptateur dépendant.
Adaptateur de matériel
iSCSI indépendant
Implémente ses propres protocoles réseau et ses propres interfaces de
configuration et de gestion iSCSI.
En général, une carte disposant uniquement de la fonction de
déchargement iSCSI ou de la fonction de déchargement iSCSI et NIC
standard est un adaptateur iSCSI matériel indépendant. La fonction de
déchargement iSCSI dispose d'une fonction de gestion indépendante de la
configuration, qui assigne les paramètres IP, MAC et d'autres paramètres
pour les sessions iSCSI. L'adaptateur QLogic QLA4052 est un exemple
d'adaptateur indépendant.
Les adaptateurs de matériel iSCSI doivent avoir une licence. Sinon, ils pourraient ne pas apparaître dans
le client ou vSphere CLI. Contactez votre vendeur pour avoir des renseignements sur la licence.
À propos de l'adaptateur iSER VMware
Outre le protocole iSCSI traditionnel, ESXi prend en charge le protocole d'extensions iSCSI pour RDMA
(iSER). Lorsque le protocole iSER est activé, l'infrastructure iSCSI située sur l'hôte ESXi peut utiliser le
transport d'accès direct à la mémoire à distance (RDMA) au lieu du protocole TCP/IP.
Le protocole iSCSI traditionnel transporte des commandes SCSI sur un réseau TCP/IP entre un initiateur
iSCSI situé sur un hôte et une cible iSCSI située sur un périphérique de stockage. Le protocole iSCSI
encapsule les commandes et assemble les données en paquets pour la couche TCP/IP. Lorsque les
données arrivent, le protocole iSCSI désassemble les paquets TCP/IP, afin que les commandes SCSI
puissent être différenciées et remises au périphérique de stockage.
Le protocole iSER diffère du protocole iSCSI traditionnel, car il remplace le modèle de transfert de
données TCP/IP par le transport d'accès direct à la mémoire à distance (RDMA). Grâce à la technologie
de placement direct des données du RDMA, le protocole iSER peut transférer directement des données
entre la mémoire tampon de l'hôte ESXi et les périphériques de stockage. Cette méthode permet
d'éliminer le traitement et la copie des données engendrés par le protocole TCP/IP et peut également
réduire la latence et la charge du CPU sur le périphérique de stockage.
Dans l'environnement iSER, le protocole iSCSI fonctionne exactement comme avant, mais il utilise une
infrastructure RDMA sous-jacente au lieu de l'interface basée sur TCP/IP.
Comme le protocole iSER préserve la compatibilité avec l'infrastructure iSCSI, le processus d'activation
du protocole iSER sur l'hôte ESXi est semblable au processus pour le protocole iSCSI. Reportez-vous à
la section Configurer les adaptateurs iSER.
VMware, Inc. 76
Page 77
Baie de stockage
Cible
LUNLUNLUN
Baie de stockage
CibleCibleCible
LUNLUNLUN
Stockage vSphere
Établissement des connexions iSCSI
Dans un contexte ESXi, le terme cible identifie une unité de stockage unique accessible par l'hôte. Les
termes périphérique de stockage et LUN décrivent un volume logique représentant l'espace de stockage
sur une cible. En général, les termes périphérique et LUN, dans un contexte ESXi signifient qu'un volume
SCSI est présenté à l'hôte depuis une unité de stockage cible et disponible pour un formatage.
Les différents fournisseurs de stockage iSCSI présentent le stockage sur des hôtes de différentes
manières. Certains fournisseurs présentent plusieurs LUN sur une seule cible, alors que d'autres
présentent plusieurs cibles disposant chacune d'un LUN.
Figure 10‑1. Représentations LUN / Cible
Dans ces exemples, trois LUN sont disponibles dans chacune de ces configurations. Dans le premier
cas, l'hôte détecte une cible, mais cette cible possède trois LUN utilisables. Chaque LUN représente un
volume de stockage individuel. Dans le second cas, l'hôte détecte trois cibles différentes, chacune
possédant un LUN.
Les initiateurs iSCSI basés sur l'hôte établissent des connexions sur chaque cible. Les systèmes de
stockage avec une cible unique contenant plusieurs LUN présentent un trafic vers tous les LUN sur une
seule connexion. Sur un système possédant trois cibles avec un LUN chacune, l'hôte utilise des
connexions distinctes vers les trois LUN.
Ces informations sont utiles lorsque vous essayez d'agréger le trafic de stockage sur plusieurs
connexions à partir de l'hôte doté de plusieurs adaptateurs iSCSI. Vous pouvez définir le trafic d'une cible
vers un adaptateur particulier et utiliser un adaptateur différent pour le trafic vers une autre cible.
Types de systèmes de stockage iSCSI
ESXi prend en charge différents systèmes de stockage et de baies.
VMware, Inc. 77
Page 78
Stockage vSphere
Votre hôte prend en charge les types de stockage suivants : actif-actif, actif-passif et conforme à ALUA.
Système de stockage
actif-actif
Système de stockage
actif-passif
Système de stockage
asymétrique
Système de stockage
de ports virtuels
Prend en charge l'accès simultané aux LUN par tous les ports de stockage
qui sont disponibles sans dégradation importante des performances. Tous
les chemins sont toujours actifs, sauf si un chemin est défaillant.
Un système dans lequel un processeur de stockage fournit l'accès à un
LUN donné. Les autres processeurs sont utilisés en tant que sauvegarde
pour le LUN et peuvent fournir l'accès à d'autres E/S de LUN. L'E/S peut
uniquement être envoyée avec succès vers un port actif pour un LUN
spécifique. Si l'accès via le port de stockage actif échoue, un des
processeurs de stockage passifs peut être activé par les serveurs qui y
accèdent.
Prend en charge Asymmetric Logical Unit Access (ALUA). Les systèmes
de stockage conforme à ALUA offrent des niveaux différents d'accès par
port. Avec ALUA, les hôtes peuvent déterminer les états des ports cibles et
classer les chemins par priorité. L'hôte utilise certains des chemins actifs
comme étant principaux et d'autres comme secondaires.
Prend en charge l'accès à tous les LUN disponibles via un port virtuel
unique. Les systèmes de stockage de ports virtuels sont des périphériques
de stockage actifs-actifs qui cachent leurs nombreuses connexions via un
seul port. La gestion multivoie ESXi ne permet pas d'établir de multiples
connexions depuis un port spécifique vers le stockage par défaut. Certains
fournisseurs de stockage fournissent des gestionnaires de sessions pour
établir et gérer de multiples connexions vers leur stockage. Ces systèmes
de stockage traitent les basculements de ports et l'équilibrage des
connexions de manière transparente. Cette fonctionnalité est souvent
appelée basculement transparent.
Découverte, authentification et contrôle d'accès
Vous pouvez utiliser plusieurs méthodes pour découvrir votre stockage et y limiter l'accès.
Vous devez configurer votre hôte et le système de stockage iSCSI pour qu'il prenne en charge votre
politique de contrôle d'accès au stockage.
Découverte
Une session de découverte fait partie du protocole iSCSI. Elle renvoie l'ensemble des cibles auxquelles
vous pouvez accéder sur un système de stockage iSCSI. Les deux types de découverte disponibles sur
ESXi sont les découvertes dynamique et statique. La découverte dynamique obtient une liste des cibles
accessibles à partir du système de stockage iSCSI. La découverte statique peut accéder uniquement à
une cible particulière par nom cible et adresse.
Pour plus d'informations, consultez Configuration des adresses de découverte des adaptateurs iSCSI.
VMware, Inc. 78
Page 79
Stockage vSphere
Authentification
Les systèmes de stockage iSCSI authentifient un initiateur par un nom et une paire de clés. L'ESXi prend
en charge le protocole d'authentification CHAP. Pour utiliser l'authentification CHAP, l'hôte ESXi et le
système de stockage iSCSI doivent avoir la fonction CHAP activée et disposer d'informations
d'identification communes.
Pour plus d'informations sur l'activation du CHAP, consultez Configurer des paramètres CHAP pour des
adaptateurs iSCSI.
Contrôle d'accès
Le contrôle d'accès est une règle configurée sur le système de stockage iSCSI. La plupart des mises en
œuvre prennent en charge un ou plusieurs des trois types de contrôle d'accès :
n
Par nom d'initiateur
n
Par adresse IP
n
Par protocole CHAP
Seuls les initiateurs qui respectent toutes les règles peuvent accéder au volume iSCSI.
L'utilisation exclusive du CHAP pour le contrôle d'accès peut ralentir les réanalyses parce que l'hôte ESXi
peut découvrir toutes les cibles, mais échoue ensuite à l'étape d'authentification. Les réanalyses iSCSI
sont plus rapides si l'hôte détecte uniquement les cibles qu'il peut authentifier.
Correction des erreurs
Pour protéger l'intégrité des en-têtes et des données iSCSI, le protocole iSCSI définit des méthodes de
correction des erreurs, plus connues sous le nom de résumés d'en-tête et de résumés de données.
Ces deux paramètres sont désactivés par défaut, mais vous pouvez les activer. Ces résumés
appartiennent respectivement à l'en-tête et aux données SCSI transférés entre les initiateurs iSCSI et les
cibles, dans les deux sens.
Les résumés d'en-tête et de données vérifient l'intégrité des données non cryptographiques en plus des
contrôles de santé effectués par d'autres couches du réseau, telles que TCP et Ethernet. Ils vérifient le
chemin de communication complet, y compris tous les éléments susceptibles de modifier le trafic au
niveau du réseau, tels que les routeurs, les commutateurs et les proxys.
L'existence et le type des résumés sont négociés lorsqu'une connexion iSCSI est établie. Lorsque
l'initiateur et la cible s'accordent sur une configuration de résumé, celui-ci doit être utilisé pour l'ensemble
du trafic entre eux.
L'activation des résumés d'en-tête et de données nécessite un traitement supplémentaire à la fois pour
l'initiateur et la cible et peut affecter le débit et les performances d'utilisation du CPU.
Remarque Les systèmes qui utilisent les processeurs Intel Nehalem délestent les calculs de résumé
iSCSI, en réduisant ainsi l'incidence sur les performances.
VMware, Inc. 79
Page 80
Stockage vSphere
Pour plus d'informations sur l'activation des résumés d'en-tête et de données, consultez Configuration
des paramètres avancés iSCSI.
Accès des machines virtuelles aux données sur un SAN iSCSI
ESXi stocke les fichiers disque d'une machine virtuelle dans une banque de données VMFS se trouvant
sur un périphérique de stockage du SAN. Lorsque les systèmes d'exploitation invités de la machine
virtuelle envoient des commandes SCSI à leurs disques virtuels, la couche de virtualisation SCSI traduit
ces commandes en opérations de fichier VMFS.
Lorsqu'une machine virtuelle interagit avec son disque virtuel stocké sur un SAN, le processus suivant a
lieu :
1Lorsque le système d'exploitation invité sur une machine virtuelle lit ou écrit sur le disque SCSI, il
envoie des commandes SCSI au disque virtuel.
2Les pilotes de périphériques dans le système d'exploitation de la machine virtuelle communiquent
avec les contrôleurs SCSI virtuels.
3Le contrôleur SCSI virtuel transmet les commandes au VMkernel.
4Le VMkernel effectue les tâches suivantes :
aLocalisation du fichier de disque virtuel approprié dans le volume VMFS.
bMappage des requêtes de blocs sur le disque virtuel sur les blocs sur le périphérique physique
approprié.
cEnvoi de la demande d'E/S modifiée à partir du pilote du périphérique du VMkernel vers
l'initiateur iSCSI, matériel ou logiciel.
5Si l'initiateur iSCSI est un adaptateur iSCSI matériel, indépendant ou dépendant, l'adaptateur effectue
les tâches suivantes :
aEncapsulation des demandes d'E/S dans les unités de données de protocole (PDU) iSCSI.
bEncapsulation des PDU iSCSI dans les paquets TCP/IP.
cEnvoi des paquets IP via Ethernet au système de stockage iSCSI.
6Si l'initiateur iSCSI est un adaptateur iSCSI logiciel, les actions suivantes ont lieu :
aL'initiateur iSCSI encapsule les demandes d'E/S dans les PDU iSCSI.
bL'initiateur envoie les PDU iSCSI via des connexions TCP/IP.
cLa pile TCP/IP VMkernel relaie les paquets TCP/IP vers un adaptateur réseau (NIC) physique.
dLa carte réseau (NIC) physique envoie les paquets IP via Ethernet au système de stockage
iSCSI.
7Les commutateurs et les routeurs Ethernet sur le réseau acheminent la demande vers le périphérique
de stockage approprié.
VMware, Inc. 80
Page 81
Configuration des adaptateurs
iSCSI et du stockage11
Pour que ESXi puisse fonctionner avec SAN iSCSI, vous devez configurer votre environnement iSCSI.
Le processus de préparation de votre environnement iSCSI se compose des étapes suivantes :
ÉtapeDétails
Configuration du stockage iSCSIPour plus d'informations, reportez-vous à la documentation du fournisseur de stockage. En
outre, suivez les recommandations ci-après :
n
Recommandations et restrictions du SAN ESXi iSCSI
n
Chapitre 13 Meilleures pratiques pour le stockage iSCSI
Configurer les adaptateurs iSCSIUtilisez un workflow approprié pour configurer votre adaptateur :
n
Configurer des adaptateurs iSCSI matériel indépendants
n
Configurer des adaptateurs iSCSI matériel dépendants
n
Configurer l'adaptateur iSCSI logiciel
n
Configurer les adaptateurs iSER
Créer une banque de données
sur le stockage iSCSI
Création de banques de données
Ce chapitre aborde les rubriques suivantes :
n
Recommandations et restrictions du SAN ESXi iSCSI
n
Configuration des paramètres iSCSI pour les adaptateurs
n
Configurer des adaptateurs iSCSI matériel indépendants
n
Configurer des adaptateurs iSCSI matériel dépendants
n
Configurer l'adaptateur iSCSI logiciel
n
Configurer les adaptateurs iSER
n
Modifier les propriétés générales des adaptateurs iSCSI ou iSER
n
Configuration du réseau pour iSCSI et iSER
n
Utilisation des trames Jumbo avec iSCSI
n
Configuration des adresses de découverte des adaptateurs iSCSI
n
Configurer des paramètres CHAP pour des adaptateurs iSCSI
n
Configuration des paramètres avancés iSCSI
VMware, Inc.
81
Page 82
Stockage vSphere
n
Gestion des sessions iSCSI
Recommandations et restrictions du SAN ESXi iSCSI
Pour fonctionner correctement avec un SAN iSCSI, votre environnement ESXi doit respecter certaines
recommandations spécifiques. En outre, plusieurs restrictions existent lorsque vous utilisez ESXi avec un
SAN iSCSI.
Recommandations du stockage iSCSI
n
Vérifiez que votre hôte ESXi prend en charge le matériel et le microprogramme du stockage SAN
iSCSI. Pour obtenir une liste à jour, consultez le Guide de compatibilité VMware.
n
Afin de garantir que l'hôte reconnaisse bien les LUN au démarrage, configurez toutes les cibles de
stockage iSCSI de façon à ce que votre hôte puisse y accéder et les exploiter. Configurez votre hôte
de façon à ce qu'il puisse découvrir toutes les cibles iSCSI.
n
Configurez une partition de diagnostic sur un stockage local, sauf si vous utilisez des serveurs sans
disques, En cas d'utilisation de serveurs sans disque qui démarrent à partir d'un SAN iSCSI,
consultez Recommandations générales pour le démarrage à partir du SAN iSCSI pour plus
d'informations sur les partitions de diagnostic avec iSCSI.
n
Définissez le pilote de contrôleur SCSI dans le système d'exploitation client sur une file suffisamment
grande.
n
Sur les machines virtuelles qui exécutent Microsoft Windows, augmentez la valeur du paramètre
TimeoutValue SCSI. Lorsque ce paramètre est configuré, les machines virtuelles Windows peuvent
mieux tolérer les E/S différées provenant d'un basculement de chemin. Pour plus d'informations,
consultez Définir le délai d'expiration du SE invité Windows.
n
Configurez votre environnement de façon à n'avoir qu'une seule banque de données VMFS pour
chaque LUN.
Restrictions du stockage iSCSI
n
ESXi ne prend en charge pas les périphériques à bande connectés par iSCSI.
n
Vous ne pouvez pas utiliser le logiciel multi-chemins de machine virtuelle pour réaliser un équilibrage
E/S vers une LUN matérielle unique.
n
ESXi ne prend pas en charge la gestion de gestion multivoie lorsque vous combinez des adaptateurs
matériels indépendants à des adaptateurs logiciels ou matériels dépendants.
Configuration des paramètres iSCSI pour les adaptateurs
Pour que votre hôte ESXi puisse détecter le stockage iSCSI, vous devez d'abord configurer vos
adaptateurs iSCSI. Lorsque vous configurez les adaptateurs, vous définissez plusieurs paramètres
iSCSI.
VMware, Inc. 82
Page 83
Stockage vSphere
mise en réseau iSCSI
Pour certains types d'adaptateurs iSCSI, vous devez configurer la mise en réseau VMkernel.
Vous pouvez vérifier la configuration réseau grâce à l'utilitaire vmkping.
L'adaptateur iSCSI matériel indépendant ne nécessite pas de mise en réseau VMkernel. Sur ce type
d'adaptateur, vous pouvez configurer des paramètres réseau tels qu'une adresse IP, un masque de sousréseau et une passerelle par défaut.
Tous les types d'adaptateurs iSCSI prennent en charge les protocoles IPv4 et IPv6.
Adaptateur iSCSI (vmhba)DescriptionMise en réseau VMkernelParamètres réseau de l'adaptateur
Adaptateur iSCSI matériel
indépendant
Adaptateur iSCSI logicielUtilise des cartes NICs
Adaptateur iSCSI matériel
dépendant
Adaptateur VMware iSERUtilise un adaptateur
Adaptateur tiers qui
décharge la gestion de
réseau et iSCSI de votre
hôte.
standards pour connecter
votre hôte à une cible
iSCSI distante sur le
réseau IP.
Adaptateur tiers qui
dépend de la mise en
réseau VMware, de la
configuration iSCSI et des
interfaces de gestion.
réseau compatible RDMA
pour connecter votre hôte à
une cible iSCSI distante.
Non requis.Pour plus d'informations, consultez
Modifier des paramètres réseau pour
du matériel iSCSI.
Requis.
Pour plus d'informations,
consultez Configuration du
réseau pour iSCSI et iSER.
Requis
Pour plus d'informations,
consultez Configuration du
réseau pour iSCSI et iSER.
Requis
Pour plus d'informations,
consultez Configuration du
réseau pour iSCSI et iSER.
S/O
S/O
S/O
Méthodes de détection
Pour tous les types d'adaptateurs iSCSI, vous devez définir l'adresse de détection dynamique ou
l'adresse de détection statique. Vous devez également fournir le nom cible du système de stockage. Pour
les adaptateurs de logiciels iSCSI et les adaptateurs de matériels iSCSI dépendants, l'adresse doit être
accessible par un ping à l'aide de vmkping.
Reportez-vous à la section Configuration des adresses de découverte des adaptateurs iSCSI.
Authentification CHAP
Activez le paramètre CHAP sur l'initiateur et du côté du système de stockage. Une fois que
l'authentification est activée, elle s'applique à toutes les cibles non encore détectées. Elle ne s'applique
pas aux cibles déjà détectées.
Reportez-vous à la section Configurer des paramètres CHAP pour des adaptateurs iSCSI.
VMware, Inc. 83
Page 84
Stockage vSphere
Configurer des adaptateurs iSCSI matériel indépendants
Un adaptateur iSCSI matériel indépendant est un adaptateur tiers spécialisé capable d'accéder au
stockage iSCSI via TCP/IP. Cet adaptateur iSCSI traite tout le traitement et toute la gestion iSCSI et
réseau du système ESXi.
Prérequis
n
Vérifiez si l'adaptateur doit disposer d'une licence.
n
Installez l'adaptateur sur votre hôte ESXi.
Pour en savoir plus sur la gestion des licences, l'installation et les mises à jour de microprogrammes,
reportez-vous à la documentation du fournisseur.
Le processus de configuration de l'adaptateur iSCSI matériel indépendant comprend les étapes
suivantes.
ÉtapeDescription
Afficher des adaptateurs de matériel
iSCSI dépendants
Modifier les propriétés générales des
adaptateurs iSCSI ou iSER
Modifier des paramètres réseau pour
du matériel iSCSI
Configurer la découverte dynamique
ou statique pour iSCSI et iSER
Configurer CHAP pour un adaptateur
iSCSI ou iSER
Activer les trames Jumbo pour l'iSCSI
matériel indépendant
Affichez un adaptateur iSCSI matériel indépendant et vérifiez qu'il est correctement installé
et prêt pour la configuration.
Au besoin, modifiez le nom et l'alias iSCSI par défaut attribués à vos adaptateurs iSCSI.
Pour les adaptateurs iSCSI matériels indépendants, vous pouvez également modifier les
paramètres IP par défaut.
Modifiez les paramètres réseau par défaut afin que l'adaptateur est configuré
correctement pour le SAN iSCSI.
Configurez la découverte dynamique. Avec la découverte dynamique, chaque fois que
l'initiateur contacte un système de stockage iSCSI donné, il envoie la demande
SendTargets au système. Le système iSCSI répond en fournissant une liste de cibles
disponibles à l'initiateur. Outre la méthode de découverte dynamique, vous pouvez utiliser
la découverte statique et entrer manuellement des informations pour les cibles.
Si votre environnement iSCSI utilise le protocole CHAP (Challenge Handshake
Authentication Protocol), configurez-le pour votre adaptateur.
Si votre environnement iSCSI prend en charge les trames Jumbo, activez-les pour
l'adaptateur.
Acher des adaptateurs de matériel iSCSI dépendants
Affichez un adaptateur iSCSI matériel indépendant et vérifiez qu'il est correctement installé et prêt pour la
configuration.
Après que vous avez installé un adaptateur iSCSI matériel indépendant sur un hôte, celui-ci apparaît
dans la liste des adaptateurs de stockage disponibles pour la configuration. Vous pouvez consulter ses
propriétés.
Prérequis
Privilège nécessaire :Hôte.Configuration.Configuration de la partition de stockage
VMware, Inc. 84
Page 85
Stockage vSphere
Procédure
1Accédez à l'hôte.
2Cliquez sur l'onglet Configurer.
3Sous Stockage, cliquez sur Adaptateurs de stockage.
S'il est installé, l'adaptateur iSCSI matériel apparaît dans la liste des adaptateurs de stockage.
4Sélectionnez l'adaptateur à afficher.
Les détails par défaut de l'adaptateur s'affichent.
Informations sur les
adaptateursDescription
ModèleModèle de l'adaptateur.
nom iSCSINom unique formé selon les normes iSCSI qui identifie l'adaptateur iSCSI. Vous pouvez
modifier le nom iSCSI.
Alias iSCSISurnom utilisé au lieu du nom iSCSI. Vous pouvez modifier l'alias iSCSI.
Adresse IPAdresse assignée au HBA iSCSI.
CiblesNombre de cibles auxquelles il a été accédé via l'adaptateur.
PériphériquesTous les périphériques de stockage ou LUN auxquels l'adaptateur peut accéder.
CheminsTous les chemins que l'adaptateur l'utilise pour accéder aux périphériques de stockage.
Modifier des paramètres réseau pour du matériel iSCSI
Après avoir installé un adaptateur iSCSI matériel indépendant, vous pourrez avoir besoin de modifier ses
paramètres réseau par défaut pour que l'adaptateur soit configuré correctement pour le SAN iSCSI.
Procédure
1Accédez à l'hôte.
2Cliquez sur l'onglet Configurer.
3Sous Stockage, cliquez sur Adaptateurs de stockage, puis sélectionnez l'adaptateur (vmhba#) à
configurer.
4Dans Détails de l'adaptateur, cliquez sur l'onglet Paramètres réseau, puis sur Modifier.
VMware, Inc. 85
Page 86
Stockage vSphere
5Dans la section Paramètres IPv4, désactivez IPv6 ou sélectionnez la méthode utilisée pour obtenir
les adresses IP.
Remarque L'option DHCP automatique et l'option statique s'excluent mutuellement.
OptionDescription
Aucun paramètre IPv4Désactivez IPv4.
Obtenir automatiquement les
paramètres IPv4
Utiliser des paramètres IPv4 statiquesEntrez l'adresse IP IPv4, le masque de sous-réseau et la passerelle par défaut de
Utilisez DHCP pour obtenir les paramètres IP.
l'adaptateur iSCSI.
6Dans la section Paramètres IPv6, désactivez IPv6 ou sélectionnez une option appropriée pour obtenir
les adresses IPv6.
Remarque L'option automatique et l'option statique s'excluent mutuellement.
OptionDescription
Aucun paramètre IPv6Désactivez IPv6.
Activer IPv6Sélectionnez une option permettant d'obtenir les adresses IPv6.
Obtenir adresse IPv6 automatiquement
via DHCP
Obtenez les adresses IPv6
automatiquement par Annonce de
Routage
Remplacer l'adresse de lien local pour
IPv6
Adresses IPv6 statiquesa Cliquez sur Ajouter pour ajouter une nouvelle adresse IPv6.
Utilisez DHCP pour obtenir les adresses IPv6.
Utilisez l'annonce de routage pour obtenir les adresses IPv6.
Remplacez l'adresse IP de lien local en configurant une adresse IP statique.
b Entrez l'adresse IPv6 et la longueur du préfixe de sous-réseau, puis cliquez
sur OK.
7Dans la section Paramètres DNS, fournissez l'adresse IP d'un serveur DNS préféré et celle d'un
serveur DNS secondaire.
Vous devez indiquer ces deux valeurs.
Configurer des adaptateurs iSCSI matériel dépendants
Un adaptateur iSCSI matériel dépendant est un adaptateur tiers qui dépend du réseau VMware et des
interfaces de configuration et de gestion iSCSI fournies par VMware.
La carte réseau Broadcom 5709 est un exemple d'adaptateur iSCSI dépendant. Lors de l'installation sur
un hôte, elle présente ses deux composants, un adaptateur réseau standard et un moteur iSCSI, au
même port. Le moteur iSCSI apparaît sur la liste d'adaptateurs de stockage en tant qu'adaptateur iSCSI
(vmhba).
VMware, Inc. 86
Page 87
Stockage vSphere
L'adaptateur iSCSI est activé par défaut. Pour le rendre fonctionnel, vous devez le connecter, via un
adaptateur virtuel VMkernel (vmk), à un adaptateur réseau physique (vmnic) qui lui est associé. Vous
pouvez alors configurer l'adaptateur iSCSI.
Après avoir configuré l'adaptateur iSCSI matériel dépendant, les données de découverte et
d'authentification sont transmises à l'aide de la connexion réseau. Le trafic iSCSI est envoyé via le
moteur iSCSI, en contournant le réseau.
La procédure complète d'installation et de configuration des adaptateurs iSCSI matériels dépendants
comprend plusieurs étapes.
ÉtapeDescription
Affichage des adaptateurs iSCSI
matériel dépendants
Modifier les propriétés générales des
adaptateurs iSCSI ou iSER
Déterminer l'association entre les
adaptateurs iSCSI et les adaptateurs
réseau
Configurer la liaison de port pour les
protocoles iSCSI ou iSER
Configurer la découverte dynamique
ou statique pour iSCSI et iSER
Configurer CHAP pour un adaptateur
iSCSI ou iSER
Configurer CHAP pour une cibleVous pouvez également configurer des informations d'identification CHAP différentes pour
Activer les trames Jumbo pour la mise
en réseau
Affichez un adaptateur iSCSI matériel dépendant pour vérifier qu'il est correctement
chargé.
Si nécessaire, modifiez le nom iSCSI par défaut et l'alias attribués à votre adaptateur.
Vous devez créer des connexions réseau pour lier des adaptateurs iSCSI dépendants et
des adaptateurs réseau physiques. Pour pouvoir créer des connexions correctement,
déterminez le nom de la carte réseau physique à laquelle l'adaptateur iSCSI matériel
dépendant est associé.
Configurez les connexions pour le trafic entre le composant iSCSI et les adaptateurs
réseau physiques. Le processus de configuration de ces connexions est appelé liaison de
port.
Configurez la découverte dynamique. Avec la découverte dynamique, chaque fois que
l'initiateur contacte un système de stockage iSCSI donné, il envoie la demande
SendTargets au système. Le système iSCSI répond en fournissant une liste de cibles
disponibles à l'initiateur. Outre la méthode de découverte dynamique, vous pouvez utiliser
la découverte statique et entrer manuellement des informations pour les cibles.
Si votre environnement iSCSI utilise le protocole CHAP (Challenge Handshake
Authentication Protocol), configurez-le pour votre adaptateur.
chaque adresse de découverte ou cible statique.
Si votre environnement iSCSI prend en charge les trames Jumbo, activez-les pour
l'adaptateur.
Considérations sur l'iSCSI matériel dépendant
Lorsque vous utilisez des adaptateurs iSCSI matériel dépendants avec ESXi, certaines considérations
s'appliquent.
n
Lorsque vous utilisez un adaptateur iSCSI matériel dépendant, le rapport de performances pour une
carte réseau associée à l'adaptateur ne montre que peu ou pas d'activité, même lorsque le trafic
iSCSI est intense. Cela est dû au contournement de la pile réseau habituelle par le trafic iSCSI.
n
Si vous utilisez un commutateur virtuel tiers tel que Cisco Nexus 1000V DVS, désactivez
l'accrochage automatique. Utilisez l'accrochage manuel à la place, en veillant à connecter un
adaptateur VMkernel (vmk) à une carte NIC physique adéquate (vmnic). Pour plus d'informations,
consultez la documentation du fournisseur de commutateurs virtuels.
VMware, Inc. 87
Page 88
Stockage vSphere
n
L'adaptateur iSCSI Broadcom réassemble les données dans le matériel, dont l'espace tampon est
limité. Lorsque vous utilisez l'adaptateur iSCSI Broadcom dans un réseau congestionné ou sous une
lourde charge, activez le contrôle de flux pour éviter la dégradation des performances.
Le contrôle de flux gère la vitesse de transmission des données entre deux nœuds pour éviter qu'un
expéditeur rapide ne dépasse un récepteur lent. Pour obtenir de meilleurs résultats, activez le
contrôle du flux aux points d'extrémité du chemin E/S, au niveau des hôtes et des systèmes de
stockage iSCSI.
Pour activer le contrôle de flux pour l'hôte, utilisez la commande esxcli system moduleparameters. Pour plus d'informations, consultez l'article de la base de connaissances VMware à
l'adresse http://kb.vmware.com/kb/1013413
n
Les adaptateurs de matériel dépendants prennent en charge IPv4 et IPv6.
Achage des adaptateurs iSCSI matériel dépendants
Affichez un adaptateur iSCSI matériel dépendant pour vérifier qu'il est correctement chargé.
S'il est installé, l'adaptateur iSCSI matériel dépendant (vmhba#) figure dans la liste des adaptateurs de
stockage sous, par exemple, la catégorie Adaptateur iSCSI Broadcom. Si l'adaptateur matériel dépendant
ne figure pas dans la liste des adaptateurs de stockage, vérifiez s'il a besoin d'une licence. Consultez la
documentation du fabricant.
Procédure
1Accédez à l'hôte.
2Cliquez sur l'onglet Configurer.
3Sous Stockage, cliquez sur Adaptateurs de stockage.
4Sélectionnez l'adaptateur (vmhba#) à afficher.
Les détails par défaut de l'adaptateur apparaissent, y compris le nom iSCSI, l'alias iSCSI et l'état.
Suivant
Bien que l'adaptateur iSCSI dépendant soit activé par défaut, pour le rendre fonctionnel, vous devez
configurer les communications réseau pour le trafic iSCSI et lier l'adapateur à un port iSCSI VMkernel
approprié. Définissez ensuite les adresses de découverte et les paramètres CHAP.
Déterminer l'association entre les adaptateurs iSCSI et les
adaptateurs réseau
Vous pouvez créer des connexions réseau pour lier des adaptateurs iSCSI dépendants et des
adaptateurs réseau physiques. Pour pouvoir créer des connexions correctement, vous devez déterminer
le nom de la carte réseau physique avec laquelle l'adaptateur iSCSI matériel dépendant est associé.
Procédure
1Accédez à l'hôte.
VMware, Inc. 88
Page 89
Stockage vSphere
2Cliquez sur l'onglet Configurer.
3Sous Stockage, cliquez sur Adaptateurs de stockage.
4Sélectionnez l'adaptateur iSCSI (vmhba#) et cliquez sur l'onglet Liaison de port réseau sous Détails
adaptateur.
5Cliquez sur Ajouter.
L'adaptateur réseau (vmnic#) qui correspond à l'adaptateur iSCSI dépendant est répertorié dans la
colonne Adaptateurs réseau physiques.
Suivant
Si la colonne Adaptateur VMkernel est vide, créez un adaptateur VMkernel (vmk#) pour l'adaptateur
réseau physique (vmnic#) puis reliez-les au matériel iSCSI dépendant associé. Reportez-vous à la
section Configuration du réseau pour iSCSI et iSER.
Configurer l'adaptateur iSCSI logiciel
L'implémentation du protocole iSCSI logiciel vous permet d'utiliser des cartes réseau standard pour
connecter votre hôte à une cible iSCSI distante sur le réseau IP. L'adaptateur iSCSI logiciel qui est
intégré dans l'ESXi facilite cette connexion en communiquant avec les cartes NIC physiques par la pile
réseau.
Considérez les points suivants lorsque vous utilisez les adaptateurs iSCSI logiciels :
n
Désignez un adaptateur réseau séparé pour iSCSI. N'utilisez pas d'iSCSI sur des adaptateurs
100Mbps ou plus lents.
n
Évitez de coder en dur le nom de l'adaptateur logiciel, vmhbaXX, dans les scripts. Il est possible que
le nom change d'une version d'ESXi à l'autre, ce qui peut provoquer l'échec de vos scripts existants
s'ils utilisent l'ancien nom codé en dur. Le changement de nom n'affecte pas le comportement de
l'adaptateur iSCSI logiciel.
Le processus de configuration de l'adaptateur iSCSI logiciel comprend plusieurs étapes.
ÉtapeDescription
Activer ou désactiver l'adaptateur iSCSI
logiciel
Modifier les propriétés générales des
adaptateurs iSCSI ou iSER
Configurer la liaison de port pour les
protocoles iSCSI ou iSER
Configurer la découverte dynamique ou
statique pour iSCSI et iSER
Activez votre adaptateur iSCSI logiciel pour que l'hôte puisse l'utiliser pour accéder au
stockage iSCSI.
Si nécessaire, modifiez le nom iSCSI par défaut et l'alias attribués à votre adaptateur.
Configurez les connexions pour le trafic entre le composant iSCSI et les adaptateurs
réseau physiques. Le processus de configuration de ces connexions est appelé liaison
de port.
Configurez la découverte dynamique. Avec la découverte dynamique, chaque fois que
l'initiateur contacte un système de stockage iSCSI donné, il envoie la demande
SendTargets au système. Le système iSCSI répond en fournissant une liste de cibles
disponibles à l'initiateur. Outre la méthode de découverte dynamique, vous pouvez
utiliser la découverte statique et entrer manuellement des informations pour les cibles.
VMware, Inc. 89
Page 90
Stockage vSphere
ÉtapeDescription
Configurer CHAP pour un adaptateur
iSCSI ou iSER
Configurer CHAP pour une cibleVous pouvez également configurer des informations d'identification CHAP différentes
Activer les trames Jumbo pour la mise
en réseau
Si votre environnement iSCSI utilise le protocole CHAP (Challenge Handshake
Authentication Protocol), configurez-le pour votre adaptateur.
pour chaque adresse de découverte ou cible statique.
Si votre environnement iSCSI prend en charge les trames Jumbo, activez-les pour
l'adaptateur.
Activer ou désactiver l'adaptateur iSCSI logiciel
Vous devez activer votre adaptateur iSCSI logiciel pour que l'hôte puisse l'utiliser pour accéder au
stockage iSCSI. Vous pouvez désactiver l'adaptateur iSCSI logiciel si vous n'en avez pas besoin.
Vous ne pouvez activer qu'un seul adaptateur iSCSI logiciel.
Prérequis
Privilège nécessaire : Hôte.Configuration.Configuration de la partition de stockage
Remarque Si vous démarrez depuis iSCSI en utilisant l'adaptateur iSCSI logicielI, l'adaptateur est activé
et la configuration réseau est créée lors du premier démarrage. Si vous désactivez l'adaptateur, il est
réactivé à chaque démarrage de l'hôte.
Procédure
1Accédez à l'hôte.
2Cliquez sur l'onglet Configurer.
VMware, Inc. 90
Page 91
Stockage vSphere
3Activez ou désactivez l'adaptateur.
OptionDescription
Activer l'adaptateur iSCSI logiciela Sous Stockage, cliquez sur Adaptateurs de stockage, puis cliquez sur
l'icône Ajouter.
b Sélectionnez Adaptateur iSCSI logiciel et confirmez que vous voulez
ajouter l'adaptateur.
L'adaptateur iSCSI logiciel (vmhba#) est activé et figure dans la liste des
adaptateurs de stockage. Après avoir activé l'adaptateur, l'hôte lui assigne un
nom iSCSI par défaut. Vous pouvez maintenant terminer la configuration de
l'adaptateur.
Désactiver l'adaptateur iSCSI logiciela Sous Stockage, cliquez sur Adaptateurs de stockage, puis sélectionnez
l'adaptateur (vmhba#) à désactiver.
b Cliquez sur l'onglet Propriétés.
c Cliquez sur Désactiver et confirmez que vous souhaitez désactiver
l'adaptateur.
L'état indique que l'adaptateur est désactivé.
d Redémarrez l'hôte.
Après le redémarrage, l'adaptateur ne figure plus dans la liste des
adaptateurs de stockage. Les périphériques de stockage associés à
l'adaptateur deviennent inaccessibles. Vous pourrez activer l'adaptateur plus
tard.
Configurer les adaptateurs iSER
Configurez le protocole iSER sur votre hôte ESXi, pour que l'infrastructure iSCSI située sur l'hôte puisse
utiliser le transport d'accès direct à la mémoire à distance (RDMA) au lieu du protocole TCP/IP.
Lors de l'installation sur l'hôte, l'adaptateur compatible RDMA s'affiche dans vCenter Server comme un
adaptateur réseau (vmnic).
Pour rendre l'adaptateur fonctionnel, vous devez activer le composant iSER VMware et connecter
l'adaptateur iSER à la carte réseau compatible RDMA. Vous pouvez ensuite configurer les propriétés
typiques pour l'adaptateur iSER, comme les cibles et le CHAP.
La procédure complète d'installation et de configuration des adaptateurs iSER comprend plusieurs
étapes.
ÉtapeDescription
Activer l'adaptateur iSER VMwareUtilisez la commande esxcli pour activer l'adaptateur iSER VMware.
Modifier les propriétés générales des
adaptateurs iSCSI ou iSER
Configurer la liaison de port pour les
protocoles iSCSI ou iSER
Si nécessaire, modifiez le nom et l'alias attribués par défaut à votre adaptateur.
Vous devez créer des connexions réseau pour lier le moteur iSER et l'adaptateur réseau
compatible RDMA. Le processus de configuration de ces connexions est appelé liaison de
port.
Remarque iSER ne prend pas en charge l'association de cartes réseau. Lors de la
configuration de la liaison de port, utilisez un seul adaptateur RDMA par vSwitch.
VMware, Inc. 91
Page 92
Stockage vSphere
ÉtapeDescription
Configurer la découverte dynamique
ou statique pour iSCSI et iSER
Configurer CHAP pour un adaptateur
iSCSI ou iSER
Configurer CHAP pour une cibleVous pouvez également configurer des informations d'identification CHAP différentes pour
Activer les trames Jumbo pour la
mise en réseau
Configurez la découverte dynamique. Avec la découverte dynamique, chaque fois que
l'initiateur contacte un système de stockage iSER donné, il envoie la demande SendTargets
au système. Le système iSER répond en fournissant une liste de cibles disponibles à
l'initiateur. Outre la méthode de découverte dynamique, vous pouvez utiliser la découverte
statique et entrer manuellement des informations pour les cibles.
Si votre environnement utilise le protocole CHAP, configurez-le pour votre adaptateur.
chaque adresse de découverte ou cible statique.
Si votre environnement prend en charge les trames Jumbo, activez-les pour l'adaptateur.
Activer l'adaptateur iSER VMware
Utilisez la commande esxcli pour activer l'adaptateur iSER VMware.
Prérequis
n
Assurez-vous que votre stockage iSCSI prend en charge le protocole iSER.
n
Installez l'adaptateur compatible RDMA sur votre hôte ESXi.
n
Utilisez le commutateur compatible RDMA.
n
Activez le contrôle de flux sur l'hôte ESXi. Pour activer le contrôle de flux pour l'hôte, utilisez la
commande esxcli system module parameters. Pour de plus amples détails, consultez l'article de
la base de connaissances VMware à http://kb.vmware.com/kb/1013413.
n
Assurez-vous de configurer des ports de commutateur RDMA pour créer des connexions sans perte
de données entre l'initiateur iSER et la cible.
Procédure
1Utilisez le service ESXi Shell ou vSphere CLI pour activer l'adaptateur iSER :
esxcli rdma iser add
2Vérifiez que l'adaptateur iSER VMware a été ajouté :
aAccédez à l'hôte.
bCliquez sur l'onglet Configurer.
cSous Stockage, cliquez sur Adaptateurs de stockage et examinez la liste des adaptateurs.
Si vous avez activé l'adaptateur, l'adaptateur (vmhba#) s'affiche dans la liste sous la catégorie
Adaptateur iSCSI sur RDMA (iSER) VMware.
VMware, Inc. 92
Page 93
Stockage vSphere
Modifier les propriétés générales des adaptateurs iSCSI
ou iSER
Vous pouvez modifier le nom et l'alias par défaut attribués à vos adaptateurs iSCSI ou iSER. Pour les
adaptateurs iSCSI matériels indépendants, vous pouvez également modifier les paramètres IP par
défaut.
Important Lorsque vous modifiez des propriétés par défaut de vos adaptateurs, assurez-vous d'utiliser
les formats appropriés pour leurs noms et leurs adresses IP.
Prérequis
Privilège requis : Hôte.Configuration.Configuration de la partition de stockage
Procédure
1Accédez à l'hôte.
2Cliquez sur l'onglet Configurer.
3Sous Stockage, cliquez sur Adaptateurs de stockage, puis sélectionnez l'adaptateur (vmhba#) à
configurer.
4Cliquez sur l'onglet Propriétés, puis sur Modifier dans le panneau Général.
5(Facultatif) Modifiez les propriétés générales suivantes.
OptionDescription
nom iSCSINom unique formé selon les normes iSCSI qui identifie l'adaptateur iSCSI. Si
vous modifiez le nom, assurez-vous que le nom entré est unique dans le monde
entier et correctement formaté. Sinon, certains périphériques de stockage
risquent de ne pas reconnaître l'adaptateur iSCSI.
Alias iSCSINom convivial que vous utilisez à la place du nom iSCSI.
Si vous modifiez le nom iSCSI, il sera utilisé pour de nouvelles sessions iSCSI. Pour les sessions
existantes, les nouveaux paramètres ne sont utilisés qu'une fois que vous vous êtes déconnecté, puis
reconnecté.
Configuration du réseau pour iSCSI et iSER
Certains types d'adaptateurs iSCSI dépendent de la mise en réseau VMkernel. Il s'agit notamment des
adaptateurs iSCSI logiciels, des adaptateurs iSCSI matériels dépendants et des adaptateurs iSER
(VMware iSCSI sur RDMA). Si votre environnement inclut l'un de ces adaptateurs, vous devez configurer
les connexions pour le trafic entre le composant iSCSI ou iSER et les adaptateurs réseau physiques.
La configuration de la connexion réseau implique de créer un adaptateur virtuel VMkernel pour chaque
adaptateur réseau physique, d'utiliser le mappage 1:1 entre chaque adaptateur réseau physique et
virtuel, puis d'associer l'adaptateur VMkernel à un adaptateur iSCSI ou iSER approprié. Ce processus
porte le nom de liaison de port.
VMware, Inc. 93
Page 94
vSwitch
vmhba
adaptateur iSCSI ou iSER
vmk
adaptateur VMkernel
vmnic
carte réseau physique
réseau IP
stockage iSCSI ou iSER
Hôte
Stockage vSphere
Lorsque vous configurez la liaison de port, suivez ces règles :
n
Vous pouvez connecter l'adaptateur iSCSI logiciel n'importe quelle carte réseau physique disponible
sur votre hôte.
n
Les adaptateurs iSCSI dépendants doivent uniquement être connectés à leurs propres cartes réseau
physiques.
Pour des considérations spécifiques sur la manière d'utiliser les connections du réseau avec un
adaptateur iSCSI logiciel, reportez-vous à l'article de la base de connaissances VMware à l'adresse
http://kb.vmware.com/kb/2038869.
Multiples adaptateurs réseau dans une configuration iSCSI ou
iSER
Si l'hôte dispose de plusieurs adaptateurs réseau physiques pour iSCSI ou iSER, vous pouvez utiliser les
adaptateurs pour la gestion multivoie.
Vous pouvez utiliser plusieurs adaptateurs physiques dans une configuration à commutateur unique ou à
commutateurs multiples.
Dans une configuration à commutateurs multiples, vous désignez un commutateur vSphere distinct pour
chaque paire d'adaptateurs virtuel-physique.
VMware, Inc. 94
Page 95
Adaptateurs VMkernel
Adaptateurs physiques
vmnic1
iSCSI1
vmk1
vSwitch1
Adaptateurs VMkernel
Adaptateurs physiques
vmnic2
iSCSI2
vmk2
vSwitch2
Adaptateurs VMkernel
Adaptateurs physiques
vmnic2
vmnic1
iSCSI2
vmk2
iSCSI1
vmk1
vSwitch1
Stockage vSphere
Figure 11‑1. Mappage d'adaptateurs 1:1 sur des commutateurs standard vSphere distincts
Une autre méthode consiste à ajouter toutes les cartes réseau et tous les adaptateurs VMkernel à un
seul commutateur vSphere. Le cas échéant, vous devez annuler la configuration du réseau par défaut et
vous assurer que chaque adaptateur VMkernel correspond uniquement à un seul adaptateur physique
actif.
Figure 11‑2. Mappage d'adaptateurs 1:1 sur un seul commutateur standard vSphere
Les exemples suivants montrent des configurations qui utilisent des commutateurs vSphere standard,
mais vous pouvez également utiliser des commutateurs distribués. Pour plus d'informations sur vSphere
Distributed Switches, consultez la documentation Mise en réseau vSphere.
Les considérations suivantes s'appliquent lorsque vous utilisez plusieurs adaptateurs physiques :
n
Les adaptateurs réseau physiques doivent se trouver sur le même sous-réseau que le système de
stockage auquel ils se connectent.
n
Si vous utilisez des commutateurs vSphere distincts, vous devez les connecter à différents sousréseaux IP. Dans le cas contraire, les adaptateurs VMkernel risquent de connaître des problèmes de
connectivité et l'hôte ne parvient pas à détecter les LUN.
n
VMware, Inc. 95
La configuration à commutateur unique n'est pas appropriée pour iSER, car iSER ne prend pas en
charge l'association de cartes réseau.
Page 96
Stockage vSphere
N'utilisez pas la liaison de port si l'une des conditions suivantes est remplie :
n
Les ports iSCSI cibles de la baie se trouvent sur un domaine de diffusion et un sous-réseau IP
différents.
n
Les adaptateurs VMkernel utilisés pour la connectivité iSCSI se trouvent sur différents domaines de
diffusion ou sous-réseaux IP, ou utilisent différents commutateurs virtuels.
Recommandations pour la configuration de la mise en réseau avec
un iSCSI logiciel
Lorsque vous configurez la mise en réseau avec un iSCSI logiciel, vous devez tenir compte de plusieurs
recommandations.
Liaison de port iSCSI logicielle
Vous pouvez lier l'initiateur iSCSI logiciel sur l'hôte ESXi à un ou plusieurs ports VMkernel afin que le
trafic iSCSI emprunte toujours exclusivement les ports liés. Lorsque la liaison de port est configurée,
l'initiateur iSCSI crée des sessions iSCSI allant de tous les ports liés vers tous les portails cibles
configurés.
Remarque Assurez-vous que tous les portails cibles peuvent être atteints à partir de tous les ports
VMkernel lorsque la liaison de port est utilisée, sans quoi les sessions iSCSI risquent de ne pas être
créées. Il en résulte que l'opération de réanalyse peut prendre plus de temps que prévu.
Absence de liaison de port
Si vous n'utilisez pas la liaison de port, la couche de mise en réseau ESXi sélectionne le meilleur port
VMkernel en fonction de sa table de routage. L'hôte utilise le port pour créer une session iSCSI avec le
portail cible. En l'absence de liaison de port, une seule session est créée pour chaque portail cible.
Consultez les exemples suivants.
Ports VMkernelPortails cibles Sessions iSCSI
2 ports VMkernel non liés 2 portails cibles 2 sessions
4 ports VMkernel non liés 1 portail cible1 session
2 ports VMkernel non liés 4 portails cibles 4 sessions
Chemins multiples avec iSCSI logiciel
Exemple 1. Chemins multiples vers une cible iSCSI avec un portail réseau unique
VMware, Inc. 96
Page 97
192.168.0.1/24
vmk1
Cible unique :
192.168.0.10/24
vmnic1
192.168.0.2/24
vmk2
vmnic2
192.168.0.3/24
vmk3
vmnic3
192.168.0.4/24
vmk2
vmnic4
Réseau
IP
Même sous-réseau
192.168.1.1/24
vmk1SP/Contrôleur A :
Port 0 : 192.168.1.10/24
Port 1 : 192.168.2.10/24
SP/Contrôleur B :
Port 0 : 192.168.1.11/24
Port 1 : 192.168.2.11/24
vmnic1
192.168.2.1/24
vmk2
vmnic2
Réseau
IP
Stockage vSphere
Si votre cible n'a qu'un portail réseau, vous pouvez créer plusieurs chemins vers la cible en ajoutant
plusieurs ports VMkernel à votre hôte ESXi et en les liant à l'initiateur iSCSI.
Dans cet exemple, tous les ports initiateurs et le portail cible sont configurés sur le même sous-réseau.
La cible peut être atteinte par l'intermédiaire de tous les ports liés. Vous disposez de quatre ports
VMkernel et d'un portail cible, de sorte que quatre chemins en tout sont créés.
Sans la liaison de port, un seul chemin est créé.
Exemple 2. Chemins multiples avec des ports VMkernel sur différents sous-réseaux
Vous pouvez créer plusieurs chemins en configurant plusieurs ports et portails cibles sur des sousréseaux IP différents. En maintenant le port initiateur et le port cible sur des sous-réseaux différents, vous
pouvez obliger ESXi à créer des chemins passant par des ports spécifiques. Dans cette configuration,
vous n'utilisez pas la liaison de port, car celle-ci nécessite que tous les ports initiateurs et cibles se
trouvent sur le même sous-réseau.
VMware, Inc. 97
Page 98
192.168.1.1/24
vmk1
SP/Contrôleur B
Port 0
10.115.179.2/24
SP/Contrôleur A
Port 0
10.115.179.1/24
vmnic1
vmnic2
192.168.1.2/24
vmk2
Réseau
IP
N1N2
Stockage vSphere
ESXi sélectionne vmk1 lors de la connexion au Port 0 du Contrôleur A et du Contrôleur B, car ces trois
ports se trouvent tous sur le même sous-réseau. De même, vmk2 est sélectionné lors de la connexion au
Port 1 du Contrôleur A et du Contrôleur B. Dans cette configuration, vous pouvez utiliser l'association de
cartes réseau.
En tout, quatre chemins sont créés.
Chemins Description
Chemin 1 vmk1 et Port0 du Contrôleur A
Chemin 2 vmk1 et Port0 du Contrôleur B
Chemin 3 vmk2 et Port1 du Contrôleur A
Chemin 4 vmk2 et Port2 du Contrôleur B
Routage avec iSCSI logiciel
Vous pouvez utiliser la commande esxcli pour ajouter des routes statiques pour votre trafic iSCSI. Une
fois que vous avez configuré des routes statiques, les ports initiateur et cible sur différents sous-réseaux
peuvent communiquer entre eux.
Exemple 1. Utilisation de routes statiques avec liaison de port
Dans cet exemple, vous maintenez tous les ports vmkernel liés dans un sous-réseau (N1) et vous
configurez tous les portails cibles dans un autre sous-réseau(N2). Vous pouvez alors ajouter une route
statique pour le sous-réseau cible (N2).
Exemple 2. Utilisation de routes statiques pour créer plusieurs chemins
Dans cette configuration, vous utilisez le routage statique lorsque vous employez des sous-réseaux
différents. La liaison de port ne peut pas être utilisée avec cette configuration.
VMware, Inc. 98
Page 99
vmnic1
vmnic2
192.168.1.1/24
vmk1
SP/Contrôleur A
Port 0
0.115.179.1/24
SP/Contrôleur A
Port 0
0.115.155.1/24
192.168.2.1/24
vmk2
Réseau
IP
Stockage vSphere
Vous configurez vmk1 et vmk2 dans des sous-réseaux différents, à savoir 192.168.1.0 et 192.168.2.0.
Vos portails cibles se trouvent également dans des sous-réseaux distincts, 10.115.155.0 et 10.155.179.0.
Vous pouvez ajouter la route statique vers 10.115.155.0 à partir de vmk1. Assurez-vous que la passerelle
peut être atteinte à partir de vmk1.
Lors d'une connexion à l'aide du Port 0 du Contrôleur A, vmk1 est utilisé.
Lors d'une connexion à l'aide du Port 0 du Contrôleur B, vmk2 est utilisé.
Exemple 3. Routage avec une passerelle distincte par port vmkernel
À partir de vSphere 6.5, vous pouvez configurer une passerelle distincte par port VMkernel. Si vous
utilisez le DHCP pour obtenir la configuration IP d'un port VMkernel, il est également possible d'obtenir
des informations sur la passerelle à l'aide du DHCP.
Pour afficher les informations sur la passerelle par port VMkernel, utilisez la commande suivante :
# esxcli network ip interface ipv4 address list
Name IPv4 Address IPv4 Netmask IPv4 Broadcast Address Type Gateway DHCP DNS
Lorsque vous disposez de passerelles distinctes pour chaque port VMkernel, vous utilisez la liaison de
port pour atteindre des cibles dans différents sous-réseaux.
Configurer la liaison de port pour les protocoles iSCSI ou iSER
La liaison de port crée des connexions pour le trafic entre certains types d'adaptateurs iSCSI et iSER et
les adaptateurs réseau physiques.
VMware, Inc. 99
Page 100
Stockage vSphere
Les types d'adaptateurs suivants nécessitent la liaison de port :
n
Adaptateur iSCSI logiciel
n
Adaptateur iSCSI matériel dépendant
n
Adaptateur iSCSI sur RDMA (iSER) VMware
Les tâches suivantes concernent la configuration du réseau avec un commutateur vSphere Standard.
Vous pouvez également utiliser VMware vSphere® Distributed Switch™ et VMware NSX® Virtual
Switch™ dans la configuration de liaison de port. Pour obtenir des informations sur les commutateurs
virtuels NSX, reportez-vous à la documentation sur VMware NSX.
Remarque iSER ne prend pas en charge l'association de cartes réseau. Lors de la configuration de la
liaison de port pour le protocole iSER, utilisez un seul adaptateur RDMA par vSwitch.
Si vous utilisez vSphere Distributed Switch avec plusieurs ports de liaison montante, pour l'association de
ports, créez un groupe de ports distribués distinct pour chaque carte NIC physique. Réglez ensuite la
politique de groupes de façon à ce que chaque groupe de ports distribués n'ait qu'un seul port de liaison
montante actif. Pour obtenir des informations détaillées sur les instances de Distributed Switch, reportezvous à la documentation sur Mise en réseau vSphere.
Procédure
1Créer un adaptateur VMkernel unique pour iSCSI
Connectez l'adaptateur VMkernel, qui exécute des services pour le stockage iSCSI, à un adaptateur
réseau physique.
2Créer d'autres adaptateurs VMkernel pour iSCSI
Utilisez cette tâche si vous avez deux adaptateurs réseau physiques ou plus pour iSCSI. Vous
devez connecter tous vos adaptateurs physiques à un commutateur vSphere standard unique. Cette
tâche vous permet d'ajouter les adaptateurs physiques et les adaptateurs VMkernel à un
commutateur standard vSphere existant.
3Modifier la stratégie réseau pour iSCSI
Si vous utilisez un seul commutateur vSphere Standard pour connecter plusieurs adaptateurs
VMkernel à plusieurs adaptateurs réseau, configurez la stratégie réseau pour cette configuration.
Une seule carte réseau physique doit être active pour chaque adaptateur VMkernel.
4Lier iSCSI et des adaptateurs VMkernel
Liez un adaptateur iSCSI à un adaptateur VMkernel.
5Vérifier les détails de liaison de port
Vérifier les détails de mise en réseau de l'adaptateur VMkernel lié à l'adaptateur iSCSI.
Créer un adaptateur VMkernel unique pour iSCSI
Connectez l'adaptateur VMkernel, qui exécute des services pour le stockage iSCSI, à un adaptateur
réseau physique.
VMware, Inc. 100
Loading...
+ hidden pages
You need points to download manuals.
1 point = 1 manual.
You can buy points or you can get point for every manual you upload.