VMWARE ESXi - 6.7 Instruction Manual [fr]

Page 1
Stockage vSphere
17 avril 2018 VMware vSphere 6.7 VMware ESXi 6.7 vCenter Server 6.7
Page 2
Stockage vSphere
Vous trouverez la documentation technique la plus récente sur le site Web de VMware à l'adresse :
N’hésitez pas à nous transmettre tous vos commentaires concernant cette documentation à l’adresse suivante :
docfeedback@vmware.com
VMware, Inc.
3401 Hillview Ave. Palo Alto, CA 94304 www.vmware.com
VMware, Inc.
100-101 Quartier Boieldieu 92042 Paris La Défense France www.vmware.com/fr
Copyright © 2009–2018 VMware, Inc. Tous droits réservés. Copyright et informations sur les marques.
VMware, Inc. 2
Page 3

Table des matières

À propos de vSphere Storage 8
Introduction au stockage 9
1
Modèles de virtualisation de stockage traditionnels 9 Modèles de stockage à définition logicielle 11 API de stockage vSphere 12
Mise en route d'un modèle de stockage traditionnel 14
2
Types de stockage physique 14 Adaptateurs de stockage pris en charge 26 Caractéristiques des banques de données 27 Utilisation de la mémoire persistante 31
Présentation de l'utilisation d' ESXi avec un SAN 35
3
Cas d'utilisation d' ESXi et du SAN 36 Informations détaillées sur l'utilisation du stockage SAN avec l' ESXi 37 Hôtes ESXi et baies de stockage multiples 37 Prendre des décisions LUN 37 Sélection de l'emplacement des machines virtuelles 39 Applications de gestion tierces 40 Considérations sur la sauvegarde de stockage SAN 40
Utilisation d' ESXi avec un SAN Fibre Channel 43
4
Concepts du SAN Fibre Channel 43 Utilisation du zonage avec les SAN Fibre Channel 45 Accès des machines virtuelles aux données sur un SAN Fibre Channel 46
Configuration du stockage Fibre Channel 47
5
Conditions requises de SAN Fibre Channel ESXi 47 Étapes d'installation et de configuration 49 Virtualisation d'identification N-Port 49
Configuration de Fibre Channel over Ethernet 53
6
Adaptateurs Fibre Channel over Ethernet 53 Instructions de configuration pour le FCoE logiciel 54 Configurer le réseau pour un adaptateur FCoE logiciel 55 Ajout d'adaptateurs FCoE du logiciel 56
VMware, Inc.
3
Page 4
Stockage vSphere
Démarrage ESXi à partir du SAN Fibre Channel 57
7
Avantages du démarrage à partir d'un SAN 57 Exigences et considérations lors du démarrage à partir du SAN Fibre Channel 58 Préparation pour le démarrage à partir du SAN 58 Configurer Emulex HBA pour un démarrage à partir du SAN 60 Configurer QLogic HBA pour un démarrage à partir du SAN 62
Démarrage d' ESXi avec le FCoE logiciel 64
8
Considérations et exigences de démarrage du FCoE logiciel 64 Configurer le démarrage du FCoE logiciel 65 Résolution des problèmes de démarrage à partir du FCoE logiciel pour un hôte ESXi 67
Meilleures pratiques pour le stockage Fibre Channel 68
9
Prévention des problèmes de SAN Fibre Channel 68 Désactiver l'enregistrement automatique de l'hôte 69 Optimisation des performances du stockage SAN Fibre Channel 69
Utilisation d' ESXi avec un SAN iSCSI 72
10
À propos du SAN iSCSI 72
Configuration des adaptateurs iSCSI et du stockage 81
11
Recommandations et restrictions du SAN ESXi iSCSI 82 Configuration des paramètres iSCSI pour les adaptateurs 82 Configurer des adaptateurs iSCSI matériel indépendants 84 Configurer des adaptateurs iSCSI matériel dépendants 86 Configurer l'adaptateur iSCSI logiciel 89 Configurer les adaptateurs iSER 91 Modifier les propriétés générales des adaptateurs iSCSI ou iSER 93 Configuration du réseau pour iSCSI et iSER 93 Utilisation des trames Jumbo avec iSCSI 106 Configuration des adresses de découverte des adaptateurs iSCSI 107 Configurer des paramètres CHAP pour des adaptateurs iSCSI 109 Configuration des paramètres avancés iSCSI 113 Gestion des sessions iSCSI 115
Démarrage à partir du SAN iSCSI 119
12
Recommandations générales pour le démarrage à partir du SAN iSCSI 119 Préparation du SAN iSCSI 120 Configurer l'adaptateur iSCSI matériel indépendant pour le démarrage à partir du SAN 121 Présentation de iBFT iSCSI Boot 122
VMware, Inc. 4
Page 5
Stockage vSphere
Meilleures pratiques pour le stockage iSCSI 129
13
Prévention des problèmes de iSCSI SAN 129 Optimisation des performances du stockage SAN iSCSI 130 Consultation des statistiques des commutateurs Ethernet 134
Gestion des périphériques de stockage 135
14
Caractéristiques du périphérique de stockage 135 Explication du nommage de périphériques de stockage 140 Opérations de réanalyse du stockage 142 Identification des problèmes de connectivité de périphérique 145 Activer ou désactiver le voyant voyants de localisateur sur les périphériques de stockage 151 Effacer des périphériques de stockage 152
Utilisation des périphériques Flash 153
15
Utilisation de périphériques Flash avec ESXi 153 Marquage de périphériques de stockage 155 Surveiller les périphériques Flash 156 Meilleures pratiques des périphériques Flash 157 À propos des ressources Virtual Flash 158 Configuration du cache d'échange d'hôte 161
À propos de VMware vSphere Flash Read Cache 163
16
Prise en charge du cache de lecture Flash par DRS 164 Prise en charge de Flash Read Cache par vSphere High Availability 164 Configurer Flash Read Cache pour une machine virtuelle 164 Migrer des machines virtuelles avec Flash Read Cache 165
Utilisation des banques de données 167
17
Types de banque de données 167 Présentation des banques de données VMFS 169 Mise à niveau des banques de données VMFS 179 Présentation des banques de données NFS (Network File System) 181 Création de banques de données 194 Administration des banques de données VMFS dupliquées 197 Augmentation de la capacité d'une banque de données VMFS 199 Opérations administratives pour les banques de données 201 Configuration de la mise en miroir des disques dynamiques 209 Collecte d'informations de diagnostic pour les hôtes ESXi sur un périphérique de stockage 210 Vérification de la cohérence des métadonnées avec VOMA 214 Configuration du cache de blocs de pointage VMFS 217
VMware, Inc. 5
Page 6
Stockage vSphere
Présentation de la gestion multivoie et du basculement 220
18
Basculements avec Fibre Channel 220 Basculement basé sur hôte avec iSCSI 221 Basculement à base de baie avec iSCSI 223 Basculement de chemin et machines virtuelles 224 Architecture de stockage enfichable et gestion des chemins 225 Affichage et gestion des chemins 237 Utilisation des règles de réclamation 240 Files d'attente de planification pour les E/S de machines virtuelles 251
Mappage de périphérique brut 253
19
À propos du mappage de périphérique brut 253 Caractéristiques du mappage de périphérique brut 257 Création de machines virtuelles avec des RDM 259 Gérer les chemins pour un LUN mappé 261
Gestion basée sur des stratégies de stockage (SPBM, Storage Policy Based
20
Management) 263
Stratégies de stockage de machine virtuelle 264 Workflow pour les stratégies de stockage de machine virtuelle 264 Remplissage de l'interface des stratégies de stockage de machine virtuelle 265 À propos des règles et groupes de règles 269 Création et gestion de stratégies de stockage de machine virtuelle 272 À propos des composants de stratégie de stockage 284 Stratégies de stockage et machines virtuelles 288 Stratégies de stockage par défaut 294
Utilisation de fournisseurs de stockage 296
21
À propos des fournisseurs de stockage 297 Fournisseurs de stockage et représentation des données 298 Exigences et considérations relatives au fournisseur de stockage 299 Enregistrement des fournisseurs de stockage 299 Afficher des informations sur le fournisseur de stockage 301 Gérer les fournisseurs de stockage 301
Utilisation de Virtual Volumes 303
22
À propos de Virtual Volumes 303 Concepts Virtual Volumes 304 Virtual Volumes et protocoles de stockage 311 Architecture de Virtual Volumes 312 Virtual Volumes et VMware Certificate Authority 314 Snapshots et Virtual Volumes 315
VMware, Inc. 6
Page 7
Stockage vSphere
Avant d'activer Virtual Volumes 316 Configurer Virtual Volumes 317 Provisionner des machines virtuelles sur des banques de données Virtual Volumes 321 Virtual Volumes et réplication 322 Meilleures pratiques d'utilisation de vSphere Virtual Volumes 328 Dépanner Virtual Volumes 332
Filtrage des E/S de machines virtuelles 337
23
À propos des filtres d'E/S 337 Utilisation de périphériques de stockage Flash avec des filtres d'E/S de cache 341 Configuration système requise pour les filtres d'E/S 342 Configurer des filtres d'E/S dans l'environnement vSphere 342 Activer des services de données de filtres d'E/S sur des disques virtuels 345 Gestion des filtres d'E/S 346 Directives et meilleures pratiques applicables aux filtres d'E/S 348 Gestion des incidents d'installation des filtres d'E/S 350
Accélération matérielle du stockage 351
24
Avantages de l'accélération matérielle 351 Conditions requises pour l'accélération matérielle 352 État de la prise en charge de l'accélération matérielle 352 Accélération pour les périphériques de stockage de blocs 352 Accélération matérielle sur les périphériques NAS 359 Considérations sur l'accélération matérielle 362
Provisionnement dynamique et récupération d'espace 364
25
Provisionnement dynamique du disque virtuel 364 ESXi et provisionnement dynamique de la baie 369 Récupération d'espace de stockage 372
Utilisation de vmkfstools 381
26
Syntaxe des commandes vmkfstools 381 Options de la commande vmkfstools 382
VMware, Inc. 7
Page 8

À propos de vSphere Storage

vSphere Storage décrit les technologies de stockage définies par logiciel et virtualisées que VMware ESXi™ et VMware vCenter Server® offrent et explique comment configurer et utiliser ces technologies.
Public cible
Ces informations s'adressent aux administrateurs système expérimentés qui maîtrisent les technologies de machine virtuelle et de virtualisation de stockage, les opérations associées aux centres de données et les concepts de stockage SAN.
vSphere Client et vSphere Web Client
Les instructions de ce guide concernent principalement vSphere Client (une interface utilisateur graphique basée sur HTML5). La plupart des instructions s'appliquent également à vSphere Web Client (une interface utilisateur graphique basée sur Flex).
Pour les workflows qui diffèrent de manière significative entre les deux clients, vSphere Storage fournit des procédures séparées. Ces procédures indiquent si elles concernent exclusivement vSphere Client ou vSphere Web Client.
Remarque Dans vSphere 6.7, la plupart des fonctionnalités de vSphere Web Client sont implémentées
dans vSphere Client. Pour obtenir une liste actualisée des fonctionnalités non prises en charge, consultez le Guide de mise à jour des fonctionnalités de vSphere Client.
VMware, Inc.
8
Page 9

Introduction au stockage 1

vSphere prend en charge diverses fonctionnalités et options de stockage dans des environnements de stockage traditionnels et logiciels. Une présentation de haut niveau des éléments et aspects du stockage vSphere vous permet de planifier une stratégie de stockage appropriée pour votre centre de données virtuel.
Ce chapitre aborde les rubriques suivantes :
n

Modèles de virtualisation de stockage traditionnels

n
Modèles de stockage à définition logicielle
n
API de stockage vSphere
Modèles de virtualisation de stockage traditionnels
En règle générale, la virtualisation de stockage se rapporte à une abstraction logique de ressources de stockage physique et de capacités à partir des machines virtuelles et de leurs applications. ESXi offre la virtualisation de stockage au niveau de l'hôte.
Dans l'environnement vSphere , un modèle traditionnel repose sur les technologies de stockage ainsi que sur les fonctionnalités de virtualisation ESXi et vCenter Server suivantes.
Stockage local et en réseau
Réseaux de zone de stockage
VMware, Inc. 9
Dans les environnements de stockage traditionnels, le processus de gestion de stockage d'ESXi débute avec l'espace de stockage préalloué par votre administrateur stockage sur différents systèmes de stockage. ESXi prend en charge le stockage local et en réseau.
Reportez-vous à Types de stockage physique.
Un réseau de zone de stockage (SAN) est un réseau à haute vitesse spécialisé qui connecte des systèmes informatiques, ou des hôtes ESXi, à des systèmes de stockage à hautes performances. L'ESXi peut utiliser les protocoles Fibre Channel ou iSCSI pour se connecter aux systèmes de stockage.
Reportez-vous à Chapitre 3 Présentation de l'utilisation d'ESXi avec un
SAN.
Page 10
Stockage vSphere
Fibre Channel Fibre Channel (FC) est un protocole de stockage que le SAN utilise pour
transférer le trafic de données des serveurs d'hôtes ESXi au stockage partagé. Le protocole conditionne les commandes SCSI en trames FC. Pour se connecter au SAN FC, votre hôte utilise des adaptateurs de bus hôte (HBA) Fibre Channel.
Reportez-vous à Chapitre 4 Utilisation d'ESXi avec un SAN Fibre Channel.
Internet SCSI Internet iSCSI (iSCSI) est un protocole de transport SAN qui peut utiliser
des connexions Ethernet entre les systèmes informatiques, ou les hôtes ESXi, et les systèmes de stockage à hautes performances. Pour vous connecter aux systèmes de stockage, vos hôtes utilisent des adaptateurs iSCSI matériels ou des initiateurs iSCSI logiciels avec des adaptateurs réseau standard.
Reportez-vous à Chapitre 10 Utilisation d'ESXi avec un SAN iSCSI.
Périphérique de stockage ou LUN
Dans le contexte de l'ESXi, les termes « périphérique » et « LUN » sont utilisés de façon interchangeable. En général, les deux termes signifient un volume de stockage qui est présenté à l'hôte à partir d'un système de stockage des blocs et qui est disponible pour le formatage.
Reportez-vous aux sections Représentations de périphériques et de cibles et Chapitre 14 Gestion des périphériques de stockage.
Disques virtuels Une machine virtuelle sur un hôte ESXi utilise un disque virtuel pour
stocker son système d'exploitation, les fichiers d'applications et d'autres données liées à ses activités. Les disques virtuels sont des fichiers physiques volumineux, ou des ensembles de fichiers, qui peuvent être copiés, déplacés, archivés et sauvegardés comme n'importe quel autre fichier. Vous pouvez configurer les machines virtuelles avec plusieurs disques virtuels.
Pour accéder à des disques virtuels, une machine virtuelle utilise les contrôleurs SCSI virtuels. Ces contrôleurs virtuels sont notamment BusLogic Parallel, LSI Logic Parallel, LSI Logic SAS, et VMware Paravirtual. Ces contrôleurs sont les seuls types de contrôleurs SCSI visibles et accessibles par une machine virtuelle.
Chaque disque virtuel réside sur une banque de données qui est déployée sur un stockage physique. Du point de vue de la machine virtuelle, chaque disque virtuel apparaît comme un lecteur SCSI connecté à un contrôleur SCSI. Que le stockage physique soit accessible via des adaptateurs de stockage ou des adaptateurs réseau sur l'hôte, il est généralement transparent pour le système d'exploitation invité et les applications sur la machine virtuelle.
VMware, Inc. 10
Page 11
Stockage vSphere
VMware vSphere VMFS
®
Les banques de données que vous déployez sur des périphériques de stockage des blocs utilise le format VMFS (vSphere Virtual Machine File System) natif. Il s'agit d'un format de système de fichiers haute performance qui est optimisé pour stocker les machines virtuelles.
Reportez-vous à Présentation des banques de données VMFS.
NFS Un client NFS intégré dans ESXi utilise le protocole NFS (Network File
System) sur TCP/IP pour accéder à un volume NFS qui se trouve sur un serveur NAS. L'hôte ESXi peut monter le volume et l'utiliser comme une banque de données NFS.
Reportez-vous à Présentation des banques de données NFS (Network File
System).
Mappage de périphérique brut
En plus des disques virtuels, vSphere propose un mécanisme appelé mappage de périphérique brut (RDM). Le RDM est utile lorsqu'un système d'exploitation invité dans une machine virtuelle requiert un accès direct à un périphérique de stockage. Pour plus d'informations sur les RDM, consultez
Chapitre 19 Mappage de périphérique brut.
Modèles de stockage à définition logicielle
Outre l'abstraction des capacités de stockage sous-jacentes des machines virtuelles, à l'instar des modèles de stockage traditionnels, le stockage défini par le logiciel crée une abstraction des capacités de stockage.
Avec le modèle de stockage à définition logicielle, une machine virtuelle devient une unité de provisionnement de stockage et peut être gérée au moyen d'un mécanisme flexible basé sur la stratégie. Le modèle implique les technologies vSphere suivantes.
Gestion basée sur des stratégies de stockage (SPBM, Storage Policy Based Management)
VMware vSphere
®
Virtual Volumes™
SPBM est une infrastructure qui fournit un seul panneau entre les différents services de données et les solutions de stockage, notamment vSAN et Virtual Volumes. À l'aide des stratégies de stockage, l'infrastructure aligne les demandes d'applications de vos machines virtuelles avec les fonctionnalités proposées par les entités de stockage.
Reportez-vous à la section Chapitre 20 Gestion basée sur des stratégies
de stockage (SPBM, Storage Policy Based Management).
La fonctionnalité Virtual Volumes modifie le paradigme de gestion du stockage de la gestion de l'espace au sein de banques de données à la gestion d'objets de stockage abstraits par des baies de stockage. Avec Virtual Volumes, une machine virtuelle individuelle, pas la banque de données, devient une unité de gestion de stockage. Par ailleurs, le matériel de stockage possède le contrôle complet sur le contenu, l'architecture et la gestion des disques virtuels.
Reportez-vous à la section Chapitre 22 Utilisation de Virtual Volumes.
VMware, Inc. 11
Page 12
Stockage vSphere
VMware vSAN vSAN est une couche distribuée de logiciel qui s'exécute nativement en
tant que partie de l'hyperviseur. vSAN cumule des périphériques de capacité locaux ou à connexion directe d'un cluster hôte ESXi et crée un pool de stockage unique partagé sur tous les hôtes du cluster vSAN.
Reportez-vous à la section Administration de VMware vSAN.
Filtres d'E/S Les filtres d'E/S sont des composants logiciels pouvant être installés sur les
hôtes ESXi et offrir des services de données supplémentaires aux machines virtuelles. En fonction de la mise en œuvre, les services peuvent inclure la réplication, le chiffrement, la mise en cache, etc.
Reportez-vous à la section Chapitre 23 Filtrage des E/S de machines
virtuelles.

API de stockage vSphere

Les API de stockage représentent une famille d'API utilisée par des fournisseurs tiers de matériels, de logiciels et de stockage pour développer des composants qui améliorent plusieurs fonctionnalités et solutions de vSphere.
Cette publication de stockage décrit plusieurs API de stockage qui constituent votre environnement de stockage. Pour plus d'informations sur d'autres API de cette famille, notamment vSphere APIs - Data Protection, rendez-vous sur le site Web de VMware.
VASA (vSphere APIs for Storage Awareness)
Les API VASA, proposées par des distributeurs tiers ou par VMware, permettent les communications entre vCenter Server et le stockage sous-jacent. Via VASA, les entités de stockage peuvent indiquer à vCenter Server leurs configurations, leurs capacités, ainsi que des informations concernant la santé et les événements de stockage. En retour, VASA peut transmettre des conditions requises de stockage de machine virtuelle depuis vCenter Server vers une entité de stockage et ainsi garantir que la couche de stockage répond aux conditions requises.
VASA devient essentiel lorsque vous utilisez Virtual Volumes, vSAN, VAIO (vSphere APIs for I/O Filtering) et des stratégies de stockage de machine virtuelle. Reportez-vous à Chapitre 21 Utilisation de
fournisseurs de stockage.
VAAI (vSphere APIs for Array Integration)
Les API VAAI incluent les composants suivants :
n
API d'accélération matérielle. Permet aux baies de s'intégrer à vSphere afin que vSphere puisse décharger certaines opérations de stockage sur la baie. Cette intégration réduit considérablement la surcharge du CPU sur l'hôte. Reportez-vous à Chapitre 24 Accélération matérielle du stockage.
VMware, Inc. 12
Page 13
Stockage vSphere
n
API à provisionnement dynamique de la baie. Permet de surveiller l'utilisation de l'espace sur les baies de stockage à provisionnement dynamique pour empêcher des conditions de manque d'espace et pour effectuer une réclamation d'espace. Reportez-vous à ESXi et provisionnement dynamique de
la baie.
API vSphere pour gestion de chemins multiples
Connues sous l'appellation PSA (Pluggable Storage Architecture), ces API permettent aux partenaires de stockage de créer et de fournir des plug-ins de gestion de chemins multiples et d'équilibrage de charge optimisés pour chaque baie. Les plug-ins communiquent avec les baies de stockage et déterminent la meilleure stratégie de sélection de chemins pour augmenter les performances d'E/S et la fiabilité de l'hôte ESXi vers la baie de stockage. Pour plus d'informations, consultez Architecture de stockage enfichable et
gestion des chemins.
VMware, Inc. 13
Page 14
Mise en route d'un modèle de
stockage traditionnel 2
La configuration de votre stockage ESXi dans les environnements traditionnels comprend la configuration des systèmes et périphériques de stockage, l'activation des adaptateurs de stockage et la création de banques de données.
Ce chapitre aborde les rubriques suivantes :
n

Types de stockage physique

n
Adaptateurs de stockage pris en charge
n
Caractéristiques des banques de données
n
Utilisation de la mémoire persistante
Types de stockage physique
Dans les environnements de stockage traditionnels, le processus de gestion de stockage d'ESXi débute avec l'espace de stockage préalloué par votre administrateur stockage sur différents systèmes de stockage. ESXi prend en charge le stockage local et en réseau.

Stockage local

Le stockage local peut se composer de disques durs internes situés à l'intérieur de votre hôte ESXi. Il peut également inclure des systèmes de stockage externes situés à l'extérieur et connectés directement à l'hôte par le biais de protocoles tels que SAS ou SATA.
Le stockage local ne requiert pas de réseau de stockage pour communiquer avec votre hôte. Vous avez besoin d'un câble connecté à l'unité de stockage et, si nécessaire, d'un HBA compatible dans votre hôte.
L'illustration suivante décrit une machine virtuelle utilisant un stockage SCSI local.
VMware, Inc.
14
Page 15
Hôte ESXi
vmdk
Périphérique
VMFS
SCSI
Stockage vSphere
Figure 21. Stockage local
Dans cet exemple de topologie de stockage local, l'hôte ESXi utilise une connexion unique à un périphérique de stockage. Sur ce périphérique, vous pouvez créer une banque de données VMFS que vous utilisez pour stocker les fichiers de disque de la machine virtuelle.
Bien que cette configuration de stockage soit possible, elle n'est pas recommandée. L'utilisation de connexions uniques entre des périphériques de stockage et des hôtes crée des points de défaillance uniques (SPOF) pouvant causer des interruptions lorsqu'une connexion devient instable ou échoue. Toutefois, puisque la plupart des périphériques de stockage local ne prennent pas en charge les connexions multiples, vous ne pouvez pas utiliser plusieurs chemins d'accès pour accéder au stockage local.
ESXi prend en charge divers périphériques de stockage local, notamment SCSI, IDE, SATA, USB, SAS, Flash et les périphériques NVMe.
Remarque Vous ne pouvez pas utiliser de lecteurs IDE/ATA ou USB pour stocker des machines
virtuelles.
Le stockage local ne prend pas en charge le partage sur plusieurs hôtes. Seul un hôte peut accéder à une banque de données sur un périphérique de stockage local. Par conséquent, bien que vous puissiez utiliser un stockage local pour créer des machines virtuelles, vous ne pouvez pas utiliser les fonctionnalités de VMware qui exigent un stockage partagé, telles que HA et vMotion.
Cependant, si vous utilisez un cluster d'hôtes disposant uniquement de périphériques de stockage local, vous pouvez implémenter vSAN. vSAN transforme des ressources de stockage locales en stockage partagé défini par logiciel. Avec vSAN, vous pouvez utiliser des fonctionnalités qui exigent un stockage partagé. Pour plus d'informations, voir la documentation Administration de VMware vSAN.

Stockage en réseau

Le stockage en réseau est composé de systèmes de stockage externes que votre hôte ESXi utilise pour stocker des fichiers de machine virtuelle à distance. En règle générale, l'hôte accède à ces systèmes sur un réseau de stockage haut-débit.
VMware, Inc. 15
Page 16
Stockage vSphere
Les périphériques de stockage en réseau sont partagés. Les banques de données sur des périphériques de stockage en réseau sont accessibles par plusieurs hôtes simultanément. ESXi prend en charge plusieurs technologies de stockage en réseau.
Outre le stockage en réseau traditionnel abordé dans cette rubrique, VMware prend en charge les technologies de stockage partagé virtualisé telles que vSAN. vSAN transforme les ressources de stockage internes de vos hôtes ESXi en stockage partagé qui fournit des fonctionnalités telles que High Availability et vMotion aux machines virtuelles. Pour plus d'informations, voir la documentation Administration de VMware vSAN.
Remarque Un même LUN ne peut pas être présenté à un hôte ESXi ou à plusieurs hôtes via différents
protocoles de stockage. Pour accéder au LUN, les hôtes doivent toujours utiliser un seul protocole, par exemple uniquement Fibre Channel ou uniquement iSCSI.
Fibre Channel (FC)
Stocke des fichiers de machine virtuelle à distance sur un réseau de zone de stockage FC (SAN). FC SAN est un réseau haut débit spécialisé qui connecte vos hôtes à des périphériques de stockage haute performance. Le réseau utilise le protocole Fibre Channel pour acheminer le trafic SCSI depuis des machines virtuelles vers des périphériques FC SAN.
Pour se connecter au FC SAN, votre hôte doit être équipé d'adaptateurs de bus hôte (HBA) Fibre Channel. À moins d'utiliser un stockage de connexion directe Fibre Channel, vous avez besoin de commutateurs Fibre Channel pour acheminer le trafic de stockage. Si votre hôte contient des adaptateurs FCoE (Fibre Channel over Ethernet), vous pouvez vous connecter à vos périphériques Fibre Channel partagés à l'aide d'un réseau Ethernet.
Stockage Fibre Channel décrit les machines virtuelles utilisant le stockage Fibre Channel.
VMware, Inc. 16
Page 17
Hôte ESXi
vmdk
Baie
Fibre Channel
VMFS
SAN
HBA
Fibre
Channel
Stockage vSphere
Figure 22. Stockage Fibre Channel
Dans cette configuration, un hôte se connecte à une infrastructure SAN, qui est constituée de commutateurs Fibre Channel et de baies de stockage, en utilisant un adaptateur Fibre Channel. Les LUN d'une baie de stockage deviennent disponibles pour l'hôte. Vous pouvez accéder aux LUN et créer des banques de données pour vos besoins de stockage. Les banques de données utilisent le format VMFS.
Pour plus d'informations spécifiques sur la configuration du SAN Fibre Channel, consultez Chapitre 4
Utilisation d'ESXi avec un SAN Fibre Channel.
Internet SCSI (iSCSI)
Stocke des fichiers de machine virtuelle sur des périphériques de stockage iSCSI à distance. iSCSI rassemble le trafic de stockage SCSI dans le protocole TCP/IP, de sorte qu'il puisse être acheminé via des réseaux TCP/IP standard et non le réseau FC spécialisé. Grâce à une connexion iSCSI, votre hôte sert d'initiateur qui communique avec une cible, située dans des systèmes de stockage iSCSI à distance.
VMware, Inc. 17
Page 18
Baie iSCSI
VMFS VMFS
LAN LAN
HBA
iSCSI
Carte réseau
Ethernet
Hôte ESXi
Adaptateur
logiciel
vmdk vmdk
Stockage vSphere
ESXi offre les types de connexions iSCSI suivants :
iSCSI matériel Votre hôte se connecte au stockage via un adaptateur tiers capable de
décharger la gestion de réseau et iSCSI. Les adaptateurs matériels peuvent être dépendants et indépendants.
iSCSI logiciel Votre hôte utilise un initiateur iSCSI logiciel dans le VMkernel pour se
connecter au stockage. Avec ce type de connexion iSCSI, votre hôte ne requiert qu'un adaptateur réseau standard pour la connectivité réseau.
Vous devez configurer les initiateurs iSCSI de l'hôte pour qu'il accède et affiche les périphériques de stockage iSCSI.
Le stockage iSCSI décrit différents types d'initiateurs iSCSI.
Figure 23. Stockage iSCSI
Dans l'exemple de gauche, l'hôte utilise l'adaptateur iSCSI matériel pour se connecter au système de stockage iSCSI.
Dans l'exemple de droite, l'hôte utilise un adaptateur iSCSI logiciel et un adaptateur d'interface réseau Ethernet pour se connecter au stockage iSCSI.
Les périphériques de stockage iSCSI du système de stockage deviennent disponibles pour l'hôte. Vous pouvez accéder aux périphériques de stockage et créer des banques de données VMFS pour vos besoins de stockage.
VMware, Inc. 18
Page 19
Hôte ESXi
Dispositif
NAS
vmdk
NFS
LAN
Carte réseau
Ethernet
Stockage vSphere
Pour plus d'informations spécifiques sur la configuration du SAN iSCSI, consultez Chapitre 10 Utilisation
d'ESXi avec un SAN iSCSI.
Stockage relié au réseau (NAS)
Stocke les fichiers de machine virtuelle sur des serveurs de fichiers à distance accessibles sur un réseau TCP/IP standard. Le client NFS intégré dans ESXi utilise le protocole NFS (Network File System) versions 3 et 4.1 pour communiquer avec les serveurs NAS/NFS. Pour une connectivité réseau, l'hôte requiert un adaptateur réseau standard.
Vous pouvez monter un volume NFS directement sur l'hôte ESXi. Vous utilisez ensuite des banques de données NFS pour stocker et gérer des machines virtuelles de la même manière que vous utilisez des banques de données VMFS.
Stockage NFS décrit une machine virtuelle utilisant la banque de données NFS pour stocker ses fichiers. Dans cette configuration, l'hôte se connecte au serveur NAS stockant les fichiers du disque virtuel via un adaptateur réseau normale.
Figure 24. Stockage NFS
Pour des informations spécifiques sur la configuration du stockage NFS, consultez Présentation des
banques de données NFS (Network File System).
VMware, Inc. 19
Page 20
Baie de stockage
Cible
LUN LUN LUN
Baie de stockage
Cible CibleCible
LUN LUN LUN
Stockage vSphere
SAS (Serial Attached SCSI) partagé
Stocke des machines virtuelles sur des systèmes de stockage directement reliés au SAS qui offrent un accès partagé à plusieurs hôtes. Ce type d'accès permet à plusieurs hôtes d'accéder à la même banque de données VFMS sur un LUN.

Représentations de périphériques et de cibles

Dans un contexte ESXi, le terme cible identifie une unité de stockage unique accessible par l'hôte. Les termes périphérique de stockage et LUN décrivent un volume logique représentant l'espace de stockage sur une cible. Dans le contexte ESXi, les deux termes signifient également un volume de stockage présenté à l'hôte à partir d'une unité de stockage cible et disponible pour le formatage. Périphérique de stockage et LUN sont souvent interchangeables.
Différents fournisseurs de stockage présentent les systèmes de stockage pour les hôtes ESXi de différentes manières. Certains fournisseurs présentent une cible unique comportant plusieurs LUN ou périphériques de stockage, tandis que d'autres proposent plusieurs cibles disposant chacune d'un LUN.
Figure 25. Représentations LUN et de cibles
Dans cette illustration, trois LUN sont disponibles pour chaque configuration. Dans un cas, l'hôte se connecte à une cible, mais cette cible comporte trois LUN à utiliser. Chaque LUN représente un volume de stockage individuel. Dans l'autre exemple, l'hôte détecte trois cibles différentes, chacune disposant d'un LUN.
Les cibles accessibles via le réseau ont des noms uniques fournis par les systèmes de stockage. Les cibles iSCSI utilisent des noms iSCSI, alors que les cibles Fibre Channel utilisent des noms mondiaux dits Noms mondiaux (WWN).
Remarque ESXi ne prend pas en charge l'accès au même LUN via différents protocoles de transport,
tels que iSCSI et Fibre Channel.
Un périphérique, ou LUN, est identifié par son nom UUID. Si un LUN est partagé par plusieurs hôtes, il doit être présenté à tous les hôtes ayant le même UUID.
VMware, Inc. 20
Page 21
Baie iSCSI
VMFS VMFS
LAN LAN
HBA
iSCSI
Carte réseau
Ethernet
Hôte ESXi
Requiert une connectivité TCP/IP
Adaptateur
logiciel
iSCSI
Dispositif
NAS
NFS
LAN
Carte réseau
Ethernet
Groupe
Fibre Channel
VMFS
VMFS
vmdk
vmdk vmdk vmdk vmdk
SAN
HBA
Fibre
Channel
Périphérique
SCSI
Stockage vSphere

Accès des machines virtuelles au stockage

Lorsqu'une machine virtuelle communique avec son disque virtuel stocké sur une banque de données, elle lance des commandes SCSI. Étant donné que les banques de données peuvent résider sur plusieurs types de stockage physique, ces commandes sont encapsulées dans d'autres formes, selon le protocole utilisé par l'hôte ESXi pour se connecter à un périphérique de stockage.
ESXi prend en charge les protocoles Fibre Channel (FC), Internet SCSI (iSCSI), Fibre Channel over Ethernet (FCoE) et NFS. Quel que soit le type de périphérique de stockage utilisé par votre hôte, le disque virtuel apparaît toujours en tant que périphérique SCSI monté pour la machine virtuelle. Le disque virtuel masque une couche de stockage physique au système d'exploitation de la machine virtuelle. Cette action permet d'exécuter des systèmes d'exploitation non certifiés pour un équipement de stockage spécifique, tel que SAN, dans une machine virtuelle.
L'illustration suivante décrit cinq machines virtuelles utilisant différents types de stockage afin d'illustrer leurs différences.
Figure 26. Machines virtuelles accédant à diérents types de stockage
Remarque Ce diagramme est uniquement destiné à des fins conceptuelles. Ce n'est pas une
configuration recommandée.

Caractéristiques du périphérique de stockage

Lorsque votre hôte ESXi se connecte aux systèmes de stockage basés sur des blocs, les LUN ou les périphériques de stockage prenant en charge l'ESXi deviennent disponibles pour l'hôte.
VMware, Inc. 21
Page 22
Stockage vSphere
Une fois les périphériques enregistrés avec votre hôte, vous pouvez afficher tous les périphériques réseau et locaux disponibles et vérifier leurs informations. Si vous utilisez des plug-ins de gestion multivoie tiers, les périphériques de stockage disponibles via les plug-ins apparaissent également dans la liste.
Remarque Si une baie prend en charge la fonction ALUA (Asymmetric Logical Unit Access) implicite et
qu'elle possède seulement des chemins inactifs, l'enregistrement du périphérique échoue. Le périphérique peut s'enregistrer auprès de l'hôte une fois que la cible active un chemin inactif et que l'hôte détecte le chemin comme actif. Le paramètre /Disk/FailDiskRegistration système avancé contrôle ce comportement de l'hôte.
Pour chaque adaptateur de stockage, vous pouvez afficher une liste distincte de périphériques de stockage disponibles pour cet adaptateur.
En règle générale, lorsque vous consultez les périphériques de stockages, vous voyez les informations suivantes.
Tableau 21. Informations du périphérique de stockage
Informations du périphérique de stockage Description
Nom Appelé également Nom d'affichage. C'est un nom que l'hôte ESXi affecte à un périphérique
selon le type de stockage et le fabricant. Vous pouvez changer ce nom par le nom de votre choix.
Identificateur Identificateur universel unique intrinsèque au périphérique.
État opérationnel Indique si le périphérique est attaché ou détaché. Pour des détails, veuillez vous reporter au
Déconnexion des périphériques de stockage.
LUN LUN (Logical Unit Number) à l'intérieur de la cible SCSI. Le numéro de LUN est fourni par le
système de stockage. Si une cible possède un seul LUN, le numéro de LUN est toujours zéro (0).
Type Type de périphérique, par exemple, disque ou CD-ROM.
Type de lecteur Informations précisant si le périphérique est en lecteur Flash ou un simple disque dur. Pour
plus d'informations sur les lecteurs Flash et les périphériques NVMe, reportez-vous à Chapitre
15 Utilisation des périphériques Flash.
Transport Protocole de transport utilisé par votre hôte pour accéder au périphérique. Le protocole dépend
du type de stockage utilisé. Reportez-vous à la section Types de stockage physique.
Capacité Capacité totale du périphérique de stockage.
Propriétaire Le plug-in, tel que le NMP ou un plug-in tiers, que l'hôte utilise pour gérer les chemins vers le
périphérique de stockage. Pour des détails, veuillez vous reporter au Architecture de stockage
enfichable et gestion des chemins.
Accélération matérielle Informations indiquant que le périphérique de stockage assiste l'hôte avec des opérations de
gestion de machine virtuelle. L'état peut être Pris en charge, Non pris en charge ou Inconnu. Pour des détails, veuillez vous reporter au Chapitre 24 Accélération matérielle du stockage.
Format de secteur Indique si le périphérique utilise un format de secteur traditionnel, 512n ou avancé, tel que
512e ou 4 Kon. Pour plus d'informations, consultez Formats de secteur des périphériques.
Emplacement Chemin d'accès au périphérique de stockage dans l'inventaire /vmfs/devices/.
VMware, Inc. 22
Page 23
Stockage vSphere
Tableau 21. Informations du périphérique de stockage (suite)
Informations du périphérique de stockage Description
Format de partition Un système de partition utilisé par le périphérique de stockage. Ce peut être un format MBR
(master boot record) ou un format GPT (GUID partition table). Les périphériques GPT peuvent prendre en charge des banques de données d'une taille supérieure à 2 To. Pour plus d'informations, consultez Formats de secteur des périphériques.
Partitions Partitions logiques et principales, y compris une banque de données VMFS, si configurée.
Règles de gestion multivoie Stratégie de sélection de chemin et règle de type de baie de stockage utilisées par l'hôte pour
gérer les chemins de stockage. Pour plus d'informations, consultez Chapitre 18 Présentation
de la gestion multivoie et du basculement.
Chemins Chemins utilisés pour accéder au stockage et leur état.
Achage des périphériques de stockage d'un hôte
Afficher tous les périphériques de stockage disponibles pour un hôte. Si vous utilisez des plug-ins de gestion multivoie tiers, les périphériques de stockage disponibles via les plug-ins apparaissent également dans la liste.
La vue Périphériques de stockage vous permet de répertorier les périphériques de stockage des hôtes, d'analyser leurs informations et de modifier leurs propriétés.
Procédure
1 Accédez à l'hôte.
2 Cliquez sur l'onglet Configurer.
3 Sous Stockage, cliquez sur Périphériques de stockage.
Tous les périphériques de stockage accessibles par l'hôte sont répertoriés dans le tableau Périphériques de stockage.
4 Pour afficher les détails d'un périphérique spécifique, sélectionnez-le dans la liste.
5 Utilisez les icônes pour effectuer des tâches de gestion du stockage de base.
La disponibilité d'icônes spécifiques varie selon le type et la configuration du périphérique.
Icône Description
Régénérer Actualiser les informations sur les adaptateurs de stockage, la topologie et les
systèmes de fichiers.
Réanalyser Réanalyser tous les adaptateurs de stockage de l'hôte pour découvrir les
périphériques de stockage ou les banques de données VMFS récemment ajoutés.
Détacher Détacher le périphérique sélectionné de l'hôte.
Attacher Attacher le périphérique sélectionné à l'hôte.
Renommer Modifier le nom complet du périphérique sélectionné.
Activer la LED Allumer le voyant du localisateur pour les périphériques sélectionnés.
Désactiver la LED Éteindre le voyant du localisateur pour les périphériques sélectionnés.
VMware, Inc. 23
Page 24
Stockage vSphere
Icône Description
Marquer en tant que disque flash Marquer les périphériques sélectionnés en tant que disques Flash.
Marquer en tant que Disque dur (HDD)
Marquer en tant que local Marquer les périphériques sélectionnés en tant que locaux pour l'hôte.
Marquer en tant que distant Marquer les périphériques sélectionnés en tant que distants pour l'hôte.
Effacer les partitions Effacer les partitions sur les périphériques sélectionnés.
Marquer les périphériques sélectionnés en tant que disques HDD.
6 Utilisez les onglets dans Détails du périphérique pour accéder à des informations supplémentaires et
modifier les propriétés du périphérique sélectionné.
Onglet Description
Propriétés Afficher les propriétés et caractéristiques du périphérique. Afficher et modifier les
stratégies des chemins multiples du périphérique.
Chemins Afficher les chemins disponibles pour le périphérique. Désactiver ou activer un
chemin sélectionné.
Détails de la partition Affiche des informations sur les partitions et leurs formats.
Achage des périphériques de stockage d'un adaptateur
Afficher une liste des périphériques de stockage accessibles grâce à un adaptateur de stockage spécifique sur l'hôte.
Procédure
1 Accédez à l'hôte.
2 Cliquez sur l'onglet Configurer.
3 Sous Stockage, cliquez sur Adaptateurs de stockage.
Tous les adaptateurs de stockage installés sur l'hôte sont répertoriés dans le tableau Adaptateurs de stockage.
4 Sélectionnez l'adaptateur dans la liste et cliquez sur l'onglet Périphériques.
Les périphériques de stockage auxquels l'hôte peut accéder grâce à l'adaptateur sont affichés.
5 Utilisez les icônes pour effectuer des tâches de gestion du stockage de base.
La disponibilité d'icônes spécifiques varie selon le type et la configuration du périphérique.
Icône Description
Régénérer Actualiser les informations sur les adaptateurs de stockage, la topologie et les
systèmes de fichiers.
Réanalyser Réanalyser tous les adaptateurs de stockage de l'hôte pour découvrir les
périphériques de stockage ou les banques de données VMFS récemment ajoutés.
Détacher Détacher le périphérique sélectionné de l'hôte.
Attacher Attacher le périphérique sélectionné à l'hôte.
VMware, Inc. 24
Page 25
Stockage vSphere
Icône Description
Renommer Modifier le nom complet du périphérique sélectionné.
Activer la LED Allumer le voyant du localisateur pour les périphériques sélectionnés.
Désactiver la LED Éteindre le voyant du localisateur pour les périphériques sélectionnés.
Marquer en tant que disque flash Marquer les périphériques sélectionnés en tant que disques Flash.
Marquer en tant que Disque dur (HDD)
Marquer en tant que local Marquer les périphériques sélectionnés en tant que locaux pour l'hôte.
Marquer en tant que distant Marquer les périphériques sélectionnés en tant que distants pour l'hôte.
Effacer les partitions Effacer les partitions sur les périphériques sélectionnés.
Marquer les périphériques sélectionnés en tant que disques HDD.

Comparaison des types de stockage

La prise en charge de certaines fonctionnalités de vSphere peut dépendre de la technologie de stockage que vous utilisez.
Le tableau suivant compare les technologies de stockage en réseau pris en charge par ESXi.
Tableau 22. Stockage en réseau pris en charge par ESXi
Technologie Protocoles Transferts Interface
Fibre Channel FC/SCSI Bloquer l'accès de
données/LUN
Fibre Channel sur Ethernet
iSCSI IP/SCSI Bloquer l'accès de
FCoE/SCSI Bloquer l'accès de
données/LUN
données/LUN
FC HBA
n
Adaptateur réseau convergé (FCoE matériel)
n
Carte NIC avec prise en charge FCoE (FCoE logiciel)
n
Carte NIC compatible iSCSI HBA ou iSCSI (iSCSI matériel)
n
Adaptateur réseau (iSCSI logiciel)
NAS IP/NFS Fichier (pas d'accès direct à
LUN)
Adaptateur réseau
Le tableau suivant compare les fonctions de vSphere pris en charge par différents types de stockage.
Tableau 23. Fonctions vSphere pris en charge par le stockage
API de stockage
-
Protectio Type de stockage
Stockage local Oui Non VMFS Non Oui Non Oui
Fibre Channel Oui Oui VMFS Oui Oui Oui Oui
VMware, Inc. 25
Démarrage VM vMotion
Banque de données RDM Cluster VM
VMware HA et DRS
n des
données
Page 26
Stockage vSphere
Tableau 23. Fonctions vSphere pris en charge par le stockage (suite)
API de
stockage
-
Protectio Type de stockage
iSCSI Oui Oui VMFS Oui Oui Oui Oui
Démarrage VM vMotion
Banque de données RDM Cluster VM
VMware HA et DRS
n des
données
NAS sur NFS Oui Oui NFS 3 et
NFS 4.1
Non Non Oui Oui
Remarque Le stockage local prend en charge un cluster de machines virtuelles sur un seul hôte (connu
également sous le nom cluster dans une boîte). Un disque virtuel partagé est requis. Pour plus d'informations sur cette configuration, consultez la documentation Gestion des ressources vSphere.

Adaptateurs de stockage pris en charge

Les adaptateurs de stockage assurent la connectivité de votre hôte ESXi à un réseau ou une unité de stockage spécifique.
ESXi prend en charge différentes catégories d'adaptateurs, y compris SCSI, iSCSI, RAID, Fibre Channel, Fibre Channel over Ethernet (FCoE) et Ethernet. ESXi accède directement aux adaptateurs via des pilotes de périphériques dans le VMkernel.
Selon le type de stockage utilisé, vous devrez peut-être activer ou configurer un adaptateur de stockage sur votre hôte.
Pour plus d'informations sur la configuration des adaptateurs FCoE logiciels, consultez Chapitre 6
Configuration de Fibre Channel over Ethernet.
Pour plus d'informations sur la configuration des différents types d'adaptateurs iSCSI, consultez Chapitre
11 Configuration des adaptateurs iSCSI et du stockage.

Consulter les informations sur les adaptateurs de stockage

L'hôte utilise des adaptateurs de stockage pour accéder aux différents périphériques de stockage. Vous pouvez afficher les informations des adaptateurs de stockage disponibles et les vérifier.
Prérequis
Vous devez activer certains adaptateurs, par exemple iSCSI ou FCoE, pour pouvoir afficher leurs informations. Pour configurer des adaptateurs, reportez-vous aux chapitres suivants :
n
Chapitre 11 Configuration des adaptateurs iSCSI et du stockage
n
Chapitre 6 Configuration de Fibre Channel over Ethernet
Procédure
1 Accédez à l'hôte.
VMware, Inc. 26
Page 27
Stockage vSphere
2 Cliquez sur l'onglet Configurer.
3 Sous Stockage, cliquez sur Adaptateurs de stockage.
4 Utilisez les icônes pour effectuer des tâches liées aux adaptateurs de stockage.
La disponibilité d'icônes spécifiques dépend de la configuration du stockage.
Icône Description
Ajouter un adaptateur logiciel
Régénérer Actualisez les informations sur les adaptateurs de stockage, la topologie et les systèmes de
Réanalyser le stockage Réanalyser tous les adaptateurs de stockage de l'hôte pour découvrir les périphériques de
Réanalyser un adaptateur Réanalysez l'adaptateur sélectionné pour détecter les périphériques de stockage nouvellement
Ajoutez un adaptateur de stockage. S'applique aux iSCSI logiciels et aux FCoE logiciels.
fichiers de l'hôte.
stockage ou les banques de données VMFS récemment ajoutés.
ajoutés.
5 Pour afficher les détails d'un adaptateur spécifique, sélectionnez-le dans la liste.
6 Utilisez les onglets dans Détails adaptateur pour accéder à des informations supplémentaires et
modifier les propriétés de l'adaptateur sélectionné.
Onglet Description
Propriétés Vérifiez les propriétés générales de l'adaptateur qui incluent généralement le nom et le
modèle de l'adaptateur, ainsi que les identifiants uniques formés selon les normes de stockage spécifiques. Pour les adaptateurs iSCSI et FCoE, utilisez cet onglet pour configurer des propriétés supplémentaires, par exemple l'authentification.
Périphériques Affichez les périphériques de stockage auxquels l'adaptateur peut accéder. Utilisez l'onglet
pour effectuer des tâches de gestion de périphériques de base. Reportez-vous à la section
Affichage des périphériques de stockage d'un adaptateur.
Chemins Répertoriez et gérez tous les chemins que l'adaptateur utilise pour accéder aux périphériques
de stockage.
Cibles (Fibre Channel et iSCSI)
Liaison de port réseau
(iSCSI uniquement)
Options avancées (iSCSI uniquement)
Vérifiez et gérez les cibles accessibles via l'adaptateur.
Configurez la liaison de port des logiciels et adaptateurs iSCSI matériels dépendants.
Configurez les paramètres avancés d'iSCSI.

Caractéristiques des banques de données

Les banques de données sont des conteneurs logiques, analogues à des systèmes de fichiers, qui masquent les informations de chaque périphérique de stockage et fournissent un modèle uniforme pour stocker des fichiers de machine virtuelle. Vous pouvez afficher toutes les banques de données disponibles pour vos hôtes et analyser leurs propriétés.
VMware, Inc. 27
Page 28
Stockage vSphere
Les banques de données sont ajoutées à vCenter Server de la façon suivante :
n
Vous pouvez créer une banque de données VMFS, une banque de données NFS version 3 ou 4.1, ou une banque de données Virtual Volumes à l'aide de l'assistant Nouvelle banque de données. Une banque de données vSAN est automatiquement créée lorsque vous activez vSAN.
n
Lorsque vous ajoutez un hôte ESXi à vCenter Server, toutes les banques de données sur l'hôte sont ajoutées à vCenter Server.
Le tableau suivant fournit des informations détaillées sur les banques de données que vous pouvez afficher lorsque vous effectuez une analyse des banques de données avec vSphere Client. Certaines caractéristiques peuvent ne pas être disponibles ou ne pas s'appliquer à tous les types de banques de données.
Tableau 24. Informations sur les banque de données
Informations sur les banque de données
Nom VMFS
Type VMFS
Sauvegarde de périphériques
Points de terminaison de protocole
Type de banque de données applicable Description
NFS vSAN Virtual Volumes
NFS vSAN Virtual Volumes
VMFS NFS vSAN
Virtual Volumes Informations sur les points de terminaison du protocole
Nom modifiable affecté à la banque de données. Pour plus d'informations sur la manière de renommer une banque de données, consultez Modifier le nom d'une banque de
données.
Système de fichiers utilisé par la banque de données. Pour plus d'informations sur les banques de données VMFS et NFS et sur la manière de les gérer, reportez-vous à Chapitre
17 Utilisation des banques de données.
Pour obtenir des informations sur les banques de données vSAN, reportez-vous à la documentation de Administration de VMware vSAN.
Pour obtenir des informations sur Virtual Volumes, reportez­vous à Chapitre 22 Utilisation de Virtual Volumes.
Informations relatives au stockage sous-jacent, comme le périphérique de stockage sur lequel la banque de données est déployée (VMFS), le serveur et le dossier (NFS) ou les groupes de disques (vSAN).
correspondant. Reportez-vous à la section Points de
terminaison de protocole.
Extensions VMFS Extensions individuelles de la banque de données et
capacité correspondante.
Type de lecteur VMFS Type de périphérique de stockage sous-jacent (par exemple,
un lecteur Flash ou disque dur ordinaire). Pour des détails, veuillez vous reporter au Chapitre 15 Utilisation des
périphériques Flash.
Capacité VMFS
NFS vSAN Virtual Volumes
VMware, Inc. 28
Inclut la capacité totale, l'espace alloué et l'espace libre.
Page 29
Stockage vSphere
Tableau 24. Informations sur les banque de données (suite)
Informations sur les banque de données
Point de montage VMFS
Ensembles de capacités
Storage I/O Control VMFS
Accélération matérielle VMFS
Type de banque de données applicable Description
NFS vSAN Virtual Volumes
VMFS
Remarque Une banque de données
VMFS multi-extensions assume les capacités d'une seule de ses extensions.
NFS vSAN Virtual Volumes
NFS
NFS vSAN Virtual Volumes
Chemin d'accès à la banque de données dans le répertoire /vmfs/volumes/ de l'hôte.
Informations sur les services de données de stockage fournies par l'entité de stockage sous-jacente. Vous ne pouvez pas les modifier.
Informations sur l'activation de la priorisation E/S du stockage dans l'ensemble des clusters. Consultez la documentation de Gestion des ressources vSphere.
Informations précisant si l'entité de stockage sous-jacente prend en charge l'accélération matérielle. L'état peut être Pris en charge, Non pris en charge ou Inconnu. Pour des détails, veuillez vous reporter au Chapitre 24 Accélération matérielle
du stockage.
Remarque NFS 4.1 ne prend pas en charge l'accélération
matérielle.
Balises VMFS
NFS vSAN Virtual Volumes
Connectivité avec les hôtes
Gestion multivoie VMFS
VMFS NFS Virtual Volumes
Virtual Volumes
Capacités de la banque de données que vous définissez et associez à des banques de données sous forme de balises. Pour plus d'informations, consultez Affecter des balises à des
banques de données.
Hôtes sur lesquels la banque de données est montée.
Règles de sélection de chemin d'accès utilisées par l'hôte pour accéder aux espaces de stockage. Pour plus d'informations, consultez Chapitre 18 Présentation de la
gestion multivoie et du basculement.
Acher les informations relatives aux banques de données
Accédez à la vue Banques de données avec le navigateur de vSphere Client.
Utilisez la vue Banques de données pour répertorier toutes les banques de données disponibles dans l'inventaire d'infrastructure vSphere, analyser les informations et modifier les propriétés.
VMware, Inc. 29
Page 30
Stockage vSphere
Procédure
1 Accédez à n'importe quel objet de l'inventaire qui est un objet parent valide d'une banque de
données, comme un hôte, un cluster ou un centre de données, puis cliquez sur l'onglet Banques de données.
Les banques de données disponibles dans l'inventaire figurent dans le panneau central.
2 Utilisez les icônes d'une banque de données disponible dans le menu contextuel pour effectuer des
tâches basiques sur la banque de données sélectionnée.
La disponibilité des icônes spécifiques dépend du type de la banque de données et de sa configuration.
Icône Description
Enregistrer une machine virtuelle existante dans l'inventaire.
Augmenter la capacité de la banque de données.
Accédez à l'explorateur de fichiers de la banque de données.
Gérez les fournisseurs de stockage.
Monter une banque de données attachée à certains hôtes.
Supprimer une banque de données
Démonter une banque de données attachée à certains hôtes.
3 Pour afficher les détails d'une banque de données spécifique, cliquez sur une banque de données
sélectionnée.
4 Utilisez les onglets pour accéder à des informations supplémentaires et modifier les propriétés des
banques de données.
Onglet Description
Résumé Afficher les statistiques et la configuration de la base de données sélectionnée.
Surveiller Afficher les alarmes, les données de performance, l'allocation des ressources, les événements et autres
informations sur l'état relatives à la banque de données.
Configurer Afficher et modifier les propriétés de la banque de données. Les éléments de menu qui s'affichent dépendent
du type de banque de données.
Autorisations Attribuer ou modifier les autorisations pour la banque de données sélectionnée.
Fichiers Accédez à l'explorateur de fichiers de la banque de données.
Hôtes Affichez les hôtes sur lesquels la banque de données est montée.
VM Affichez les machines virtuelles résidant sur la banque de données.
VMware, Inc. 30
Page 31
Stockage vSphere

Utilisation de la mémoire persistante

ESXi prend en charge les périphériques à mémoire persistante de nouvelle génération, également appelés périphériques à mémoire non volatile (NVM). Ces périphériques combinent les performances et la vitesse de la mémoire avec la persistance du stockage traditionnel. Ils peuvent conserver les données stockées en cas de redémarrages ou de défaillances de la source d'alimentation.
Les machines virtuelles qui nécessitent une bande passante élevée, une latence faible et la persistance peuvent bénéficier de cette technologie. Il s'agit, par exemple, des machines virtuelles qui fournissent l'accélération des bases de données et l'analyse de la charge de travail.
Pour utiliser la mémoire persistante avec votre hôte ESXi, vous devez être familiarisé avec les concepts suivants.
Banque de données PMem
Une fois la mémoire persistante ajoutée à votre hôte ESXi, l'hôte détecte le matériel, puis le formate et le monte comme une banque de données PMem locale. ESXi utilise VMFS-L comme format de système de fichiers. Une seule banque de données PMem locale par hôte est prise en charge.
Remarque Lorsque vous gérez la mémoire persistante physique,
assurez-vous de supprimer toutes les machines virtuelles de l'hôte et de placer ce dernier en mode de maintenance.
Pour réduire la surcharge administrative, la banque de données PMem offre un modèle de gestion simplifié. Les tâches de banque de données traditionnelles ne s'appliquent généralement pas à la banque de données, car l'hôte effectue automatiquement toutes les opérations requises en arrière-plan. En tant qu'administrateur, vous ne pouvez pas afficher la banque de données dans la vue Banques de données de vSphere Client, ni effectuer d'autres actions classiques sur la banque de données. La seule opération possible est la surveillance des statistiques pour la banque de données PMem.
VMware, Inc. 31
Page 32
Stockage vSphere
La banque de données PMem permet de stocker les périphériques NVDIMM virtuels et les disques virtuels traditionnels d'une machine virtuelle. Le répertoire de base de machine virtuelle contenant les fichiers vmx et vmware.log ne peut pas être placé sur la banque de données PMem.
Modes d'accès PMem ESXi expose la mémoire persistante à une machine virtuelle dans deux
modes différents. Les machines virtuelles prenant en charge PMem peuvent avoir un accès direct à la mémoire persistante. Les machines virtuelles traditionnelles peuvent utiliser les disques virtuels rapides stockés sur la banque de données PMem.
Mode à accès direct Dans ce mode, une région PMem peut être présentée à une machine
virtuelle en tant que module NVDIMM (Non-Volatile Dual In-line Memory Module). La machine virtuelle utilise le module NVDIMM comme une mémoire adressable en octets standard pouvant persister pendant les cycles d'alimentation.
Vous pouvez ajouter un ou plusieurs modules NVDIMM lors du provisionnement de la machine virtuelle.
Les machines virtuelles doivent être dans la version matérielle ESXi 6.7 et avoir un système d'exploitation invité prenant en charge PMem. Le périphérique NVDIMM est compatible avec les systèmes d'exploitation invités les plus récents qui prennent en charge la mémoire persistante, par exemple, Windows 2016.
Chaque périphérique NVDIMM est automatiquement stocké sur la banque de données PMem.
Mode de disque virtuel Ce mode est disponible sur toute machine virtuelle traditionnelle et il prend
en charge n'importe quelle version matérielle, y compris toutes les versions héritées. Il n'est pas nécessaire que les machines virtuelles prennent en charge PMem. Lorsque vous utilisez ce mode, vous créez un disque virtuel SCSI standard et associez une stratégie de stockage de machine virtuelle PMem au disque. La stratégie place automatiquement le disque sur la banque de données PMem.
Stratégie de stockage PMem
Pour placer le disque virtuel sur la banque de données PMem, vous devez appliquer la stratégie de stockage PMem locale de l'hôte par défaut sur le disque. La stratégie n'est pas modifiable.
Elle ne peut être appliquée qu'aux disques virtuels. Étant donné que le répertoire de base de machine virtuelle ne se trouve pas sur la banque de données PMem, veillez à le placer sur une banque de données standard quelconque.
VMware, Inc. 32
Page 33
Mode
Accès direct
Mode
Disque virtuel
Périphérique
NVDMM
Stratégie de stockage PMem
Disque virtuel
Banque de données
Mémoire persistante
Machine virtuelle Machine virtuelle
prenant en charge PMem traditionnelle
PMem
Stockage vSphere
Après avoir attribué la stratégie de stockage PMem pour le disque virtuel, vous ne pouvez pas la modifier via la boîte de dialogue Modifier les paramètres VM. Pour modifier la stratégie, migrez la machine virtuelle ou clonez-la.
Le graphique suivant illustre la façon dont les composants de mémoire persistante interagissent.
Pour plus d'informations sur la configuration et la gestion de machines virtuelles dotées de modules NVDIMM ou de disques à mémoire persistante virtuels, consultez la documentation Gestion des ressources vSphere.

Surveiller les statistiques de la banque de données PMem

Vous pouvez utiliser vSphere Client et la commande esxcli pour vérifier la capacité de la banque de données PMem et certains de ses autres attributs.
Cependant, contrairement aux banques de données standard, comme les VMFS ou VVols, la banque de données PMem n'apparaît pas dans la vue Banques de données de vSphere Client. Les tâches administratives de la banque de données normale ne s'appliquent pas à la banque de données PMem.
Procédure
u
Passez en revue les informations de la banque de données PMem.
Option Description
vSphere Client a Accédez à l'hôte ESXi et cliquez sur Résumé.
Commande esxcli Utilisez la commande esxcli storage filesystem list pour afficher la
b Dans le panneau Matériel, vérifiez que la Mémoire persistante s'affiche et
vérifiez sa capacité.
banque de données PMem.
VMware, Inc. 33
Page 34
Stockage vSphere
Exemple : Achage de la banque de données PMem
L'exemple de sortie suivant s'affiche lorsque vous utilisez la commande esxcli storage filesystem list pour répertorier la banque de données.
# esxcli storage filesystem list
Mount Point Volume Name UUID Mounted Type Size Free
---------------------- ---------------- ------------- -------- ------- ------------ ------------
/vmfs/volumes/5xxx... ds01-102 5xxx... true VMFS-6 14227079168 12718178304
/vmfs/volumes/59ex... ds02-102 59ex... true VMFS-6 21206401024 19697500160
/vmfs/volumes/59bx... 59bx... true vfat 4293591040 4274847744
/vmfs/volumes/pmem:5ax... PMemDS-56ax... pmem:5a0x... true PMEM 12880707584 11504975872
VMware, Inc. 34
Page 35
Présentation de l'utilisation d'
ESXi avec un SAN 3
L'utilisation d'ESXi avec un SAN signifie plus de souplesse, plus d'efficacité et plus de fiabilité. L'utilisation d'ESXi avec un SAN prend également en charge la gestion centralisée et les technologies de basculement et d'équilibrage de charge.
L'utilisation d'ESXi avec un SAN vous offre les avantages suivants :
n
Vous pouvez stocker vos données de manière sécurisée et configurer plusieurs chemins vers votre lieu de stockage afin d'éliminer tout risque de défaillance d'un point de stockage unique.
n
L'utilisation d'un SAN avec les systèmes ESXi prolonge la résistance aux pannes sur le serveur. Lorsque vous utilisez un stockage SAN, toutes les applications peuvent être immédiatement redémarrées sur un autre hôte suite à la panne de l'hôte d'origine.
n
Vous pouvez effectuer la migration en direct des machines virtuelles à l'aide de VMware vMotion.
n
Utilisez VMware High Availability (HA) avec un SAN pour redémarrer des machines virtuelles dans leur dernier état connu sur un serveur différent en cas de défaillance de leur hôte.
n
Utilisez VMware Fault Tolerance (FT) pour copier les machines virtuelles protégées sur deux hôtes différents. Les machines virtuelles continuent à fonctionner sans interruption sur l'hôte secondaire en cas de défaillance de l'hôte principal.
n
Utilisez VMware Distributed Resource Scheduler (DRS) pour migrer les machines virtuelles depuis un hôte vers un autre afin d'obtenir un équilibrage de charge. Le stockage se trouvant sur une baie SAN partagée, les applications continuent de s'exécuter de manière transparente.
n
Si vous utilisez des clusters VMware DRS, mettez l'hôte ESXi en mode maintenance afin que le système migre toutes les machines virtuelles en service vers d'autres hôtes ESXi. Ensuite, vous pouvez effectuer les mises à niveau ou d'autres opérations de maintenance sur l'hôte d'origine.
La portabilité et l'encapsulation des machines virtuelles VMware sont un complément à la nature partagée de ce stockage. Lorsque les machines virtuelles se trouvent sur un stockage SAN, vous pouvez rapidement arrêter une machine virtuelle sur un serveur et la démarrer sur un autre serveur, ou la suspendre sur un serveur et reprendre l'activité sur un autre serveur sur le même réseau. Ainsi, vous pouvez migrer des ressources informatiques tout en maintenant un accès partagé cohérent.
Ce chapitre aborde les rubriques suivantes :
n
Cas d'utilisation d'ESXi et du SAN
n
Informations détaillées sur l'utilisation du stockage SAN avec l'ESXi
VMware, Inc.
35
Page 36
Stockage vSphere
n
Hôtes ESXi et baies de stockage multiples
n
Prendre des décisions LUN
n
Sélection de l'emplacement des machines virtuelles
n
Applications de gestion tierces
n
Considérations sur la sauvegarde de stockage SAN

Cas d'utilisation d' ESXi et du SAN

Lorsque l'ESXi est utilisé avec un SAN, il peut bénéficier de multiples fonctionnalités vSphere, y compris Storage vMotion, Distributed Resource Scheduler (DRS), High Availability, etc.
L'utilisation de l'ESXi avec un SAN est efficace pour les tâches suivantes :
Consolidation du stockage et simplification de l'architecture de
Si vous travaillez avec plusieurs hôtes et que chacun d'entre eux utilise plusieurs machines virtuelles, le stockage sur les hôtes n'est plus suffisant. Vous allez devoir utiliser un stockage externe. Le SAN peut fournir une architecture système simple et offrir d'autres avantages.
stockage
Maintenance sans interruption de service
Lors de la maintenance d'une infrastructure ou d'un hôte ESXi, utilisez vMotion pour migrer les machines virtuelles vers un autre hôte. Si le stockage partagé se trouve sur le SAN, vous pouvez effectuer les opérations de maintenance sans aucune interruption pour les utilisateurs des machines virtuelles. Les processus de travail de VM continuent au cours d'une migration.
Équilibrage de charge Vous pouvez ajouter un hôte à un cluster DRS et les ressources de l'hôte
font partie des ressources du cluster. La répartition et l'utilisation du CPU et des ressources mémoire de tous les hôtes et des machines virtuelles du cluster sont constamment surveillées. DRS compare ces mesures à une utilisation idéale des ressources. L'utilisation idéale prend en compte les attributs des pools de ressources du cluster et des machines virtuelles, la demande actuelle et la cible de déséquilibre. Si besoin est, DRS effectue ou recommande des migrations de machine virtuelle.
Récupération d'urgence
Vous pouvez utiliser VMware High Availability pour configurer plusieurs hôtes ESXi comme un cluster. Le cluster offre une récupération rapide à la suite de pannes et une haute disponibilité à moindre coût pour les applications s'exécutant dans les machines virtuelles.
Migrations de baies et mises à niveau du stockage simplifiées
Lorsque vous achetez de nouveaux systèmes de stockage, utilisez Storage vMotion pour effectuer des migrations en direct des machines virtuelles d'un stockage existant vers leurs nouvelles destinations. Vous pouvez effectuer les migrations sans aucune interruption des machines virtuelles.
VMware, Inc. 36
Page 37
Stockage vSphere

Informations détaillées sur l'utilisation du stockage SAN avec l' ESXi

L'utilisation d'un SAN avec un hôte ESXi diffère de l'utilisation classique d'un SAN de différentes manières.
Lorsque vous utilisez le stockage SAN avec l'ESXi, les considérations suivantes s'appliquent :
n
Vous ne pouvez pas utiliser les outils d'administration du SAN pour accéder aux systèmes d'exploitation des machines virtuelles qui résident sur le stockage. Avec les outils traditionnels, vous pouvez uniquement surveiller le système d'exploitation VMwareESXi. Pour surveiller les machines virtuelles, vous devez utiliser vSphere Client.
n
Le HBA visible aux outils d'administration du SAN fait partie du système ESXi et non de la machine virtuelle.
n
En règle générale, votre système ESXi effectue la gestion multivoie pour vous.

Hôtes ESXi et baies de stockage multiples

Un hôte ESXi peut accéder aux périphériques de stockage présentés depuis plusieurs baies de stockage, y compris des baies provenant de différents fournisseurs.
Si vous utilisez plusieurs baies provenant de différents fournisseurs, les considérations suivantes s'appliquent :
n
Si votre hôte utilise le même SATP pour plusieurs baies, soyez prudent lorsque vous modifiez le PSP par défaut pour ce SATP. La modification s'applique à toutes les baies. Pour plus d'informations sur les SATP et PSP, consultez Chapitre 18 Présentation de la gestion multivoie et du basculement.
n
Certaines baies de stockage formulent des recommandations sur la profondeur de la file d'attente et d'autres paramètres. En général, ces paramètres sont configurés de manière globale au niveau de l'hôte ESXi. La modification des paramètres d'une baie aura des répercussions sur les autres baies qui présenteront les LUN à l'hôte. Pour plus d'informations sur la modification de profondeur de la file d'attente, consultez l'article de la base de connaissances VMware sur http://kb.vmware.com/kb/1267.
n
Utilisez le zonage à initiateur et cible uniques lors du zonage d'hôtes ESXi vers des baies Fibre Channel. Avec ce type de configuration, les événements liés à une infrastructure qui se produisent sur une baie n'ont pas de répercussions sur les autres baies. Pour plus d'informations sur le zonage, consultez Utilisation du zonage avec les SAN Fibre Channel.

Prendre des décisions LUN

Vous devez planifier la configuration du stockage de vos systèmes ESXi avant de formater les LUN avec les banques de données VMFS.
Lorsque vous prenez une décision LUN, les considérations suivantes s'appliquent :
n
Chaque LUN doit avoir le bon niveau RAID et des caractéristiques de stockage correctes pour les applications s'exécutant dans les machines virtuelles utilisant le LUN.
VMware, Inc. 37
Page 38
Stockage vSphere
n
Chaque LUN ne doit contenir qu'une banque de données VMFS.
n
Si plusieurs machines virtuelles ont accès au même VMFS, utilisez les partages de disque pour classer les machines virtuelles par ordre de priorité.
Vous pourriez souhaiter utiliser moins de LUN mais de plus grande taille pour les raisons suivantes :
n
Plus de souplesse de création des machines virtuelles sans avoir à demander plus d'espace de stockage à l'administrateur.
n
Plus de souplesse de redimensionnement des disques virtuels, de prise de snapshots et de bien d'autres choses encore.
n
Moins de banques de données VMFS à gérer.
Vous pourriez souhaiter utiliser moins de LUN et de plus petite taille pour les raisons suivantes :
n
Gain d'espace.
n
Différentes applications pourraient nécessiter des caractéristiques RAID différentes.
n
Plus de souplesse grâce à la définition de la règle de gestion multivoie et des partages de disque par LUN.
n
L'utilisation du service de cluster de Microsoft (Microsoft Cluster Service) exige que chaque ressource de disque en cluster soit dans sa LUN respective.
n
Meilleures performances car un volume unique subit moins de contention.
Lorsque les caractéristiques de stockage d'une machine virtuelle ne sont pas disponibles, il peut s'avérer difficile de déterminer le nombre et la taille des LUN à provisionner. Vous pouvez essayer d'utiliser un schéma prédictif ou adaptatif.

Utilisation du schéma prédictif pour prendre les décisions de LUN

Lors de la définition du stockage pour les systèmes ESXi, et avant la création de banques de données VMFS, vous devez décider de la taille et du nombre de LUN à mettre en place. Vous pouvez essayer le schéma prédictif.
Procédure
1 Mettez en place plusieurs LUN avec différentes caractéristiques de stockage.
2 Créez une banque de données VMFS sur chaque LUN, en étiquetant chaque banque de données
selon ses caractéristiques.
3 Créez des disques virtuels qui contiendront les données des applications de la machine virtuelle dans
les banques de données VMFS créées sur les LUN avec le niveau RAID approprié aux conditions requises des applications.
VMware, Inc. 38
Page 39
Stockage vSphere
4 Utilisez les partages de disque pour distinguer les machines virtuelles disposant des priorités les plus
hautes de celles ayant les priorités les plus basses.
Remarque Les parts de disque sont uniquement utiles au sein d'un hôte défini. Les parts assignées
aux machines virtuelles sur un hôte n'exercent aucun effet sur des machines virtuelles sur d'autres hôtes.
5 Exécutez les applications pour déterminer si les performances de la machine virtuelle sont
acceptables.

Utilisation du schéma adaptatif pour prendre les décisions de LUN

Lors de la définition du stockage pour les hôtes ESXi, avant la création de banques de données VMFS, vous devez décider de la taille et du nombre de LUN à mettre en place. Vous pouvez essayer le schéma adaptatif.
Procédure
1 Mettez en place une LUN (RAID 1+0 ou RAID 5) de grande taille et activez la mise en cache des
écritures.
2 Créez un VMFS sur cette LUN.
3 Créez quatre ou cinq disques virtuels sur le VMFS.
4 Exécutez les applications pour déterminer si les performances du disque sont acceptables.
Si les performances sont acceptables, placez les disques virtuels supplémentaires sur le VMFS. Si les performances ne sont pas acceptables, créez un nouveau LUN de grande taille avec un niveau RAID différent et répétez la procédure. Utilisez la migration afin de ne pas perdre les données des machines virtuelles lorsque vous recréez la LUN.

Sélection de l'emplacement des machines virtuelles

Si vous souhaitez optimiser les performances de vos machines virtuelles, l'emplacement du stockage est un facteur important. Selon vos besoins de stockage, vous pouvez sélectionner un stockage avec des performances élevées et une haute disponibilité ou un stockage avec des performances inférieures.
Le stockage peut être divisé en plusieurs niveaux, selon un certain nombre de facteurs :
n
Niveau élevé. Offre de hautes performances et une grande disponibilité. Peut offrir des snapshots intégrés pour faciliter les sauvegardes et les restaurations instantanées. Prend en charge la réplication, la redondance complète des processeurs de stockage et les lecteurs SAS. Utilise des axes de prix élevé.
n
Niveau intermédiaire Offre des performances de milieu de gamme, une disponibilité plus faible, quelques redondances de processeurs de stockage et des lecteurs SCSI ou SAS. Peut fournir des snapshots. Utilise des axes de prix moyen.
n
Niveau inférieur Offre des performances faibles, peu de redondance de stockage interne. Utilise des lecteurs SCSI bas de gamme ou SATA.
VMware, Inc. 39
Page 40
Stockage vSphere
Les machines virtuelles ne doivent pas toutes se trouver sur le stockage possédant les meilleures performances et la plus grande disponibilité tout au long de leur cycle de vie.
Lors du choix de l'emplacement d'une machine virtuelle, les considérations suivantes s'appliquent :
n
Criticité de la machine virtuelle
n
Exigences en matière de performances et de disponibilité
n
Exigences en matière de restauration instantanée
n
Exigences en matière de sauvegarde et de réplication
Une machine virtuelle peut changer de niveau tout au long de son cycle de vie en raison de modifications de la criticité ou de la technologie. Son importance est relative et peut changer pour diverses raisons, parmi lesquelles les modifications apportées à l'organisation, les processus opérationnels, les obligations réglementaires, la planification suite à un incident, etc.

Applications de gestion tierces

Vous pouvez utiliser les applications de gestion tierces avec votre hôte ESXi.
La majorité des matériels SAN sont délivrés avec le logiciel de gestion du stockage. Dans la majorité des cas, ce logiciel est une application Web qui peut être utilisée avec tout navigateur Web connecté à votre réseau. Dans certains autres cas, ce logiciel s'exécute habituellement sur le système de stockage ou sur un serveur unique, indépendamment des serveurs utilisant le SAN pour le stockage.
Utilisez le logiciel de gestion tiers pour effectuer les tâches suivantes :
n
La gestion des baies de stockage, y compris la création de LUN, la gestion de la mémoire cache des baies, le mappage de LUN et la sécurité des LUN.
n
La configuration de la réplication, des points de vérification, des snapshots ou de la mise en miroir.
Si vous exécutez le logiciel de gestion du SAN sur une machine virtuelle, vous bénéficiez de tous les avantages d'une machine virtuelle, y compris le basculement à l'aide de vMotion et de VMware HA. Toutefois, en raison du niveau supplémentaire d'indirection, il se peut que le logiciel de gestion ne soit pas en mesure de voir le SAN. Dans ce cas, utilisez un RDM.
Remarque Le succès d'exécution d'un logiciel de gestion par une machine virtuelle dépend du système
de stockage.

Considérations sur la sauvegarde de stockage SAN

Une stratégie de sauvegarde appropriée est l'un des aspects les plus importants de la gestion d'un SAN. Dans un environnement SAN, les sauvegardes ont deux objectifs. Le premier objectif est d'archiver des données en ligne sur des supports hors ligne. Ce processus est répété régulièrement pour toutes les données en ligne, selon un calendrier. Le second objectif est de fournir un accès aux données hors ligne pour une restauration en cas de problème. Par exemple, la récupération de bases de donnée nécessite souvent la récupération des fichiers de journalisation archivés qui ne sont pas en ligne à ce moment.
VMware, Inc. 40
Page 41
Stockage vSphere
La programmation d'une sauvegarde dépend de plusieurs facteurs :
n
L'identification des applications critiques nécessitant des cycles de sauvegarde plus rapprochés dans une période donnée.
n
Les points de restauration et les objectifs de période restaurée. Définissez la précision nécessaire de vos points de récupération et la durée d'attente souhaitée.
n
Le taux de changement (RoC) associé aux données. Par exemple, si vous utilisez une réplication synchrone/asynchrone, le RoC affecte la quantité de bande passante requise entre les périphériques de stockage primaires et secondaires.
n
L'impact global sur un environnement SAN, les performances de stockage et les autres applications.
n
L'identification des horaires de pointe sur le SAN. Les sauvegardes prévues pendant ces heures de pointe peuvent ralentir les applications et le processus de sauvegarde.
n
Le temps passé à programmer toutes les sauvegardes dans le centre de données.
n
Le temps passé à sauvegarder une application spécifique.
n
La disponibilité des ressources pour l'archivage des données, telles que l'accès des supports hors ligne.
Incluez un objectif de temps de restauration pour chaque application lorsque vous concevez votre stratégie de sauvegarde. C'est-à-dire que vous devez envisager le temps et les ressources nécessaires pour effectuer une sauvegarde. Par exemple, si une sauvegarde programmée stocke tant de données que leur restauration cause un délai considérable, réexaminez la programmation des sauvegardes. Vous pouvez effectuer des sauvegardes plus fréquemment, de façon à sauvegarder moins de données à la fois, et diminuer ainsi le délai de restauration.
Si une application nécessite une récupération dans un délai précis, le processus de sauvegarde doit fournir un horaire et un traitement des données pour ce délai. La récupération rapide peut exiger l'utilisation des volumes de récupération qui résident sur le stockage en ligne. Ce processus permet de réduire ou d'éliminer le besoin d'accéder aux supports hors ligne lents pour récupérer des composants de données manquants.

Utilisation des modules de sauvegarde tiers

Vous pouvez utiliser des solutions de sauvegarde tierces pour protéger le système, l'application et les données utilisateur dans vos machines virtuelles.
Les API de stockage - Protection des données proposées par VMware peuvent fonctionner avec des produits tiers. Lors de l'utilisation des API, le logiciel tiers peut effectuer les sauvegardes sans charger les hôtesESXi du traitement des tâches de sauvegarde.
Les produits tiers utilisant les API de stockage - Protection des données peuvent effectuer les tâches de sauvegarde suivantes :
n
Effectuer une sauvegarde d'images complète, différentielle et incrémentielle, et la restauration des machines virtuelles.
VMware, Inc. 41
Page 42
Stockage vSphere
n
Effectuer, au niveau du fichier, une sauvegarde des machines virtuelles qui utilisent les systèmes d'exploitation Windows et Linux pris en charge.
n
Vérifiez la cohérence des données en utilisant VSS (Microsoft Volume Shadow Copy Services) pour les machines virtuelles qui exécutent les systèmes d'exploitation Microsoft Windows pris en charge.
Étant donné que les API de stockage - Protection des données utilisent les capacités de snapshot de VMFS, les sauvegardes ne nécessitent pas d'arrêter les machines virtuelles. Ces sauvegardes ne sont pas perturbatrices ; elles peuvent être effectuées à tout moment et ne nécessitent pas des fenêtres de sauvegarde étendues.
Pour plus d'informations sur les API de stockage - Protection des données et sur l'intégration aux produits de sauvegarde, consultez le site Web de VMware ou contactez votre fournisseur.
VMware, Inc. 42
Page 43
Utilisation d' ESXi avec un SAN
Fibre Channel 4
Lorsque vous installez des hôtes ESXi pour utiliser des baies de stockage SAN FC, certaines considérations spéciales sont nécessaires. Cette section vous fournit une première approche de l'utilisation d'ESXi avec une baie SAN FC.
Ce chapitre aborde les rubriques suivantes :
n

Concepts du SAN Fibre Channel

n
Utilisation du zonage avec les SAN Fibre Channel
n
Accès des machines virtuelles aux données sur un SAN Fibre Channel
Concepts du SAN Fibre Channel
Si vous êtes administrateur de ESXi et envisagez de configurer les hôtes pour fonctionner avec des SAN, vous devez avoir une connaissance pratique des concepts SAN. Vous trouverez des informations sur les SANs en livre et sur Internet. Du fait que ce secteur technologique évolue constamment, cherchez les ressources les plus récentes.
Si vous êtes novices en technologie SAN, familiarisez-vous avec la terminologie de base.
Un réseau de zone de stockage (SAN) est un réseau à haute vitesse spécialisé qui connecte des serveurs hôtes à des sous-systèmes de stockage à hautes performances. Les composants SAN comprennent les adaptateurs de bus hôte (HBA), les commutateurs qui aident à diriger le trafic de stockage, les câbles, les processeurs de stockage (SPs), et les baies de disques de stockage.
Une topologie SAN avec au moins un commutateur présent sur le réseau forme une structure SAN.
Pour transférer le trafic des serveurs hôtes vers le stockage partagé, le SAN utilise le protocole Fibre Channel (FC) qui rassemble les commandes SCSI en trames Fibre Channel.
Pour restreindre l'accès d'un serveur aux baies de stockage non allouées à ce serveur, le SAN utilise le zonage. Classiquement, des zones sont créées pour chaque groupes de serveurs accédant à un groupe partagé de périphériques de stockage et de LUN. Ces zones définissent quels HBA peuvent se connecter à quels SPs. Les périphériques en dehors d'une zone ne sont pas visibles aux périphériques inclus dans cette zone.
Le zonage est similaire au masquage des LUN, fréquemment utilisé pour l'administration des permissions. Le masquage des LUN est un processus qui rend un LUN disponible pour certains hôtes, mais indisponibles pour d'autres hôtes.
VMware, Inc.
43
Page 44
Stockage vSphere
Lors du transfert de données entre le serveur hôte et le stockage, le SAN utilise une technique connue sous le nom de gestion chemins multiples. La fonction de chemin multiple permet de disposer de plusieurs chemins physiques depuis un hôte ESXi vers une LUN dans un système de stockage.
De manière générale, un chemin unique partant d'un hôte vers un LUN se compose d'un HBA, de ports de commutateur, de câbles de connexion et du port de contrôleur de stockage. Si un des composants du chemin subit une défaillance, l'hôte sélectionne un autre chemin disponible pour l'E/S. Le processus de détection d'un chemin défaillant et de changement vers un autre chemin est connu sous le nom de basculement de chemin.

Ports dans le SANPorts dans le SAN Fibre Channel

Dans le contexte de ce document, un port est une connexion à partir d'un périphérique dans le SAN. Chaque nœud du SAN, tel qu'un hôte, un périphérique de stockage ou un composant de l'infrastructure d'interconnexion dispose d'un ou de plusieurs ports qui le connectent au SAN. Les ports sont identifiés de plusieurs manières.
WWPN (World Wide Port Name)
Port_ID (ou adresse du port)
Lorsque N-Port ID Virtualization (NPIV) est utilisé, un seul port FC HBA (N-port) peut s'enregistrer sur l'infrastructure d'interconnexion en utilisant plusieurs WWPN. Cette méthode permet à un N-port de réclamer plusieurs adresses d'interconnexion, chacune d'entre-elles apparaissant en tant qu'entité unique. Lorsque l'hôte ESXi utilise un SAN, ces nombreux identificateurs exclusifs permettent l'affectation des WWN à des machines virtuelles individuelles dans le cadre de leur configuration.
Un identificateur global unique pour un port qui permet à certaines applications d'accéder au port. Le commutateur FC détecte le WWPN d'un périphérique ou d'un hôte et affecte une adresse de port au périphérique.
Dans un SAN, chaque port a un ID de port exclusive qui lui sert d'adresse FC pour le port. Cette ID exclusive permet le routage des données via le SAN vers ce port. Les commutateurs FC affectent l'ID du port lorsque le périphérique se connecte à l'infrastructure d'interconnexion. L'ID du port est valide uniquement lorsque le périphérique est connecté.

Types de baie de stockage Fibre Channel

ESXi prend en charge différents systèmes de stockage et de baies.
VMware, Inc. 44
Page 45
Stockage vSphere
Votre hôte prend en charge les types de stockage suivants : actif-actif, actif-passif et conforme à ALUA.
Système de stockage actif-actif
Prend en charge l'accès simultané aux LUN par tous les ports de stockage qui sont disponibles sans dégradation importante des performances. Tous les chemins sont actifs, sauf si un chemin est défaillant.
Système de stockage actif-passif
Un système dans lequel un processeur de stockage fournit l'accès à un LUN donné. Les autres processeurs sont utilisés en tant que sauvegarde pour le LUN et peuvent fournir l'accès à d'autres E/S de LUN. L'E/S peut uniquement être envoyée avec succès vers un port actif pour un LUN spécifique. Si l'accès via le port de stockage actif échoue, un des processeurs de stockage passifs peut être activé par les serveurs qui y accèdent.
Système de stockage asymétrique
Prend en charge Asymmetric Logical Unit Access (ALUA). Les systèmes de stockage conforme à ALUA offrent des niveaux différents d'accès par port. Avec ALUA, l'hôte peut déterminer les états des ports cibles et classer les chemins par priorité. L'hôte utilise certains des chemins actifs comme étant principaux et d'autres comme secondaires.

Utilisation du zonage avec les SAN Fibre Channel

Le zonage fournit le contrôle d'accès dans la topologie du SAN. Le zonage définit quels HBA peuvent se connecter aux cibles. Lorsque vous configurez un SAN en utilisant le zonage, les périphériques extérieurs à une zone ne peuvent pas être vus par les périphériques se trouvant à l'intérieur de la zone.
Le zonage a les effets suivants :
n
Réduit le nombre de cibles et de LUN présentées à l'hôte.
n
Contrôle et isole les chemins dans une infrastructure d'interconnexion.
n
Interdit aux systèmes non ESXi l'accès à un système de stockage particulier et empêche toute destruction potentielle des données VMFS.
n
Peut être utilisé pour séparer des environnements différents, par exemple, un environnement de tests d'un environnement de production.
Avec les hôtes ESXi, utilisez un zonage à initiateur unique ou un zonage à initiateur unique et à cible unique. La dernière étant la méthode de zonage la plus pratiquée. L'utilisation d'un zonage plus restrictif évite les problèmes et les risques de mauvaises configurations et le SAN.
Pour des instructions plus détaillées et les bonnes méthodes de zonage, contactez l'éditeur de la baie de stockage ou du commutateur.
VMware, Inc. 45
Page 46
Stockage vSphere

Accès des machines virtuelles aux données sur un SAN Fibre Channel

ESXi stocke les fichiers disque d'une machine virtuelle dans une banque de données VMFS se trouvant sur un périphérique de stockage du SAN. Lorsque les systèmes d'exploitation invités de la machine virtuelle envoient des commandes SCSI à leurs disques virtuels, la couche de virtualisation SCSI traduit ces commandes en opérations de fichier VMFS.
Lorsqu'une machine virtuelle interagit avec son disque virtuel stocké sur un SAN, le processus suivant a lieu :
1 Lorsque le système d'exploitation invité sur une machine virtuelle lit ou écrit sur le disque SCSI, il
envoie des commandes SCSI au disque virtuel.
2 Les pilotes de périphériques dans le système d'exploitation de la machine virtuelle communiquent
avec les contrôleurs SCSI virtuels.
3 Le contrôleur SCSI virtuel transmet la commande au VMkernel.
4 Le VMkernel effectue les tâches suivantes :
a Localisation du fichier de disque virtuel approprié dans le volume VMFS.
b Mappage des requêtes de blocs sur le disque virtuel sur les blocs sur le périphérique physique
approprié.
c Envoi de la demande d'E/S modifiée à partir du pilote du périphérique du VMkernel vers le HBA
physique.
5 Le HBA physique effectue les tâches suivantes :
a Préparation de la demande d'E/S selon les règles du protocole FC.
b Transmission de la requête au SAN.
6 En fonction d'un port que le HBA utilise pour se connecter à l'infrastructure, l'un des commutateurs
SAN reçoit la demande. Le commutateur achemine la demande vers le périphérique de stockage approprié.
VMware, Inc. 46
Page 47
Configuration du stockage Fibre
Channel 5
Lorsque vous utilisez des systèmes ESXi avec un stockage SAN, il existe des conditions requises spécifiques au matériel et au système.
Ce chapitre aborde les rubriques suivantes :
n

Conditions requises de SAN Fibre Channel ESXi

n
Étapes d'installation et de configuration
n
Virtualisation d'identification N-Port
Conditions requises de SAN Fibre Channel ESXi
Lors de la préparation de la configuration de votre SAN et de votre système ESXi pour que celui-ci utilise le stockage SAN, consultez les conditions requises et les recommandations.
n
Assurez-vous que les systèmes ESXi prennent en charge les combinaisons micrologicielles et matérielles de stockage SAN que vous utilisez. Pour obtenir une liste à jour, consultez le Guide de compatibilité VMware.
n
Configurez votre système pour avoir un seul volume VMFS par LUN.
n
Sauf si vous utilisez des serveurs sans disque, ne configurez pas la partition de diagnostic sur un LUN SAN.
Si vous utilisez un serveur sans disque démarrant à partir d'un SAN, il est approprié d'utiliser une partition de diagnostic partagée.
n
Utilisez les RDM pour accéder aux disques bruts. Pour plus d'informations, consultez Chapitre 19
Mappage de périphérique brut.
n
Pour que les chemins multiples fonctionnent correctement, chaque LUN doit présenter le même ID de LUN pour tous les hôtes ESXi.
n
Assurez-vous que le pilote du périphérique de stockage définisse une file d'attente suffisamment grande. Vous pouvez définir la profondeur de file d'attente pour le HBA physique lors de la configuration du système.
n
Sur les machines virtuelles qui exécutent Microsoft Windows, augmentez la valeur du paramètre TimeoutValue SCSI à 60. Avec cette augmentation, Windows peut tolérer des E/S différées provenant d'un basculement de chemin. Pour plus d'informations, consultez Définir le délai
d'expiration du SE invité Windows.
VMware, Inc.
47
Page 48
Stockage vSphere

Restrictions de SAN Fibre Channel ESXi

Lorsque vous utilisez ESXi avec un SAN, certaines restrictions s'appliquent.
n
ESXi ne prends pas en charge les périphériques de bande connectés au FC.
n
Vous ne pouvez pas utiliser un logiciel de chemins multiples à l'intérieur d'une machine virtuelle pour effectuer un équilibrage de charge E/S sur un LUN physique unique. Cependant, lorsque votre machine virtuelle Microsoft Windows utilisez des disques dynamiques, cette restriction ne s'applique pas. Pour plus d'informations sur la configuration des disques dynamiques, consultez Configuration
de la mise en miroir des disques dynamiques.
Définition des allocations de LUN
Cette rubrique fournit des informations générales sur l'allocation des LUN lorsque votre ESXi fonctionne avec le SAN.
Lorsque vous définissez les allocations de LUN, tenez compte des points suivants :
Provisionnement de stockage
DRS vMotion et VMware
Baies actives/actives par rapport à baies actives/passives.
Pour garantir que le système ESXi reconnaisse les LUN au démarrage, provisionnez tous les LUN aux HBA appropriés avant de connecter le SAN au système ESXi.
Provisionnez tous les LUN à tous les HBA ESXi en même temps. Le basculement de HBA fonctionne uniquement si tous les HBA voient les mêmes LUN.
Pour les LUN qui sont partagés entre plusieurs hôtes, veillez à ce que les ID de LUN soient cohérents sur les différents hôtes.
Vous utilisez vCenter Server et vMotion ou DRS, veillez à ce que les LUN des machines virtuelles soient provisionnés pour tous les hôtes ESXi. Cette action permet de déplacer le plus facilement les machines virtuelles.
Lorsque vous utilisez vMotion ou DRS avec un matériel de stockage SAN actif-passif, vérifiez bien que dans tous les systèmes ESXi les chemins vers tous les processeurs de stockage sont cohérents. Sans cette vérification, une migration vMotion peut provoquer un écrasement de chemin.
Pour les baies de stockage actives/passives non énumérées dans la section Compatibilité de stockage/SAN, VMware ne prend pas en charge le basculement des ports de stockage. Dans ces cas, vous devez connecter le serveur au port actif sur la baie de stockage. Cette configuration garantit que les LUN sont présentés à l'hôte ESXi.
VMware, Inc. 48
Page 49
Stockage vSphere
Configuration des HBA Fibre Channel
En général, les FC HBA que vous utilisez sur votre hôte ESXi fonctionnent correctement avec les paramètres de configuration par défaut.
Vous devez suivre les instructions de configuration données par votre fournisseur de baie de stockage. Lors de la configuration du FC HBA, prenez en considération les aspects suivants.
n
Ne mélangez pas les FC HBA de différents fournisseurs sur un même serveur. Il est possible d'avoir différents modèles du même HBA, mais on ne peut pas accéder à un même LUN via deux types différents de HBA; ceci est possible uniquement via un même type.
n
Assurez-vous que le niveau du microprogramme sur chaque HBA est le même.
n
Définissez le délai pour la détection d'un basculement. Pour assurer une performance optimale, ne modifiez pas la valeur par défaut.
n
ESXi prend en charge la connectivité Fibre Channel de bout en bout de 16 Go.
Étapes d'installation et de configuration
Cette rubrique décrit les étapes d'installation et de configuration que vous devez suivre lors de la configuration de votre environnement SAN pour que celui-ci fonctionne avec l'ESXi.
Suivez ces étapes pour configurer votre environnement SAN ESXi.
1 Configurez votre SAN si ce n'est déjà fait. La plupart des SAN existants ne nécessitent que quelques
modifications mineures pour fonctionner avec ESXi.
2 Assurez-vous que tous les composants SAN remplissent les conditions requises.
3 Apportez toute modification nécessaire à la baie de stockage.
La plupart des fournisseurs possèdent leur propre documentation pour la configuration d'un SAN pour que celui-ci fonctionne avec VMware ESXi.
4 Configurez les HBA pour les hôtes connectés au SAN.
5 Installez ESXi sur les hôtes.
6 Créez des machines virtuelles et installez les systèmes d'exploitation client.
7 (Facultatif) Configurez votre système pour le basculement de VMware HA ou pour utiliser Microsoft
Cluster Services.
8 Mettez à niveau ou modifiez votre environnement selon vos besoins.
Virtualisation d'identification N-Port
La virtualisation d'ID N-Port (NPIV) est un standard ANSI T11 qui décrit comment un port HBA unique Fibre Channel peut s'enregistrer dans la structure avec plusieurs noms worldwide mondiaux (WWPNs). Cela permet au N-Port attaché au fabric de posséder des adresses de structure multiples. Chaque adresse apparaît comme une entité unique dans la structure Fibre Channel.
VMware, Inc. 49
Page 50
Stockage vSphere

Comment fonctionne l'accès à un LUN par NPIV

NPIV permet à un unique port HBA FC d'enregistrer plusieurs WWN uniques dans la structure, chacun pouvant être assigné à une machine virtuelle.
Les objets SAN comme les commutateurs, HBA, périphériques de stockage ou machines virtuelles peuvent se voir assignés des identifiants Nom mondial WWN. Les WWN identifient de manière unique ces objets dans la structure Fibre Channel.
Lorsque les machines virtuelles possèdent des affectations WWN, elles les utilisent pour tout leur trafic RDM. Les LUN vers lesquels pointent tous les RDM de la machine virtuelle doivent donc rester non masqués pour ces WWN. Si les machines virtuelles ne possèdent pas d'affectations WWN, elles peuvent accéder aux LUN de stockage au moyen des WWN des HBA physiques de leur hôte. Grâce à NPIV, un administrateur SAN peut surveiller et router l'accès au stockage pour une machine virtuelle.
Lorsqu'une machine virtuelle possède un WWN qui lui est assigné, le fichier de configuration de la machine virtuelle (.vmx) est mis à jour pour inclure une paire WWN. Cette paire est composée d'un nom de port mondial (WWPN) et d'un nom de nœud mondial (WWNN). Au démarrage de cette machine virtuelle, VMkernel active un port virtuel (VPORT) sur le port physique HBA utilisé pour accéder au LUN. Le VPORT est un HBA virtuel qui s'affiche dans la structure FC comme un HBA physique. Le VPORT a son propre identifiant unique, la paire WWN qui a été attribuée à la machine virtuelle.
Chaque port VPORT est spécifique à la machine virtuelle. Lorsque cette machine est éteinte, le VPORT est détruit sur l'hôte et n'apparaît plus dans la structure FC. Lorsqu'une machine virtuelle est migrée d'un hôte vers un autre, le VPORT se ferme sur le premier hôte et s'ouvre sur l'hôte de destination.
Si NPIV est activé, les paires WWN (WWPN et WWNN) sont spécifiées pour chaque machine virtuelle au moment de leur création. Lorsqu'une machine virtuelle utilisant NPIV est mise sous tension, elle utilise chacune de ces paires WWN par séquence afin de découvrir un chemin d'accès au stockage. Le nombre de VPORT instanciés est égal au nombre de HBA physiques présents sur l'hôte. Un VPORT est créé sur chaque HBA physique où un chemin physique est trouvé. Chaque chemin physique détermine le chemin virtuel qui est utilisé pour accéder au LUN. Les HBA ne prenant pas en charge NPIV sont ignorés lors de ce processus de découverte, car les VPORT ne peuvent y être instanciés.

Conditions nécessaires pour l'utilisation de NPIV

Si vous prévoyez d'activer NPIV sur vos machines virtuelles, vous devez connaître certaines conditions préalables.
Les conditions suivantes sont requises :
n
NPIV ne peut être utilisé que pour des machines virtuelles avec disques RDM. Les machines virtuelles dotées de disques virtuels standard utilisent les noms WWN des HBA physiques de l'hôte.
n
Les HBA doivent prendre en charge NPIV.
VMware, Inc. 50
Page 51
Stockage vSphere
Pour plus d'informations, consultez le Guide de compatibilité VMware ainsi que la documentation du fournisseur.
n
Utilisez les HBA du même type, soit tout QLogic, soit tout Emulex. VMware ne prend pas en charge les HBA hétérogènes sur le même hôte ayant accès aux mêmes LUN.
n
Si un hôte utilise de multiples HBA physiques en tant que chemins vers le stockage, sélectionnez tous les chemins physiques vers la machine virtuelle. Cela est nécessaire afin de prendre en charge le chemins multiples, même si un seul chemin sera actif à la fois.
n
Vérifiez que les HBA physiques sur l'hôte ont accès à tous les LUN auxquels les machines virtuelles compatibles NPIV exécutées sur cet hôte doivent avoir accès.
n
Les commutateurs de structure doivent prendre en charge NPIV.
n
Lorsque vous configurez un LUN pour un accès NPIV au niveau du stockage, assurez-vous que le numéro de LUN NPIV et l'ID NPIV de la cible correspondent au LUN physique et à l'ID cible.

Capacités et limitations NPIV

Découvrez les capacités et limitations spécifiques de l'utilisation de NPIV avec ESXi.
ESXi avec NPIV prend en charge les éléments suivants :
n
NPIV prend en charge vMotion. Lorsque vous utilisez vMotion pour migrer une machine virtuelle, elle conserve le WWN assigné.
Si vous migrez une machine virtuelle activée par NPIV vers un hôte qui ne prend pas en charge NPIV, VMkernel repasse à l'utilisation d'un HBA physique pour acheminer l'E/S.
n
Si votre environnement FC SAN prend en charge les E/S simultanées sur les disques depuis une baie active-active, les E/S simultanées vers deux ports NPIV différents sont également prises en charge.
Lorsque vous utilisez ESXi avec NPIV, les limitations suivantes s'appliquent :
n
Étant donné que la technologie NPIV est une extension du protocole FC, elle exige un commutateur FC et ne fonctionne pas sur les disques FC directement reliés.
n
Lorsque vous clonez une machine virtuelle ou un modèle avec un WWN assigné, les clones ne conservent pas le WWN.
n
NPIV ne prend pas en charge Storage vMotion.
n
La désactivation puis réactivation du NPIV sur un commutateur FC alors que des machines virtuelles fonctionnent peut provoquer la panne du lien FC et l'arrêt des E/S.
Configurer ou modifier des attributions WWN
Attribuez des paramètres WWN à une machine virtuelle. Vous pourrez modifier des attributions WWN ultérieurement.
Vous pouvez créer de 1 à 16 paires de WWN, pouvant être mappées vers les premières HBA FC physiques 1 à 16 de l'hôte.
VMware, Inc. 51
Page 52
Stockage vSphere
De manière générale, vous ne devez pas changer les attributions WWN existantes sur votre machine virtuelle. Dans certaines circonstances, par exemple, lorsque des WWN attribués manuellement provoquent des conflits sur le SAN, il peut être nécessaire de changer ou de supprimer les WWN.
Prérequis
n
Avant de configurer un WWN, vérifiez que l'hôte ESXi peut accéder à la liste de contrôle d'accès LUN de stockage configurée du côté baie.
n
Si vous souhaitez modifier les WWN existants, mettez la machine virtuelle hors tension.
Procédure
1 Cliquez avec le bouton droit de la souris sur la machine virtuelle dans l'inventaire et sélectionnez
Modifier les paramètres.
2 Cliquez sur Options VM et développez Fibre Channel NPIV.
3 Créez ou modifiez les attributions WWN en sélectionnant l'une des options suivantes :
Option Description
Désactivez temporairement NPIV pour cette machine virtuelle.
Laisser tel quel Conserver les attributions WWN existantes. La section Attributions de WWN en
Générer nouveaux WWN Générer de nouveaux WWN, en écrasant les WWN existants. Les WWN des
Supprimer l'attribution WWN Supprimer les WWN attribués à la machine virtuelle. La machine virtuelle utilise
Désactivez, mais ne supprimez pas les attributions de WWN existantes pour la machine virtuelle.
lecture seule affiche les valeurs de nœud et de port des attributions WWN existantes.
HBA ne sont pas affectés. Spécifiez le nombre de WWNN et de WWPN. Un minimum de deux WWPN est requis pour prendre en charge le basculement avec NPIV. Généralement, un seul WWNN est créé pour chaque machine virtuelle.
les WWN du HBA pour accéder au LUN de stockage.
4 Cliquez sur OK pour enregistrer vos modifications.
Suivant
Enregistrez les nouveaux WWN dans la structure.
VMware, Inc. 52
Page 53
Configuration de Fibre Channel
over Ethernet 6
Un hôte ESXi peut utiliser le protocole Fibre Channel over Ethernet (FCoE) pour accéder au stockage Fibre Channel.
Le protocole FCoE encapsule les trames Fibre Channel dans des trames Ethernet. Par conséquent, votre hôte n'a pas besoin de liaisons Fibre Channel spéciales pour se connecter au stockage Fibre Channel. L'hôte peut utiliser Ethernet sans perte 10 Gbits pour fournir le trafic Fibre Channel.
Ce chapitre aborde les rubriques suivantes :
n

Adaptateurs Fibre Channel over Ethernet

n
Instructions de configuration pour le FCoE logiciel
n
Configurer le réseau pour un adaptateur FCoE logiciel
n
Ajout d'adaptateurs FCoE du logiciel
Adaptateurs Fibre Channel over Ethernet
Pour utiliser Fibre Channel over Ethernet (FCoE), vous devez configurer les adaptateurs appropriés sur votre hôte.
Les adaptateurs pris en charge par VMware entrent généralement dans deux catégories : adaptateurs FCoE matériels et adaptateurs FCoE logiciels qui utilisent la pile de FCoE en natif dans l'ESXi.
Pour plus d'informations sur les adaptateurs pouvant être utilisés avec VMware FCoE, reportez-vous au
Guide de compatibilité VMware
Adaptateurs FCoE matériels
Cette catégorie inclut les cartes CNA (Converged Network Adapters) spéciales complètement déchargées qui contiennent des fonctions de réseau et Fibre Channel sur la même carte.
Lorsque ce type d'adaptateur est installé, l'hôte détecte et peut utiliser les deux composants CNA. Dans vSphere Client, le composant de mise en réseau est un adaptateur réseau standard (vmnic) et le composant Fibre Channel un adaptateur FCoE (vmhba). Il n'est pas nécessaire de configurer l'adaptateur FCoE matériel pour l'utiliser.
VMware, Inc.
53
Page 54
Stockage vSphere
Adaptateur FCoE de logiciel
Un adaptateur FCoE logiciel utilise la pile de protocole FCoE native de l'ESXi pour effectuer certaines opérations de traitement FCoE. Vous devez utiliser l'adaptateur FCoE logiciel avec une carte réseau compatible.
Avec les adaptateurs FCoE logiciels, VMware prend en charge deux catégories de cartes réseau.
Cartes réseau avec le déchargement FCoE partiel
L'extension des fonctionnalités de déchargement peut être requise selon le type de la carte réseau. En règle générale, les cartes réseau offrent des fonctionnalités de déchargement des E/S et de Data Center Bridging (DCB).
Cartes réseau sans le déchargement FCoE
Toute carte réseau offrant le Data Center Bridging (DCB) et ayant une vitesse minimale de 10 Gbits/s. La prise en charge des fonctionnalités de déchargement FCoE ne nécessite pas d'adaptateurs réseau.
Contrairement à l'adaptateur FCoE matériel, l'adaptateur logiciel doit être activé. Avant d'activer l'adaptateur, vous devez configurer la mise en réseau de manière appropriée.
Remarque Le nombre d'adaptateur FCoE de logiciel que vous pouvez activer correspond au nombre de
ports de carte réseau physiques. ESXi prend en charge au maximum quatre adaptateurs FCoE de logiciel sur un hôte.
Instructions de configuration pour le FCoE logiciel
Lors de la configuration de votre environnement réseau de façon à ce qu'il fonctionne avec le FCoE du logiciel ESXi, suivez les instructions et les meilleures pratiques proposées par VMware.
Instructions concernant le commutateur de réseau
Suivez ces instructions lorsque vous configurez un commutateur de réseau pour l'environnement FCoE logiciel :
n
Sur les ports qui communiquent avec votre hôte ESXi, désactivez le protocole d'arborescence de répartition (STP). Le fait d'avoir le STP activé pourrait retarder la réponse du protocole d'initialisation du FCoE (FIP) au niveau du commutateur et provoquer un état APD (Tous chemins bas).
Le FIP est un protocole utilisé par FCoE pour trouver et initialiser les entités FCoE sur l'Ethernet.
n
Démarrez le PFC (Contrôle de flux basé sur les priorités) et définissez-le sur AUTO.
n
Assurez-vous que vous disposez d'une version de microprogramme compatible sur le commutateur FCoE.
n
Définissez le MTU du vSwitch sur 2 500 ou plus.
VMware, Inc. 54
Page 55
Stockage vSphere
Directives et meilleures pratiques de l'adaptateur réseau
Si vous envisagez d'activer les adaptateurs FCoE logiciels pour qu'ils fonctionnent avec les adaptateurs réseau, des considérations particulières s'appliquent.
n
Si vous utilisez une carte réseau partiellement déchargée ou une carte réseau non compatible FCoE, assurez-vous que le tout dernier microcode est installé sur l'adaptateur réseau.
n
Si vous utilisez une carte réseau compatible FCoE, assurez-vous qu'elle dispose de la capacité DCB pour l'activation du FCoE logiciel.
n
Si l'adaptateur réseau comporte plusieurs ports, lors de la configuration de la mise en réseau, ajoutez chaque port à un vSwitch séparé. Cette pratique vous permet d'éviter un état APD lorsqu'un événement perturbateur, tel qu'un changement de MTU, se produit.
n
Ne déplacez pas un adaptateur réseau d'un vSwitch vers un autre lorsque le trafic FCoE est actif. Si vous faites ce changement, redémarrez ensuite votre hôte.
n
Si vous avez remplacé le vSwitch par un port d'adaptateur réseau et provoqué une défaillance, redéplacez le port vers le vSwitch d'origine pour résoudre le problème.
Configurer le réseau pour un adaptateur FCoE logiciel
Avant d'activer les adaptateurs FCoE logiciels, créez des adaptateurs réseau VMkernel pour toutes les cartes NIC FCoE physiques installées sur votre hôte.
La présente procédure explique comment créer un adaptateur réseau VMkernel unique connecté à un adaptateur réseau FCoE physique unique par un commutateur standard vSphere. Si l'hôte est doté de plusieurs adaptateurs réseau ou de plusieurs ports sur l'adaptateur, connectez chaque carte NIC FCoE à un commutateur standard séparé. Pour plus d'informations, consultez la documentation Mise en réseau vSphere.
Procédure
1 Accédez à l'hôte.
2 Cliquez sur Actions > Ajouter une mise en réseau.
3 Sélectionnez Adaptateur réseau VMkernel, puis cliquez sur Suivant.
4 Sélectionnez Nouveau commutateur standard pour créer un commutateur vSphere Standard.
5 Pour activer les trames Jumbo, affectez à l'option MTU (octets) une valeur égale ou supérieure à
2 500, puis cliquez sur Suivant.
6 Cliquez sur l'icône Ajouter des adaptateurs, puis sélectionnez l'adaptateur réseau (vmnic #) qui
prend en charge FCoE.
Veillez à affecter l'adaptateur à des adaptateurs actifs.
VMware, Inc. 55
Page 56
Stockage vSphere
7 Entrez une étiquette de réseau.
L'étiquette de réseau est un nom descriptif qui identifie l'adaptateur VMkernel que vous créez, par exemple, FCoE.
8 Précisez un ID VLAN et cliquez sur Suivant.
Le trafic FCoE nécessite un réseau isolé. Assurez-vous que l'ID de VLAN que vous entrez est différent de celui utilisé pour les communications réseau normales sur votre hôte. Pour plus d'informations, consultez la documentation Mise en réseau vSphere.
9 Après avoir terminé la configuration, passez vos informations en revue et cliquez sur Terminer.
Vous avez créé l'adaptateur virtuel VMkernel de l'adaptateur réseau FCoE physique installé sur l'hôte.
Remarque Pour éviter les perturbations du trafic FCoE, ne retirez pas la carte réseau FCoE (vmnic#) du
commutateur standard vSphere après avoir défini la mise en réseau FCoE.

Ajout d'adaptateurs FCoE du logiciel

Vous devez activer les adaptateurs FCoE du logiciel afin que votre hôte puisse les utiliser pour accéder au stockage Fibre Channel.
Le nombre d'adaptateur FCoE de logiciel que vous pouvez activer correspond au nombre de ports NIC FCoE physiques sur l'hôte. ESXi prend en charge au maximum quatre adaptateurs FCoE de logiciel sur un hôte.
Prérequis
Configurez le réseau pour l'adaptateur FCoE du logiciel.
Procédure
1 Accédez à l'hôte.
2 Cliquez sur l'onglet Configurer.
3
Sous Stockage, cliquez sur Adaptateurs de stockage, puis cliquez sur l'icône Ajouter ( ).
4 Sélectionnez Adaptateur FCoE de logiciel.
5 Dans la boîte de dialogue Ajouter l'adaptateur FCoE de logiciel, sélectionnez la carte réseau vmnic
appropriée dans la liste déroulante des adaptateurs réseau physiques.
Seuls les adaptateurs qui ne sont pas encore utilisés pour le trafic FCoE figurent dans la liste.
6 Cliquez sur OK.
L'adaptateur FCoE de logiciel figure dans la liste des adaptateurs de stockage.
Après avoir activé l'adaptateur FCoE de logiciel, vous pouvez afficher ses propriétés. Si vous n'utilisez pas l'adapteur, vous pouvez le supprimer de la liste des adaptateurs.
VMware, Inc. 56
Page 57
Démarrage ESXi à partir du SAN
Fibre Channel 7
Lorsque vous paramétrez votre hôte pour qu'il démarre depuis un SAN, l'image de démarrage de votre hôte est archivée sur une ou plusieurs numéros d'unité logique (LUN) du système de stockage du SAN. Lorsque l'hôte démarre, il se lance à partir de la LUN se trouvant sur le SAN et non pas à partir du disque local.
ESXiprend en charge des démarrages par le biais d'un adaptateur de bus hôte (HBA) Fibre Channel ou d'un adaptateur de réseau convergé (CNA) Fibre Channel sur Ethernet (FCoE).
Ce chapitre aborde les rubriques suivantes :
n

Avantages du démarrage à partir d'un SAN

n
Exigences et considérations lors du démarrage à partir du SAN Fibre Channel
n
Préparation pour le démarrage à partir du SAN
n
Configurer Emulex HBA pour un démarrage à partir du SAN
n
Configurer QLogic HBA pour un démarrage à partir du SAN
Avantages du démarrage à partir d'un SAN
Le démarrage à partir du SAN présente de nombreux avantages pour votre environnement ESXi. Cependant, dans certains cas, le démarrage à partir du SAN n'est pas compatible avec vos hôtes. Avant de configurer votre système pour un démarrage à partir du SAN, vous devez décider si cela est nécessaire pour votre environnement.
Avertissement Lorsque vous utilisez le démarrage à partir du SAN avec plusieurs hôtes ESXi, chaque
hôte doit posséder sa propre LUN de démarrage. Si vous configurez de nombreux hôtes pour partager le LUN de démarrage, une corruption de l'image d'ESXi peut se produire.
Si vous utilisez le démarrage à partir du SAN, les avantages pour votre environnement sont les suivants :
n
Coût moins élevé des serveurs. Les serveurs sont plus denses et leur température de fonctionnement beaucoup moins élevée sans stockage interne.
n
Remplacement plus facile des serveurs. Vous pouvez remplacer les serveurs par un nouveau serveur que vous pointez vers l'ancien emplacement de démarrage.
n
Gain d'espace. Les serveurs sans disques locaux sont souvent moins volumineux.
VMware, Inc.
57
Page 58
Stockage vSphere
n
Processus de sauvegarde plus faciles. Vous pouvez sauvegarder les images de démarrage du système dans le SAN dans le cadre des procédures de sauvegarde générales du SAN. Vous pouvez également utiliser les fonctionnalités avancées de la baie, telles que les snapshots de l'image de démarrage.
n
Gestion améliorée. La création et la gestion de l'image du système d'exploitation sont encore plus faciles et plus efficaces.
n
Meilleure fiabilité. Vous pouvez accéder au disque de démarrage via différents chemins. Le disque est ainsi protégé en ne représentant pas un point unique de panne.

Exigences et considérations lors du démarrage à partir du SAN Fibre Channel

Votre configuration de démarrage ESXi doit répondre à certaines exigences particulières.
Tableau 71. Conditions requises du démarrage à partir du SAN
Server Description
Spécifications système ESXi
Conditions requises d'une carte
Contrôle d'accès
Prise en charge de la gestion de chemins multiples
Considérations SAN Si la baie n'est pas certifiée pour une topologie à connexion directe, les connexions SAN doivent se faire
Considérations spécifiques au matériel
Respectez les recommandations du fournisseur pour le démarrage du serveur à partir d'un SAN.
Configurez la carte afin qu'elle puisse accéder au LUN de démarrage. Consultez la documentation du fabricant.
n
Chaque hôte doit ne pouvoir accéder qu'à son propre LUN de démarrage et non aux LUN de démarrage des autres hôtes. Utilisez le logiciel du système de stockage pour vérifier que l'hôte accède uniquement aux LUN qui lui sont assignés.
n
Plusieurs serveurs peuvent partager une partition de diagnostic. Vous pouvez utiliser un masquage des LUN spécifiques à la baie pour obtenir cette configuration.
La gestion de chemins multiples vers un LUN de démarrage sur des baies actives/passives n'est pas pris en charge car le BIOS ne prend pas en charge la gestion de chemins multiples et ne peut pas activer un chemin de veille.
via une topologie à commutateur. Si la baie est certifiée pour la topologie à connexion directe, les connexions SAN peuvent être établies directement sur la baie. Le démarrage à partir du SAN est pris en charge à la fois pour la topologie à commutateur et à connexion directe.
Si vous exécutez un IBM eServer BladeCenter et que vous utilisez le démarrage à partir du SAN, vous devez mettre hors tension les lecteurs IDE sur les lames.

Préparation pour le démarrage à partir du SAN

Lorsque vous préparez votre hôte ESXi pour qu'il démarre à partir d'un SAN, vous effectuez plusieurs tâches.
Ce chapitre décrit le processus d'activation d'un démarrage générique à partir du SAN sur des serveurs montés sur rack. Pour plus d'informations sur l'activation de l'option de démarrage à partir du SAN sur des serveurs lame Cisco Unified Computing System FCoE, reportez-vous à la documentation de Cisco.
VMware, Inc. 58
Page 59
Stockage vSphere

1 Configurer des composants SAN et un système de stockage

Lorsque vous paramétrez votre hôte ESXi pour qu'il démarre depuis un LUN SAN, configurez les composants du SAN et un système de stockage.
2 Configurer l'adaptateur de stockage pour un démarrage à partir du SAN
Lorsque vous configurez votre hôte pour effectuer un démarrage à partir du SAN, vous devez activer l'adaptateur de démarrage dans le BIOS de l'hôte. Vous devez ensuite configurer l'adaptateur de démarrage afin de lancer une connexion primitive vers le LUN de démarrage cible.
3 Configurer votre système pour effectuer un démarrage à partir du support d'installation
Lorsque vous configurez votre hôte pour effectuer un démarrage à partir du SAN, vous devez d'abord démarrer l'hôte à partir du support d'installation de VMware. Pour démarrer à partir du support d'installation, modifiez la séquence de démarrage du système dans la configuration du BIOS.
Configurer des composants SAN et un système de stockage
Lorsque vous paramétrez votre hôte ESXi pour qu'il démarre depuis un LUN SAN, configurez les composants du SAN et un système de stockage.
La configuration des composants SAN étant propre au fournisseur, reportez-vous à la documentation produit de chaque élément.
Procédure
1 Connectez les câbles réseau en vous référant au guide de câblage correspondant à votre
configuration.
Vérifiez le câblage du commutateur, le cas échéant.
2 Configurez la baie de stockage.
a À partir de la baie de stockage SAN, rendez l'hôte ESXi visible sur le SAN. Ce processus est
souvent considéré comme la création d'un objet.
b À partir de la baie de stockage SAN, configurez l'hôte pour avoir les WWPN des adaptateurs de
l'hôte comme noms de port ou noms de nœud.
c Créez des LUN.
d Attribuez des LUN.
e Enregistrez les adresses IP des commutateurs et des baies de stockage.
f Enregistrez le WWPN de chaque SP.
Avertissement Si vous utilisez un processus d'installation par script pour installer l'ESXi en mode
de démarrage à partir du SAN, effectuez quelques étapes spécifiques afin d'éviter toute perte accidentelle de données.
VMware, Inc. 59
Page 60
Stockage vSphere
Configurer l'adaptateur de stockage pour un démarrage à partir du SAN
Lorsque vous configurez votre hôte pour effectuer un démarrage à partir du SAN, vous devez activer l'adaptateur de démarrage dans le BIOS de l'hôte. Vous devez ensuite configurer l'adaptateur de démarrage afin de lancer une connexion primitive vers le LUN de démarrage cible.
Prérequis
Déterminez le WWPN de l'adaptateur de stockage.
Procédure
u
Configurez l'adaptateur de stockage pour effectuer un démarrage à partir du SAN.
Étant donné que la configuration des adaptateurs de démarrage est propre au fournisseur, consultez la documentation de votre fournisseur.
Configurer votre système pour eectuer un démarrage à partir du support d'installation
Lorsque vous configurez votre hôte pour effectuer un démarrage à partir du SAN, vous devez d'abord démarrer l'hôte à partir du support d'installation de VMware. Pour démarrer à partir du support d'installation, modifiez la séquence de démarrage du système dans la configuration du BIOS.
La modification de la séquence de démarrage dans le BIOS étant propre au fournisseur, reportez-vous à la documentation du fournisseur pour plus d'instructions. La procédure suivante explique comment modifier la séquence de démarrage sur un hôte IBM.
Procédure
1 Mettez sous tension votre système et entrez l'utilitaire d'installation/de configuration du BIOS
système.
2 Sélectionnez Options de démarrage et appuyez sur Entrée.
3 Sélectionnez Options des séquences de démarrage et appuyez sur Entrée.
4 Modifiez le Premier dispositif de démarrage en [CD-ROM].
Vous pouvez maintenant installer l'ESXi.
Configurer Emulex HBA pour un démarrage à partir du SAN
La configuration du BIOS HBA Emulex pour démarrer l'ESX à partir du SAN comprend l'activation de l'invite BootBIOS et du BIOS.
VMware, Inc. 60
Page 61
Stockage vSphere
Procédure
1 Activation de l'invite BootBIOS
Lorsque vous configurez le BIOS HBA Emulex pour démarrer ESXi à partir du SAN, vous devez activer l'invite BootBIOS.
2 Activation du BIOS
Lorsque vous configurez le BIOS HBA Emulex pour démarrer ESXi à partir du SAN, vous devez activer le BIOS.

Activation de l'invite BootBIOS

Lorsque vous configurez le BIOS HBA Emulex pour démarrer ESXi à partir du SAN, vous devez activer l'invite BootBIOS.
Procédure
1 Exécutez lputil.
2 Sélectionnez 3. Maintenance du microprogramme.
3 Sélectionnez un adaptateur.
4 Sélectionnez 6. Maintenance du BIOS du démarrage.
5 Sélectionnez 1. Activer BIOS du démarrage.

Activation du BIOS

Lorsque vous configurez le BIOS HBA Emulex pour démarrer ESXi à partir du SAN, vous devez activer le BIOS.
Procédure
1 Redémarrez l'hôte.
2 Pour configurer les paramètres de l'adaptateur, appuyez sur ALT+E à l'invite Emulex et suivez les
étapes indiquées.
a Sélectionnez un adaptateur (avec prise en charge BIOS).
b Sélectionnez 2. Configurer les paramètres de cet adaptateur.
c Sélectionnez 1. Activer ou mettre hors tension BIOS
d Sélectionnez 1 pour activer le BIOS.
e Sélectionnez x pour quitter et Esc pour revenir au menu précédent.
3 Pour configurer le périphérique de démarrage, suivez les étapes suivantes à partir du menu principal
Emulex.
a Sélectionnez la même carte.
b Sélectionnez 1. Configurer des périphériques de démarrage
VMware, Inc. 61
Page 62
Stockage vSphere
c Choisir l'emplacement pour l'entrée de démarrage.
d Saisissez le périphérique de démarrage à deux chiffres.
e Saisissez le LUN de démarrage à deux chiffres (HEX) (par exemple, 08).
f Sélectionnez le LUN de démarrage.
g Sélectionnez 1. WWPN. (Démarrez ce périphérique avec WWPN et non DID).
h Sélectionnez X pour quitter et Y pour redémarrer.
4 Démarrez dans le BIOS système et déplacez tout d'abord Emulex dans la séquence du contrôleur de
démarrage.
5 Redémarrez et procédez à l'installation sur un LUN de réseau SAN.
Configurer QLogic HBA pour un démarrage à partir du SAN
Cette procédure, proposée à titre d'exemple, explique comment configurer QLogic HBA pour effectuer un démarrage ESXi à partir du SAN. Cette procédure implique l'activation du BIOS QLogic HBA, du démarrage sélectionnable et la sélection du LUN de démarrage.
Procédure
1 Tout en démarrant le serveur, appuyez sur Ctrl+Q pour saisir l'utilitaire de configuration Fast!UTIL.
2 Effectuez l'action appropriée selon le nombre de HBA.
Option Description
Un HBA Si vous disposez d'un seul HBA, la page Options de Fast!UTIL s'affiche. Passez
à l'Étape 3.
Plusieurs HBA Si vous disposez de plusieurs HBA, sélectionnez manuellement le HBA.
a Sur la page Sélection de la carte d'hôte, utilisez les touches de flèches pour
positionner le pointeur sur le HBA approprié.
b Appuyez sur Entrée.
3 Sur la page Options de Fast!UTIL, sélectionnez Paramètres de configuration et appuyez sur
Entrée.
4 Sur la page Paramètres de configuration, sélectionnez Paramètres de l'adaptateur et appuyez sur
Entrée.
5 Définissez le BIOS pour qu'il recherche les périphériques SCSI.
a Sur la page Paramètres de la carte d'hôte, sélectionnez BIOS de l'adaptateur hôte.
b Appuyez sur Entrée pour basculer la valeur sur Activé.
c Appuyez sur Échap pour quitter.
VMware, Inc. 62
Page 63
Stockage vSphere
6 Activation du démarrage sélectionnable.
a Sélectionnez Paramètres de démarrage sélectionnable et appuyez sur Entrée.
b Sur la page Paramètres du démarrage sélectionnable, sélectionnez Démarrage sélectionnable.
c Appuyez sur Entrée pour basculer la valeur sur Activé.
7 Sélectionnez l'entrée Nom du port de démarrage dans la liste des processeurs de stockage (SP) et
appuyez sur Entrée.
La page Sélection d'un périphérique Fibre Channel s'ouvre.
8 Sélectionnez le SP choisi et appuyez sur Entrée.
Si vous utilisez une baie de stockage active/passive, le SP sélectionné doit se trouver sur le chemin (actif) préféré à destination de la LUN de démarrage. Si vous ne savez pas quel SP se trouve sur le chemin actif, utilisez votre logiciel de gestion de baie de stockage pour le découvrir. Les ID cibles sont créées par le BIOS et peuvent changer à chaque redémarrage.
9 Effectuez l'action requise en fonction du nombre de LUN attachés au SP.
Option Description
Une LUN La LUN est sélectionnée en tant que LUN de démarrage. Vous n'avez pas besoin
de renseigner la page Sélectionner un LUN.
LUN multiples La page Sélectionner un LUN s'ouvre. Utilisez le pointeur pour sélectionner le
LUN de démarrage et appuyez sur Entrée.
10 Si des processeurs de stockage apparaissent dans la liste, appuyez sur C pour effacer les données.
11 Appuyez deux fois sur Esc pour quitter et appuyez sur Entrée pour enregistrer le paramétrage.
VMware, Inc. 63
Page 64
Démarrage d' ESXi avec le FCoE
logiciel 8
ESXi prend en charge le démarrage à partir des adaptateurs réseau compatibles avec FCoE.
Seules les cartes réseau avec délestage FCoE partiel prennent en charge les capacités de démarrage avec le FCoE logiciel. Si vous utilisez les cartes réseau sans délestage FCoE, le démarrage du FCoE logiciel n'est pas pris en charge.
Lorsque vous installez et démarrez ESXi depuis un LUN FCoE, l'hôte peut utiliser un adaptateur FCoE logiciel VMware et un adaptateur réseau doté de capacités FCoE. L'hôte n'exige pas un HBA FCoE dédié.
Vous effectuez la plupart des configurations à partir de la option ROM de votre adaptateur réseau. Les adaptateurs réseau doivent prendre en charge un des formats suivants, qui communiquent les paramètres relatifs à un périphérique de démarrage à VMkernel.
n
Démarrage FCoE Firmware Table (FBFT). FBFT est une propriété d'Intel.
n
FCoE Boot Parameter Table (FBPT). FBPT est défini par VMware pour permettre à des fournisseurs tiers de mettre en œuvre un démarrage avec le FCoE logiciel.
Les paramètres de configuration sont définis dans la option ROM de votre adaptateur. Pendant une installation ESXi ou un démarrage ultérieur, ces paramètres sont exportés vers la mémoire système au format FBFT ou au format FBPT. Le VMkernel peut lire les paramètres de configuration et les utiliser pour accéder au LUN de démarrage.
Ce chapitre aborde les rubriques suivantes :
n

Considérations et exigences de démarrage du FCoE logiciel

n
Configurer le démarrage du FCoE logiciel
n
Résolution des problèmes de démarrage à partir du FCoE logiciel pour un hôte ESXi
Considérations et exigences de démarrage du FCoE logiciel
Lorsque vous démarrez l'hôte ESXi à partir du SAN en utilisant un FCoE logiciel, certaines considérations et exigences sont applicables.
VMware, Inc.
64
Page 65
Stockage vSphere
Configuration requise
n
Utiliser ESXi d'une version compatible.
n
L'adaptateur réseau doit avoir les capacités suivantes :
n
Être compatible FCoE.
n
Prendre en charge une pile FCoE ouverte ESXi.
n
Contenir le microprogramme de démarrage FCoE pouvant exporter les informations de démarrage au format FBFT ou FBPT.
Considérations
n
Vous ne pouvez pas modifier la configuration de démarrage du FCoE dans ESXi.
n
Le coredump n'est pas pris en charge sur les LUN de FCoE logiciel, y compris le LUN de démarrage.
n
La gestion multivoie n'est pas prise en charge au pré-démarrage.
n
Le LUN de démarrage ne peut être partagé avec d'autres hôtes, même en mode de stockage partagé. Assurez-vous que l'hôte a accès à l'intégralité du LUN de démarrage.
Configurer le démarrage du FCoE logiciel
Votre hôteESXi peut démarrer à partir d'un LUN FCoE utilisant l'adaptateur FCoE logiciel et un adaptateur réseau.
Lorsque vous configurez votre hôte pour le démarrage d'un FCoE logiciel, vous effectuez plusieurs tâches.
Prérequis
L'adaptateur réseau a les capacités suivantes :
n
Prise en charge partielle des déchargements FCoE (FCoE logiciel).
n
Il contient un FBFT (FCoE Boot Firmware Table) ou un FBPT (FCoE Boot Parameter Table).
Pour de plus amples informations sur les adaptateurs réseau prenant en charge le démarrage du FCoE logiciel, consultez le Guide de compatibilité VMware.
Procédure
1 Configurer les paramètres de démarrage du FCoE logiciel
Pour prendre en charge le processus de démarrage d'un FCoE logiciel, un adaptateur réseau de votre hôte doit avoir un microprogramme FCoE de démarrage spécialement configuré. Lorsque vous configurez le microprogramme, vous activez l'adaptateur pour le démarrage du FCoE logiciel et spécifiez les paramètres du LUN de démarrage.
2 Installer et démarrer ESXi à partir d'un LUN FCoE logiciel
Lorsque vous configurez votre système pour démarrer à partir d'un LUN FCoE logiciel, vous installez l'image ESXi sur le LUN cible. Vous pouvez ensuite démarrer votre hôte à partir de ce LUN.
VMware, Inc. 65
Page 66
Stockage vSphere
Configurer les paramètres de démarrage du FCoE logiciel
Pour prendre en charge le processus de démarrage d'un FCoE logiciel, un adaptateur réseau de votre hôte doit avoir un microprogramme FCoE de démarrage spécialement configuré. Lorsque vous configurez le microprogramme, vous activez l'adaptateur pour le démarrage du FCoE logiciel et spécifiez les paramètres du LUN de démarrage.
Procédure
u
Dans la ROM optionnelle de l'adaptateur réseau, spécifiez les paramètres de démarrage du FCoE logiciel.
Ces paramètres comprennent une cible de démarrage, le LUN de démarrage, l'ID VLAN, etc.
Étant donné que la configuration de la carte réseau est propre au fournisseur, consultez la documentation correspondante pour obtenir des instructions.

Installer et démarrer ESXi à partir d'un LUN FCoE logiciel

Lorsque vous configurez votre système pour démarrer à partir d'un LUN FCoE logiciel, vous installez l'image ESXi sur le LUN cible. Vous pouvez ensuite démarrer votre hôte à partir de ce LUN.
Prérequis
n
Configurez la option ROM de l'adaptateur réseau afin qu'elle pointe vers un LUN de démarrage cible. Assurez-vous de posséder les informations relatives au LUN amorçable.
n
Modifiez la séquence de démarrage du BIOS système pour parvenir à la séquence suivante :
a L'adaptateur réseau utilisé pour le démarrage du FCoE logiciel.
b Le support d'installation ESXi.
Voir la documentation du fournisseur du système.
Procédure
1 Lancez une installation interactive depuis le CD/DVD d'installation ESXi.
Le programme d'installation ESXi vérifie que FCoE est activé dans le BIOS et, si besoin, crée un commutateur virtuel standard pour l'adaptateur réseau compatible FCoE. Le nom du commutateur virtuel est VMware_FCoE_vSwitch. Le programme d'installation utilise alors les paramètres de démarrage FCoE préconfigurés pour découvrir et afficher tous les LUN FCoE disponibles.
2 Sur la page Sélectionner un disque, sélectionnez le LUN FCoE logiciel que vous avez spécifié lors
du réglage du paramètre de démarrage.
Si le LUN de démarrage n'apparaît pas dans ce menu, assurez-vous d'avoir configuré correctement les paramètres de démarrage dans la option ROM de l'adaptateur réseau.
3 Terminez l'installation en suivant les invites.
4 Redémarrez l'hôte.
VMware, Inc. 66
Page 67
Stockage vSphere
5 Modifiez la séquence de démarrage dans le BIOS système, de façon à ce que le LUN de démarrage
soit le premier périphérique amorçable.
ESXi continue à démarrer à partir du LUN de FCoE logiciel jusqu'à ce qu'il soit prêt à être utilisé.
Suivant
Si besoin est, vous pouvez renommer et modifier le commutateur virtuel FCoE VMware que le programme d'installation a automatiquement créé. Assurez-vous que le CDP (Cisco Discovery Protocol) est défini sur Écouter ou Les deux.

Résolution des problèmes de démarrage à partir du FCoE logiciel pour un hôte ESXi

Si l'installation ou le démarrage d'ESXi à partir d'un LUN du FCoE logiciel échoue, vous pouvez utiliser plusieurs méthodes de dépannage.
Problème
Lorsque vous installez ou démarrez ESXi depuis le stockage FCoE, l'installation ou le processus de démarrage échoue. L'installation FCoE que vous utilisez inclut un adaptateur FCoE logiciel VMware et un adaptateur réseau avec des capacités de décharge FCoE partielles.
Solution
n
Assurez-vous d'avoir configuré correctement les paramètres de démarrage dans la ROM optionnelle de l'adaptateur réseau FCoE.
n
Pendant l'installation, surveillez le BIOS et l'adaptateur réseau FCoE pour détecter toute erreur.
n
Si possible, vérifiez le journal VMkernel pour y rechercher des erreurs.
n
Utilisez la commande esxcli pour vérifier si le LUN de démarrage est présent.
esxcli conn_options hardware bootdevice list
VMware, Inc. 67
Page 68
Meilleures pratiques pour le
stockage Fibre Channel 9
Lorsque vous utilisez ESXi avec un SAN Fibre Channel, suivez les recommandations pour éviter des problèmes de performances.
vSphere Client offre de nombreuses fonctionnalités pour collecter des informations sur les performances. Ces informations sont affichées sous forme graphique et sont régulièrement mises à jour.
Vous pouvez utiliser les utilitaires de commande resxtop ou esxtop. Les utilitaires fournissent une vue détaillée du mode d'utilisation des ressources de ESXi. Pour plus d'informations, consultez la documentation Gestion des ressources vSphere.
Consultez votre représentant de stockage pour savoir si votre système de stockage prend en charge les fonctionnalités d'accélération matérielle API de stockage - Intégration de baie. Le cas échéant, consultez la documentation du fournisseur pour activer la prise en charge de l'accélération matérielle du côté du système de stockage. Pour plus d'informations, consultez Chapitre 24 Accélération matérielle du
stockage.
Ce chapitre aborde les rubriques suivantes :
n

Prévention des problèmes de SAN Fibre Channel

n
Désactiver l'enregistrement automatique de l'hôte
n
Optimisation des performances du stockage SAN Fibre Channel
Prévention des problèmes de SAN Fibre Channel
Lorsque vous utilisez ESXi avec un SAN Fibre Channel, suivez les directives spécifiques afin d'éviter des problèmes de SAN.
Pour éviter des problèmes avec votre configuration SAN, suivez ces conseils :
n
Placez une seule banque de données VMFS sur chaque LUN.
n
Ne changez pas la politique de chemin que le système définit, sauf si vous comprenez les implications de tels changements.
n
Documentez tout ce que vous faites. Incluez des informations sur le zonage, le contrôle d'accès, le stockage, le commutateur, le serveur et la configuration HBA FC, les versions de logiciel et de microprogramme, et le plan des câbles de stockage.
VMware, Inc.
68
Page 69
Stockage vSphere
n
Plan en cas de panne :
n
Faîtes plusieurs copies de vos mappages topologiques. Pour chaque élément, envisagez les conséquences sur votre SAN si cet élément tombe en panne.
n
Vérifiez chaque lien, commutateurs, HBA et autres éléments pour vous assurer que vous n'avez omis aucun point de panne critique dans votre architecture.
n
Assurez-vous que les HBA Fibre Channel sont installés dans les slots corrects de l'hôte, selon la vitesse de l'emplacement et du bus. Équilibrez la charge de bus PCI entre les divers bus du serveur.
n
Familiarisez-vous avec les différents points de contrôle de votre réseau de stockage, sur tous les points de visibilité, y compris les graphiques de performance de l'hôte, les statistiques des commutateurs FC et des performances de stockage.
n
Soyez prudent lorsque vous modifiez les ID des LUN qui prennent en charge des banques de données en cours d'utilisation par votre hôte ESXi. Si vous modifiez les ID, la banque de données devient inactive et ses machines virtuelles tombent en panne. Resignez la banque de données pour la réactiver. Reportez-vous à Administration des banques de données VMFS dupliquées.
Après avoir modifié l'ID du LUN, réanalysez le stockage pour réinitialiser l'ID sur votre hôte. Pour plus d'informations sur l'utilisation de la réanalyse, consultez Opérations de réanalyse du stockage.

Désactiver l'enregistrement automatique de l'hôte

Certaines baies de stockage imposent l'enregistrement des hôtes ESXi dans les baies. ESXi effectue un enregistrement d'hôte automatique en envoyant le nom de l'hôte et l'adresse IP à la baie. Si vous préférez utiliser le logiciel de gestion de stockage pour effectuer un enregistrement manuel, désactivez la fonction d'enregistrement automatique de ESXi.
Procédure
1 Accédez à l'hôte.
2 Cliquez sur l'onglet Configurer.
3 Sous Système, cliquez sur Paramètres système avancés.
4 Dans Paramètres système avancés, sélectionnez le paramètre Disk.EnableNaviReg et cliquez sur
l'icône Edit.
5 Modifiez la valeur sur 0.
Cette opération désactive l'enregistrement automatique de l'hôte qui est activé par défaut.

Optimisation des performances du stockage SAN Fibre Channel

Plusieurs facteurs contribuent à l'optimisation d'un environnement SAN classique.
VMware, Inc. 69
Page 70
Stockage vSphere
si l'environnement est correctement configuré, les composants de la structure SAN (en particulier les commutateurs SAN) ne sont que des contributeurs mineurs, à cause de leurs latences basses par rapport aux serveurs et aux baies de stockage. Assurez-vous que les chemins dans le commutateur de la structure ne sont pas saturés, c'est-à-dire que le commutateur fonctionne avec le débit maximal.

Performances des baies de stockage

Les performances des baies de stockage sont l'un des principaux facteurs contribuant aux performances de la totalité de l'environnement SAN.
Si vous rencontrez des problèmes avec les performances des baies de stockage, consultez la documentation du fournisseur de votre baie de stockage pour obtenir tous les renseignements utiles.
Pour améliorer les performances des baies dans l'environnement vSphere, suivez ces directives générales :
n
Lorsque vous attribuez des LUN, souvenez-vous que plusieurs hôtes peuvent accéder au LUN et que plusieurs machines virtuelles peuvent s'exécuter sur chaque hôte. Un LUN utilisé par un hôte peut servir à des E/S provenant d'applications très variées et exécutées sur différents systèmes d'exploitation. En raison de ces charges de travail très variées, le groupe RAID contenant les LUN ESXi n'inclut généralement pas les LUN utilisés par d'autres serveurs qui n'exécutent pas d'ESXi.
n
Assurez-vous que le cache de lecture/écriture est disponible.
n
Les baies de stockage SAN nécessitent des modifications et des ajustements permanents pour s'assurer que les charges d'E/S sont équilibrés sur tous les chemins d'accès des baies de stockage. Pour répondre à cette exigence, répartissez les chemins d'accès vers les LUN entre tous les SP pour assurer un équilibrage de charge optimal. Une surveillance attentive permet de savoir lorsqu'il est nécessaire de rééquilibrer la répartition des LUN.
Le réglage de baies de stockage statiquement équilibrées consiste à surveiller des statistiques de performances spécifiques telles que les opérations d'E/S par seconde, les blocs par seconde et le temps de réponse. La distribution de la charge de travail des LUN visant à répartir la charge de travail entre tous les SP est également importante.
Remarque L'équilibrage de charge dynamique n'est pas pris en charge actuellement avec ESXi.

Performances des serveurs avec Fibre Channel

Vous devez tenir compte de différents facteurs pour garantir des performances optimales des serveurs.
Chaque application de serveur doit avoir accès à son stockage désigné aux conditions suivantes :
n
Vitesse d'E/S élevée (nombre d'opérations d'entrée-sortie par seconde)
n
Rendement élevé (mégaoctets par seconde)
n
Latence minimale (temps de réponse)
Comme chaque application a différentes exigences, ces objectifs peuvent être remplis en sélectionnant un groupe RAID approprié sur la baie de stockage.
VMware, Inc. 70
Page 71
Stockage vSphere
Pour atteindre les objectifs de performance, procédez comme suit :
n
Placez chaque LUN sur un groupe RAID qui offre les niveaux de performance nécessaires. Surveillez les activités et l'utilisation des ressources des autres LUN dans le groupe RAID attribué. Un groupe RAID haute performance ayant un nombre excessif d'applications effectuant des E/S risque de ne pas satisfaire aux exigences de performance requises par une application exécutée sur l'hôte ESXi.
n
Assurez-vous que chaque hôte dispose d'un nombre suffisant de HBA pour augmenter le débit des applications sur l'hôte en période de pointe. Les entrées/sorties réparties sur plusieurs HBA présentent un débit plus rapide et moins de latence pour chaque application.
n
Pour assurer la redondance en cas de panne éventuelle du HBA, assurez-vous que l'hôte est connecté à une infrastructure à double redondance.
n
Lors de l'allocation de groupes LUN ou RAID aux systèmes ESXi, n'oubliez pas que plusieurs systèmes d'exploitation utilisent et partagent cette ressource. Les performances des LUN requises par l'hôte ESXi peuvent être beaucoup plus élevées que lorsque vous utilisez des machines physiques standard. Par exemple, si vous pensez exploiter quatre applications à fortes E/S, allouez quatre fois les capacités de performance aux LUN de l'ESXi.
n
Lorsque vous utilisez plusieurs systèmes ESXi avec vCenter Server, les exigences de performance requises pour le sous-système de stockage augmentent en conséquence.
n
Le nombre d'E/S en attente requises par les applications exécutées sur le système ESXi doit correspondre au nombre d'E/S pouvant être traitées par le HBA et la baie de stockage.
VMware, Inc. 71
Page 72
Utilisation d' ESXi avec un SAN
iSCSI 10
ESXi peut se connecter à un stockage SAN externe à l'aide du protocole iSCSI (Internet SCSI). Outre le protocole iSCSI traditionnel, ESXi prend également en charge iSER (iSCSI Extensions for RDMA).
Lorsque le protocole iSER est activé, l'hôte peut utiliser la même structure d'iSCSI, mais il remplace le transport TCP/IP par le transport RDMA (Remote Direct Memory Access).

À propos du SAN iSCSI

Les SAN iSCSI utilisent des connexions Ethernet entre les hôtes et les sous-systèmes de stockage haute performance.
Du côté hôte, les composants SAN iSCSI comprennent les adaptateurs de bus hôte (HBA) iSCSI ou les cartes d'interface réseau (NIC). Le réseau iSCSI comprend également les commutateurs et les routeurs qui acheminent le trafic de stockage, les câbles, les processeurs de stockage (SPs) et les systèmes de disque de stockage.
VMware, Inc.
72
Page 73
Baie iSCSI
VMFS VMFS
LAN LAN
HBA
iSCSI
Carte réseau
Ethernet
Hôte ESXi
Adaptateur
logiciel
vmdk vmdk
Stockage vSphere
Le SAN iSCSI utilise une architecture client-serveur.
Le client, appelé initiateur iSCSI, agit sur votre hôte ESXi. Il lance des sessions iSCSI en émettant des commandes SCSI et en les transmettant, encapsulées dans le protocole iSCSI, à un serveur iSCSI. Le serveur est connu sous le nom de cible iSCSI. En général, la cible iSCSI représente un système de stockage physique sur le réseau.
Elle peut également être un SAN iSCSI virtuel, par exemple un émulateur cible iSCSI s'exécutant sur une machine virtuelle. La cible iSCSI répond aux commandes de l'initiateur en transmettant les données iSCSI requises.

Chemins multiples iSCSI

Lors du transfert de données entre le serveur hôte et le stockage, le SAN utilise une technique connue sous le nom de gestion multivoie. Avec la gestion multivoie, votre hôte ESXi peut disposer de plusieurs chemins physiques vers un LUN sur un système de stockage.
De manière générale, un chemin unique partant d'un hôte vers un LUN se compose d'un adaptateur iSCSI ou NIC, de ports de commutateur, de câbles de connexion et du port de contrôleur de stockage. Si un des composants du chemin subit une défaillance, l'hôte sélectionne un autre chemin disponible pour l'E/S. Le processus de détection d'un chemin défaillant et de changement vers un autre chemin est connu sous le nom de basculement de chemin.
Pour plus d'informations sur la gestion chemins multiples, consultez Chapitre 18 Présentation de la
gestion multivoie et du basculement.
VMware, Inc. 73
Page 74
Stockage vSphere

Nœuds et ports du SAN iSCSI

Une entité simple détectable sur le SAN iSCSI, telle qu'un initiateur ou une cible, représente un nœud iSCSI.
Chaque nœud possède un nom de nœud. ESXi utilise plusieurs méthodes pour identifier un nœud.
Adresse IP Chaque nœud iSCSI peut être associé à une adresse IP de sorte que le
matériel d'acheminement et de commutation du réseau puisse établir la connexion entre l'hôte et le stockage. Cette adresse est semblable à l'adresse IP que vous attribuez à votre ordinateur pour bénéficier de l'accès au réseau de votre entreprise ou à Internet.
nom iSCSI Nom unique international permettant d'identifier le nœud. iSCSI utilise les
formats IQN (iSCSI Qualified Name) et EUI (Extended Unique Identifier).
Par défaut, ESXi génère des noms iSCSI uniques pour vos initiateurs iSCSI, par exemple, iqn.1998-01.com.vmware:iscsitestox-68158ef2. Il n'est généralement pas nécessaire de modifier la valeur par défaut, mais si vous la modifiez, veillez à ce que le nouveau nom iSCSI que vous saisissez soit unique mondialement.
Alias iSCSI Un nom plus explicite pour le port ou le périphérique iSCSI utilisé à la place
du nom iSCSI. Les alias iSCSI ne sont pas uniques et sont destinés à être un nom convivial à associer à un port.
Chaque nœud possède un ou plusieurs ports qui le connectent au SAN. Les ports iSCSI sont les points limites d'une session iSCSI.

Conventions de dénomination iSCSI

iSCSI utilise un nom unique spécial pour identifier un nœud iSCSI, cible ou initiateur.
Les noms iSCSI sont formatées de deux manières différentes. Le format le plus courant est le format IQN.
Pour plus d'informations sur les exigences de dénomination iSCSI et les profils de chaîne, reportez-vous aux sections RFC 3721 et RFC 3722 sur le site Web IETF.
Format IQN (iSCSI Qualified Name)
Le format IQN présente le nom sous la forme iqn.yyyy-mm.naming-authority:unique, où :
n
yyyy-mm représente l'année et le mois où l'autorité de dénomination a été établie.
n
naming-authority représente la syntaxe inverse du nom de domaine Internet de l'autorité de dénomination. Par exemple, l'autorité de dénomination iscsi.vmware.com peut avoir le nom iqn. 1998-01.com.vmware.iscsi au format IQN. Le nom indique que le nom de domaine vmware.com a été enregistré en janvier 1998 et que iscsi est un sous-domaine géré par vmware.com.
VMware, Inc. 74
Page 75
Stockage vSphere
n
unique name représente n'importe quel nom à votre guise, par exemple le nom de votre hôte. L'autorité de dénomination doit s'assurer que tous les éventuels noms attribués après les deux-points sont uniques, comme :
n
iqn.1998-01.com.vmware.iscsi:name1
n
iqn.1998-01.com.vmware.iscsi:name2
n
iqn.1998-01.com.vmware.iscsi:name999
Format EUI (Enterprise Unique Identifier)
Le format EUI se présente sous la forme eui.16_hex_digits.
Par exemple, eui.0123456789ABCDEF.
Les 16 chiffres hexadécimaux sont des représentations de texte d'un nombre 64 bits au format EUI (extended unique identifier) de l'IEEE. Les 24 premiers bits représentent l'identifiant d'une société que l'IEEE enregistre avec une société spécifique. Les 40 bits restants sont attribués par l'entité possédant l'identifiant de cette société et doivent être uniques.

Initiateurs iSCSI

Pour accéder aux cibles iSCSI, votre hôte ESXi utilise des initiateurs iSCSI.
L'initiateur est un logiciel ou un matériel installé sur votre hôte ESXi. L'initiateur iSCSI est issu de la communication entre votre hôte et un système de stockage iSCSI externe et envoie des données au système de stockage.
Dans l'environnement ESXi, les adaptateurs iSCSI configurés sur votre hôte jouent le rôle d'initiateurs. ESXi prend en charge plusieurs types d'adaptateurs iSCSI.
Pour plus d'informations sur la configuration et l'utilisation des adaptateurs iSCSI, consultez Chapitre 11
Configuration des adaptateurs iSCSI et du stockage.
Adaptateur de logiciel iSCSI
Un adaptateur de logiciel iSCSI est un code VMware intégré au VMkernel. À l'aide de l'adaptateur iSCSI logiciel, votre hôte peut se connecter au périphérique de stockage iSCSI via des adaptateurs réseau standard. L'adaptateur de logiciel iSCSI gère le traitement iSCSI tout en communiquant avec l'adaptateur réseau. Avec l'adaptateur de logiciel iSCSI, vous pouvez employer la technologie iSCSI sans acheter de matériel spécialisé.
Adaptateur de matériel iSCSI
Un adaptateur de matériel iSCSI est un adaptateur tiers qui décharge le traitement iSCSI et le réseau de votre hôte. Les adaptateurs matériels iSCSI se divisent en plusieurs catégories.
Adaptateur de matériel iSCSI dépendant
VMware, Inc. 75
Dépend du réseau VMware et des interfaces de configuration et de gestion iSCSI fournies par VMware.
Page 76
Stockage vSphere
Ce type d'adaptateur peut être un adaptateur réseau standard disposant de la fonction de déchargement iSCSI pour le même port. La fonction de déchargement iSCSI dépend de la configuration du réseau pour obtenir les paramètres IP, MAC et d'autres paramètres utilisés pour les sessions iSCSI. La carte réseau Broadcom 5709 sous licence iSCSI est un exemple d'adaptateur dépendant.
Adaptateur de matériel iSCSI indépendant
Implémente ses propres protocoles réseau et ses propres interfaces de configuration et de gestion iSCSI.
En général, une carte disposant uniquement de la fonction de déchargement iSCSI ou de la fonction de déchargement iSCSI et NIC standard est un adaptateur iSCSI matériel indépendant. La fonction de déchargement iSCSI dispose d'une fonction de gestion indépendante de la configuration, qui assigne les paramètres IP, MAC et d'autres paramètres pour les sessions iSCSI. L'adaptateur QLogic QLA4052 est un exemple d'adaptateur indépendant.
Les adaptateurs de matériel iSCSI doivent avoir une licence. Sinon, ils pourraient ne pas apparaître dans le client ou vSphere CLI. Contactez votre vendeur pour avoir des renseignements sur la licence.

À propos de l'adaptateur iSER VMware

Outre le protocole iSCSI traditionnel, ESXi prend en charge le protocole d'extensions iSCSI pour RDMA (iSER). Lorsque le protocole iSER est activé, l'infrastructure iSCSI située sur l'hôte ESXi peut utiliser le transport d'accès direct à la mémoire à distance (RDMA) au lieu du protocole TCP/IP.
Le protocole iSCSI traditionnel transporte des commandes SCSI sur un réseau TCP/IP entre un initiateur iSCSI situé sur un hôte et une cible iSCSI située sur un périphérique de stockage. Le protocole iSCSI encapsule les commandes et assemble les données en paquets pour la couche TCP/IP. Lorsque les données arrivent, le protocole iSCSI désassemble les paquets TCP/IP, afin que les commandes SCSI puissent être différenciées et remises au périphérique de stockage.
Le protocole iSER diffère du protocole iSCSI traditionnel, car il remplace le modèle de transfert de données TCP/IP par le transport d'accès direct à la mémoire à distance (RDMA). Grâce à la technologie de placement direct des données du RDMA, le protocole iSER peut transférer directement des données entre la mémoire tampon de l'hôte ESXi et les périphériques de stockage. Cette méthode permet d'éliminer le traitement et la copie des données engendrés par le protocole TCP/IP et peut également réduire la latence et la charge du CPU sur le périphérique de stockage.
Dans l'environnement iSER, le protocole iSCSI fonctionne exactement comme avant, mais il utilise une infrastructure RDMA sous-jacente au lieu de l'interface basée sur TCP/IP.
Comme le protocole iSER préserve la compatibilité avec l'infrastructure iSCSI, le processus d'activation du protocole iSER sur l'hôte ESXi est semblable au processus pour le protocole iSCSI. Reportez-vous à la section Configurer les adaptateurs iSER.
VMware, Inc. 76
Page 77
Baie de stockage
Cible
LUN LUN LUN
Baie de stockage
Cible CibleCible
LUN LUN LUN
Stockage vSphere

Établissement des connexions iSCSI

Dans un contexte ESXi, le terme cible identifie une unité de stockage unique accessible par l'hôte. Les termes périphérique de stockage et LUN décrivent un volume logique représentant l'espace de stockage sur une cible. En général, les termes périphérique et LUN, dans un contexte ESXi signifient qu'un volume SCSI est présenté à l'hôte depuis une unité de stockage cible et disponible pour un formatage.
Les différents fournisseurs de stockage iSCSI présentent le stockage sur des hôtes de différentes manières. Certains fournisseurs présentent plusieurs LUN sur une seule cible, alors que d'autres présentent plusieurs cibles disposant chacune d'un LUN.
Figure 101. Représentations LUN / Cible
Dans ces exemples, trois LUN sont disponibles dans chacune de ces configurations. Dans le premier cas, l'hôte détecte une cible, mais cette cible possède trois LUN utilisables. Chaque LUN représente un volume de stockage individuel. Dans le second cas, l'hôte détecte trois cibles différentes, chacune possédant un LUN.
Les initiateurs iSCSI basés sur l'hôte établissent des connexions sur chaque cible. Les systèmes de stockage avec une cible unique contenant plusieurs LUN présentent un trafic vers tous les LUN sur une seule connexion. Sur un système possédant trois cibles avec un LUN chacune, l'hôte utilise des connexions distinctes vers les trois LUN.
Ces informations sont utiles lorsque vous essayez d'agréger le trafic de stockage sur plusieurs connexions à partir de l'hôte doté de plusieurs adaptateurs iSCSI. Vous pouvez définir le trafic d'une cible vers un adaptateur particulier et utiliser un adaptateur différent pour le trafic vers une autre cible.

Types de systèmes de stockage iSCSI

ESXi prend en charge différents systèmes de stockage et de baies.
VMware, Inc. 77
Page 78
Stockage vSphere
Votre hôte prend en charge les types de stockage suivants : actif-actif, actif-passif et conforme à ALUA.
Système de stockage actif-actif
Système de stockage actif-passif
Système de stockage asymétrique
Système de stockage de ports virtuels
Prend en charge l'accès simultané aux LUN par tous les ports de stockage qui sont disponibles sans dégradation importante des performances. Tous les chemins sont toujours actifs, sauf si un chemin est défaillant.
Un système dans lequel un processeur de stockage fournit l'accès à un LUN donné. Les autres processeurs sont utilisés en tant que sauvegarde pour le LUN et peuvent fournir l'accès à d'autres E/S de LUN. L'E/S peut uniquement être envoyée avec succès vers un port actif pour un LUN spécifique. Si l'accès via le port de stockage actif échoue, un des processeurs de stockage passifs peut être activé par les serveurs qui y accèdent.
Prend en charge Asymmetric Logical Unit Access (ALUA). Les systèmes de stockage conforme à ALUA offrent des niveaux différents d'accès par port. Avec ALUA, les hôtes peuvent déterminer les états des ports cibles et classer les chemins par priorité. L'hôte utilise certains des chemins actifs comme étant principaux et d'autres comme secondaires.
Prend en charge l'accès à tous les LUN disponibles via un port virtuel unique. Les systèmes de stockage de ports virtuels sont des périphériques de stockage actifs-actifs qui cachent leurs nombreuses connexions via un seul port. La gestion multivoie ESXi ne permet pas d'établir de multiples connexions depuis un port spécifique vers le stockage par défaut. Certains fournisseurs de stockage fournissent des gestionnaires de sessions pour établir et gérer de multiples connexions vers leur stockage. Ces systèmes de stockage traitent les basculements de ports et l'équilibrage des connexions de manière transparente. Cette fonctionnalité est souvent appelée basculement transparent.
Découverte, authentification et contrôle d'accès
Vous pouvez utiliser plusieurs méthodes pour découvrir votre stockage et y limiter l'accès.
Vous devez configurer votre hôte et le système de stockage iSCSI pour qu'il prenne en charge votre politique de contrôle d'accès au stockage.
Découverte
Une session de découverte fait partie du protocole iSCSI. Elle renvoie l'ensemble des cibles auxquelles vous pouvez accéder sur un système de stockage iSCSI. Les deux types de découverte disponibles sur ESXi sont les découvertes dynamique et statique. La découverte dynamique obtient une liste des cibles accessibles à partir du système de stockage iSCSI. La découverte statique peut accéder uniquement à une cible particulière par nom cible et adresse.
Pour plus d'informations, consultez Configuration des adresses de découverte des adaptateurs iSCSI.
VMware, Inc. 78
Page 79
Stockage vSphere
Authentification
Les systèmes de stockage iSCSI authentifient un initiateur par un nom et une paire de clés. L'ESXi prend en charge le protocole d'authentification CHAP. Pour utiliser l'authentification CHAP, l'hôte ESXi et le système de stockage iSCSI doivent avoir la fonction CHAP activée et disposer d'informations d'identification communes.
Pour plus d'informations sur l'activation du CHAP, consultez Configurer des paramètres CHAP pour des
adaptateurs iSCSI.
Contrôle d'accès
Le contrôle d'accès est une règle configurée sur le système de stockage iSCSI. La plupart des mises en œuvre prennent en charge un ou plusieurs des trois types de contrôle d'accès :
n
Par nom d'initiateur
n
Par adresse IP
n
Par protocole CHAP
Seuls les initiateurs qui respectent toutes les règles peuvent accéder au volume iSCSI.
L'utilisation exclusive du CHAP pour le contrôle d'accès peut ralentir les réanalyses parce que l'hôte ESXi peut découvrir toutes les cibles, mais échoue ensuite à l'étape d'authentification. Les réanalyses iSCSI sont plus rapides si l'hôte détecte uniquement les cibles qu'il peut authentifier.

Correction des erreurs

Pour protéger l'intégrité des en-têtes et des données iSCSI, le protocole iSCSI définit des méthodes de correction des erreurs, plus connues sous le nom de résumés d'en-tête et de résumés de données.
Ces deux paramètres sont désactivés par défaut, mais vous pouvez les activer. Ces résumés appartiennent respectivement à l'en-tête et aux données SCSI transférés entre les initiateurs iSCSI et les cibles, dans les deux sens.
Les résumés d'en-tête et de données vérifient l'intégrité des données non cryptographiques en plus des contrôles de santé effectués par d'autres couches du réseau, telles que TCP et Ethernet. Ils vérifient le chemin de communication complet, y compris tous les éléments susceptibles de modifier le trafic au niveau du réseau, tels que les routeurs, les commutateurs et les proxys.
L'existence et le type des résumés sont négociés lorsqu'une connexion iSCSI est établie. Lorsque l'initiateur et la cible s'accordent sur une configuration de résumé, celui-ci doit être utilisé pour l'ensemble du trafic entre eux.
L'activation des résumés d'en-tête et de données nécessite un traitement supplémentaire à la fois pour l'initiateur et la cible et peut affecter le débit et les performances d'utilisation du CPU.
Remarque Les systèmes qui utilisent les processeurs Intel Nehalem délestent les calculs de résumé
iSCSI, en réduisant ainsi l'incidence sur les performances.
VMware, Inc. 79
Page 80
Stockage vSphere
Pour plus d'informations sur l'activation des résumés d'en-tête et de données, consultez Configuration
des paramètres avancés iSCSI.

Accès des machines virtuelles aux données sur un SAN iSCSI

ESXi stocke les fichiers disque d'une machine virtuelle dans une banque de données VMFS se trouvant sur un périphérique de stockage du SAN. Lorsque les systèmes d'exploitation invités de la machine virtuelle envoient des commandes SCSI à leurs disques virtuels, la couche de virtualisation SCSI traduit ces commandes en opérations de fichier VMFS.
Lorsqu'une machine virtuelle interagit avec son disque virtuel stocké sur un SAN, le processus suivant a lieu :
1 Lorsque le système d'exploitation invité sur une machine virtuelle lit ou écrit sur le disque SCSI, il
envoie des commandes SCSI au disque virtuel.
2 Les pilotes de périphériques dans le système d'exploitation de la machine virtuelle communiquent
avec les contrôleurs SCSI virtuels.
3 Le contrôleur SCSI virtuel transmet les commandes au VMkernel.
4 Le VMkernel effectue les tâches suivantes :
a Localisation du fichier de disque virtuel approprié dans le volume VMFS.
b Mappage des requêtes de blocs sur le disque virtuel sur les blocs sur le périphérique physique
approprié.
c Envoi de la demande d'E/S modifiée à partir du pilote du périphérique du VMkernel vers
l'initiateur iSCSI, matériel ou logiciel.
5 Si l'initiateur iSCSI est un adaptateur iSCSI matériel, indépendant ou dépendant, l'adaptateur effectue
les tâches suivantes :
a Encapsulation des demandes d'E/S dans les unités de données de protocole (PDU) iSCSI.
b Encapsulation des PDU iSCSI dans les paquets TCP/IP.
c Envoi des paquets IP via Ethernet au système de stockage iSCSI.
6 Si l'initiateur iSCSI est un adaptateur iSCSI logiciel, les actions suivantes ont lieu :
a L'initiateur iSCSI encapsule les demandes d'E/S dans les PDU iSCSI.
b L'initiateur envoie les PDU iSCSI via des connexions TCP/IP.
c La pile TCP/IP VMkernel relaie les paquets TCP/IP vers un adaptateur réseau (NIC) physique.
d La carte réseau (NIC) physique envoie les paquets IP via Ethernet au système de stockage
iSCSI.
7 Les commutateurs et les routeurs Ethernet sur le réseau acheminent la demande vers le périphérique
de stockage approprié.
VMware, Inc. 80
Page 81
Configuration des adaptateurs
iSCSI et du stockage 11
Pour que ESXi puisse fonctionner avec SAN iSCSI, vous devez configurer votre environnement iSCSI.
Le processus de préparation de votre environnement iSCSI se compose des étapes suivantes :
Étape Détails
Configuration du stockage iSCSI Pour plus d'informations, reportez-vous à la documentation du fournisseur de stockage. En
outre, suivez les recommandations ci-après :
n
Recommandations et restrictions du SAN ESXi iSCSI
n
Chapitre 13 Meilleures pratiques pour le stockage iSCSI
Configurer les adaptateurs iSCSI Utilisez un workflow approprié pour configurer votre adaptateur :
n
Configurer des adaptateurs iSCSI matériel indépendants
n
Configurer des adaptateurs iSCSI matériel dépendants
n
Configurer l'adaptateur iSCSI logiciel
n
Configurer les adaptateurs iSER
Créer une banque de données sur le stockage iSCSI
Création de banques de données
Ce chapitre aborde les rubriques suivantes :
n
Recommandations et restrictions du SAN ESXi iSCSI
n
Configuration des paramètres iSCSI pour les adaptateurs
n
Configurer des adaptateurs iSCSI matériel indépendants
n
Configurer des adaptateurs iSCSI matériel dépendants
n
Configurer l'adaptateur iSCSI logiciel
n
Configurer les adaptateurs iSER
n
Modifier les propriétés générales des adaptateurs iSCSI ou iSER
n
Configuration du réseau pour iSCSI et iSER
n
Utilisation des trames Jumbo avec iSCSI
n
Configuration des adresses de découverte des adaptateurs iSCSI
n
Configurer des paramètres CHAP pour des adaptateurs iSCSI
n
Configuration des paramètres avancés iSCSI
VMware, Inc.
81
Page 82
Stockage vSphere
n
Gestion des sessions iSCSI

Recommandations et restrictions du SAN ESXi iSCSI

Pour fonctionner correctement avec un SAN iSCSI, votre environnement ESXi doit respecter certaines recommandations spécifiques. En outre, plusieurs restrictions existent lorsque vous utilisez ESXi avec un SAN iSCSI.
Recommandations du stockage iSCSI
n
Vérifiez que votre hôte ESXi prend en charge le matériel et le microprogramme du stockage SAN iSCSI. Pour obtenir une liste à jour, consultez le Guide de compatibilité VMware.
n
Afin de garantir que l'hôte reconnaisse bien les LUN au démarrage, configurez toutes les cibles de stockage iSCSI de façon à ce que votre hôte puisse y accéder et les exploiter. Configurez votre hôte de façon à ce qu'il puisse découvrir toutes les cibles iSCSI.
n
Configurez une partition de diagnostic sur un stockage local, sauf si vous utilisez des serveurs sans disques, En cas d'utilisation de serveurs sans disque qui démarrent à partir d'un SAN iSCSI, consultez Recommandations générales pour le démarrage à partir du SAN iSCSI pour plus d'informations sur les partitions de diagnostic avec iSCSI.
n
Définissez le pilote de contrôleur SCSI dans le système d'exploitation client sur une file suffisamment grande.
n
Sur les machines virtuelles qui exécutent Microsoft Windows, augmentez la valeur du paramètre TimeoutValue SCSI. Lorsque ce paramètre est configuré, les machines virtuelles Windows peuvent mieux tolérer les E/S différées provenant d'un basculement de chemin. Pour plus d'informations, consultez Définir le délai d'expiration du SE invité Windows.
n
Configurez votre environnement de façon à n'avoir qu'une seule banque de données VMFS pour chaque LUN.
Restrictions du stockage iSCSI
n
ESXi ne prend en charge pas les périphériques à bande connectés par iSCSI.
n
Vous ne pouvez pas utiliser le logiciel multi-chemins de machine virtuelle pour réaliser un équilibrage E/S vers une LUN matérielle unique.
n
ESXi ne prend pas en charge la gestion de gestion multivoie lorsque vous combinez des adaptateurs matériels indépendants à des adaptateurs logiciels ou matériels dépendants.
Configuration des paramètres iSCSI pour les adaptateurs
Pour que votre hôte ESXi puisse détecter le stockage iSCSI, vous devez d'abord configurer vos adaptateurs iSCSI. Lorsque vous configurez les adaptateurs, vous définissez plusieurs paramètres iSCSI.
VMware, Inc. 82
Page 83
Stockage vSphere
mise en réseau iSCSI
Pour certains types d'adaptateurs iSCSI, vous devez configurer la mise en réseau VMkernel.
Vous pouvez vérifier la configuration réseau grâce à l'utilitaire vmkping.
L'adaptateur iSCSI matériel indépendant ne nécessite pas de mise en réseau VMkernel. Sur ce type d'adaptateur, vous pouvez configurer des paramètres réseau tels qu'une adresse IP, un masque de sous­réseau et une passerelle par défaut.
Tous les types d'adaptateurs iSCSI prennent en charge les protocoles IPv4 et IPv6.
Adaptateur iSCSI (vmhba) Description Mise en réseau VMkernel Paramètres réseau de l'adaptateur
Adaptateur iSCSI matériel indépendant
Adaptateur iSCSI logiciel Utilise des cartes NICs
Adaptateur iSCSI matériel dépendant
Adaptateur VMware iSER Utilise un adaptateur
Adaptateur tiers qui décharge la gestion de réseau et iSCSI de votre hôte.
standards pour connecter votre hôte à une cible iSCSI distante sur le réseau IP.
Adaptateur tiers qui dépend de la mise en réseau VMware, de la configuration iSCSI et des interfaces de gestion.
réseau compatible RDMA pour connecter votre hôte à une cible iSCSI distante.
Non requis. Pour plus d'informations, consultez
Modifier des paramètres réseau pour du matériel iSCSI.
Requis. Pour plus d'informations,
consultez Configuration du
réseau pour iSCSI et iSER.
Requis Pour plus d'informations,
consultez Configuration du
réseau pour iSCSI et iSER.
Requis Pour plus d'informations,
consultez Configuration du
réseau pour iSCSI et iSER.
S/O
S/O
S/O
Méthodes de détection
Pour tous les types d'adaptateurs iSCSI, vous devez définir l'adresse de détection dynamique ou l'adresse de détection statique. Vous devez également fournir le nom cible du système de stockage. Pour les adaptateurs de logiciels iSCSI et les adaptateurs de matériels iSCSI dépendants, l'adresse doit être accessible par un ping à l'aide de vmkping.
Reportez-vous à la section Configuration des adresses de découverte des adaptateurs iSCSI.
Authentification CHAP
Activez le paramètre CHAP sur l'initiateur et du côté du système de stockage. Une fois que l'authentification est activée, elle s'applique à toutes les cibles non encore détectées. Elle ne s'applique pas aux cibles déjà détectées.
Reportez-vous à la section Configurer des paramètres CHAP pour des adaptateurs iSCSI.
VMware, Inc. 83
Page 84
Stockage vSphere
Configurer des adaptateurs iSCSI matériel indépendants
Un adaptateur iSCSI matériel indépendant est un adaptateur tiers spécialisé capable d'accéder au stockage iSCSI via TCP/IP. Cet adaptateur iSCSI traite tout le traitement et toute la gestion iSCSI et réseau du système ESXi.
Prérequis
n
Vérifiez si l'adaptateur doit disposer d'une licence.
n
Installez l'adaptateur sur votre hôte ESXi.
Pour en savoir plus sur la gestion des licences, l'installation et les mises à jour de microprogrammes, reportez-vous à la documentation du fournisseur.
Le processus de configuration de l'adaptateur iSCSI matériel indépendant comprend les étapes suivantes.
Étape Description

Afficher des adaptateurs de matériel iSCSI dépendants

Modifier les propriétés générales des adaptateurs iSCSI ou iSER
Modifier des paramètres réseau pour du matériel iSCSI
Configurer la découverte dynamique ou statique pour iSCSI et iSER
Configurer CHAP pour un adaptateur iSCSI ou iSER
Activer les trames Jumbo pour l'iSCSI matériel indépendant
Affichez un adaptateur iSCSI matériel indépendant et vérifiez qu'il est correctement installé et prêt pour la configuration.
Au besoin, modifiez le nom et l'alias iSCSI par défaut attribués à vos adaptateurs iSCSI. Pour les adaptateurs iSCSI matériels indépendants, vous pouvez également modifier les paramètres IP par défaut.
Modifiez les paramètres réseau par défaut afin que l'adaptateur est configuré correctement pour le SAN iSCSI.
Configurez la découverte dynamique. Avec la découverte dynamique, chaque fois que l'initiateur contacte un système de stockage iSCSI donné, il envoie la demande SendTargets au système. Le système iSCSI répond en fournissant une liste de cibles disponibles à l'initiateur. Outre la méthode de découverte dynamique, vous pouvez utiliser la découverte statique et entrer manuellement des informations pour les cibles.
Si votre environnement iSCSI utilise le protocole CHAP (Challenge Handshake Authentication Protocol), configurez-le pour votre adaptateur.
Si votre environnement iSCSI prend en charge les trames Jumbo, activez-les pour l'adaptateur.
Acher des adaptateurs de matériel iSCSI dépendants
Affichez un adaptateur iSCSI matériel indépendant et vérifiez qu'il est correctement installé et prêt pour la configuration.
Après que vous avez installé un adaptateur iSCSI matériel indépendant sur un hôte, celui-ci apparaît dans la liste des adaptateurs de stockage disponibles pour la configuration. Vous pouvez consulter ses propriétés.
Prérequis
Privilège nécessaire :Hôte.Configuration.Configuration de la partition de stockage
VMware, Inc. 84
Page 85
Stockage vSphere
Procédure
1 Accédez à l'hôte.
2 Cliquez sur l'onglet Configurer.
3 Sous Stockage, cliquez sur Adaptateurs de stockage.
S'il est installé, l'adaptateur iSCSI matériel apparaît dans la liste des adaptateurs de stockage.
4 Sélectionnez l'adaptateur à afficher.
Les détails par défaut de l'adaptateur s'affichent.
Informations sur les adaptateurs Description
Modèle Modèle de l'adaptateur.
nom iSCSI Nom unique formé selon les normes iSCSI qui identifie l'adaptateur iSCSI. Vous pouvez
modifier le nom iSCSI.
Alias iSCSI Surnom utilisé au lieu du nom iSCSI. Vous pouvez modifier l'alias iSCSI.
Adresse IP Adresse assignée au HBA iSCSI.
Cibles Nombre de cibles auxquelles il a été accédé via l'adaptateur.
Périphériques Tous les périphériques de stockage ou LUN auxquels l'adaptateur peut accéder.
Chemins Tous les chemins que l'adaptateur l'utilise pour accéder aux périphériques de stockage.
Modifier des paramètres réseau pour du matériel iSCSI
Après avoir installé un adaptateur iSCSI matériel indépendant, vous pourrez avoir besoin de modifier ses paramètres réseau par défaut pour que l'adaptateur soit configuré correctement pour le SAN iSCSI.
Procédure
1 Accédez à l'hôte.
2 Cliquez sur l'onglet Configurer.
3 Sous Stockage, cliquez sur Adaptateurs de stockage, puis sélectionnez l'adaptateur (vmhba#) à
configurer.
4 Dans Détails de l'adaptateur, cliquez sur l'onglet Paramètres réseau, puis sur Modifier.
VMware, Inc. 85
Page 86
Stockage vSphere
5 Dans la section Paramètres IPv4, désactivez IPv6 ou sélectionnez la méthode utilisée pour obtenir
les adresses IP.
Remarque L'option DHCP automatique et l'option statique s'excluent mutuellement.
Option Description
Aucun paramètre IPv4 Désactivez IPv4.
Obtenir automatiquement les paramètres IPv4
Utiliser des paramètres IPv4 statiques Entrez l'adresse IP IPv4, le masque de sous-réseau et la passerelle par défaut de
Utilisez DHCP pour obtenir les paramètres IP.
l'adaptateur iSCSI.
6 Dans la section Paramètres IPv6, désactivez IPv6 ou sélectionnez une option appropriée pour obtenir
les adresses IPv6.
Remarque L'option automatique et l'option statique s'excluent mutuellement.
Option Description
Aucun paramètre IPv6 Désactivez IPv6.
Activer IPv6 Sélectionnez une option permettant d'obtenir les adresses IPv6.
Obtenir adresse IPv6 automatiquement via DHCP
Obtenez les adresses IPv6 automatiquement par Annonce de Routage
Remplacer l'adresse de lien local pour IPv6
Adresses IPv6 statiques a Cliquez sur Ajouter pour ajouter une nouvelle adresse IPv6.
Utilisez DHCP pour obtenir les adresses IPv6.
Utilisez l'annonce de routage pour obtenir les adresses IPv6.
Remplacez l'adresse IP de lien local en configurant une adresse IP statique.
b Entrez l'adresse IPv6 et la longueur du préfixe de sous-réseau, puis cliquez
sur OK.
7 Dans la section Paramètres DNS, fournissez l'adresse IP d'un serveur DNS préféré et celle d'un
serveur DNS secondaire.
Vous devez indiquer ces deux valeurs.
Configurer des adaptateurs iSCSI matériel dépendants
Un adaptateur iSCSI matériel dépendant est un adaptateur tiers qui dépend du réseau VMware et des interfaces de configuration et de gestion iSCSI fournies par VMware.
La carte réseau Broadcom 5709 est un exemple d'adaptateur iSCSI dépendant. Lors de l'installation sur un hôte, elle présente ses deux composants, un adaptateur réseau standard et un moteur iSCSI, au même port. Le moteur iSCSI apparaît sur la liste d'adaptateurs de stockage en tant qu'adaptateur iSCSI (vmhba).
VMware, Inc. 86
Page 87
Stockage vSphere
L'adaptateur iSCSI est activé par défaut. Pour le rendre fonctionnel, vous devez le connecter, via un adaptateur virtuel VMkernel (vmk), à un adaptateur réseau physique (vmnic) qui lui est associé. Vous pouvez alors configurer l'adaptateur iSCSI.
Après avoir configuré l'adaptateur iSCSI matériel dépendant, les données de découverte et d'authentification sont transmises à l'aide de la connexion réseau. Le trafic iSCSI est envoyé via le moteur iSCSI, en contournant le réseau.
La procédure complète d'installation et de configuration des adaptateurs iSCSI matériels dépendants comprend plusieurs étapes.
Étape Description
Affichage des adaptateurs iSCSI matériel dépendants
Modifier les propriétés générales des adaptateurs iSCSI ou iSER
Déterminer l'association entre les adaptateurs iSCSI et les adaptateurs réseau
Configurer la liaison de port pour les protocoles iSCSI ou iSER
Configurer la découverte dynamique ou statique pour iSCSI et iSER
Configurer CHAP pour un adaptateur iSCSI ou iSER
Configurer CHAP pour une cible Vous pouvez également configurer des informations d'identification CHAP différentes pour
Activer les trames Jumbo pour la mise en réseau
Affichez un adaptateur iSCSI matériel dépendant pour vérifier qu'il est correctement chargé.
Si nécessaire, modifiez le nom iSCSI par défaut et l'alias attribués à votre adaptateur.
Vous devez créer des connexions réseau pour lier des adaptateurs iSCSI dépendants et des adaptateurs réseau physiques. Pour pouvoir créer des connexions correctement, déterminez le nom de la carte réseau physique à laquelle l'adaptateur iSCSI matériel dépendant est associé.
Configurez les connexions pour le trafic entre le composant iSCSI et les adaptateurs réseau physiques. Le processus de configuration de ces connexions est appelé liaison de port.
Configurez la découverte dynamique. Avec la découverte dynamique, chaque fois que l'initiateur contacte un système de stockage iSCSI donné, il envoie la demande SendTargets au système. Le système iSCSI répond en fournissant une liste de cibles disponibles à l'initiateur. Outre la méthode de découverte dynamique, vous pouvez utiliser la découverte statique et entrer manuellement des informations pour les cibles.
Si votre environnement iSCSI utilise le protocole CHAP (Challenge Handshake Authentication Protocol), configurez-le pour votre adaptateur.
chaque adresse de découverte ou cible statique.
Si votre environnement iSCSI prend en charge les trames Jumbo, activez-les pour l'adaptateur.

Considérations sur l'iSCSI matériel dépendant

Lorsque vous utilisez des adaptateurs iSCSI matériel dépendants avec ESXi, certaines considérations s'appliquent.
n
Lorsque vous utilisez un adaptateur iSCSI matériel dépendant, le rapport de performances pour une carte réseau associée à l'adaptateur ne montre que peu ou pas d'activité, même lorsque le trafic iSCSI est intense. Cela est dû au contournement de la pile réseau habituelle par le trafic iSCSI.
n
Si vous utilisez un commutateur virtuel tiers tel que Cisco Nexus 1000V DVS, désactivez l'accrochage automatique. Utilisez l'accrochage manuel à la place, en veillant à connecter un adaptateur VMkernel (vmk) à une carte NIC physique adéquate (vmnic). Pour plus d'informations, consultez la documentation du fournisseur de commutateurs virtuels.
VMware, Inc. 87
Page 88
Stockage vSphere
n
L'adaptateur iSCSI Broadcom réassemble les données dans le matériel, dont l'espace tampon est limité. Lorsque vous utilisez l'adaptateur iSCSI Broadcom dans un réseau congestionné ou sous une lourde charge, activez le contrôle de flux pour éviter la dégradation des performances.
Le contrôle de flux gère la vitesse de transmission des données entre deux nœuds pour éviter qu'un expéditeur rapide ne dépasse un récepteur lent. Pour obtenir de meilleurs résultats, activez le contrôle du flux aux points d'extrémité du chemin E/S, au niveau des hôtes et des systèmes de stockage iSCSI.
Pour activer le contrôle de flux pour l'hôte, utilisez la commande esxcli system module parameters. Pour plus d'informations, consultez l'article de la base de connaissances VMware à l'adresse http://kb.vmware.com/kb/1013413
n
Les adaptateurs de matériel dépendants prennent en charge IPv4 et IPv6.
Achage des adaptateurs iSCSI matériel dépendants
Affichez un adaptateur iSCSI matériel dépendant pour vérifier qu'il est correctement chargé.
S'il est installé, l'adaptateur iSCSI matériel dépendant (vmhba#) figure dans la liste des adaptateurs de stockage sous, par exemple, la catégorie Adaptateur iSCSI Broadcom. Si l'adaptateur matériel dépendant ne figure pas dans la liste des adaptateurs de stockage, vérifiez s'il a besoin d'une licence. Consultez la documentation du fabricant.
Procédure
1 Accédez à l'hôte.
2 Cliquez sur l'onglet Configurer.
3 Sous Stockage, cliquez sur Adaptateurs de stockage.
4 Sélectionnez l'adaptateur (vmhba#) à afficher.
Les détails par défaut de l'adaptateur apparaissent, y compris le nom iSCSI, l'alias iSCSI et l'état.
Suivant
Bien que l'adaptateur iSCSI dépendant soit activé par défaut, pour le rendre fonctionnel, vous devez configurer les communications réseau pour le trafic iSCSI et lier l'adapateur à un port iSCSI VMkernel approprié. Définissez ensuite les adresses de découverte et les paramètres CHAP.

Déterminer l'association entre les adaptateurs iSCSI et les adaptateurs réseau

Vous pouvez créer des connexions réseau pour lier des adaptateurs iSCSI dépendants et des adaptateurs réseau physiques. Pour pouvoir créer des connexions correctement, vous devez déterminer le nom de la carte réseau physique avec laquelle l'adaptateur iSCSI matériel dépendant est associé.
Procédure
1 Accédez à l'hôte.
VMware, Inc. 88
Page 89
Stockage vSphere
2 Cliquez sur l'onglet Configurer.
3 Sous Stockage, cliquez sur Adaptateurs de stockage.
4 Sélectionnez l'adaptateur iSCSI (vmhba#) et cliquez sur l'onglet Liaison de port réseau sous Détails
adaptateur.
5 Cliquez sur Ajouter.
L'adaptateur réseau (vmnic#) qui correspond à l'adaptateur iSCSI dépendant est répertorié dans la colonne Adaptateurs réseau physiques.
Suivant
Si la colonne Adaptateur VMkernel est vide, créez un adaptateur VMkernel (vmk#) pour l'adaptateur réseau physique (vmnic#) puis reliez-les au matériel iSCSI dépendant associé. Reportez-vous à la section Configuration du réseau pour iSCSI et iSER.
Configurer l'adaptateur iSCSI logiciel
L'implémentation du protocole iSCSI logiciel vous permet d'utiliser des cartes réseau standard pour connecter votre hôte à une cible iSCSI distante sur le réseau IP. L'adaptateur iSCSI logiciel qui est intégré dans l'ESXi facilite cette connexion en communiquant avec les cartes NIC physiques par la pile réseau.
Considérez les points suivants lorsque vous utilisez les adaptateurs iSCSI logiciels :
n
Désignez un adaptateur réseau séparé pour iSCSI. N'utilisez pas d'iSCSI sur des adaptateurs 100Mbps ou plus lents.
n
Évitez de coder en dur le nom de l'adaptateur logiciel, vmhbaXX, dans les scripts. Il est possible que le nom change d'une version d'ESXi à l'autre, ce qui peut provoquer l'échec de vos scripts existants s'ils utilisent l'ancien nom codé en dur. Le changement de nom n'affecte pas le comportement de l'adaptateur iSCSI logiciel.
Le processus de configuration de l'adaptateur iSCSI logiciel comprend plusieurs étapes.
Étape Description
Activer ou désactiver l'adaptateur iSCSI logiciel
Modifier les propriétés générales des adaptateurs iSCSI ou iSER
Configurer la liaison de port pour les protocoles iSCSI ou iSER
Configurer la découverte dynamique ou statique pour iSCSI et iSER
Activez votre adaptateur iSCSI logiciel pour que l'hôte puisse l'utiliser pour accéder au stockage iSCSI.
Si nécessaire, modifiez le nom iSCSI par défaut et l'alias attribués à votre adaptateur.
Configurez les connexions pour le trafic entre le composant iSCSI et les adaptateurs réseau physiques. Le processus de configuration de ces connexions est appelé liaison de port.
Configurez la découverte dynamique. Avec la découverte dynamique, chaque fois que l'initiateur contacte un système de stockage iSCSI donné, il envoie la demande SendTargets au système. Le système iSCSI répond en fournissant une liste de cibles disponibles à l'initiateur. Outre la méthode de découverte dynamique, vous pouvez utiliser la découverte statique et entrer manuellement des informations pour les cibles.
VMware, Inc. 89
Page 90
Stockage vSphere
Étape Description
Configurer CHAP pour un adaptateur iSCSI ou iSER
Configurer CHAP pour une cible Vous pouvez également configurer des informations d'identification CHAP différentes
Activer les trames Jumbo pour la mise en réseau
Si votre environnement iSCSI utilise le protocole CHAP (Challenge Handshake Authentication Protocol), configurez-le pour votre adaptateur.
pour chaque adresse de découverte ou cible statique.
Si votre environnement iSCSI prend en charge les trames Jumbo, activez-les pour l'adaptateur.

Activer ou désactiver l'adaptateur iSCSI logiciel

Vous devez activer votre adaptateur iSCSI logiciel pour que l'hôte puisse l'utiliser pour accéder au stockage iSCSI. Vous pouvez désactiver l'adaptateur iSCSI logiciel si vous n'en avez pas besoin.
Vous ne pouvez activer qu'un seul adaptateur iSCSI logiciel.
Prérequis
Privilège nécessaire : Hôte.Configuration.Configuration de la partition de stockage
Remarque Si vous démarrez depuis iSCSI en utilisant l'adaptateur iSCSI logicielI, l'adaptateur est activé
et la configuration réseau est créée lors du premier démarrage. Si vous désactivez l'adaptateur, il est réactivé à chaque démarrage de l'hôte.
Procédure
1 Accédez à l'hôte.
2 Cliquez sur l'onglet Configurer.
VMware, Inc. 90
Page 91
Stockage vSphere
3 Activez ou désactivez l'adaptateur.
Option Description
Activer l'adaptateur iSCSI logiciel a Sous Stockage, cliquez sur Adaptateurs de stockage, puis cliquez sur
l'icône Ajouter.
b Sélectionnez Adaptateur iSCSI logiciel et confirmez que vous voulez
ajouter l'adaptateur.
L'adaptateur iSCSI logiciel (vmhba#) est activé et figure dans la liste des adaptateurs de stockage. Après avoir activé l'adaptateur, l'hôte lui assigne un nom iSCSI par défaut. Vous pouvez maintenant terminer la configuration de l'adaptateur.
Désactiver l'adaptateur iSCSI logiciel a Sous Stockage, cliquez sur Adaptateurs de stockage, puis sélectionnez
l'adaptateur (vmhba#) à désactiver.
b Cliquez sur l'onglet Propriétés. c Cliquez sur Désactiver et confirmez que vous souhaitez désactiver
l'adaptateur.
L'état indique que l'adaptateur est désactivé.
d Redémarrez l'hôte.
Après le redémarrage, l'adaptateur ne figure plus dans la liste des adaptateurs de stockage. Les périphériques de stockage associés à l'adaptateur deviennent inaccessibles. Vous pourrez activer l'adaptateur plus tard.
Configurer les adaptateurs iSER
Configurez le protocole iSER sur votre hôte ESXi, pour que l'infrastructure iSCSI située sur l'hôte puisse utiliser le transport d'accès direct à la mémoire à distance (RDMA) au lieu du protocole TCP/IP.
Lors de l'installation sur l'hôte, l'adaptateur compatible RDMA s'affiche dans vCenter Server comme un adaptateur réseau (vmnic).
Pour rendre l'adaptateur fonctionnel, vous devez activer le composant iSER VMware et connecter l'adaptateur iSER à la carte réseau compatible RDMA. Vous pouvez ensuite configurer les propriétés typiques pour l'adaptateur iSER, comme les cibles et le CHAP.
La procédure complète d'installation et de configuration des adaptateurs iSER comprend plusieurs étapes.
Étape Description
Activer l'adaptateur iSER VMware Utilisez la commande esxcli pour activer l'adaptateur iSER VMware.
Modifier les propriétés générales des adaptateurs iSCSI ou iSER
Configurer la liaison de port pour les protocoles iSCSI ou iSER
Si nécessaire, modifiez le nom et l'alias attribués par défaut à votre adaptateur.
Vous devez créer des connexions réseau pour lier le moteur iSER et l'adaptateur réseau compatible RDMA. Le processus de configuration de ces connexions est appelé liaison de port.
Remarque iSER ne prend pas en charge l'association de cartes réseau. Lors de la
configuration de la liaison de port, utilisez un seul adaptateur RDMA par vSwitch.
VMware, Inc. 91
Page 92
Stockage vSphere
Étape Description
Configurer la découverte dynamique ou statique pour iSCSI et iSER
Configurer CHAP pour un adaptateur iSCSI ou iSER
Configurer CHAP pour une cible Vous pouvez également configurer des informations d'identification CHAP différentes pour
Activer les trames Jumbo pour la mise en réseau
Configurez la découverte dynamique. Avec la découverte dynamique, chaque fois que l'initiateur contacte un système de stockage iSER donné, il envoie la demande SendTargets au système. Le système iSER répond en fournissant une liste de cibles disponibles à l'initiateur. Outre la méthode de découverte dynamique, vous pouvez utiliser la découverte statique et entrer manuellement des informations pour les cibles.
Si votre environnement utilise le protocole CHAP, configurez-le pour votre adaptateur.
chaque adresse de découverte ou cible statique.
Si votre environnement prend en charge les trames Jumbo, activez-les pour l'adaptateur.

Activer l'adaptateur iSER VMware

Utilisez la commande esxcli pour activer l'adaptateur iSER VMware.
Prérequis
n
Assurez-vous que votre stockage iSCSI prend en charge le protocole iSER.
n
Installez l'adaptateur compatible RDMA sur votre hôte ESXi.
n
Utilisez le commutateur compatible RDMA.
n
Activez le contrôle de flux sur l'hôte ESXi. Pour activer le contrôle de flux pour l'hôte, utilisez la commande esxcli system module parameters. Pour de plus amples détails, consultez l'article de la base de connaissances VMware à http://kb.vmware.com/kb/1013413.
n
Assurez-vous de configurer des ports de commutateur RDMA pour créer des connexions sans perte de données entre l'initiateur iSER et la cible.
Procédure
1 Utilisez le service ESXi Shell ou vSphere CLI pour activer l'adaptateur iSER :
esxcli rdma iser add
2 Vérifiez que l'adaptateur iSER VMware a été ajouté :
a Accédez à l'hôte.
b Cliquez sur l'onglet Configurer.
c Sous Stockage, cliquez sur Adaptateurs de stockage et examinez la liste des adaptateurs.
Si vous avez activé l'adaptateur, l'adaptateur (vmhba#) s'affiche dans la liste sous la catégorie Adaptateur iSCSI sur RDMA (iSER) VMware.
VMware, Inc. 92
Page 93
Stockage vSphere
Modifier les propriétés générales des adaptateurs iSCSI ou iSER
Vous pouvez modifier le nom et l'alias par défaut attribués à vos adaptateurs iSCSI ou iSER. Pour les adaptateurs iSCSI matériels indépendants, vous pouvez également modifier les paramètres IP par défaut.
Important Lorsque vous modifiez des propriétés par défaut de vos adaptateurs, assurez-vous d'utiliser
les formats appropriés pour leurs noms et leurs adresses IP.
Prérequis
Privilège requis : Hôte.Configuration.Configuration de la partition de stockage
Procédure
1 Accédez à l'hôte.
2 Cliquez sur l'onglet Configurer.
3 Sous Stockage, cliquez sur Adaptateurs de stockage, puis sélectionnez l'adaptateur (vmhba#) à
configurer.
4 Cliquez sur l'onglet Propriétés, puis sur Modifier dans le panneau Général.
5 (Facultatif) Modifiez les propriétés générales suivantes.
Option Description
nom iSCSI Nom unique formé selon les normes iSCSI qui identifie l'adaptateur iSCSI. Si
vous modifiez le nom, assurez-vous que le nom entré est unique dans le monde entier et correctement formaté. Sinon, certains périphériques de stockage risquent de ne pas reconnaître l'adaptateur iSCSI.
Alias iSCSI Nom convivial que vous utilisez à la place du nom iSCSI.
Si vous modifiez le nom iSCSI, il sera utilisé pour de nouvelles sessions iSCSI. Pour les sessions existantes, les nouveaux paramètres ne sont utilisés qu'une fois que vous vous êtes déconnecté, puis reconnecté.
Configuration du réseau pour iSCSI et iSER
Certains types d'adaptateurs iSCSI dépendent de la mise en réseau VMkernel. Il s'agit notamment des adaptateurs iSCSI logiciels, des adaptateurs iSCSI matériels dépendants et des adaptateurs iSER (VMware iSCSI sur RDMA). Si votre environnement inclut l'un de ces adaptateurs, vous devez configurer les connexions pour le trafic entre le composant iSCSI ou iSER et les adaptateurs réseau physiques.
La configuration de la connexion réseau implique de créer un adaptateur virtuel VMkernel pour chaque adaptateur réseau physique, d'utiliser le mappage 1:1 entre chaque adaptateur réseau physique et virtuel, puis d'associer l'adaptateur VMkernel à un adaptateur iSCSI ou iSER approprié. Ce processus porte le nom de liaison de port.
VMware, Inc. 93
Page 94
vSwitch
vmhba
adaptateur iSCSI ou iSER
vmk
adaptateur VMkernel
vmnic
carte réseau physique
réseau IP
stockage iSCSI ou iSER
Hôte
Stockage vSphere
Lorsque vous configurez la liaison de port, suivez ces règles :
n
Vous pouvez connecter l'adaptateur iSCSI logiciel n'importe quelle carte réseau physique disponible sur votre hôte.
n
Les adaptateurs iSCSI dépendants doivent uniquement être connectés à leurs propres cartes réseau physiques.
n
Vous devez connecter l'adaptateur iSER uniquement à l'adaptateur réseau compatible RDMA.
Pour des considérations spécifiques sur la manière d'utiliser les connections du réseau avec un adaptateur iSCSI logiciel, reportez-vous à l'article de la base de connaissances VMware à l'adresse
http://kb.vmware.com/kb/2038869.
Multiples adaptateurs réseau dans une configuration iSCSI ou iSER
Si l'hôte dispose de plusieurs adaptateurs réseau physiques pour iSCSI ou iSER, vous pouvez utiliser les adaptateurs pour la gestion multivoie.
Vous pouvez utiliser plusieurs adaptateurs physiques dans une configuration à commutateur unique ou à commutateurs multiples.
Dans une configuration à commutateurs multiples, vous désignez un commutateur vSphere distinct pour chaque paire d'adaptateurs virtuel-physique.
VMware, Inc. 94
Page 95
Adaptateurs VMkernel
Adaptateurs physiques
vmnic1
iSCSI1
vmk1
vSwitch1
Adaptateurs VMkernel
Adaptateurs physiques
vmnic2
iSCSI2
vmk2
vSwitch2
Adaptateurs VMkernel
Adaptateurs physiques
vmnic2
vmnic1
iSCSI2
vmk2
iSCSI1
vmk1
vSwitch1
Stockage vSphere
Figure 111. Mappage d'adaptateurs 1:1 sur des commutateurs standard vSphere distincts
Une autre méthode consiste à ajouter toutes les cartes réseau et tous les adaptateurs VMkernel à un seul commutateur vSphere. Le cas échéant, vous devez annuler la configuration du réseau par défaut et vous assurer que chaque adaptateur VMkernel correspond uniquement à un seul adaptateur physique actif.
Figure 112. Mappage d'adaptateurs 1:1 sur un seul commutateur standard vSphere
Les exemples suivants montrent des configurations qui utilisent des commutateurs vSphere standard, mais vous pouvez également utiliser des commutateurs distribués. Pour plus d'informations sur vSphere Distributed Switches, consultez la documentation Mise en réseau vSphere.
Les considérations suivantes s'appliquent lorsque vous utilisez plusieurs adaptateurs physiques :
n
Les adaptateurs réseau physiques doivent se trouver sur le même sous-réseau que le système de stockage auquel ils se connectent.
n
Si vous utilisez des commutateurs vSphere distincts, vous devez les connecter à différents sous­réseaux IP. Dans le cas contraire, les adaptateurs VMkernel risquent de connaître des problèmes de connectivité et l'hôte ne parvient pas à détecter les LUN.
n
VMware, Inc. 95
La configuration à commutateur unique n'est pas appropriée pour iSER, car iSER ne prend pas en charge l'association de cartes réseau.
Page 96
Stockage vSphere
N'utilisez pas la liaison de port si l'une des conditions suivantes est remplie :
n
Les ports iSCSI cibles de la baie se trouvent sur un domaine de diffusion et un sous-réseau IP différents.
n
Les adaptateurs VMkernel utilisés pour la connectivité iSCSI se trouvent sur différents domaines de diffusion ou sous-réseaux IP, ou utilisent différents commutateurs virtuels.
Recommandations pour la configuration de la mise en réseau avec un iSCSI logiciel
Lorsque vous configurez la mise en réseau avec un iSCSI logiciel, vous devez tenir compte de plusieurs recommandations.
Liaison de port iSCSI logicielle
Vous pouvez lier l'initiateur iSCSI logiciel sur l'hôte ESXi à un ou plusieurs ports VMkernel afin que le trafic iSCSI emprunte toujours exclusivement les ports liés. Lorsque la liaison de port est configurée, l'initiateur iSCSI crée des sessions iSCSI allant de tous les ports liés vers tous les portails cibles configurés.
Consultez les exemples suivants.
Ports VMkernel Portails cibles Sessions iSCSI
2 ports VMkernel liés 2 portails cibles 4 sessions (2 x 2)
4 ports VMkernel liés 1 portail cible 4 sessions (4 x 1)
2 ports VMkernel liés 4 portails cibles 8 sessions (2 x 4)
Remarque Assurez-vous que tous les portails cibles peuvent être atteints à partir de tous les ports
VMkernel lorsque la liaison de port est utilisée, sans quoi les sessions iSCSI risquent de ne pas être créées. Il en résulte que l'opération de réanalyse peut prendre plus de temps que prévu.
Absence de liaison de port
Si vous n'utilisez pas la liaison de port, la couche de mise en réseau ESXi sélectionne le meilleur port VMkernel en fonction de sa table de routage. L'hôte utilise le port pour créer une session iSCSI avec le portail cible. En l'absence de liaison de port, une seule session est créée pour chaque portail cible.
Consultez les exemples suivants.
Ports VMkernel Portails cibles Sessions iSCSI
2 ports VMkernel non liés 2 portails cibles 2 sessions
4 ports VMkernel non liés 1 portail cible 1 session
2 ports VMkernel non liés 4 portails cibles 4 sessions
Chemins multiples avec iSCSI logiciel
Exemple 1. Chemins multiples vers une cible iSCSI avec un portail réseau unique
VMware, Inc. 96
Page 97
192.168.0.1/24
vmk1
Cible unique :
192.168.0.10/24
vmnic1
192.168.0.2/24
vmk2
vmnic2
192.168.0.3/24
vmk3
vmnic3
192.168.0.4/24
vmk2
vmnic4
Réseau
IP
Même sous-réseau
192.168.1.1/24
vmk1 SP/Contrôleur A :
Port 0 : 192.168.1.10/24
Port 1 : 192.168.2.10/24
SP/Contrôleur B :
Port 0 : 192.168.1.11/24
Port 1 : 192.168.2.11/24
vmnic1
192.168.2.1/24
vmk2
vmnic2
Réseau
IP
Stockage vSphere
Si votre cible n'a qu'un portail réseau, vous pouvez créer plusieurs chemins vers la cible en ajoutant plusieurs ports VMkernel à votre hôte ESXi et en les liant à l'initiateur iSCSI.
Dans cet exemple, tous les ports initiateurs et le portail cible sont configurés sur le même sous-réseau. La cible peut être atteinte par l'intermédiaire de tous les ports liés. Vous disposez de quatre ports VMkernel et d'un portail cible, de sorte que quatre chemins en tout sont créés.
Sans la liaison de port, un seul chemin est créé.
Exemple 2. Chemins multiples avec des ports VMkernel sur différents sous-réseaux
Vous pouvez créer plusieurs chemins en configurant plusieurs ports et portails cibles sur des sous­réseaux IP différents. En maintenant le port initiateur et le port cible sur des sous-réseaux différents, vous pouvez obliger ESXi à créer des chemins passant par des ports spécifiques. Dans cette configuration, vous n'utilisez pas la liaison de port, car celle-ci nécessite que tous les ports initiateurs et cibles se trouvent sur le même sous-réseau.
VMware, Inc. 97
Page 98
192.168.1.1/24
vmk1
SP/Contrôleur B Port 0
10.115.179.2/24
SP/Contrôleur A Port 0
10.115.179.1/24
vmnic1
vmnic2
192.168.1.2/24
vmk2
Réseau
IP
N1 N2
Stockage vSphere
ESXi sélectionne vmk1 lors de la connexion au Port 0 du Contrôleur A et du Contrôleur B, car ces trois ports se trouvent tous sur le même sous-réseau. De même, vmk2 est sélectionné lors de la connexion au Port 1 du Contrôleur A et du Contrôleur B. Dans cette configuration, vous pouvez utiliser l'association de cartes réseau.
En tout, quatre chemins sont créés.
Chemins Description
Chemin 1 vmk1 et Port0 du Contrôleur A
Chemin 2 vmk1 et Port0 du Contrôleur B
Chemin 3 vmk2 et Port1 du Contrôleur A
Chemin 4 vmk2 et Port2 du Contrôleur B
Routage avec iSCSI logiciel
Vous pouvez utiliser la commande esxcli pour ajouter des routes statiques pour votre trafic iSCSI. Une fois que vous avez configuré des routes statiques, les ports initiateur et cible sur différents sous-réseaux peuvent communiquer entre eux.
Exemple 1. Utilisation de routes statiques avec liaison de port
Dans cet exemple, vous maintenez tous les ports vmkernel liés dans un sous-réseau (N1) et vous configurez tous les portails cibles dans un autre sous-réseau(N2). Vous pouvez alors ajouter une route statique pour le sous-réseau cible (N2).
Utilisez la commande suivante :
# esxcli network ip route ipv4 add -gateway 192.168.1.253 -network 10.115.179.0/24
Exemple 2. Utilisation de routes statiques pour créer plusieurs chemins
Dans cette configuration, vous utilisez le routage statique lorsque vous employez des sous-réseaux différents. La liaison de port ne peut pas être utilisée avec cette configuration.
VMware, Inc. 98
Page 99
vmnic1
vmnic2
192.168.1.1/24
vmk1
SP/Contrôleur A Port 0
0.115.179.1/24
SP/Contrôleur A Port 0
0.115.155.1/24
192.168.2.1/24
vmk2
Réseau
IP
Stockage vSphere
Vous configurez vmk1 et vmk2 dans des sous-réseaux différents, à savoir 192.168.1.0 et 192.168.2.0. Vos portails cibles se trouvent également dans des sous-réseaux distincts, 10.115.155.0 et 10.155.179.0.
Vous pouvez ajouter la route statique vers 10.115.155.0 à partir de vmk1. Assurez-vous que la passerelle peut être atteinte à partir de vmk1.
# esxcli network ip route ipv4 add -gateway 192.168.1.253 -network 10.115.155.0/24
Vous ajoutez ensuite la route statique vers 10.115.179.0 à partir de vmk2. Assurez-vous que la passerelle peut être atteinte à partir de vmk2.
# esxcli network ip route ipv4 add -gateway 192.168.2.253 -network 10.115.179.0/24
Lors d'une connexion à l'aide du Port 0 du Contrôleur A, vmk1 est utilisé.
Lors d'une connexion à l'aide du Port 0 du Contrôleur B, vmk2 est utilisé.
Exemple 3. Routage avec une passerelle distincte par port vmkernel
À partir de vSphere 6.5, vous pouvez configurer une passerelle distincte par port VMkernel. Si vous utilisez le DHCP pour obtenir la configuration IP d'un port VMkernel, il est également possible d'obtenir des informations sur la passerelle à l'aide du DHCP.
Pour afficher les informations sur la passerelle par port VMkernel, utilisez la commande suivante :
# esxcli network ip interface ipv4 address list
Name IPv4 Address IPv4 Netmask IPv4 Broadcast Address Type Gateway DHCP DNS
---- -------------- ------------- -------------- ------------ -------------- --------
vmk0 10.115.155.122 255.255.252.0 10.115.155.255 DHCP 10.115.155.253 true
vmk1 10.115.179.209 255.255.252.0 10.115.179.255 DHCP 10.115.179.253 true
vmk2 10.115.179.146 255.255.252.0 10.115.179.255 DHCP 10.115.179.253 true
Lorsque vous disposez de passerelles distinctes pour chaque port VMkernel, vous utilisez la liaison de port pour atteindre des cibles dans différents sous-réseaux.
Configurer la liaison de port pour les protocoles iSCSI ou iSER
La liaison de port crée des connexions pour le trafic entre certains types d'adaptateurs iSCSI et iSER et les adaptateurs réseau physiques.
VMware, Inc. 99
Page 100
Stockage vSphere
Les types d'adaptateurs suivants nécessitent la liaison de port :
n
Adaptateur iSCSI logiciel
n
Adaptateur iSCSI matériel dépendant
n
Adaptateur iSCSI sur RDMA (iSER) VMware
Les tâches suivantes concernent la configuration du réseau avec un commutateur vSphere Standard.
Vous pouvez également utiliser VMware vSphere® Distributed Switch™ et VMware NSX® Virtual Switch™ dans la configuration de liaison de port. Pour obtenir des informations sur les commutateurs virtuels NSX, reportez-vous à la documentation sur VMware NSX.
Remarque iSER ne prend pas en charge l'association de cartes réseau. Lors de la configuration de la
liaison de port pour le protocole iSER, utilisez un seul adaptateur RDMA par vSwitch.
Si vous utilisez vSphere Distributed Switch avec plusieurs ports de liaison montante, pour l'association de ports, créez un groupe de ports distribués distinct pour chaque carte NIC physique. Réglez ensuite la politique de groupes de façon à ce que chaque groupe de ports distribués n'ait qu'un seul port de liaison montante actif. Pour obtenir des informations détaillées sur les instances de Distributed Switch, reportez­vous à la documentation sur Mise en réseau vSphere.
Procédure
1 Créer un adaptateur VMkernel unique pour iSCSI
Connectez l'adaptateur VMkernel, qui exécute des services pour le stockage iSCSI, à un adaptateur réseau physique.
2 Créer d'autres adaptateurs VMkernel pour iSCSI
Utilisez cette tâche si vous avez deux adaptateurs réseau physiques ou plus pour iSCSI. Vous devez connecter tous vos adaptateurs physiques à un commutateur vSphere standard unique. Cette tâche vous permet d'ajouter les adaptateurs physiques et les adaptateurs VMkernel à un commutateur standard vSphere existant.
3 Modifier la stratégie réseau pour iSCSI
Si vous utilisez un seul commutateur vSphere Standard pour connecter plusieurs adaptateurs VMkernel à plusieurs adaptateurs réseau, configurez la stratégie réseau pour cette configuration. Une seule carte réseau physique doit être active pour chaque adaptateur VMkernel.
4 Lier iSCSI et des adaptateurs VMkernel
Liez un adaptateur iSCSI à un adaptateur VMkernel.
5 Vérifier les détails de liaison de port
Vérifier les détails de mise en réseau de l'adaptateur VMkernel lié à l'adaptateur iSCSI.
Créer un adaptateur VMkernel unique pour iSCSI
Connectez l'adaptateur VMkernel, qui exécute des services pour le stockage iSCSI, à un adaptateur réseau physique.
VMware, Inc. 100
Loading...