Dell PowerVault MD3600i, PowerVault MD3620i User Manual [de]

Page 1
Dell PowerVault MD3600i
und MD3620i Speicherarrays
mit Microsoft Windows Server
Failover-Clustern
Hardwareinstallations-
und Fehlerbehebungs-
handbuch
Page 2
Anmerkungen und Vorsichtshinweise
aufmerksam, mit denen Sie den Computer besser einsetzen können.
VORSICHTSHINWEIS: Ein VORSICHTSHINWEIS weist auf mögliche
Gefahrenquellen hin, die Hardwareschäden oder Datenverlust zur Folge haben können, wenn die Anweisungen nicht befolgt werden.
__________________
Irrtümer und technische Änderungen vorbehalten. © 2011 Dell Inc. Alle Rechte vorbehalten.
Die Vervielfältigung oder Wiedergabe dieser Materialien in jeglicher Weise ohne vorherige schriftliche Genehmigung von Dell Inc. ist strengstens untersagt.
In diesem Text verwendete Marken: Dell™, das DELL Logo, PowerEdge™ und PowerVault™ sind Marken von Dell Inc. Microsoft Microsoft Corporation in den USA und/oder anderen Ländern.
Alle anderen in dieser Publikation möglicherweise verwendete Marken und Handelsbezeichnungen beziehen sich entweder auf die entsprechenden Hersteller und Firmen oder auf deren Produkte. Dell Inc. erhebt keinen Anspruch auf Markenzeichen und Handelsbezeichnungen mit Ausnahme der eigenen.
Februar 2011 Rev. A00
®
, Windows® und Windows Server® sind eingetragene Marken von
Page 3

Inhalt

1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . 5
Übersicht. . . . . . . . . . . . . . . . . . . . . . . . . . 5
Clusterlösung . . . . . . . . . . . . . . . . . . . . . . . 6
Anforderungen für den Cluster
Clusterknoten Clusterspeicher
Cluster-Speicherverwaltungssoftware. . . . . . . 10
Unterstützte Clusterkonfigurationen . . . . . . . . . . 12
Weitere nützliche Dokumente
. . . . . . . . . . . . . . . . . . . . . 7
. . . . . . . . . . . . . . . . . . . . 9
. . . . . . . . . . . . . . 6
. . . . . . . . . . . . . . 14
2 Verkabelung der Clusterhardware . . . . . 17
Verkabeln von Maus, Tastatur und Bildschirm . . . . . 17
Verkabeln der Netzteile . . . . . . . . . . . . . . . . . 17
Verkabeln des öffentlichen und privaten Netzwerks
Verkabeln des öffentlichen Netzwerks Verkabeln des privaten Netzwerks Verwenden von Netzwerkadaptern mit zwei Ports
für das private Netzwerk . . . . . . . . . . . . . . 21
NIC-Teaming
. . . . . . . . . . . . . . . . . . . . 22
. . . . . . . 20
. . . . . . . . . 20
. . 19
Inhalt 3
Page 4
Verkabeln der Speichersysteme . . . . . . . . . . . . . 22
Verkabeln des Clusters in einer Direct-Attach-Konfiguration
Verkabeln des Clusters in einer
Network-Attach-Konfiguration . . . . . . . . . . . 25
Verbinden eines PowerEdge-Clusters mit mehreren PowerVault MD3600i /
MD3620i-Speichersystemen . . . . . . . . . . . . 28
. . . . . . . . . . . . 22
3 Vorbereiten der Systeme
für den Clusterbetrieb . . . . . . . . . . . . . . . 31
Überblick über die Clusterkonfiguration . . . . . . . . 31
Installationsübersicht
Installation der iSCSI-NICs
Konfigurieren von iSCSI-NICs . . . . . . . . . . . 35
Installation des Microsoft iSCSI-Software-Initiators
Installation der Speicherverwaltungssoftware . . 36 Konfiguration des gemeinsamen
Speichersystems
Hilfsmittel zur Fehlerbehebung . . . . . . . . . . . 60
Konfigurieren eines Failover-Clusters
. . . . . . . . . . . . . . . . . . 33
. . . . . . . . . . . . . 34
. . . . . . . . . . . . . . 36
. . . . . . . . . . . . . . . . . . 38
. . . . . . . 72
A Fehlerbehebung . . . . . . . . . . . . . . . . . . . 73
B Cluster-Datenformular. . . . . . . . . . . . . . 79
C iSCSI-Konfigurationsarbeitsblatt . . . . . 81
IPv4-Einstellungen . . . . . . . . . . . . . . . . . 81
IPv6-Einstellungen . . . . . . . . . . . . . . . . . 82
Stichwortverzeichnis . . . . . . . . . . . . . . . . . . 85
4 Inhalt
Page 5
1

Einführung

Dieses Dokument enthält Informationen über die Installation und Verwaltung der Clusterlösung mit den Speichersystemen Dell PowerVault MD3600i und MD3620i. Es richtet sich an erfahrene IT-Fachleute, die die Clusterlösung konfigurieren, und an geschulte Service-Techniker, die Upgrade- und Wartungsmaßnahmen durchführen. Zudem ist sie auch für Leser gedacht, die sich mit der Clustertechnologie vertraut machen möchten.

Übersicht

Die Microsoft Windows Server Failover-Clusterunterstützung bietet erhöhte Verfügbarkeit für die in einem Cluster betriebenen Anwendungen und Dienste. Dies wird durch die Kombination spezieller Hardware- und Soft­warekomponenten erreicht. Der Aufbau des Failover-Clusters reduziert das Risiko, dass die im Cluster betriebenen Anwendungen und Dienste durch den Ausfall einer einzigen Systemkomponente nicht mehr verfügbar sind. Komponenten wie System- und Speichernetzteile, Verbindungen zwischen den Knoten und dem/den Speicherarray(s), Verbindungen zu Clientsystemen oder anderen Systemen in einer mehrschichtigen Enterprise-Anwendungs­architektur sollten in einem Cluster möglichst redundant vorhanden sein.
Dieses Handbuch erläutert die Konfiguration der iSCSI-Speicherarrays Dell MD3600i und MD3620i für den Betrieb mit einem oder mehreren Windows Server Failover-Clustern. Es enthält Informationen und spezifische Konfigurationsschritte, die es Ihnen ermöglichen, den gemeinsamen Speicher für Ihren Cluster zu aktivieren.
Weitere Informationen zur Bereitstellung eines Clusters finden Sie im
Installations- und Fehlerbehebungshandbuch für Dell Failover-Cluster unter Microsoft Windows Server unter support.dell.com/manuals.
ANMERKUNG: Im gesamten Dokument ist mit der Bezeichnung Windows Server
2008 das Betriebssystem Windows Server 2008 x64 Enterprise Edition oder Windows Server 2008 R2 x64 Enterprise Edition gemeint.
Eine Liste der empfohlenen Betriebssysteme, Hardwarekomponenten und Treiber- oder Firmwareversionen für Dell Windows Server Failover-Cluster finden Sie in den Support-Matrizen für Dell Clusterkonfigurationen unter dell.com/ha.
Einführung 5
Page 6

Clusterlösung

Ein iSCSI-Cluster besteht aus mindestens zwei und höchstens 16 Knoten und bietet die folgenden Funktionen:
iSCSI-Technologie (iSCSI = Internet Small Computer System Interface)
Hohe Verfügbarkeit der Systemdienste und Ressourcen für Netzwerkclients
Redundante Pfade zum gemeinsamen Speicher
Ausfallwiederherstellung für Anwendungen und Dienste
Flexible Wartungsmerkmale, mit denen einzelne Clusterknoten repariert, gewartet oder aufgerüstet werden können, ohne den gesamten Cluster vom Netz nehmen zu müssen.
Die Implementierung von iSCSI-Technologie in einem Cluster bietet folgende Vorteile:
Flexibilität
und Speichersysteme an unterschiedlichen Standorten befinden.
Verfügbarkeit
und sorgen so für alternative Datenwege und größere Verfügbarkeit für die Clients.
Anschlussmöglichkeiten
als SCSI. Da iSCSI-Geräte hot-swap-fähig sind, lassen sich Elemente an den Knoten hinzufügen oder entfernen, ohne den Cluster abschalten zu müssen.
– iSCSI basiert auf TCP/IP. Daher können sich Clusterknoten
– iSCSI-Komponenten enthalten redundante Verbindungen
– iSCSI ermöglicht mehr Geräteverbindungen

Anforderungen für den Cluster

Im Cluster werden die folgenden Komponenten benötigt:
Server (Clusterknoten)
Speicher und Speicherverwaltungssoftware
6 Einführung
Page 7

Clusterknoten

Tabelle 1-1 enthält die Hardwareanforderungen für die Clusterknoten.
Tabelle 1-1. Anforderungen für Clusterknoten
Komponente Mindestanforderung
Prozessor Mindestens ein Prozessor für jeden Clusterknoten. Clusterknoten Es werden mindestens zwei identische PowerEdge-Systeme
benötigt. RAM Mindestens 1 GB RAM auf jedem Clusterknoten. iSCSI-Initiator Microsoft iSCSI-Initiatortreiber und Microsoft
iSCSIInitiatordienst Netzwerkadapter
(NICs) für den iSCSI-Zugriff
Zwei iSCSI-NICs oder NIC-Ports pro Knoten. Setzen Sie die
NICs in getrennte PCI-Busse ein, um Verfügbarkeit und Leistung
zu erhöhen. Für iSCSI-Datenverkehr werden auch TOE-NICs
(TOE = TCP/IP Offload Engine) unterstützt. Eine Liste der
empfohlenen Betriebssysteme, Hardwarekomponenten und
Treiber- oder Firmwareversionen für Dell Windows Server
Failover-Cluster finden Sie in den Support-Matrizen für Dell
Clusterkonfigurationen unter dell.com/ha.
Einführung 7
Page 8
Tabelle 1-1. Anforderungen für Clusterknoten
Komponente Mindestanforderung
NICs (öffentlich und privat)
Mindestens zwei Netzwerkadapter (NICs): einen Netzwerk­adapter für das öffentliche Netzwerk und einen weiteren für das private Netzwerk.
ANMERKUNG: Es wird empfohlen, in jedem öffentlichen Netzwerk
Netzwerkadapter vom gleichen Typ einzusetzen und auch in jedem privaten Netzwerk Netzwerkadapter vom gleichen Typ zu verwenden.
Interner Daten­trägercontroller
Ein mit den internen Datenträgern verbundener Controller pro Knoten. Es kann jeder unterstützte RAID-Controller (Redundant Array of Independent Disk) bzw. Laufwerkcontroller verwendet werden.
Für Spiegelung (RAID 1) sind zwei und für Disk-Striping mit Parität (RAID 5) mindestens drei physische Datenträger erforderlich.
ANMERKUNG: Es wird empfohlen, für die internen Laufwerke
hardwarebasiertes RAID oder softwarebasierte Festplatten­Fehlertoleranz zu verwenden.
(fortgesetzt)
8 Einführung
Page 9

Clusterspeicher

In Tabelle 1-2 sind die Konfigurationsanforderungen für das gemeinsame Speichersystem aufgeführt.
Tabelle 1-2. Anforderungen für Clusterspeicher
Hardwarekomponenten Mindestanforderung
Unterstützte Speichersysteme
Switch und Kabel 10GBase-T-fähige Infrastruktur mit Kabeln der Kategorie 6
Anforderungen für Stromversorgung und Kühlung
Physische Datenträger Mindestens zwei physische Datenträger im PowerVault
Mehrere Cluster und eigenständige Systeme
Ein Dell PowerVault MD3600i oder MD3620i RAID-Gehäuse. Jegliche Kombination von bis zu sieben Dell PowerVault
MD1200 und/oder MD1220-Erweiterungsgehäusen.
ANMERKUNG: Die Anzahl der Festplatten darf 96 nicht
übersteigen.
oder höher, 10GBase-T-fähigen Patch-Panels und Switches. Vorhandene 1GBase-T-Infrastrukturen können
entweder durch einen 10GBase-T-Switch, der das 10GBaseT-Netzwerk verbindet, oder durch manuelle Konfiguration der iSCSI-Ports für eine Ausführung mit 1GBase-T-Geschwindigkeit verwendet werden.
Zwei integrierte, hot-swap-fähige Netzteil-/Lüftermodule.
MD3600i/MD3620i-RAID-Gehäuse. Bei einer Switch-Attach-Konfiguration können ein oder
mehrere PowerVault MD3600i / MD3620i-Systeme von Clustern und Einzelsystemen gemeinsam genutzt werden.
ANMERKUNG: RAID 0 und unabhängige Datenträger sind möglich, werden aber
für ein hochverfügbares System nicht empfohlen, da bei Laufwerkausfall keine Datenredundanz besteht.
Einführung 9
Page 10

Cluster-Speicherverwaltungssoftware

Dell PowerVault Modular Disk Storage Manager
Die Software läuft auf der Verwaltungsstation oder einem beliebigen mit dem Speicherarray verbundenen Hostsystem, um die zentrale Verwaltung der PowerVault MD3600i- und MD3620i-RAID-Gehäuse zu gewährleisten. Der Dell PowerVault Modular Disk Storage Manager (MDSM) kann verwendet werden, um Aufgaben wie das Erstellen von Datenträgergruppen, das Erstellen und Zuweisen von virtuellen Laufwerken, das Überwachen des Gehäusestatus und das Herunterladen von Firmware durchzuführen.
MDSM ist eine grafische Benutzerschnittstelle (GUI) mit assistentengesteuerten Tools und einer aufgabenbasierten Struktur. Die Anwendung erfüllt folgende Funktionen:
Sie erleichtert die Installation, Konfiguration und Verwaltung des Speicherarrays und die Durchführung von Diagnosemaßnahmen.
Sie enthält einen Ereignisüberwachungsdienst, der Warnmeldungen sendet, wenn ein kritisches Problem im Speicherarray aufgetreten ist.
Sie stellt eine Befehlszeilenschnittstelle (Command Line Interface, CLI) bereit, damit Befehle über eine Eingabeaufforderung auf Betriebssystem­ebene ausgeführt werden können.
Modular Disk Storage Manager Agent
Diese Software ist auf allen Clusterknoten installiert und erfasst systembasierte Topologiedaten, die von MDSM verwaltet werden können.
Multipath-E/A (MPIO)-Software
Multipath-E/A-Software (auch als Failover-Treiber bezeichnet) ist auf jedem Clusterknoten installiert. Die Software verwaltet den redundanten Datenpfad zwischen dem System und dem RAID-Gehäuse. Damit die MPIO-Software einen redundanten Pfad korrekt verwalten kann, muss die Konfiguration redundante NICs und Verkabelungen bereitstellen.
10 Einführung
Page 11
Die MPIO-Software identifiziert Mehrfachpfade zu einem virtuellen Laufwerk und richtet einen bevorzugten Pfad zu dem betreffenden Laufwerk ein. Wenn eine Komponente des bevorzugten Pfades ausfällt, leitet die MPIO-Software E/A-Anforderungen automatisch über den alternativen Pfad weiter, sodass das Speicherarray ohne Unterbrechung weiterhin in Betrieb bleibt.
Erweiterte Funktionen
Die RAID-Speichersysteme PowerVault MD3600i und MD3620i bieten unter anderem die folgenden erweiterten Funktionen:
Snapshot Virtual Disk
– Ermöglicht es, Momentaufnahmen von virtuellen Laufwerken zur Sicherung, zum Testen oder zur Datenverarbeitung zu erstellen, ohne den Inhalt des jeweiligen virtuellen Quelllaufwerks zu verändern.
Virtual Disk Copy
– Beim Kopieren eines virtuellen Laufwerks in einem Speicherarray wird auf dem virtuellen Ziellaufwerk eine vollständige Kopie der Daten erstellt, die sich auf dem virtuellen Quelllaufwerk befinden. Virtual Disk Copy kann genutzt werden, um Daten zu sichern, Daten von Datenträgergruppen mit Datenträgern von geringerer Kapazität in Datenträgergruppen mit größeren Datenträgern zu kopieren oder um Daten vom virtuellen Snapshot-Laufwerk auf das virtuelle Quelllaufwerk zurückzukopieren.
Upgrade auf Hochleistungsstufe
– Erhöht die Leistung des System über die Leistung eines Arrays der Serie MD3600i hinaus, das auf der Standardleistungsstufe betrieben wird.
ANMERKUNG: Anweisungen zum Anwenden der korrekten Optionen in der
Clusterumgebung finden Sie unter „Verwenden von erweiterten Funktionen (Premium) von PowerVault Modular Disk Storage Manager“ auf Seite 69.
Einführung 11
Page 12

Unterstützte Clusterkonfigurationen

Speicherarray
MD36
xx
i-RAID-
Controllermodul 0
MD36
xx
i-RAID-
Controllermodul 1
Firmen-, öffentliches oder privates Netzwerk
Abbildung 1-1. Direct-Attach-Clusterkonfiguration
12 Einführung
Page 13
Abbildung 1-2. Redundante Network-Attach-Clusterkonfiguration
Speicherarray
MD36xxi-RAID­Controllermodul 0
MD36xxi-RAID­Controllermodul 1
Firmen-, öffentliches oder privates Netzwerk
ANMERKUNG: Die Konfiguration kann bis zu 64 Knoten aufweisen. Mögliche
Knoten sind:
ein Cluster (bis zu 16 Knoten)
mehrere Cluster
mehrere Cluster und eigenständige(r) Server
Einführung 13
Page 14

Weitere nützliche Dokumente

VORSICHTSHINWEIS: Die mit dem Computer gelieferten Sicherheitshinweise
enthalten wichtige Sicherheits- und Betriebsbestimmungen. Garantiebestimmungen können als separates Dokument beigelegt sein.
In der zusammen mit der Rack-Lösung gelieferten
anleitung
•Das Ersteinrichtung des Systems.
•Das
unter Microsoft Windows Server 2008
Bereitstellung des Clusters.
•Die empfohlener Betriebssysteme, Hardwarekomponenten und Treiber- oder Firmwareversionen für den Dell Windows Server Failover-Cluster.
In der Dokumentation zum Betriebssystem ist beschrieben, wie das Betriebssystem installiert (sofern erforderlich), konfiguriert und verwendet wird.
Die Dokumentation separat erworbener Komponenten enthält Informationen zur Konfiguration und Installation dieser Zusatzgeräte.
Die Dokumentation zur Dell PowerVault-Bandbibliothek enthält Informationen zur Installation, Fehlerbehebung und Aktualisierung der Bandbibliothek.
Möglicherweise sind auch Aktualisierungen beigelegt, in denen Änderungen am System, an der Software und/oder an der Dokumentation beschrieben sind.
Im Benutzerhandbuch für das PowerEdge-System sind die System­merkmale und technische Daten beschrieben. Außerdem enthält es Informationen zum System-Setup-Programm (sofern zutreffend), zum Software-Support und zum Systemkonfigurationsprogramm.
•Das
Speicherarrays
des Speicherarrays.
ist beschrieben, wie das System in einem Rack installiert wird.
Handbuch zum Einstieg
Installations- und Fehlerbehebungshandbuch für Dell Failover-Cluster
Support-Matrizen für Dell Clusterkonfigurationen
Handbuch zum Einstieg für Dell PowerVault MD3600i/MD3620i
enthält einen Überblick über das Einrichten und Verkabeln
enthält eine Übersicht über die
enthält weitere Informationen zur
Rack-Installations-
enthalten eine Liste
14 Einführung
Page 15
Das Benutzerhandbuch für
Speicherarrays
enthält Informationen über Systemfunktionen und
Dell PowerVault MD3600i und MD3620i
beschreibt die Fehlerbehebung des Systems sowie die Installation oder den Austausch von Systemkomponenten.
Das Bereitstellungshandbuch für
Speicherarrays
enthält Informationen über die Installation und
Dell PowerVault MD3600i und MD3620i
Konfiguration der Software und Hardware.
Das Handbuch zur Befehlszeilenschnittstelle für modulare
PowerVault Festplatten-Speicherarrays
enthält Informationen über die
Dell
Verwendung der Befehlszeilenschnittstelle (CLI) zur Konfiguration und Verwaltung des Speicherarrays.
•Die
Dell PowerVault MD36xxi Resource
-DVD enthält Dokumentationen zu den Konfigurations- und Verwaltungsprogrammen sowie alle hier aufgeführten Dokumentationen.
•Die
Support-Matrix für Dell PowerVault MD-Systeme
enthält Informationen zu der von PowerVault MD-Systemen unterstützten Software und Hardware.
ANMERKUNG: Lesen Sie diese Aktualisierungen immer zuerst, da sie
frühere Informationen gegebenenfalls außer Kraft setzen.
Möglicherweise sind Versionshinweise oder Readme-Dateien vorhanden: Diese enthalten neueste Updates der Systemdokumentation bzw. fortgeschrittenes technisches Referenzmaterial für erfahrene Benutzer oder Techniker.
Einführung 15
Page 16
16 Einführung
Page 17
2

Verkabelung der Clusterhardware

In den folgenden Abschnitten erfahren Sie, wie die verschiedenen Komponenten des Clusters verkabelt werden.

Verkabeln von Maus, Tastatur und Bildschirm

Bei der Installation einer Clusterkonfiguration im Rack muss ein Umschalter zum Verbinden der Maus, der Tastatur und des Bildschirms mit den Knoten verwendet werden. In der Dokumentation zum Rack erfahren Sie, wie Sie die Anschlüsse der einzelnen Knoten mit dem Umschalter verbinden.

Verkabeln der Netzteile

Stellen Sie anhand der Dokumentation zu den einzelnen Komponenten der Clusterlösung sicher, dass die jeweiligen Anforderungen an die Stromversorgung erfüllt sind.
Folgende Richtlinien werden empfohlen, um die Clusterlösung gegen Stromausfälle zu schützen:
Bei Knoten mit mehreren Netzteilen sollten Sie jedes Netzteil an einen eigenen Wechselstromkreis anschließen.
Verwenden Sie unterbrechungsfreie Stromversorgungen (USV).
In bestimmten Umgebungen sollten Sie Notstromgeneratoren und eine elektrische Versorgung über getrennte Unterwerke in Betracht ziehen.
Abbildung 2-1 zeigt eine empfohlene Methode zur elektrischen Verkabelung einer Clusterlösung mit zwei Dell PowerEdge-Systemen und einem Speichersystem. Um Redundanz zu gewährleisten, werden die primären Netzteile aller Komponenten an einem oder an zwei Stromkreisen und die redundanten Netzteile an einem anderen Stromkreis angeschlossen.
Verkabelung der Clusterhardware 17
Page 18
Abbildung 2-1. Beispiel für die elektrische Verkabelung
Primäre Netzteile an einer Steckerleiste (oder an einem Stromverteiler [nicht abgebildet])
Redundante Netzteile an einer Steckerleiste (oder an einem Stromverteiler [nicht abgebildet])
MD36xxi­RAID­Controller­modul 0
MD36xxi­RAID­Controller­modul 1
ANMERKUNG: Diese Darstellung der Stromverteilung zu den Komponenten dient
lediglich als Beispiel.
18 Verkabelung der Clusterhardware
Page 19

Verkabeln des öffentlichen und privaten Netzwerks

Die Netzwerkadapter der Clusterknoten stellen für jeden Knoten mindestens zwei Netzwerkverbindungen bereit. Diese Verbindungen sind in Tabelle 2-1 beschrieben.
Tabelle 2-1. Netzwerkverbindungen
Netzwerkverbindung Beschreibung
Öffentliches Netzwerk Alle Verbindungen zum Client-LAN.
Mindestens ein öffentliches Netzwerk muss für Mischbetrieb (öffentlich und privat) konfiguriert sein, damit ein Failover des privaten Netzwerks möglich ist.
Privates Netzwerk Eine gesonderte Verbindung für den Austausch von
Clusterdaten und Zustandsmeldungen zwischen den Clusterknoten.
Mit dem LAN verbundene Netzwerkadapter können außerdem Redundanz auf der Kommunikationsebene gewährleisten, falls die interne Clusterverbindung ausfällt.
Weitere Informationen über Redundanz im privaten Netzwerk finden Sie in der Dokumentation zur Microsoft Failover-Clusterunterstützung.
Abbildung 2-2 zeigt ein Beispiel für die Verkabelung von Netzwerkadaptern, bei dem reservierte Netzwerkadapter auf jedem Knoten mit dem öffentlichen Netzwerk und die übrigen Netzwerkadapter untereinander verbunden sind (für das private Netzwerk).
Verkabelung der Clusterhardware 19
Page 20
Abbildung 2-2. Beispiel für eine Netzwerkverkabelung
Öffentliches Netzwerk
Ö
f
f
e
n
t
l
i
c
h
e
r
N
e
t
z
w
e
r
k
a
d
a
p
t
e
r
Privater Netzwerkadapter
Clusterknoten 1 Clusterknoten 2
Privates Netzwerk

Verkabeln des öffentlichen Netzwerks

Für die Verbindung mit den öffentlichen Netzwerksegmenten lässt sich ein beliebiger Netzwerkadapter verwenden, der von einem System mit TCP/IP unterstützt wird. Sie können weitere Netzwerkadapter installieren, um andere öffentliche Netzwerksegmente zu unterstützen oder für den Fall eines defekten primären Netzwerkadapters bzw. Switch-Ports Redundanz zu gewährleisten.

Verkabeln des privaten Netzwerks

Die private Netzwerkverbindung zu den Clusterknoten erfolgt über einen zweiten oder nachfolgenden Netzwerkadapter, der auf jedem Knoten installiert ist. Dieses Netzwerk wird für die Kommunikation innerhalb des Clusters verwendet.
In Tabelle 2-2 sind die erforderlichen Hardwarekomponenten und die Verbindungsmethode für drei mögliche private Netzwerkkonfigurationen aufgeführt.
20 Verkabelung der Clusterhardware
Page 21
Tabelle 2-2. Hardwarekomponenten und Verbindungen privater Netzwerke
Methode Hardwarekomponenten Verbindung
Netzwerk-Switch Gigabit- oder 10-Gigabit-
Ethernet-Netzwerk­adapter und Switches
Punkt-zu-Punkt (nur Cluster mit zwei Knoten)
Kupfer-Gigabit- oder 10Gigabit-Ethernet­Netzwerkadapter mit RJ45-Anschlüssen
Kupfer-10-Gigabit­Ethernet-Netzwerk­adapter mit SFP+ Anschlüssen
Optische Gigabit- oder 10-Gigabit-Ethernet­Netzwerkadapter mit LCAnschlüssen
Installieren Sie je nach Hardware CAT5e- oder CAT6-Kabel, Multimode­Glasfaserkabel mit LCSteckern (Local Connector) oder Twinaxialkabel zwischen den Netzwerkadaptern in den Knoten mit einem Switch.
Verbinden Sie die Netzwerkadapter in beiden Knoten mit einem Standard­Ethernet-Kabel (CAT5e oder CAT6).
Verbinden Sie die Netzwerkadapter in beiden Knoten mit einem Twinaxialkabel.
Verbinden Sie die Netzwerkadapter in beiden Knoten mit einem Multimode-Glasfaserkabel.
ANMERKUNG: In diesem Dokument bezieht sich der Ausdruck Ethernet entweder
auf Gigabit-Ethernet oder auf 10-Gigabit-Ethernet.

Verwenden von Netzwerkadaptern mit zwei Ports für das private Netzwerk

Sie können den Cluster so konfigurieren, dass das öffentliche Netzwerk zum Failover für die private Netzwerkverbindung genutzt wird. Verwenden Sie beim Einsatz von Netzwerkadaptern mit zwei Ports jedoch nicht beide Ports gleichzeitig zur Unterstützung von öffentlichem und privatem Netzwerk.
Verkabelung der Clusterhardware 21
Page 22

NIC-Teaming

Beim so genannten NIC-Teaming werden zwei oder mehrere Netzwerk­adapter (NICs) kombiniert, um für Lastverteilung bzw. Fehlertoleranz zu sorgen. Der Cluster unterstützt NIC-Teaming, aber nur in einem öffentlichen Netzwerk. In einem privaten Netzwerk wird NIC-Teaming nicht unterstützt.
Die Netzwerkadapter eines NIC-Teams müssen von der gleichen Marke sein und auch die Marken der Teaming-Treiber lassen sich nicht mischen.

Verkabeln der Speichersysteme

Dieser Abschnitt enthält Informationen zum Verbinden des Clusters mit einem Speichersystem.
ANMERKUNG: Das PowerVault MD36xxi Speichersystem benötigt eine
10GBaseT-fähige Infrastruktur mit Kabeln der Kategorie 6 oder höher, 10GBase-T­fähigen Patch-Panels und Switches. Vorhandene 1GBase-T-Infrastrukturen können entweder durch einen 10GBase-T-Switch, der das 10GBase-T-Netzwerk verbindet, oder durch manuelle Konfiguration der iSCSI-Ports für eine Ausführung mit einer 1GBase-T-Geschwindigkeit verwendet werden.
Die Speicherverwaltung erfolgt entweder bandintern über die Host-zu­Controller-Schnittstelle oder bandextern über eine Ethernet-Verbindung. Zur bandexternen Speicherverwaltung müssen die Ethernet-Anschlüsse des Speicherarrays mit dem öffentlichen Netzwerk verbunden werden.
ANMERKUNG: Es wird empfohlen, das Dell PowerVault MD3600i- bzw.
MD3620i−Gehäuse für die bandexterne Verwaltung zu konfigurieren.

Verkabeln des Clusters in einer Direct-Attach-Konfiguration

Bei der Direct-Attach-Konfiguration sind alle Clusterknoten über zwei Netzwerkkabel und einen Zweiport-NIC bzw. zwei Einzelport-NICs direkt mit den PowerVault MD3600i- bzw. MD3620i-RAID-Controllermodulen verbunden.
22 Verkabelung der Clusterhardware
Page 23
Wenn eine Komponente des Speicherpfads ausfällt (z. B. der Port, das Kabel oder der Speichercontroller), leitet die Multipath-E/A (MPIO)-Software die E/A-Anforderungen automatisch auf den alternativen Pfad um, sodass der Betrieb des Speicherarrays nicht unterbrochen wird. Die Konfiguration mit zwei Einzelport-NICs bietet höhere Verfügbarkeit, da der Failover-Cluster die Clusterressourcen beim Ausfall eines NICs nicht auf den anderen Clusterknoten verschieben muss.
So wird der Cluster verkabelt:
1
Verbinden Sie Clusterknoten 1 mit dem Speichersystem:
a
Verbinden Sie Clusterknoten 1, iSCSI-NIC 1 (oder NIC-Port 1) über ein Netzwerkkabel mit RAID-Controllermodul 0, Port In-0.
b
Verbinden Sie Clusterknoten 1, iSCSI-NIC 2 (oder NIC-Port 2) über ein Netzwerkkabel mit RAID-Controllermodul 1, Port In-1.
2
Verbinden Sie Clusterknoten 2 mit dem Speichersystem:
a
Verbinden Sie Clusterknoten 2, iSCSI-NIC 1 (oder NIC-Port 1)
über ein Netzwerkkabel mit RAID-Controllermodul 1, Port In-0.
b
Verbinden Sie Clusterknoten 2, iSCSI-NIC 2 (oder NIC-Port 2) über ein Netzwerkkabel mit RAID-Controllermodul 0, Port In-1.
Verkabelung der Clusterhardware 23
Page 24
Abbildung 2-3. Direct-Attach-Clusterkonfiguration
MD36xxi-RAID­Controllermodul 0
Clusterknoten 2
Clusterknoten 1
Privates Netzwerk
Öffentliches Netzwerk
Ethernet­Verwaltungs­schnittstelle (2)
SAS-Ausgang (2)
MD36xxi-RAID­Controllermodul 1
24 Verkabelung der Clusterhardware
ANMERKUNG: Der SAS-Ausgangsport stellt die SAS-Verbindung für MD1200 /
MD1220-Erweiterungsgehäuse bereit.
Page 25

Verkabeln des Clusters in einer Network-Attach-Konfiguration

Bei einer Network-Attach-Konfiguration werden alle Clusterknoten über redundante 1-Gb-Ethernet-Standardswitches für IP-Speichernetzwerke (SAN) sowie über einen Zweiport-iSCSI-NIC bzw. zwei Einzelport-iSCSI­NICs mit dem Speichersystem verbunden. Wenn eine Komponente des Speicherpfads ausfällt (z. B. der iSCSI-NIC, das Kabel, der Switch oder der Speichercontroller), leitet die Multipath-E/A (MPIO)-Software die E/A­Anforderungen automatisch auf den alternativen Pfad um, sodass der Betrieb des Speicherarrays nicht unterbrochen wird. Die Konfiguration mit zwei Einzelport-NICs bietet höhere Verfügbarkeit, da der Microsoft Failover­Cluster die Clusterressourcen beim Ausfall eines NICs nicht auf den anderen Clusterknoten verschieben muss.
Diese Konfiguration unterstützt bis zu 64 Hosts gleichzeitig. Einige Beispiele für diese Konfiguration:
•Ein Cluster
•Zwei Cluster
Ein Cluster mit acht Knoten, zwei Cluster mit je zwei Knoten und ein Standalone-System.
So wird der Clusterverkabelt:
1
Verbinden Sie das Speichersystem mit dem iSCSI-Netzwerk:
a
Verbinden Sie Switch 1 über ein Netzwerkkabel mit Controller 0, Port In-0.
b
Verbinden Sie Switch 1 über ein Netzwerkkabel mit Controller 1, Port In-0.
c
Verbinden Sie Switch 2 über ein Netzwerkkabel mit Controller 0, Port In-1.
d
Verbinden Sie Switch 2 über ein Netzwerkkabel mit Controller 1, Port In-1.
Verkabelung der Clusterhardware 25
Page 26
2
Verbinden Sie den Cluster mit dem iSCSI-Netzwerk:
a
Verbinden Sie Clusterknoten 1, iSCSI-NIC 1 (oder NIC-Port 1) über ein Netzwerkkabel mit Netzwerk-Switch 1.
b
Verbinden Sie Clusterknoten 1, iSCSI-NIC 2 (oder NIC-Port 2) über ein Netzwerkkabel mit Netzwerk-Switch 2.
c
Wiederholen Sie Schritt a und Schritt b für jeden weiteren Clusterknoten.
3
Wiederholen Sie Schritt 2, um weitere Cluster oder Standalone-Systeme mit dem iSCSI-Netzwerk zu verbinden.
26 Verkabelung der Clusterhardware
Page 27
Abbildung 2-4. Network-Attach-Clusterkonfiguration
2 bis n Clusterknoten
MD36xxi-RAID­Controllermodul 0
SAS­Ausgang (2)
IP-SAN (Gigabit­Ethernet­Dual­Switch) (2)
Privates Netzwerk
Öffentliches Netzwerk
MD36xxi-RAID­Controllermodul 1
Ethernet­Verwaltungs­schnittstelle (2)
Verkabelung der Clusterhardware 27
Page 28

Verbinden eines PowerEdge-Clusters mit mehreren PowerVault MD3600i / MD3620i-Speichersystemen

Sie können die Speicherkapazität des Clusters erhöhen, indem Sie mehrere Speichersysteme über redundante Netzwerk-Switches an den Cluster anschließen. PowerEdge-Clustersysteme unterstützen Konfigurationen mit mehreren an Clustersystemen angeschlossenen PowerVault MD3600i / MD3620i-Speichersystemen. In diesem Szenario kann die Failover-Cluster­Software für die Laufwerke jedes freigegebenen und an den Cluster angeschlossenen Speicherarrays einen Failover zwischen den Clusterknoten durchführen.
28 Verkabelung der Clusterhardware
Page 29
Abbildung 2-5. Network-Attach-Clusterkonfiguration mit mehreren Speicherarrays
Öffentliches Netzwerk
Privates Netzwerk
2 bis n Clusterknoten
IP-SAN (Gigabit­Ethernet-Dual­Switch) (2)
MD36xxi-RAID­Controllermodul 0
MD36
xx
i-RAID-
Controllermodul 1
Speicherarray 1
Speicherarray 2
Verkabelung der Clusterhardware 29
Page 30
Beim Verbinden mehrerer PowerVault MD3600i / MD3620i-Speichersysteme mit dem Cluster gelten folgende Regeln:
Maximal vier PowerVault pro Cluster.
Die gemeinsamen Speichersysteme und die Firmware müssen identisch sein. Unterschiedliche Speichersysteme und Firmware im gemeinsamen Speicher werden nicht unterstützt.
Windows begrenzt den Zugriff auf Laufwerke durch die maximale Anzahl der möglichen Laufwerksbuchstaben. Diese beträgt 22. Weil die Laufwerkbuchstaben A bis D für lokale Datenträger reserviert sind, können den Datenträgern des Speichersystems maximal 22 Laufwerkbuchstaben (E bis Z) zugewiesen werden.
Windows Server2008 Enterprise Edition unterstützt Bereitstellungs­punkte, wodurch mehr als 22 Laufwerke pro Cluster möglich sind.
MD3600i / MD3620i
-Speichersysteme
30 Verkabelung der Clusterhardware
Page 31

Vorbereiten der Systeme für den Clusterbetrieb

VORSICHTSHINWEIS: Nur geschulte Servicetechniker sind dazu befugt,
Komponenten im Inneren des Systems zu entfernen und zu warten. Ausführliche Informationen zu den Sicherheitsvorkehrungen, über das Arbeiten im Inneren des Computers und zum Schutz vor elektrischer Entladung finden Sie in den mitgelieferten Sicherheitshinweisen.

Überblick über die Clusterkonfiguration

1
Stellen Sie sicher, dass die elektrischen Voraussetzungen für den Cluster am Ort der Installation gegeben sind.
Ihr Verkaufsberater kann Sie über die Anforderungen der örtlichen Stromversorgung informieren.
2
Installieren Sie die Server, das/die gemeinsame(n) Speicherarray(s) und die Verbindungs-Switches (z. B. in einem Geräte-Rack). Stellen Sie sicher, dass alle Komponenten eingeschaltet sind.
ANMERKUNG: Weitere Informationen zu Schritt 3 bis Schritt 7 und Schritt 10
bis Schritt 12 finden Sie im Abschnitt „Vorbereiten der Systeme für den Clusterbetrieb“ des
Failover-Cluster unter Microsoft Windows Server 2008
support.dell.com/manuals.
3
Stellen Sie das Betriebssystem (einschließlich aller relevanten Service Packs und Hotfixes), die Netzwerkadaptertreiber und die Speicheradaptertreiber (einschließlich der MPIO-Software) auf allen Servern bereit, die Clusterknoten werden sollen. Je nach der verwendeten Bereitstellungsmethode ist möglicherweise eine Netzwerkverbindung erforderlich, um diesen Schritt erfolgreich abzuschließen.
Installations- und Fehlerbehebungshandbuchs für Dell
unter
3
ANMERKUNG: Sie können die Clusterkonfiguration auf dem Cluster-
Datenformular notieren und so die Planung und Bereitstellung des Clusters erleichtern. Weitere Informationen finden Sie unter „Cluster-Datenformular“ auf Seite 79 und „iSCSI-Konfigurationsarbeitsblatt“ auf Seite 81.
Vorbereiten der Systeme für den Clusterbetrieb 31
Page 32
4
Richten Sie auf allen Serverknoten die physische Netzwerktopologie und die TCP/IP-Einstellungen für Netzwerkadapter ein, um den Zugang zu den öffentlichen und privaten Clusternetzwerken zu ermöglichen.
5
Konfigurieren Sie jeden Serverknoten als Mitgliedsserver der gleichen Windows Active Directory-Domäne.
ANMERKUNG: Die Clusterknoten können als Domänencontroller
konfiguriert werden. Weitere Informationen finden Sie im Abschnitt „Auswahl des Domänenmodells“ des
Dell Failover-Cluster unter Microsoft Windows Server 2008
support.dell.com/manuals.
6
Richten Sie die physische Speichertopologie ein und nehmen Sie alle
Installations- und Fehlerbehebungshandbuchs für
unter
weiteren Netzwerkeinstellungen vor, die benötigt werden, um Verbindungen zwischen dem Speicherarray und den Servern herzustellen, die als Clusterknoten konfiguriert werden müssen. Konfigurieren Sie die Speichersysteme gemäß der Dokumentation zum Speichersystem.
7
Erstellen Sie mit den Dienstprogrammen zur Speicherarrayverwaltung mindestens eine logische Gerätenummer (LUN = Logical Unit Number). Die LUN wird als Witnessdatenträger für den Microsoft Windows Server 2008 Failover-Cluster verwendet. Stellen Sie sicher, dass die LUN für die Server präsent ist, die als Clusterknoten konfiguriert werden müssen.
ANMERKUNG: Aus Sicherheitsgründen wird empfohlen, die LUN beim
Einrichten des Clusters wie in Schritt 8 beschrieben auf einem Einzelknoten zu konfigurieren. Später können Sie die LUN entsprechend der Beschreibung in Schritt 9 konfigurieren, damit weitere Clusterknoten darauf zugreifen können.
8
Wählen Sie eines der Systeme aus und bilden Sie einen neuen Failover­Cluster, indem Sie den Clusternamen, die Clusterverwaltungs-IP-Adresse und die Quorumressource konfigurieren. Weitere Informationen finden Sie unter „Vorbereiten der Systeme für den Clusterbetrieb“ auf Seite 31.
ANMERKUNG: Wenn Sie einen Failover-Cluster unter Windows Server 2008
erstellen, führen Sie den Cluster Validation Wizard (Assistent zur Clustervalidierung) aus, um sicherzustellen, dass Ihr System für die Clusterbildung bereit ist.
9
Fügen Sie den/die verbliebenen Knoten zum Failover-Cluster hinzu. Weitere Informationen finden Sie unter„Vorbereiten der Systeme für den Clusterbetrieb“ auf Seite 31.
32 Vorbereiten der Systeme für den Clusterbetrieb
Page 33
10
Konfigurieren Sie die Rollen für Clusternetzwerke. Stellen Sie sicher, dass alle zur iSCSI-Speicherung (oder zu anderen Zwecken außerhalb des Clusters) verwendeten Netzwerkschnittstellen nicht durch den Cluster kontrolliert werden.
11
Testen Sie die Failover-Funktionen des neuen Clusters.
ANMERKUNG: Sie können dazu auch den Cluster Validation Wizard
(Assistent zur Clustervalidierung) verwenden.
12
Konfigurieren Sie hochverfügbare Anwendungen und Dienste auf dem Failover-Cluster. Je nach Konfiguration kann es erforderlich sein, hierfür weitere LUNs am Cluster bereitzustellen oder neue Cluster­Ressourcengruppen anzulegen. Testen Sie die Failover-Funktionen der neuen Ressourcen.
13
Konfigurieren Sie Clientsysteme für den Zugriff auf die hochverfügbaren Anwendungen und Dienste, die auf dem Failover-Cluster gehostet werden.

Installationsübersicht

Auf allen Knoten in Ihrem Dell Windows Server Failover-Cluster muss das Betriebssystem Windows in derselben Version, Edition, Service-Pack-Stufe und Prozessorarchitektur installiert sein. So können beispielsweise alle Knoten mit Windows Server 2008 R2 Enterprise x64 Edition konfiguriert sein. Wenn auf den verschiedenen Knoten unterschiedliche Betriebssystem­versionen installiert sind, kann der Failover-Cluster nicht erfolgreich konfiguriert werden. Je nach dem auf dem Cluster konfigurierten Betriebs­system wird empfohlen, vor dem Konfigurieren des Failover-Clusters zunächst Systemrollen einzurichten.
Eine Liste der empfohlenen Betriebssysteme, Hardwarekomponenten und Treiber- oder Firmwareversionen für Dell Windows Server Failover-Cluster finden Sie in den Support-Matrizen für Dell Clusterkonfigurationen unter dell.com/ha.
Weitere Informationen zum Bereitstellen eines Clusters mit Windows Server 2008 finden Sie im Installations- und Fehlerbehebungshandbuch für Dell Failover-Cluster unter Microsoft Windows Server 2008 unter support.dell.com/manuals.
Vorbereiten der Systeme für den Clusterbetrieb 33
Page 34
In den folgenden Unterabschnitten werden die Schritte beschrieben, über die Sie die Kommunikation zwischen den Clusterknoten und einem oder mehreren freigegebenen MD3600i / MD3620i-Speicherarray(s) einrichten und Laufwerke des/der Speicherarrays für den Cluster präsent machen können.
1

Installation der iSCSI-NICs

2
Installation des Microsoft iSCSI-Software-Initiators
3
Installation der Speicherverwaltungssoftware
4
Konfiguration des gemeinsamen Speichersystems
5
Konfigurieren eines Failover-Clusters
Installation der iSCSI-NICs
Es wird empfohlen, die neueste unterstützte Version des Treibers zu installieren. Wenn der NIC-Treiber die Installation von Service-Packs oder Hotfixes für das Betriebssystem erfordert, installieren Sie zunächst diese.
Eine Liste der empfohlenen Betriebssysteme, Hardwarekomponenten und Treiber- oder Firmwareversionen für Dell Windows Server Failover-Cluster finden Sie in den Support-Matrizen für Dell Clusterkonfigurationen unter dell.com/ha.
Aktivieren von TOE-NICs
Die TOE nimmt die TCP/IP Pakete, die von dem/den Prozessor(en) des Systems verarbeitet werden sollen, und lädt sie beim NIC ab. Sie entlastet den Hauptprozessor und den Arbeitsspeicher und beugt so Engpässen durch intensiven Netzwerk-Datenverkehr vor. TOE-NICs verbessern die Performance bei iSCSI-Datenverkehr.
ANMERKUNG: Bei iSCSI-Datenverkehr müssen in allen Knoten in einer
Clusterlösung NICs desselben Typs eingesetzt werden – also entweder TOE-NICs oder Standard-NICs. Die Kombination von TOE-NICs und regulären NICs wird bei einer Clusterlösung nicht unterstützt.
34 Vorbereiten der Systeme für den Clusterbetrieb
Page 35

Konfigurieren von iSCSI-NICs

Sie müssen die IP-Adresse und Netzmaske jedes iSCSI-Ports konfigurieren, der an das Speicherarray angeschlossen ist. Welche Schritte genau erforderlich sind, hängt davon ab, ob Sie einen DHCP (Dynamic Host Configuration Protocol)-Server oder statische IP-Adressen verwenden.
ANMERKUNG: Die Server-IP-Adressen müssen für die Netzwerkkommunikation
innerhalb des gleichen IP-Subnetzes konfiguriert werden wie die Speicherarray­verwaltung und die iSCSI-Ports.
Wenn Sie einen DHCP-Server verwenden:
1
Klicken Sie auf
2
Wählen Sie Freigabecenter).
3
Wählen Sie entweder ändern) (Windows Server 2008 R2) oder (Netzwerkverbindungen verwalten) (Windows Server 2008).
4
Klicken Sie mit der rechten Maustaste auf die Netzwerkverbindung, die Sie konfigurieren möchten, und wählen Sie
5
Wählen Sie auf der Registerkarte Verb in du ng ) o der Verbindungen) den Eintrag (Internetprotokoll (TCP/IP)) aus und klicken Sie auf (Eigenschaften).
6
Wählen Sie beziehen) und klicken Sie auf
Wenn Sie statische IP-Adressen verwenden:
1
Klicken Sie auf
2
Wählen Sie Freigabecenter).
3
Wählen Sie entweder ändern) (Windows Server 2008 R2) oder (Netzwerkverbindungen verwalten) (Windows Server 2008).
4
Klicken Sie mit der rechten Maustaste auf die Netzwerkverbindung, die Sie konfigurieren möchten, und wählen Sie
Start  Network
Network and Sharing Center
(Netzwerk).
(Netzwerk- und
Change adapter settings
Manage network connections
Properties (
Networking
General
(Netzwerk) (für alle anderen
(Allgemein) (für eine lokale
Internet Protocol (TCP/IP)
Obtain an IP address automatically
OK
.
Start  Network
Network and Sharing Center
(Netzwerk).
(Netzwerk- und
Change adapter settings
Manage network connections
Properties (
(Adaptereinstellungen
Eigenschaften).
Properties
(IP-Adresse automatisch
(Adaptereinstellungen
Eigenschaften).
Vorbereiten der Systeme für den Clusterbetrieb 35
Page 36
5
Wählen Sie auf der Registerkarte Verbindung) oder
Networking
Verbindungen) den Eintrag (Internetprotokoll (TCP/IP)) aus und klicken Sie auf
General
(Allgemein) (für eine lokale
(Netzwerk) (für alle anderen
Internet Protocol (TCP/IP)
Properties
(Eigenschaften).
6
Wählen Sie
Use the following IP address
(Folgende IP-Adresse verwenden) und geben Sie IP-Adresse, Subnetzmaske und Standard­Gateway-Adressen ein.

Installation des Microsoft iSCSI-Software-Initiators

Der Microsoft iSCSI-Initiator ist unter Windows Server 2008 direkt installiert.

Installation der Speicherverwaltungssoftware

Das Installationsprogramm für die PowerVault MD3600i / MD3620i Speichersoftware stellt unter anderem die Kernsoftware, Anbieter und optionale Hilfsprogramme bereit. Die Kernsoftware enthält den hostbasierten Speicheragenten, den Multipath-E/A (MPIO)-Software und die Anwendung MDSM zur Konfiguration, Verwaltung und Überwachung der Speicherarray­Lösung. Die Anbieterfunktion enthält Anbieter für die Frameworks Microsoft Virtual Disk Service (VDS) und Microsoft Volume Shadow-Copy Service (VSS).
MDCU (Modular Disk Configuration Utility) ist ein optionales Hilfsprogramm, das einen konsolidierten Ansatz für die Konfiguration der Verwaltungsschnittstellen und der iSCSI-Hostports sowie für die Erstellung von Sitzungen für die modularen iSCSI-Festplatten-Speicherarrays bietet. Es wird empfohlen, MDCU für die iSCSI-Konfiguration auf jedem Host zu verwenden, der mit dem PowerVault MD3600i / MD3620i verbunden ist.
ANMERKUNG: Weitere Informationen über die Anbieter für Microsoft VDS und
Microsoft VSS finden Sie im
MD3620i Speicherarrays
Benutzerhandbuch für Dell PowerVault MD3600i und
.
Gehen Sie wie folgt vor, um die Speicherverwaltungssoftware zu installieren:
1
Schließen Sie alle anderen Programme, bevor Sie neue Software installieren.
36 Vorbereiten der Systeme für den Clusterbetrieb
Page 37
2
Legen Sie das PowerVault MD36xxi Resource-Medium ein. Je nach Autorun-Einstellungen des Betriebssystems kann ggf. das Fenster
Dell PowerVault MD36xxi Resource DVD
angezeigt werden, die Datei
md_launcher.exe
oder eine Aufforderung
auszuführen. Wenn der PowerVault MD Launcher nicht angezeigt wird und keine Aufforderung erfolgt, die Datei
md_launcher.exe
auszuführen, wechseln Sie in das
Stammverzeichnis des Resource-Mediums und führen Sie die Datei
md_launcher.exe
3
Wählen Sie die Option
4
Wählen Sie eine der folgenden Installationsoptionen:
aus.
MD36xxi-Speichersoftware installieren
aus.
Vollständig (empfohlen) – Dieses Paket installiert die Kernsoftware,
Anbieter und Hilfsprogramme. Dazu zählen der benötigte hostbasierte Speicheragent, die Multipath-E/A (MPIO)-Software, MD Storage Manager, Anbieter und optionale Hilfsprogramme.
Nur Host – Dieses Paket umfasst den hostbasierten Speicheragent,
die Multipath-E/A (MPIO)-Software und optionale Hilfsprogramme zur Konfiguration des Hosts.
Verwaltungsstation – Dieses Paket umfasst MD Storage Manager,
Anbieter und optionale Hilfsprogramme.
Benutzerdefiniert – Mithilfe dieser Option können Sie bestimmte
Komponenten auswählen.
5
Führen Sie einen Neustart der einzelnen Hostserver durch.
Vorbereiten der Systeme für den Clusterbetrieb 37
Page 38

Konfiguration des gemeinsamen Speichersystems

Bevor Sie mit der Konfiguration von iSCSI beginnen, sollten Sie das „iSCSI­Konfigurationsarbeitsblatt“ auf Seite 81 ausfüllen. Das Erfassen der relevanten Informationen über Ihr Netzwerk vor Durchführung der Konfigurationsschritte trägt dazu bei, den Zeitaufwand für den gesamten Prozess zu verkürzen.
Terminologie
Die nachstehende Tabelle erläutert die Begriffe, die in den iSCSI­Konfigurationsschritten weiter unten in diesem Abschnitt verwendet werden.
Tabelle 3-1. Wichtige Standardterminologie für die iSCSI-Konfiguration
Begriff Definition
CHAP (Challenge Handshake Authentication Protocol)
Host oder Hostserver Ein Server, der über iSCSI-Ports mit dem Speicherarray
Hostserver-Port Der iSCSI-Port am Hostserver, über den die Verbindung
iSCSI-Initiator Die auf dem Hostserver installierte iSCSI-spezifische
iSCSI-Speicherport iSCSI-Port am Speicherarray (zwei je Controller). iSNS (Microsoft Internet
Storage Naming Service)
Verwaltungsstation Das System, von dem aus die Hostserver-/Speicherarray-
Speicherarray Das Gehäuse, auf dem sich die Speicherdaten befinden,
Ta r g e t Ein iSCSI-Port am Speicherarray, der Anfragen von dem
Ein optionales Sicherheitsprotokoll, das den Zugriff auf ein iSCSI-Speichersystem kontrolliert, indem es Nutzungsbeschränkungen für die iSCSI-Datenports am Hostserver und am Speicherarray einrichtet.
verbunden ist.
zum Speicherarray hergestellt wird.
Software, die die Kommunikation zwischen Hostserver und Speicherarray steuert.
Ein Dienst zur automatisierten Erkennung, Verwaltung und Konfiguration, der von einigen iSCSI-Geräten genutzt wird.
konfiguration verwaltet wird.
auf die der Hostserver zugreift.
auf dem Hostserver installierten iSCSI-Initiator entgegennimmt und darauf reagiert.
38 Vorbereiten der Systeme für den Clusterbetrieb
Page 39
Funktionsweise der CHAP-Authentifizierung
Was ist CHAP?
CHAP (Challenge Handshake Authentication Protocol) ist ein optionales iSCSI-Authentifizierungsverfahren, bei dem das Speicherarray (Target) iSCSI-Initiatoren am Hostserver authentifiziert. Es werden zwei Arten von CHAP unterstützt: Ta r g et -CHAP und Mutual (gegenseitiges) CHAP.
Target-CHAP
Beim Target-CHAP-Verfahren authentifiziert das Speicherarray alle von dem/den iSCSI-Initiatoren ausgesandten Zugriffsanfragen für den Hostserver über ein CHAP-Secret. Um die Target-CHAP-Authentifizierung einzurichten, geben Sie zunächst am Speicherarray ein CHAP-Secret ein. Anschließend konfigurieren Sie die einzelnen iSCSI-Initiatoren am Hostserver so, dass sie das CHAP-Secret bei jedem Versuch, auf das Speicherarray zuzugreifen, übermitteln.
Mutual (gegenseitiges) CHAP
Zusätzlich zum Target-CHAP-Verfahren können Sie die gegenseitige CHAPAuthentifizierung einrichten. Bei diesem Verfahren authentifizieren sich das Speicherarray und der iSCSI-Initiator gegenseitig. Um die gegenseitige CHAP-Authentifzierung einzurichten, konfigurieren Sie am iSCSI-Initiator ein CHAP-Secret, das das Speicherarray an den Hostserver übermitteln muss, um eine Verbindung aufbauen zu können. Bei dieser ZweiWege-Authentifizierung müssen sowohl der Hostserver als auch das Speicherarray Informationen übermitteln, die von der jeweils anderen Seite validiert werden. Erst danach kann eine Verbindung aufgebaut werden.
Die CHAP-Authentifizierung ist ein optionales Merkmal, das für den Betrieb von iSCSI nicht erforderlich ist. Wenn Sie die CHAP-Authentifizierung nicht einrichten, kann jedoch jeder Hostserver, der an dasselbe IP-Netzwerk angeschlossen ist, Daten vom Speicherarray lesen und darauf schreiben.
ANMERKUNG: Wenn Sie sich für die Nutzung der CHAP-Authentifizierung
entscheiden, müssen Sie sie zunächst sowohl am Speicherarray (mit MD Storage Manager) als auch am Hostserver (mit dem iSCSI-Initiator) konfigurieren, bevor Sie die virtuellen Laufwerke für die Aufnahme von Daten vorbereiten. Wenn Sie die Datenträger zur Aufnahme von Daten vorbereiten, bevor Sie die CHAP-Authentifizierung einrichten, sind die Datenträger nach der CHAPKonfiguration nicht mehr sichtbar.
Vorbereiten der Systeme für den Clusterbetrieb 39
Page 40
CHAP-Definitionen
Tabelle 3-2 enthält eine Übersicht der Unterschiede zwischen Target-CHAP­und gegenseitiger CHAP-Authentifizierung.
Tabelle 3-2. Definierte CHAP-Typen
CHAP-Typ Beschreibung
Target-CHAP Es werden Zugriffskonten eingerichtet, über die die iSCSI-
Initiatoren die Verbindung zum Zielspeicherarray (Target) aufbauen. Anschließend authentifiziert das Zielspeicherarray den iSCSI-Initiator.
Mutual (gegenseitiges) CHAP
Verwenden von iSNS (Internet Storage Naming Service) Server
Wird als Erweiterung des Target-CHAP-Verfahrens eingesetzt. Bei der gegenseitigen CHAP-Authentifizierung wird ein Zugriffskonto eingerichtet, über das ein Zielspeicherarray eine Verbindung zum iSCSI-Initiator aufbaut. Anschließend wird der iSCSI-Initiator vom Target authentifiziert.
Mit iSNS (Internet Storage Naming Service) Server ist es nicht mehr notwendig, jedes einzelne Speicherarray mit einer spezifischen Liste von Initiatoren und Ziel-IP-Adressen manuell zu konfigurieren. iSNS erkennt, verwaltet und konfiguriert alle in der Netzwerkumgebung vorhandenen iSCSI-Geräte automatisch.
Weitere Informationen zu iSNS sowie Hinweise zu Installation und Konfiguration finden Sie unter www.microsoft.com.
Konfigurieren von iSCSI auf dem Speicherarray mit MDCU
Die folgenden Abschnitte enthalten Schritt-für-Schritt-Anleitungen zur Konfiguration von iSCSI auf dem Speicherarray unter Verwendung des MDCU (Modular Disk Configuration Utility).
Es wird empfohlen, dass Sie für die iSCSI-Konfiguration das MDCU (Modular Disk Configuration Utility) verwenden. Der Assistent des MDCU führt Sie durch die oben beschriebenen Konfigurationsschritte. Informationen zur Durchführung einer manuellen Konfiguration finden Sie in der Dokumentation zum MD3600i bzw. MD3620i.
40 Vorbereiten der Systeme für den Clusterbetrieb
Page 41
Das Hilfsprogramm MDCU bietet einen konsolidierten Ansatz für die koordinierte Konfiguration des iSCSI-Hostservernetzwerks und der iSCSIbasierten modularen Festplatten-Speicherarrays (PowerVault MD36xxi) über eine assistentengeführte Benutzerschnittstelle. Zudem ermöglicht es die Best-Practice-konforme Konfiguration der iSCSI-Sitzungen des Hostservers und die Einrichtung von Lastausgleichspfaden mit den iSCSI-Hostports des Speicherarrays.
Das Hilfsprogramm MDCU wird nach der Installation von MDSM automatisch gestartet, sofern bei der Installation der Hostsoftware die Option Launch the MDCU After Reboot (MDCU nach Neustart aufrufen) ausgewählt wurde. Das Programm lässt sich auch manuell aufrufen.
MDCU führt die beiden folgenden wichtigen Aufgaben durch:
Speicherarraykonfiguration
Hostkonfiguration
So konfigurieren Sie das/die iSCSI-basierte(n) MD-Speicherarray(s) mit MDCU:
1
Falls MDCU nicht bereits automatisch gestartet wurde, starten Sie es von dem Server, über den Sie auf die Verwaltungsschnittstellen des/der zu konfigurierenden Speicherarray(s) zugreifen. Klicken Sie auf
Programme Configuration Utility
2
Klicken Sie auf
3
Wählen Sie konfigurieren) und klicken Sie auf
Dell MD Storage SoftwareModular Disk
.
Next
(Weiter).
Configure Modular Disk Storage Array
Next
(Weiter), um fortzufahren.
(MD-Speicherarray
StartAlle
Vorbereiten der Systeme für den Clusterbetrieb 41
Page 42
4
Wählen Sie die Methode, mit der das Hilfsprogramm die zu konfigurierenden Speicherarrays erkennen soll, und klicken Sie auf
Next
(Weiter).
Automatic Discovery (Automatische Erkennung) – Bei der automatischen Erkennung werden alle iSCSI-basierten MD­Speicherarrays im lokalen Subnetz abgefragt. Dies kann einige Minuten dauern.
Manual Discovery (Manuelle Erkennung) – Über die manuelle Erkennung können Sie iSCSI-basierte MD-Speicherarrays außerhalb des lokalen Subnetzes lokalisieren. Dabei müssen Sie angeben, ob Ihr Speicherarray über einen einzelnen Controller (Simplexkonfiguration) oder zwei Controller (Duplexkonfiguration) verfügt und ob die Kommunikation mit der Verwaltungsschnittstelle des Speicherarrays über das Protokoll IPv4 oder IPv6 erfolgen soll.
ANMERKUNG: Wenn kein DHCP (Dynamic Host Configuration Protocol)
verwendet wird, konfigurieren Sie bei der Erstkonfiguration mindestens einen Netzwerkadapter in dem gleichen IP-Subnetz wie die Standard-Verwaltungs­schnittstelle des Speicherarrays (192.168.128.101 oder 192.168.128.102). Nach der Erstkonfiguration werden die Verwaltungsschnittstellen mit MDSM konfiguriert und die IP-Adresse der Verwaltungsstation kann wieder auf die vorherigen Einstellungen zurückgesetzt werden.
5
Der folgende Bildschirm zeigt eine Liste der iSCSI-basierten MDSpeicherarrays an, die mit dem jeweiligen Erkennungsverfahren erkannt werden. Wenn die automatische Erkennung (
Discovery
) ausgewählt wurde, erscheint eine Liste der im Teilnetzwerk
Automatic
erkannten iSCSI-basierten MD-Speicherarrays. Wenn die Manuelle Erkennung (
Manual Discovery
) ausgewählt wurde, enthält die Liste nur das Array, dessen IP-Adresse angegeben wurde. Um weitere Arrays zur Liste hinzuzufügen, klicken Sie auf
6
Klicken Sie auf die Optionsschaltfläche neben dem Speicherarray, das Sie auswählen möchten, und klicken Sie anschließend auf
Add
(Hinzufügen).
Next
(Weiter).
42 Vorbereiten der Systeme für den Clusterbetrieb
Page 43
7
Geben Sie den Namen des Speicherarrays und das Kennwort ein. Wenn Sie ein neues Kennwort für das Array festlegen möchten, klicken Sie
auf das Kontrollkästchen anschließend das neue Kennwort in den Feldern Kennwort) und Klicken Sie auf
8
Wählen Sie das IP-Protokoll für die Kommunikation über die
Confirm New Password
Next
Set Password
(Weiter).
(Kennwort festlegen). Tragen Sie
New Password
(Neues
(Neues Kennwort bestätigen) ein.
Verwaltungsschnittstellen aus (IPv4 oder IPv6). Geben Sie zudem für jedes Protokoll an, ob die IP-Adressen der Verwaltungsschnittstellen manuell oder automatisch konfiguriert werden müssen. Weitere Informationen finden Sie in der Online-Hilfe.
Klicken Sie auf nicht die Option
Next
(Weiter). Wenn Sie für eines der beiden Protokolle
Specify Configuration Manually
(Konfiguration manuell spezifizieren) ausgewählt haben, dann können Sie Schritt 9 überspringen.
9
Wenn Sie für eines der beiden im letzten Schritt genannten Protokolle die Option
Specify Configuration Manually
ausgewählt haben, werden mehrere aufeinander folgende Bildschirme mit der Rückansicht der Speicherarray-Controller angezeigt. Jede Darstellung enthält IP-Adressen der Controller-Verwaltungsschnittstellen. Zudem ist auf jeder Darstellung eine Verwaltungsschnittstelle rot hevorgehoben.
Um für die markierte Schnittstelle eine IPv4-Adresse zu verwenden,
geben Sie IP-Adresse, Subnetzmaske und Gateway-Adresse in die Felder unter dem Bild ein.
Um für die markierte Schnittstelle eine IPv6-Adresse zu verwenden,
geben Sie die lokale IP-Adresse, eine routingfähige IP-Adresse und die Router-IP-Adresse in die Felder unter dem Bild ein.
Klicken Sie auf
Next
(Weiter), um die Darstellungen weiter durchzugehen und die Konfiguration aller Verwaltungsschnittstellen für die ausgewählten Protokolle fertig zu stellen.
Vorbereiten der Systeme für den Clusterbetrieb 43
Page 44
10
Wählen Sie das IP-Protokoll (IPv4 oder IPv6) aus, das von den iSCSI-Ports verwendet werden soll. Wählen Sie zudem für jedes Protokoll aus, ob Sie die IP-Adressen der iSCSI-Ports manuell oder automatisch konfigurieren möchten. Weitere Informationen finden Sie in der Online-Hilfe.
Wählen Sie im Dropdown-Menü unter dem Abschnitt „Protokoll“ die entsprechende iSCSI-Portgeschwindigkeit, entweder 1G oder 10G. Die Auswahl muss sich nach den unterstützten Portgeschwindigkeiten der Geräte richten, die mit den iSCSI-Ports des Speicherarrays verbunden sind.
Klicken Sie auf Protokolle, das Konfigurationsverfahren und die Portgeschwindigkeit ausgewählt haben.
Wenn Sie für eines der beiden Protokolle nicht
Manually
können Sie Schritt 11 überspringen.
11
Wenn Sie für eines der beiden Protokolle im letzten Schritt
Configuration Manually
abfolge eine Rückansicht der Speicherarray-Controller angezeigt. Jede Abbildung enthält IP-Adressen der Controller-iSCSI-Ports. Außerdem ist auf jeder Abbildung ein iSCSI-Port rot markiert.
Um für den markierten Port eine IPv4-Adresse zu verwenden, geben Sie IPAdresse, Subnetzmaske und Gateway-Adresse in die Felder unter dem Bild ein.
Um für den markierten Port eine IPv6-Adresse zu verwenden, geben Sie die lokale IP-Adresse, eine routingfähige IP-Adresse und die Router-IP­Adresse in die Felder unter dem Bild ein.
Klicken Sie auf und die Konfiguration aller iSCSI-Ports für die ausgewählten Protokolle fertig zu stellen.
12
Wählen Sie im Bildschirm die CHAP-Methode und klicken Sie auf Informationen zu CHAP finden Sie unter „Funktionsweise der CHAP­Authentifizierung“ auf Seite 39.
Next
(Weiter), um fortzufahren, nachdem Sie die
Specify Configuration
(Konfiguration manuell spezifizieren) ausgewählt haben, dann
Specify
ausgewählt haben, wird in einer Bildschirm-
Next
(Weiter), um die Darstellungen weiter durchzugehen
CHAP Configuration
Next
(CHAP-Konfiguration)
(Weiter). Weitere
44 Vorbereiten der Systeme für den Clusterbetrieb
Page 45
13
Prüfen Sie im Bildschirm
Summary
(Übersicht) die von Ihnen
eingegebenen Informationen zum Speicherarray. Klicken Sie auf
Apply
(Anwenden), um die Änderungen am Array
zu speichern.
ANMERKUNG: Klicken Sie auf Cancel Array (Abbrechen), um die Konfiguration
des Speicherarrays abzubrechen und ein anderes Speicherarray für die Konfiguration auszuwählen.
14
Geben Sie im Bildschirm Arrays konfigurieren möchten. Klicken Sie auf
Configure Additional Arrays
Next
(Weiter), um
an, ob Sie weitere
fortzufahren.
15
Wenn Sie in Schritt 14
Yes
(Ja) gewählt haben, wiederholen Sie Schritt 4
bis Schritt 13, um ein weiteres Array zu konfigurieren.
16
Wenn Sie inSchritt 14 No (Nein) ausgewählt haben, wählen Sie auf dem Bildschirm
Configure Host Connectivity
(Hostkonnektivität konfigurieren) aus, ob Sie die Konnektivität für den iSCSI-Initiator des aktuellen Hosts konfigurieren möchten. Klicken Sie auf
Next
(Weiter),
um fortzufahren. Wenn Sie oben
Konfigurationsarbeitsschritt abgeschlossen. Klicken Sie auf
No
(Nein) ausgewählt haben, dann haben Sie den
Finish
(Fertig stellen), um das Dienstprogramm zu beenden.
17
Wenn Sie im letzten Schritt Bildschirm
Select Storage Array
Yes
(Ja) ausgewählt haben, wird der
(Speicherarray auswählen) angezeigt. Wählen Sie das Speicherarray, das Sie für die Verbindung zum lokalen Host konfigurieren möchten.
ANMERKUNG: Die Namen der gerade über das Hilfsprogramm konfigurierten
Speicherarrays werden in der Liste mit dem Hinweis „Configuration Complete“ (Konfiguration abgeschlossen) gekennzeichnet. Daran erkennen Sie sofort, welche Arrays bereit sind, um für den Hostzugriff konfiguriert zu werden.
Vorbereiten der Systeme für den Clusterbetrieb 45
Page 46
18
Führen Sie im Bildschirm
Storage Array Login
(Anmeldung beim
Speicherarray) die folgenden Schritte durch:
a
Wählen Sie in der Spalte
Controller#
(Controllernr.) den iSCSI­Hostport des Speicherarrays, das Sie konfigurieren möchten, sowie die IP-Adressen aus.
b
Wählen Sie in der Spalte
Host Address
(Hostadresse) die Host-IP­Adresse aus, die sich beim iSCSI-Hostport des Speicherarrays anmelden muss.
c
Klicken Sie auf einen weiteren Controller einzugeben, oder auf
Next
(Weiter), um die Anmeldeinformationen für
Apply
(Übernehmen),
um die Anmeldeinformationen zu übermitteln.
19
Wählen Sie im Bildschirm
Connect to Additional Arrays
aus, ob Sie eine Verbindung zu einem weiteren Speicherarray konfigurieren möchten. Um eine Verbindung zu einem weiteren Speicherarray zu konfigurieren, wiederholen Sie die obenstehenden Schritte von Schritt 17 an. Wenn Sie keine Verbindungen zu weiteren Speicherarrays konfigurieren möchten, klicken Sie im letzten Bildschirm auf
Finish
(Fertig stellen), um das
Hilfsprogramm zu beenden.
Konfigurieren der Hostkonnektivität unter Verwendung von MDCU
Sobald Sie die Konfiguration der IP-Adressen für die iSCSI-basierten Speicherarrays angeschlossen haben, führen Sie dieses Dienstprogramm auf allen Hosts aus, die auf die Speicherarrays zugreifen müssen. So konfigurieren Sie die Hostkonnektivität für eines oder mehrere iSCSI-basierte Speicherarrays unter Verwendung von MDCU:
1
Starten Sie das Dienstprogramm (wenn es nicht automatisch gestartet wird) von dem Server aus, der für den Zugriff auf das/die iSCSI­basierte(n) Speicherarray(s) konfiguriert werden soll. Dieser Server muss Zugriff auf das Array haben, entweder unter Verwendung der Verwaltungsschnittstellen oder der iSCSI-Hostports des Arrays.
Klicken Sie unter Windows auf
MD Storage SoftwareModular Disk Configuration Utility
StartAlle ProgrammeDell

.
Klicken Sie auf
Next
(Weiter).
46 Vorbereiten der Systeme für den Clusterbetrieb
Page 47
2
Wählen Sie auf dem Bildschirm aufgabe)
Next
ANMERKUNG: Dieser Arbeitsschritt wird nicht unterstützt bzw. wird deaktiviert,
wenn der MDSM-Agent nicht auf dem Host installiert ist, auf dem das Dienstprogramm ausgeführt wird.
3
Wählen Sie auf dem Bildschirm
Configure Host
(Weiter).
Configuration Task
(Konfigurations-
(Host konfigurieren) aus und klicken Sie auf
Discovery Method
eines der folgenden
Erkennungsverfahren aus:
Wenn der Host Zugriff auf die Verwaltungsschnittstellen des/der MD­Speicherarrays(s) hat, wählen Sie das Verfahren
Port
(Erkennung über Verwaltungsschnittstelle) aus und klicken Sie auf
Next
(Weiter).
Discover via Management
Wenn der Host keinen Zugriff auf die Verwaltungsschnittstellen des Arrays hat, wählen Sie das Verfahren
Discover via iSCSI Port
(Erkennung über iSCSI-Port) (unter Annahme dessen, dass der Host Zugriff auf die iSCSI­Host-Verwaltungsschnittstellen des Speicherarrays hat) und klicken Sie auf
Next
(Weiter). Fahren Sie mit Schritt 6 fort.
4
Wählen Sie die Konfigurationsaufgabe
Array
(MD-Speicherarray konfigurieren) und klicken Sie auf
Configure Modular Disk Storage
Next
(Weiter), um fortzufahren.
5
Wählen Sie das Verfahren, mit dem das Dienstprogramm die Speicher­arrays für die Konfiguration ermitteln soll, und klicken Sie auf
Next
(Weiter).
Automatic Discovery (Automatische Erkennung) – Bei der
automatischen Erkennung werden alle iSCSI-basierten MDSpeicherarrays im lokalen Subnetz abgefragt. Dies kann einige Minuten dauern.
Manual Discovery (Manuelle Erkennung) – Die manuelle Erkennung
erlaubt Ihnen das Lokalisieren von iSCSI-basierten Speicherarrays außerhalb des lokalen Subnetzes. Bei der manuellen Erkennung müssen Sie auswählen, ob das Speicherarray über einen Einzelcontroller (Simplex) oder Dual-Controller (Duplex) verfügt und ob für die Kommunikation mit der Verwaltungsschnittstelle des Speicherarrays das Protokoll IPv4 oder IPv6 verwendet werden soll. Fahren Sie mit Schritt 7 fort.
Vorbereiten der Systeme für den Clusterbetrieb 47
Page 48
6
Geben Sie auf dem Bildschirm ISCSI-Ports) die IPv4-Adresse für einen beliebigen iSCSI Hostport des Arrays ein, mit dem sich der Host verbinden kann, oder geben Sie die lokale IPv6-Adresse eines beliebigen iSCSI Hostports ein. Klicken Sie auf
Next
(Weiter).
7
Geben Sie auf dem Bildschirm Konfiguration) das CHAP-Secret ein, wenn Sie für das Speicherarray ein CHAP-Secret konfiguriert haben.
8
Wählen Sie auf dem Bildschirm Anmeldung) in der Spalte Controller# den iSCSI Hostport des Speicherarrays, das konfiguriert werden soll, und die die IP-Adresse(n) des Hostports. Wählen Sie in der Spalte Menüliste die Host-IP-Adresse aus, die sich am iSCSI-Hostport des Speicherarrays anmeldet. Weitere Informationen darüber, wie diese HostIP-Adressen im Dropdown-Menü aufgeführt sind, und die empfohlenen Richtlinien für die Auswahl der Host-IP-Adressen finden Sie unter „Auswahl von Quellports für iSCS-Hostports“ auf Seite 49.
Klicken Sie auf einformationen für einen weiteren Controller fortzufahren, oder klicken Sie auf Array zu übernehmen.
9
Wählen Sie auf dem Bildschirm eine Verbindung mit einem weiteren Speicherarray herstellen möchten oder nicht.
Wenn Sie eine Verbindung mit einem weiteren Speicherarray herstellen möchten, wiederholen Sie die oben aufgeführten Schritte, indem Sie je nach Ihrer letzten Auswahl bei Schritt 4 oder 5 beginnen.
Apply
Next
(Weiter), um mit der Eingabe der Anmeld-
(Übernehmen), um die Anmeldeeinformationen für das
iSCSI Port IP Address
CHAP Configuration
Storage Array Login
Host Address
Connect to Additional Arrays
(IP-Adresse des
(CHAP-
(Speicherarray-
aus der Dropdown-
aus, ob Sie
Wenn Sie keine Verbindung zu weiteren Arrays herstellen möchten, klicken Sie auf zu beenden.
48 Vorbereiten der Systeme für den Clusterbetrieb
Finish
(Fertig stellen), um das Dienstprogramm
Page 49
Auswahl von Quellports für iSCS-Hostports
Zum Aufbau der Datenkommunikation zwischen einem Host und einem iSCSI-basierten Speicherarray muss der iSCSI-Initiator des Hosts zum Aufbau von iSCSI-Sitzungen mit den iSCSI-Hostports des Speicherarrays konfiguriert werden. Auf dem iSCSI-Port-Anmeldebildschirm können Sie die IP-Adressen des Hosts und des Speicherarrays angeben, die der iSCSIInitiator zum Aufbau dieser iSCSI-Sitzungen verwendet.
Port-Anmeldungsauswahl
Jedem iSCSI-Port jedes Controllers im Speicherarray wird eine Liste mit Host-IP-Adressen angeboten, mittels derer sich der iSCSI-Initiator anmelden kann. Die Host-IP-Adressen sind die IP-Quelladressen und der iSCSI-Port ist das Ziel (Target). Jede Liste enthält nur diejenigen Host-IP-Adressen, die mit dem zugeordneten iSCSI-Port kommunizieren können Wenn keine der Host­IP-Adressen mit einem iSCSI-Port kommunizieren kann, ist Not Available (Nicht verfügbar) die einzige Option, die für diesen iSCSI-Port angezeigt wird. Wenn keine der Host-IP-Adressen in der Lage ist, mit irgendeinem iSCSI-Port für einen der Speicherarray-Controller zu kommunizieren, wird die Option zur Hostkonfiguration für dieses Speicherarray beendet.
Automatische Auswahl
Das Dienstprogramm versucht automatisch, die bestmögliche Konfiguration der Host-IP-Adresse(n) und Speicherarray-iSCSI-Ports zu finden, um eine optimale Leistung und Redundanz zu erzielen.
Durch diese automatische Auswahl wird versucht sicherzustellen, dass eine Host-IP-Adresse (bis zu zwei IP-Adressen bei MD3600i/MD3620i­Speicherarrrays und bis zu vier IP-Adressen bei MD3200i/MD3220i­Speicherarrays) eine iSCSI-Sitzung mit jedem Speicherarray-Controller aufbaut und dass die Host-IP-Adresse an maximal einem iSCSI-Port pro Controller angemeldet ist. Die derartige Konfiguration stellt Redundanz und Lastausgleich zwischen den einzelnen Host-IP-Adressen (NICs) sicher.
Die Option Do Not Connect (Nicht verbinden) kann als Standardoption ausgewählt werden, wenn das Dienstprogramm empfiehlt, keine Verbindung mit dem iSCSI-Port herzustellen. Des Weiteren können Sie diese Konfiguration selbst dann noch umgehen, wenn die beste empfohlene Konfiguration angeboten wird (wann immer möglich), indem Sie aus der Dropdown-Liste die anderen Host-IP-Adressen auswählen.
Vorbereiten der Systeme für den Clusterbetrieb 49
Page 50
Suboptimale Konfigurations-Warnhinweise
In den folgenden Fällen wird eine Warnmeldung angezeigt. Bestätigen Sie, dass Sie den Vorgang fortsetzen möchten.
Die Host-IP-Adressen werden so ausgewählt, dass in einer Dual­Controller-(Duplex-)Konfiguration alle Host-IP-Adressen nur mit einem einzigen Speicherarray-Controller iSCSI-Sitzungen aufbauen.
Die Host-IP-Adressen werden so ausgewählt, dass eine Host-IP-Adresse zwei oder mehr iSCSI-Sitzungen mit dem gleichen Speicherarray­Controller aufbaut.
Automatische Erkennung von Speicherarrays
1
Starten Sie MDSM. Das Fenster
Enterprise Management
Enterprise Management
enthält die folgenden Registerkarten:
wird geöffnet. Das Fenster
Registerkarte
Devices
(Geräte) – Enthält Informationen zu den
Speicherarrays.
Registerkarte
Setup
– Stellt die Arbeitsschritte im ersten Setup dar, mit denen Sie Speicherarrays hinzufügen und Warnmeldungen konfigurieren können.
Wenn es sich um das erste einzurichtende Speicherarray handelt, wird das Fens te r
Add New Storage Array
(Neues Speicherarray hinzufügen)
angezeigt.
2
Wählen Sie
Automatic
(Automatisch) und klicken Sie auf OK.
Die Suche nach angeschlossenen Speicherarrays kann einige Minuten in Anspruch nehmen.
Sie können das Array verwalten, indem Sie über das Fenster
Management
Das Fenster einzelnes Speicherarray. Es können mehrere
das Fenster
Array Management
Array Management
(Arrayverwaltung) starten.
bietet Verwaltungsfunktionen für ein
Array Management
Enterprise
-Fenster gleichzeitig geöffnet sein, um unterschiedliche Speicherarrays zu verwalten.
Zum Starten des Fensters
Enterprise Management
Array Management
auf die Registerkarte
klicken Sie im Fenster
Devices
(Geräte) und
doppelklicken Sie auf das entsprechende Speicherarray.
50 Vorbereiten der Systeme für den Clusterbetrieb
Page 51
Festlegen eines Hosts
Wenn auf dem Host der Host-Context-Agent ausgeführt wird, werden die mit dem Speicherarray verbundenen Hosts und Hostports von MDSM automatisch erkannt und werden in der Registerkarte Mappings (Zuweisungen) des Fensters Array Management unter der Default Group (Standardgruppe) aufgeführt.
Nach Installation der Speichersoftware sollten sämtliche Hosts aufgeführt sein. Wenn ein Host nicht erkannt wird, kann er manuell hinzugefügt werden:
1
Aktivieren Sie im Fenster
Array Management
die Registerkarte
Mappings
(Zuweisungen) und wählen Sie das geeignete Speicherarray aus.
2
Gehen Sie folgendermaßen vor:
•Wählen Sie
Aktivieren Sie die Registerkarte
Define Hosts
Aktivieren Sie die Registerkarte im Fensterbereich den Stammknoten (Name des Speicherarrays), den Knoten
Group
Mappings Define Host
Setup
aus.
und klicken Sie auf
(Hosts manuell festlegen).
Mappings
To po l og y
(Topologie) mit der rechten Maustaste auf
(Standardgruppe) oder den Knoten
Manually
(Zuweisungen) aus. Klicken Sie
Default
Host Group
(Hostgruppe), zu dem Sie den Host hinzufügen möchten, und wählen Sie im Popupmenü den Eintrag
Das Fenster
DefineHost
(Host festlegen).
Specify Host Name
(Hostnamen angeben) wird angezeigt.
3
Geben Sie bei
Host name
einen alphanumerischen Namen mit maximal
30 Buchstaben ein.
4
Wählen Sie unter
array?
(Sollen die Speicherpartitionen in diesem Speicherarray genutzt
Do you plan to use the storage partitions in this storage
werden?) die entsprechende Option und klicken Sie auf Das Fenster
Specify Host Port Identifiers
(Hostportkennungen festlegen)
wird angezeigt.
Vorbereiten der Systeme für den Clusterbetrieb 51
Next
(Weiter).
Page 52
5
Wählen Sie die relevante Option, um eine Hostportkennung für den Host hinzuzufügen:
Add by selecting a known unsolicited host port identifier
(Durch Auswahl einer bekannten, nicht zugewiesenen Hostportkennung hinzufügen) – Wählen Sie unter
Known unsolicited host port identifiers
(Bekannte, nicht zugewiesene Hostportkennungen) die entsprechende Hostportkennung aus.
Add by creating a new host port identifier
Hostportkennung hinzufügen) – Geben Sie unter
(Durch Erstellen einer neuen
New host port identifier
(Neue Hostportkennung) einen Namen mit 16 Buchstaben und einen
Alias
mit max. 30 Buchstaben für die Hostportkennung ein und klicken
Sie auf
ANMERKUNG: Die Hostportkennung darf nur Buchstaben von A bis F enthalten.
6
Klicken Sie auf Das Fenster
7
Wählen Sie bei
Add
(Hinzufügen).
Next
Specify Host Type
Host type
(Weiter).
(Hosttyp angeben) wird angezeigt.
das entsprechende Betriebssystem für den Host
aus. Das Fenster
8
Folgende Optionen stehen zur Auswahl:
Yes
(Ja) – Dieser Host teilt sich mit anderen Hosts den Zugang zu den
Host Group Question
(Host-Gruppenfrage) wird angezeigt.
gleichen virtuellen Laufwerken.
No
(Nein) – Dieser Host teilt sich NICHT mit anderen Hosts den Zugang
zu den gleichen virtuellen Laufwerken.
9
Klicken Sie auf Wenn Sie
(Hostgruppe festlegen) angezeigt. Wenn Sie
Next
(Weiter).
Ye s
auswählen, wird das Fenster
Specify Host Group
No
auswählen, wechseln Sie
zu Schritt 11.
10
Geben Sie den Namen der Hostgruppe ein oder wählen Sie eine vorhandene Hostgruppe aus und klicken Sie auf
Das Fenster
11
Klicken Sie auf
Preview
Finish
(Vorschau) wird angezeigt.
(Fertig stellen).
Next
52 Vorbereiten der Systeme für den Clusterbetrieb
(Weiter).
Page 53
Erstellen einer Hostgruppe
Eine Hostgruppe ist ein logischer Verbund von zwei oder mehreren Hosts, die den Zugriff auf spezifische virtuelle Laufwerke im Speicherarray gemeinsam nutzen.
So erstellen Sie Hostgruppen:
1
Wählen Sie im Registerkarte
2
Wählen Sie im Feld
Fen st er Array Management
Mappings
(Zuweisungen).
To po l og y
(Topologie) das Speicherarray oder die
(Arrayverwaltung) die
Standardgruppe aus.
3
Führen Sie eine der folgenden Aktionen aus: –Wählen Sie
Mappings Define Host Group
.
Klicken Sie mit der rechten Maustaste auf das Speicherarray oder
Default Group Define Host Group
4
Geben Sie im Feld
(Standardgruppe) und wählen Sie im Popupmenü
.
Enter new host group name
(Neuen Hostgruppen-
namen eingeben) einen Namen für die neue Hostgruppe ein.
5
Wählen Sie im Feld auswählen) die gewünschten Hosts aus und klicken Sie auf
Select Hosts to Add
(Hinzuzufügenden Host
Add
(Hinzufügen).
6
Klicken Sie auf OK. Die Hostgruppe wird zum Speicherarray hinzugefügt.
Erstellen von Laufwerksgruppen und virtuellen Laufwerken
In manchen Fällen sind die virtuellen Laufwerke bereits bei der Lieferung verbunden. Gleichwohl ist es wichtig, dass Sie die Verwaltungssoftware installieren und überprüfen, ob die gewünschte Konfiguration virtueller Laufwerke vorhanden ist.
Die Remoteverwaltung der virtuellen Laufwerke ist über PowerVault Modular Disk Storage Manager möglich. Für eine Aktiv-Passiv-Clusterkonfiguration benötigen Sie mindestens ein virtuelles Laufwerk, für eine Aktiv-Aktiv­Clusterkonfiguration mindestens zwei virtuelle Laufwerke.
Datenträgergruppen werden im nicht konfigurierten Speicher des Speicherarrays erstellt. Virtuelle Laufwerke werden im verfügbaren Speicher einer Datenträgergruppe erstellt. Die mit dem Speicherarray verbundenen Hosts lesen und schreiben Daten auf das virtuelle Laufwerk.
Vorbereiten der Systeme für den Clusterbetrieb 53
Page 54
ANMERKUNG: Bevor Sie virtuelle Laufwerke erstellen können, müssen Sie
zunächst die physischen Datenträger in Datenträgergruppen organisieren und den Hostzugriff konfigurieren. Danach lassen sich virtuelle Laufwerke in einer Datenträgergruppe erstellen.
Um ein virtuelles Laufwerk zu erstellen, gehen Sie nach einem der folgenden Verfahren vor:
Automatische Konfiguration
Manuelle Konfiguration
Um Datenträgergruppen mit der automatischen Konfiguration zu erstellen, folgen Sie der nachstehenden Anleitung:
1
Um den
Assistenten zum Erstellen von Datenträgergruppen
zu starten,
führen Sie eine der nachstehenden Aktionen durch:
So erstellen Sie eine Datenträgergruppe aus nicht konfigurierten
Kapazitäten im Speicherarray: Wählen Sie auf der Registerkarte
Logical
(Unkonfigurierte Kapazität) aus und wählen Sie
Create Unconfigured Capacity
Popupmenü die Option
(Logische Datenträger) den Knoten
Unconfigured Capacity
Disk Group
. Sie können auch mit der rechten Maustaste auf den Knoten
(Unkonfigurierte Kapazität) klicken und im
Create Disk Group
(Datenträgergruppe
erstellen) auswählen.
So erstellen Sie eine Datenträgergruppe aus nicht zugewiesenen
physikalischen Laufwerken im Speicherarray: Wählen Sie auf der Registerkarte
Physical
(Physische Datenträger) einen oder mehrere nicht zugewiesene physische Datenträger des gleichen Typs aus und wählen Sie
Disk Group Create
. Sie können auch mit der rechten Maustaste auf die nicht zugewiesenen physischen Datenträger klicken und im Popupmenü die Option
Create Disk Group
(Datenträgergruppe erstellen) auswählen.
54 Vorbereiten der Systeme für den Clusterbetrieb
Page 55
So erstellen Sie eine geschützte Datenträgergruppe: Wählen Sie auf der Registerkarte
Physical
(Physische Laufwerke) einen oder mehrere nicht zugewiesene physische Datenträger des gleichen Typs mit Sicherheitsmerkmalen aus und wählen Sie
Disk Group Create
können auch mit der rechten Maustaste auf die nicht zugewiesenen physischen Datenträger mit Sicherheitsmerkmalen klicken und im Popupmenü die Option erstellen) auswählen. Das Fenster
2
Klicken Sie auf
Physical Disk Selection
Next
(Weiter). Das Fenster
Create Disk Group
Create Disk Group
(Datenträgergruppe
wird angezeigt.
Disk Group Name and
(Name der Datenträgergruppe und Auswahl
physischer Datenträger) wird angezeigt.
3
Geben Sie im Feld
Disk Group Name
(Name der Datenträgergruppe)
einen Namen für die Datenträgergruppe ein (bis zu 30 Zeichen).
4
Wählen Sie aus den folgenden Optionen die gewünschte Konfigurationsmethode zur Auswahl der physischen Datenträger:
Automatic (Automatisch) (siehe Schritt 6) – Manual (Manuell) (siehe Schritt 7)
5
Klicken Sie auf
6
Bei Auswahl der automatischen Konfiguration wird das Fenster
Level and Capacity
a
Wählen Sie im Feld
Next
(Weiter).
(RAID-Level und Kapazität) angezeigt.
Select RAID Level
(RAID-Level auswählen) den
RAID
gewünschten RAID-Level aus. Die verfügbaren RAID-Level sind 0, 1/10, 6 und 5. Die für den gewählten RAID-Level verfügbaren physischen Datenträger werden in der Tabelle
Select Capacity
(Kapazität auswählen) angezeigt.
b
Wählen Sie in der Tabelle der Datenträgergruppe aus und klicken Sie auf
Select Capacity
die gewünschte Kapazität
Finish
(Fertig stellen).
. Sie
Vorbereiten der Systeme für den Clusterbetrieb 55
Page 56
7
Bei Auswahl der manuellen Konfiguration wird das Fenster
Physical Disk Selection
(Manuelle Auswahl der physischen Datenträger)
Manual
angezeigt.
a
Wählen Sie im Feld „Select RAID Level“ (RAID-Level auswählen) den gewünschten RAID-Level aus. Die verfügbaren RAID-Level sind 0, 1/10, 6 und 5. Die für den gewählten RAID-Level verfügbaren physischen Datenträger werden in der Tabelle
Disks
(Nicht ausgewählte physische Datenträger) angezeigt.
b
Wählen Sie im Feld
Unselected Physical Disks
physischen Datenträger aus und klicken Sie auf
ANMERKUNG: Um mehrere physische Datenträger in einem Vorgang
auszuwählen, halten Sie die Taste <Strg> oder <Umschalt> gedrückt und wählen Sie weitere physische Datenträger aus.
8
Klicken Sie auf
Calculate Capacity
(Kapazität berechnen), um die
Unselected Physical
die gewünschten
Add
(Hinzufügen).
Kapazität der neuen Datenträgergruppe anzuzeigen.
9
Klicken Sie auf
Finish
(Fertig stellen). In der daraufhin angezeigten Bestätigungsmeldung werden Sie informiert, dass die Datenträgergruppe erfolgreich hinzugefügt wurde und dass mindestens ein virtuelles Laufwerk ausgewählt werden muss, damit die Kapazität der neuen Datenträger­gruppe genutzt werden kann.
So erstellen Sie virtuelle Laufwerke:
1
Rufen Sie den
Assistenten zum Erstellen virtueller Laufwerke
der nachstehend beschriebenen Verfahren auf:
So erstellen Sie ein virtuelles Laufwerk aus nicht konfigurierten
Kapazitäten im Speicherarray: Wählen Sie auf der Registerkarte
Logical
(Unkonfigurierte Kapazität) aus und wählen Sie
Create Unconfigured Capacity
Popupmenü die Option
(Logische Datenträger) den Knoten
Unconfigured Capacity
Virtual Disk
. Sie können auch mit der rechten Maustaste auf den Knoten
(Unkonfigurierte Kapazität) klicken und im
Create Virtual Disk
(Virtuelles Laufwerk
erstellen) auswählen.
mit einem
56 Vorbereiten der Systeme für den Clusterbetrieb
Page 57
So erstellen Sie ein virtuelles Laufwerk aus freien Kapazitäten in einer Datenträgergruppe: Wählen Sie auf der Registerkarte (Logische Datenträger) den Knoten aus und wählen Sie
Virtual Disk Create
rechten Maustaste auf den Knoten klicken und im Popupmenü die Option
Free Capacity
. Sie können auch mit der
Free Capacity
Create Virtual Disk
Logical
(Freie Kapazität)
(Freie Kapazität)
(Virtuelles Laufwerk erstellen) auswählen.
So erstellen Sie ein virtuelles Laufwerk aus nicht zugewiesenen physischen Datenträgern im Speicherarray: Wählen Sie auf der Registerkarte
Physical
(Physische Datenträger) einen oder mehrere nicht zugewiesene physische Datenträger des gleichen Typs aus und wählen Sie
Virtual Disk Create
. Sie können auch mit der rechten Maustaste auf die nicht zugewiesenen physischen Datenträger klicken und im Popupmenü die Option
Create Virtual Disk
(Virtuelles
Laufwerk erstellen) auswählen.
So erstellen Sie ein geschütztes virtuelles Laufwerk: Wählen Sie auf der Registerkarte
Physical
(Physische Datenträger) einen oder mehrere nicht zugewiesene physische Datenträger des gleichen Typs mit Sicherheitsmerkmalen aus und wählen Sie
Virtual Disk Create
Sie können auch mit der rechten Maustaste auf die nicht zugewiesenen physischen Datenträger mit Sicherheitsmerkmalen klicken und im Popupmenü die Option
Create Virtual Disk
(Virtuelles Laufwerk erstellen) auswählen. Wenn Sie zum Erstellen eines virtuellen Laufwerks einen Knoten mit nicht konfigurierter Kapazität ( physischen Datenträgern auswählen, wird das Fenster
Required Ye s
(Ja) und legen Sie mithilfe des
Unconfigured Capacity
) oder nicht zugewiesenen
Disk Group
(Datenträgergruppe erforderlich) angezeigt. Klicken Sie auf
Create Disk Group Wizard
(Assistenten zum Erstellen von Laufwerksgruppen) eine Laufwerksgruppe an. Nach dem Anlegen der Datenträgergruppe wird der
Create Virtual Disk Wizard
(Assistent zum Erstellen virtueller Laufwerke) angezeigt. Wenn Sie einen Knoten mit freier Kapazität (
Free Capacity
) anzeigen, wird das Fenster
Create Virtual Disk
(Virtuelles Laufwerk erstellen) angezeigt.
2
Klicken Sie auf
Next
(Weiter). Das Fenster
Specify Capacity /Name
(Kapazität/Name festlegen) wird angezeigt.
.
Vorbereiten der Systeme für den Clusterbetrieb 57
Page 58
3
Wählen Sie die gewünschte Speichereinheit aus der Dropdown-Liste
Units
(Einheiten) aus, und geben Sie im Feld
New Virtual Disk Capacity
(Kapazität des neuen virtuellen Laufwerks) die Kapazität des virtuellen Laufwerks ein.
4
Geben Sie im Feld
Virtual Disk Name
(Name des virtuellen Laufwerks) einen beschreibenden Namen für das virtuelle Laufwerk ein (bis zu 30 Zeichen).
5
Im Feld
Advanced Virtual Disk Parameters
(Erweiterte Parameter des
virtuellen Laufwerks) können Sie zwischen folgenden Optionen wählen: – Use recommended settings (Empfohlene Einstellungen verwenden) – Customize settings (Einstellungen anpassen)
6
Klicken Sie auf
7
Wählen Sie im Fenster
Next
(Weiter).
Customize Advanced Virtual Disk Parameters
(Erweiterte Parameter des virtuellen Laufwerks) die passenden E/AMerkmale des virtuellen Laufwerks. Folgende Optionen stehen zur Auswahl:
File system (typical) (Dateisystem, typisch) – Database (Datenbank) – Multimedia – Custom (Benutzerdefiniert)
ANMERKUNG: Wenn Sie die Option Custom (Benutzerdefiniert) wählen, müssen
Sie eine geeignete Segmentgröße angeben.
8
Wählen Sie unter Preferred RAID controller module das bevorzugte RAID-Controllermodul aus.
Weitere Informationen zum Erstellen von Datenträgergruppen und virtuellen Laufwerken finden Sie im Benutzerhandbuch zu Dell PowerVault Modular Disk Storage Manager unter support.dell.com/manuals.
Es wird empfohlen, für jede Anwendung mindestens ein virtuelles Laufwerk zu erstellen. Wenn mehrere NTFS-Volumes mit der Windows- Datenträgerverwaltung auf einem einzigen virtuellen Laufwerk erstellt werden, erfolgt das Failover für diese Volumes gemeinsam anstatt individuell von Knoten zu Knoten.
58 Vorbereiten der Systeme für den Clusterbetrieb
Page 59
ANMERKUNG: Es wird empfohlen, einen anderen RAID-Level als RAID 0 (auch als
Striping bezeichnet) zu verwenden. RAID 0-Konfigurationen bieten zwar eine sehr hohe Leistungsfähigkeit, können aber nicht die für Quorumressourcen benötigte Verfügbarkeit garantieren. Nähere Informationen zur Einrichtung der RAID-Levels für das System finden Sie in der Dokumentation des Speichersystems.
Erstellen von Zuweisungen zwischen Hosts und virtuellen Laufwerken
So erstellen Sie Zuweisungen zwischen virtuellen Laufwerken und Hostgruppen, die Clusterknoten enthalten:
1
Wählen Sie im Fenster die Registerkarte
2
Wählen Sie im Fensterbereich
Array Management
Mappings
(Zuweisungen).
To po lo g y
(Arrayverwaltung)
(Topologie): – Default Group (Standardgruppe) – Undefined Mappings Node (Knoten für nicht definierte
Zuweisungen) – Individual Defined Mapping (Einzeln definierte Zuweisung) – Host Group (Hostgruppe) –Host
3
Wählen Sie in der Symbolleiste
Mapping
. Das Fenster
Define Additional Mapping
Mappings Define Additional
(Weitere Zuweisung
definieren) wird angezeigt.
4
Wählen Sie im Feld
Host Group
(Hostgruppe) oder
Host
die gewünschte
Hostgruppe aus.
5
Wählen Sie im Feld
Logical Unit Number
(Logische Gerätenummer)
eine LUN aus. Unterstützt werden die LUNs 0 bis 255.
6
Wählen Sie im Bereich Laufwerk aus. Im Bereich
Virtual Disk
Virtual Disk
(Virtuelles Laufwerk) das virtuelle
werden Namen und Kapazitäten der virtuellen Laufwerke aufgelistet, die für die gewählte Hostgruppe bzw. den gewählten Host für eine Zuweisung zur Verfügung stehen.
7
Klicken Sie auf
Add
(Hinzufügen).
ANMERKUNG: Die Schaltfläche Add wird erst aktiviert, nachdem eine
Hostgruppe / ein Host, eine LUN und ein virtuelles Laufwerk ausgewählt worden sind.
Vorbereiten der Systeme für den Clusterbetrieb 59
Page 60
8
Wiederholen Sie zur Definition weiterer Zuweisungen Schritt 4 bis Schritt 7.
ANMERKUNG: Nachdem ein virtuelles Laufwerk einmal zugewiesen wurde, ist es
nicht mehr im Bereich Virtual Disk (Virtuelles Laufwerk) verfügbar.
9
Klicken Sie auf Die Fensterbereiche (Definierte Zuweisungen) in der Registerkarte
Close
(Schließen). Die Zuweisungen werden gespeichert.
To po l og y
(Topologie) und
Defined Mappings
Mappings
(Zuweisungen)
werden aktualisiert und die Zuweisungen werden angezeigt.

Hilfsmittel zur Fehlerbehebung

Dell PowerVault MDSM stellt die Kommunikation mit den einzelnen verwalteten Arrays her und bestimmt ihren derzeitigen Status. Bei Problemen mit einem Speicherarray bietet MDSM verschiedene Möglichkeiten zur Behebung.
Ereignisprotokoll
Über die Ereignisprotokollanzeige (Event Log Viewer) können Sie eine detaillierte Liste der in einem Speicherarray auftretenden Ereignisse anzeigen. Das Ereignisprotokoll wird auf den Datenträgern des Speicherarrays in reservierten Bereichen gespeichert. Es zeichnet Konfigurationsereignisse und Ausfälle von Komponenten des Speicherarrays auf.
VORSICHTSHINWEIS: Verwenden Sie diese Option nur unter Anleitung
eines Mitarbeiters des technischen Supports.
Im Ereignisprotokoll werden ca. 8.000 Ereignisse gespeichert, bevor die ältesten Ereignisse durch neue überschrieben werden. Wenn Sie die aufgezeichneten Ereignisse aufbewahren möchten, können Sie sie anderweitig speichern oder aus dem Ereignisprotokoll löschen.
Im Fenster Event Log (Ereignisprotokoll) sind die folgenden Anzeigetypen für Ereignisse verfügbar:
• Summary view (Übersicht) – Zeigt die Ereignisse übersichtsartig in einer Tabelle an.
• Detail view (Detailansicht) – Zeigt ausführliche Informationen zum ausgewählten Ereignis an.
60 Vorbereiten der Systeme für den Clusterbetrieb
Page 61
So zeigen Sie das Ereignisprotokoll an:
1
Wählen Sie im Fenster
Advanced Troubleshooting View Event Log
Array Management
(Arrayverwaltung)
. Das
Ereignisprotokoll
wird angezeigt. Standardmäßig wird die Übersicht dargestellt.
2
Um ausführliche Informationen zu einem gewählten Protokolleintrag anzuzeigen, wählen Sie der Fensterbereich
View Details
Detail
mit Informationen zu dem betreffenden Eintrag
(Details anzeigen). Daraufhin wird
angezeigt. Ausführliche Informationen können jeweils nur für einen ausgewählten Protokolleintrag angezeigt werden.
3
So speichern Sie das Ereignisprotokoll:
a
Klicken Sie auf
Events
(Ereignisse speichern) wird angezeigt.
b
Navigieren Sie zum gewünschten Ordner und geben Sie den
Save As
(Speichern unter). Das Dialogfeld
Save
gewünschten Dateinamen ein.
c
Klicken Sie auf
4
Klicken Sie auf
Save
Clear All
(Speichern). (Alle löschen), um alle Protokolleinträge aus dem
Ereignisprotokoll zu löschen.
5
Klicken Sie auf
Close
(Schließen), um das Ereignisprotokoll zu schließen.
Weitere Informationen finden Sie in den Online-Hilfethemen zum PowerVault Modular Disk Storage Manager.
Recovery Guru
Recovery Guru ist eine Komponente von MDSM, mit der sich kritische Ereignisse im Speicherarray diagnostizieren und schrittweise beheben lassen.
Um das Recovery Guru-Fenster im
Fen st er
Array Management
(Arrayverwaltung) anzuzeigen, führen Sie eine der folgenden Aktionen durch:
Klicken Sie auf
Klicken Sie in der Registerkarte
Recovery Guru
.
Support
auf
Recover from Failure
(Wiederherstellung nach Ausfall).
Klicken Sie im Fensterbereich (Übersicht) auf
Storage Array Needs Attention
Status
der Registerkarte
Summary
(Speicherarray benötigt
Eingriff).
Vorbereiten der Systeme für den Clusterbetrieb 61
Page 62
Mit folgenden Hinweisen werden Sie auf Probleme aufmerksam gemacht:
Statussymbole, die nicht den Status „Optimal“ anzeigen
Alarmmeldungen, die an entsprechende Ziele gesendet werden
Hardware-Leuchtanzeigen
Die Statussymbole kehren zum Status Optimal zurück, sobald das Problem behoben ist.
Speicherprofil
Das Speicherarrayprofil enthält eine Beschreibung aller Komponenten und Anzeigen des Speicherarrays. Die im Speicherarrayprofil enthaltenen Informationen lassen sich auch als Textdatei speichern. Das Speicherarray­profil kann als Hilfsmittel bei der Wiederherstellung oder als Übersicht über die aktuelle Konfiguration des Speicherarrays verwendet werden. Wenn sich die Konfiguration ändert, erstellen Sie eine neue Version des Speicherarrayprofils.
1
Um das Speicherarrayprofil im Fenster
Array Management
(Arrayverwaltung) anzuzeigen, führen Sie eine der folgenden Aktionen durch:
–Wählen Sie Aktivieren Sie die Registerkarte
im Bereich
Aktivieren Sie die Registerkarte
auf
View Storage Array Profile
Das Fenster Der Bildschirm
Storage Array View Profile
Summary
Status
auf
Storage Array Profile
Support
(Speicherarrayprofil anzeigen).
Storage Array Profile
Storage Array Profile
(Speicherarrayprofil) wird angezeigt.
enthält mehrere Registerkarten.
.
(Übersicht) und klicken Sie
(Speicherarrayprofil).
(Übersicht) und klicken Sie
Die Bezeichnung jeder Registerkarte beschreibt die darin enthaltenen Informationen.
62 Vorbereiten der Systeme für den Clusterbetrieb
Page 63
2
Führen Sie im Bildschirm
Storage Array Profile
eine der folgenden
Aktionen durch: – View detailed information (Ausführliche Informationen anzeigen) –
Fahren Sie mit Schritt 3 fort.
Search the storage array profile (Speicherarrayprofil durchsuchen) –
Fahren Sie mit Schritt 4 fort.
Save the storage array profile (Speicherarrayprofil speichern) – Fahren
Sie mit Schritt 5 fort.
Close the storage array profile (Speicherarraprofil schließen) – Fahren
Sie mit Schritt 6 fort.
3
Um die Informationen im Speicherarrayprofil anzuzeigen, aktivieren Sie eine der Registerkarten und verwenden Sie die horizontale und vertikale Bildlaufleiste. Um das Speicherarrayprofil zu durchsuchen, zu speichern oder zu schließen, folgen Sie den weiteren Schritten in dieser Anleitung.
4
Um das Speicherarrayprofil zu durchsuchen, führen Sie die nachstehenden Schritte durch:
a
Klicken Sie auf
b
Geben Sie im Feld
Find
(Suchen).
Find
den Begriff ein, nach dem Sie suchen möchten. Wenn der Begriff auf der aktuellen Registerkarte enthalten ist, wird er in den Informationen des Speicherarrayprofils hervorgehoben.
ANMERKUNG: Die Suche ist auf die aktuelle Registerkarte beschränkt. Um auf
anderen Registerkarten nach dem Begriff zu suchen, aktivieren Sie die gewünschte Registerkarte und klicken Sie erneut auf die Schaltfläche Find (Suchen).
Um nach weiteren Vorkommen des Begriffs auf derselben Register-
c
karte zu suchen, klicken Sie erneut auf die Schaltfläche
Find
(Suchen).
Vorbereiten der Systeme für den Clusterbetrieb 63
Page 64
5
Um das Speicherarrayprofil zu speichern, führen Sie die nachstehenden Schritte durch:
a
Klicken Sie auf
b
Um alle Bereiche des Speicherarrayprofils zu speichern, wählen Sie
All Sections
c
Um Informationen aus bestimmten Bereichen des Speicherarrayprofils zu speichern, wählen Sie die Option
Sections
Save As
(Speichern unter).
(Alle Bereiche).
(Bereiche auswählen) und klicken Sie auf die
Select
Kontrollkästchen neben den Bereichen, die Sie speichern möchten.
d
Wählen Sie das gewünschte Verzeichnis.
e
Geben Sie im Feld
File Name
(Dateiname) den gewünschten Dateinamen ein. Um die Datei mit einer bestimmten Softwareanwendung zu verknüpfen, in der sie geöffnet werden soll, geben Sie eine Dateierweiterung an, z. B.
ANMERKUNG: Die Datei wird als ASCII-Textdatei gespeichert.
f
Klicken Sie auf
6
Um das Speicherarrayprofil zu schließen, klicken Sie auf
Save
(Speichern).
.text
.
Close
(Schließen).
Statussymbole
Statussymbole zeigen einen von sechs Zuständen des Speicherarrays an. Verwenden Sie für alle nicht optimalen Statussymbole Recovery Guru, um das Problem zu erkennen und zu beheben. Nachstehend werden die sechs möglichen Statusbedingungen beschrieben:
Optimal – Alle Komponenten in dem verwalteten Array funktionieren wie vorgesehen.
Needs Attention (Benötigt Eingriff) – Es besteht ein Problem mit dem verwalteten Array, das einen Eingriff erfordert.
Fixing (Wird repariert) – Ein Zustand, bei dem ein
Eingriff erforderlich
war, wurde korrigiert und der Status des verwalteten Arrays wird derzeit zu
Optimal
geändert.
64 Vorbereiten der Systeme für den Clusterbetrieb
Page 65
Unresponsive (Keine Antwort) – Die Speicherverwaltungsstation kann nicht mit dem Array bzw. mit einem oder beiden Controllern im Speicher­array kommunizieren. Warten Sie nach einem Wiederherstellungsvorgang mindestens fünf Minuten, dass das Speicherarray in den Status
Optimal
zurückkehrt.
Unsupported (Nicht unterstützt) – Der Knoten wird von dieser MDSM­Version nicht unterstützt.
Software Unsupported (Software nicht unterstützt) – Das Speicherarray wird mit einer Softwareversion betrieben, die von MDSM nicht mehr unterstützt wird.
Konfigurieren des RAID-Levels für gemeinsame Speichersubsysteme
Die virtuellen Laufwerke im gemeinsamen Speichersubsystem müssen mit Dell PowerVault MDSM als Datenträgergruppen oder virtuelle Laufwerke konfiguriert werden. Alle virtuellen Laufwerke sollten gebunden werden und den angemessenen RAID-Level aufweisen, um eine hohe Verfügbarkeit sicherzustellen. Dies gilt vor allem, wenn sie als Quorumressource genutzt werden.
ANMERKUNG: Es wird empfohlen, einen anderen RAID-Level als RAID 0 (auch als
Striping bezeichnet) zu verwenden. RAID 0-Konfigurationen bieten zwar eine sehr hohe Leistungsfähigkeit, können aber nicht die für Quorumressourcen benötigte Verfügbarkeit garantieren. Nähere Informationen zur Einrichtung der RAID-Levels für das System finden Sie in der Dokumentation des Speichersystems.
Windows-Betriebssysteme und dynamische Datenträger
Das Betriebssystem Windows unterstützt keine dynamischen Datenträger (Upgrade-Datenträger) oder Volumes für den gemeinsamen Clusterspeicher. Wenn der gemeinsame Clusterspeicher als dynamischer Datenträger konfiguriert ist, kann der Assistent für die Clusterkonfiguration die Datenträger nicht erkennen, und Cluster und Netzwerk können nicht darauf zugreifen.
Vorbereiten der Systeme für den Clusterbetrieb 65
Page 66
Zuweisen von Laufwerkbuchstaben und Bereitstellungspunkten
Ein Bereitstellungspunkt ist ein Datenträger, das mit einem leeren Ordner auf einem NTFS-Laufwerk verbunden ist. Ein Bereitstellungspunkt funktioniert auf die gleiche Weise wie ein normales Laufwerk, allerdings wird ihm statt eines Laufwerkbuchstabens eine Bezeichnung oder ein Name zugewiesen. Durch die Verwendung von Bereitstellungspunkten kann ein Cluster mehr gemeinsame Datenträger unterstützen, als Laufwerkbuchstaben zur Verfügung stehen.
Bei der Clusterinstallation wird der Bereitstellungspunkt den Laufwerken, die vom Cluster verwaltet werden, nicht automatisch hinzugefügt. Um den Bereitstellungspunkt zum Cluster hinzuzufügen, müssen Sie in der Clusterressourcengruppe für jeden Bereitstellungspunkt eine physische Datenträgerressource erstellen. Die neue physische Datenträgerressource muss sich in derselben Clusterressourcengruppe befinden und abhängig vom Laufwerk mit dem Stammverzeichnis sein (d. h. dem Laufwerk, von dem aus der Bereitstellungspunkt hinzugefügt wird).
ANMERKUNG: Beim Bereitstellen eines Datenträgers auf einem NTFS-
Datenträger dürfen die Bereitstellungspunkte nicht von der Quorumressource aus oder zwischen den im Cluster zusammengefassten Laufwerken und den lokalen Laufwerken erstellt werden. Bereitstellungspunkte müssen sich in der gleichen Clusterressourcengruppe befinden und müssen abhängig vom Laufwerk mit dem Stammverzeichnis sein.
Benennen und Formatieren von Datenträgern im gemeinsamen Speichersystem
Im PowerVault Modular Disk Storage Manager erstellte Datenträger erscheinen in der Windows-Datenträgerverwaltung als physische Datenträger. Führen Sie für jeden physischen Datenträger die folgenden Schritte durch:
Legen Sie die Laufwerksignatur fest.
Erstellen Sie die Partition.
Weisen Sie den Laufwerkbuchstaben zu.
Formatieren Sie die Partition mit NTFS.
66 Vorbereiten der Systeme für den Clusterbetrieb
Page 67
VORSICHTSHINWEIS: Die Laufwerkbuchstaben werden vom zweiten Knoten
aus manuell zugewiesen. So sind die gemeinsamen Datenträger gleichzeitig für beide Knoten zugänglich. Um vor der Installation der Microsoft Failover­Clusterunterstützung die Integrität des Dateisystems sicherzustellen und möglichem Datenverlust vorzubeugen, muss jede E/A-Aktivität zu den gemeinsamen Laufwerken unterbunden werden. Führen Sie dazu auf jeweils einem der Knoten den folgenden Vorgang durch, während der andere Knoten heruntergefahren sein muss.
Die einzelnen Server des Clusters benötigen möglicherweise unterschiedlich viele Laufwerkbuchstaben. Es wird empfohlen, dass die Benennung der freigegebenen Laufwerke in umgekehrter alphabetischer Reihenfolge beginnend mit dem Buchstaben z erfolgt. So weisen Sie Laufwerkbuchstaben im gemeinsamen Speichersystem zu und formatieren Laufwerke:
1
Öffnen Sie bei heruntergefahrenem Knoten 2 die
Datenträgerverwaltung
auf Knoten 1.
2
Lassen Sie Windows Signaturen für alle neuen physischen oder logischen Laufwerke zuweisen.
ANMERKUNG: Erweitern bzw. konvertieren Sie Ihre Datenträger nicht zu
dynamischen Datenträgern.
3
Suchen Sie das Symbol für den ersten unformatierten Datenträger des gemeinsamen Speichersystems, der keine Bezeichnung hat.
4
Klicken Sie mit der rechten Maustaste auf das Symbol und wählen Sie danach im Untermenü
Erstellen
. Wenn die unformatierten Datenträger
nicht sichtbar sind, überprüfen Sie folgende Punkte:
• Die Zielverbindungen des iSCSI-Initiators sind aktiv.
• Die LUNs wurden den Hosts zugeordnet.
• Das Speichersystem ist ordnungsgemäß an die Server angeschlossen.
Vorbereiten der Systeme für den Clusterbetrieb 67
Page 68
5
Erstellen Sie im Dialogfeld eine Partition mit der Größe des gesamten Datenträgers (Standardeinstellung) und klicken Sie auf
ANMERKUNG: Ein virtuelles Laufwerk, das vom Speichersystem einem
bzw. mehreren Clusterknoten zugewiesen wurde, erscheint im Windows­Betriebssystem auf jedem Knoten als physischer Datenträger. Microsoft Cluster ermöglicht zu einem gegebenen Zeitpunkt jeweils nur einem Knoten den Zugriff auf eine physische Datenträgerressource. Bei einem partitionierten Datenträger, der mehrere NTFS-Speicherlaufwerke enthält, ist der gleichzeitige Zugriff auf verschiedene Speicherlaufwerke deshalb nur über den Clusterknoten möglich, der die physische Datenträgerressource kontrolliert. Wenn zwei NTFS-Speicherlaufwerke von verschiedenen Knoten aus kontrolliert werden sollen, müssen sie sich auf verschiedenen Datenträgern befinden.
6
Klicken Sie auf Ja, um die Partition zu bestätigen.
7
Klicken Sie noch einmal mit der rechten Maustaste auf das gleiche Symbol, und wählen Sie im Untermenü
ändern
.
8
Weisen Sie dem NTFS-Datenträger einen Laufwerkbuchstaben zu oder
Laufwerkbuchstaben und -pfad
OK
.
erstellen Sie einen Bereitstellungspunkt. So weisen Sie einem NTFS-Datenträger einen Laufwerkbuchstaben zu:
a
Klicken Sie auf
Bearbeiten
und wählen Sie den Buchstaben aus,
der dem Laufwerk zugewiesen werden soll (zum Beispiel „Z“).
b
Klicken Sie auf OK.
c
Fahren Sie mit Schritt 9 fort.
So erstellen Sie einen Bereitstellungspunkt:
a
Klicken Sie auf
b
Klicken Sie auf
c
Geben Sie den Pfad zu einem leeren Ordner auf dem NTFS­Datenträger ein oder klicken Sie auf
Hinzufügen
.
In folgendem leeren NTFS-Ordner bereitstellen
Durchsuchen
suchen.
d
Klicken Sie auf OK.
e
Fahren Sie mit Schritt 9 fort.
9
Klicken Sie auf Ja, um die Änderungen zu bestätigen.
68 Vorbereiten der Systeme für den Clusterbetrieb
.
, um den Ordner zu
Page 69
10
Klicken Sie erneut mit der rechten Maustaste auf das Laufwerksymbol und wählen Sie dann im Untermenü die Option
11
Geben Sie unter
Vo lu me be ze i ch nu n g
einen beschreibenden Namen für
Formatieren
.
den neuen Datenträger ein; z. B. Festplatte_Z oder E-Mail_Daten.
12
Ändern Sie im Dialogfeld das Dateisystem auf
Formatierung mit QuickFormat ausführen
Cluster erfordern das Dateisystemformat NTFS.
13
Wenn der Warnhinweis eingeblendet wird, klicken Sie auf OK.
14
Klicken Sie auf OK, um zu bestätigen, dass die Formatierung
NTFS
, wählen Sie
und klicken Sie auf
abgeschlossen ist.
15
Klicken Sie auf
16
Wiederholen Sie Schritt 3 bis Schritt 15 für jedes übrige Laufwerk.
17
Schließen Sie die
18
Schalten Sie Knoten 1 aus.
19
Schalten Sie Knoten 2 ein.
20
Öffnen Sie auf Knoten 2 die
21
Prüfen Sie, ob die Laufwerkbuchstaben für Knoten 2 korrekt zugewiesen
Schließen
, um das Dialogfeld zu schließen.
Datenträgerverwaltung
Datenträgerverwaltung
.
.
sind. Falls erforderlich, weisen Sie sie erneut zu. Um die Laufwerk­buchstaben erneut zuzuweisen, wiederholen Sie Schritt 7 bis Schritt 9.
Start
.
Verwenden von erweiterten Funktionen (Premium) von PowerVault Modular Disk Storage Manager
PowerVault Modular Disk Storage Manager enthält die folgenden erweiterten Fun kti one n:
Snapshot Virtual Disk
•Virtual Disk Copy
Um diese Premiumfunktionen zu installieren und zu aktivieren, müssen Sie für jede Funktion eine Schlüsseldatei erwerben und dann das entsprechende Host-Speicherarray festlegen. Weitere Informationen finden Sie auf der Premium-Funktion-Aktivierungskarte, die mit dem Dell PowerVault MD3600i oder MD3620i Speichersystem geliefert wurde.
Vorbereiten der Systeme für den Clusterbetrieb 69
Page 70
Diese Premiumfunktionen unterstützen die bestmögliche Verfügbarkeit der Clusterlösung. Sie müssen die nachfolgenden Anweisungen befolgen, um einen ordnungsgemäßen Clusterbetrieb zu gewährleisten.
Snapshot Virtual Disk
Snapshot Virtual Disk – Ermöglicht es, Momentaufnahmen von virtuellen Laufwerken zur Sicherung, zum Testen oder zur Datenverarbeitung zu erstellen, ohne den Inhalt des jeweiligen virtuellen Quelllaufwerks zu verändern. Sie können entweder „Simple Path“ (Einfacher Pfad) oder „Advanced Path“ (Erweiterter Pfad) verwenden, um einen Snapshot für das Clusterlaufwerk zu erstellen. Das virtuelle Snapshot-Laufwerk kann dem primären Knoten (der das Quelllaufwerk enthält) oder dem sekundären Knoten zugewiesen werden (der das Quelllaufwerk nicht enthält), und zwar zur Datensicherung, zu Testzwecken oder zur Datenverarbeitung.
VORSICHTSHINWEIS: Das virtuelle Snapshot-Laufwerk sollte zu keinem
Zeitpunkt mehr als einem Knoten im Cluster zugewiesen sein. Das virtuelle Snapshot-Laufwerk wird nicht vom Failover-Cluster-Manager verwaltet. Wenn Sie das virtuelle Snapshot-Laufwerk der Hostgruppe oder beiden Knoten im Cluster zuweisen, besteht demnach die Gefahr, dass beide Knoten gleichzeitig auf Daten zugreifen und infolgedessen Daten beschädigt werden könnten.
Sie können eine Microsoft VSS (Volume Shadow-Copy Service)-Anwendung verwenden, um Snapshots zu erstellen und zuzuweisen. Wenn Sie stattdessen MDSM verwenden, müssen Sie die nachstehend beschriebenen Verfahren befolgen.
So weisen Sie das virtuelle Snapshot-Laufwerk dem primären Knoten zu:
1
Verwenden Sie die Hostzuweisung an virtuelle Laufwerke in Modular Disk Storage Manager. Damit wird sichergestellt, dass dem virtuellen Snapshot­Laufwerk ordnungsgemäß eine andere Laufwerksignatur zugewiesen wird.
2
Verwenden Sie die Windows-Datenträgerverwaltung, um das virtuelle Snapshot-Laufwerk neu zu erkennen, weisen Sie den Laufwerkbuchstaben zu und beginnen Sie mit der Nutzung des Laufwerks.
ANMERKUNG: Die Laufwerke müssen eventuell mehrere Male neu erkannt
werden, bevor die Windows-Datenträgerverwaltung das virtuelle Snapshot­Laufwerk erkennt. Wenn das virtuelle Snapshot-Laufwerk nicht erkannt wird, warten Sie einige Minuten und führen Sie eine erneute Erkennung durch. Wiederholen Sie den Vorgang, bis das virtuelle Snapshot-Laufwerk erkannt wird; führen Sie keinen Neustart des Servers durch.
70 Vorbereiten der Systeme für den Clusterbetrieb
Page 71
Um das virtuelle Snapshot-Laufwerk dem sekundären Knoten zuzuweisen (der das Quelllaufwerk nicht enthält), müssen Sie es zunächst dem primären Knoten zuweisen, um sicherzustellen, dass der Snapshot eine neue Laufwerk­signatur erhält. Verwenden Sie anschließend Modular Disk Storage Manager, um die Zuweisung des virtuellen Snapshot-Laufwerks vom primären Knoten zu entfernen, weisen Sie es dem sekundären Knoten zu und beginnen Sie mit der Nutzung.
VORSICHTSHINWEIS: Wenn Sie versuchen, das virtuelle Snapshot-Laufwerk
dem sekundären Knoten zuzuweisen, bevor die Signatur vom primären Knoten bereitgestellt wurde, besteht die Möglichkeit, dass das Betriebssystem das virtuelle Snapshot-Laufwerk fälschlicherweise als Systemvolume identifiziert. Dadurch kann es zu Datenverlust kommen und das virtuelle Snapshot-Laufwerk ist eventuell nicht mehr zugänglich.
ANMERKUNG: Bei einer Clusterkonfiguration mit mehreren virtuellen Snapshot-
Laufwerken muss jedes virtuelle Laufwerk zuerst dem Knoten zugewiesen werden, der das verbundene Quelllaufwerk enthält. Der primäre Knoten für ein virtuelles Snapshot-Laufwerk ist möglicherweise nicht der primäre Knoten für ein anderes virtuelles Snapshot-Laufwerk.
Virtual Disk Copy
Virtual Disk Copy – Beim Kopieren eines virtuellen Laufwerks innerhalb eines Speicherarrays wird auf dem virtuellen Ziellaufwerk eine vollständige Kopie der Daten erstellt, die sich auf dem virtuellen Quelllaufwerk befinden. Virtual Disk Copy kann genutzt werden, um Daten zu sichern, Daten von Datenträgergruppen mit Laufwerken von geringerer Kapazität in Datenträgergruppen mit größeren Laufwerken zu kopieren oder um Daten vom virtuellen Snapshot-Laufwerk auf das virtuelle Quelllaufwerk zurückzukopieren.
So erstellen Sie eine virtuelle Laufwerkkopie eines freigegebenen Microsoft Cluster-Laufwerks:
1
Verwenden Sie ein virtuelles Snapshot-Laufwerk mit dem freigegebenen Clusterlaufwerk als Quelllaufwerk.
2
Führen Sie keine Zuweisung dieses virtuellen Snapshot-Laufwerks auf einen Clusterknoten durch. Verwenden Sie dann das neu erstellte virtuelle Snapshot-Laufwerk als Quelllaufwerk für die virtuelle Laufwerkskopie.
Vorbereiten der Systeme für den Clusterbetrieb 71
Page 72
ANMERKUNG: Wenn Sie versuchen, von einem freigegebenen Microsoft-
Cluster-Laufwerk direkt eine virtuelle Laufwerkskopie zu erstellen, schlägt der Vorgang fehl und die folgende Fehlermeldung wird angezeigt:
The operation cannot complete because the selected virtual disk is not a source virtual disk candidate
(Der Vorgang kann nicht abgeschlossen werden, da das ausgewählte virtuelle Laufwerk kein Quellkandidat eines virtuelle Laufwerks ist).
Wenn das freigegebene Clusterlaufwerk ausfällt und Sie es vom virtuellen Ziellaufwerk wiederherstellen müssen, ändern Sie in Failover Cluster Manager den Status der Clustergruppe mit dem ausgefallenen Laufwerk auf Offline. Verwenden Sie eine der folgenden Methoden:
1
Verwenden Sie Virtual Disk Copy, um die Daten vom virtuellen Ziellaufwerk auf das freigegebene Clusterlaufwerk zurück zu übertragen.
2
Machen Sie die Zuweisung des freigegebenen Clusterlaufwerks an die Hostgruppe rückgängig und ordnen Sie das virtuelle Ziellaufwerk der Hostgruppe zu.

Konfigurieren eines Failover-Clusters

Nachdem Sie das private und öffentliche Netzwerk eingerichtet und die freigegebenen Datenträger im Speicherarray den Clusterknoten zugewiesen haben, können Sie die Betriebssystemdienste auf Ihrem Windows Server Failover-Cluster konfigurieren. Die Vorgehensweise bei der Konfiguration der Failover-Cluster hängt von der verwendeten Version des Windows Server­Betriebssystems ab.
Weitere Informationen zum Bereitstellen eines Clusters finden Sie im
Installations- und Fehlerbehebungshandbuch für Dell Failover-Cluster unter Microsoft Windows Server 2008 unter support.dell.com/manuals.
72 Vorbereiten der Systeme für den Clusterbetrieb
Page 73
A

Fehlerbehebung

In diesem Anhang finden Sie Informationen zur Fehlerbehebung bei Clusterkonfigurationen.
Tabelle A-1 beschreibt die allgemeinen Probleme im Zusammenhang mit Clustern, die möglichen Ursachen sowie Lösungen für die einzelnen Probleme.
Tabelle A-1. Allgemeine Fehlerbehebung im Cluster
Problem Mögliche Ursache Maßnahme
Die Knoten können nicht auf das Speichersystem zugreifen oder die Clustersoftware funktioniert nicht mit dem Speichersystem.
Das Speichersystem ist nicht korrekt mit den Knoten verkabelt oder die Verkabelung zwischen den Speichersystemen ist fehlerhaft.
Eines der Kabel ist fehlerhaft.
Hostgruppe oder Zuweisungen zwischen Hostsystemen und virtuellen Laufwerken werden nicht korrekt erstellt.
Das eingegebene CHAP­Kennwort ist falsch.
Überprüfen Sie, ob die Kabel zwischen dem Knoten und dem Speichersystem korrekt angeschlossen sind. Weitere Informationen finden Sie unter „Verkabelung der Clusterhardware“ auf Seite 17.
Ersetzen Sie das fehlerhafte Kabel.
Überprüfen Sie folgende Punkte:
• Die Hostgruppe wurde erstellt, und die Clusterknoten wurden der Hostgruppe hinzugefügt.
• Die Zuweisungen zwischen Hostsystemen und virtuellen Laufwerken wurden erstellt, und die virtuellen Laufwerke wurden der Hostgruppe zugeordnet, die die Clusterknoten enthält.
Wenn CHAP-Authentifizierung verwendet wird, geben Sie den korrekten Benutzernamen und das zugehörige Kennwort ein.
Fehlerbehebung 73
Page 74
Tabelle A-1. Allgemeine Fehlerbehebung im Cluster
Problem Mögliche Ursache Maßnahme
Einer der Knoten benötigt längere Zeit, um dem Cluster beizutreten.
ODER Einer der Knoten kann
dem Cluster nicht beitreten.
Das Knoten-zu-Knoten­Netzwerk ist aufgrund eines Kabel- oder Hardwarefehlers ausgefallen.
Längere Verzögerungen bei der Kommunikation zwischen den Knoten sind unter Umständen normal.
Möglicherweise wurde für einen oder mehrere Knoten die Internet­verbindungs-Firewall aktiviert, die nun die RPC (Remote Procedure Call)­Kommunikation zwischen den Knoten blockiert.
(fortgesetzt)
Überprüfen Sie die Netzwerkverkabelung. Stellen Sie sicher, dass die Verbindung zwischen den Knoten und das öffentliche Netzwerk an den richtigen NICs angeschlossen sind.
Überprüfen Sie, ob die Knoten miteinander kommunizieren können, indem Sie von jedem Knoten zum nächsten den Ping­Befehl ausführen. Versuchen Sie das Ausführen des Ping-Befehls sowohl mit dem Hostnamen als auch mit der IP-Adresse.
Konfigurieren Sie die Internet­verbindungs-Firewall so, dass die von der Microsoft Failover­Clusterunterstützung und den Clusteranwendungen/-diensten benötigte Datenkommunikation zugelassen wird. Weitere Informationen finden Sie im Microsoft Knowledge Base­Artikel KB883398 unter support.microsoft.com.
74 Fehlerbehebung
Page 75
Tabelle A-1. Allgemeine Fehlerbehebung im Cluster
Problem Mögliche Ursache Maßnahme
Der Failover Cluster Manager kann keine Verbin dung zu e ine m Cluster aufnehmen.
Sie werden während der Installation von Microsoft Failover Cluster zur Konfiguration eines Netzwerks anstatt zweier Netzwerke aufgefordert.
Der Clusterdienst wurde nicht gestartet. Im System wurde kein Cluster gebildet. Das System wurde gerade hoch­gefahren und die Dienste sind noch nicht voll­ständig gestartet.
Der Netzwerkname des Clusters kann im Netz­werk nicht angesprochen werden, weil die Internet­verbindungs-Firewall für einen oder mehrere Knoten aktiviert wurde.
Die TCP/IP­Konfiguration ist nicht korrekt.
Das private (Punkt-zu­Punkt-) Netzwerk wurde unterbrochen.
(fortgesetzt)
Überprüfen Sie, ob der Clusterdienst aktiv ist und ob ein Cluster gebildet wurde.
Konfigurieren Sie die Internet­verbindungs-Firewall so, dass die von Microsoft Cluster und den Clusteranwendungen/-diensten benötigte Datenkommunikation zugelassen wird. Weitere Informationen finden Sie im Microsoft Knowledge Base­Artikel KB883398 unter support.microsoft.com.
Dem Knoten-zu-Knoten­Netzwerk und dem öffentlichen Netzwerk müssen feste IP­Adressen in unterschiedlichen Subnetzen zugewiesen werden. Weitere Informationen über das Zuweisen der Netzwerk-IP­Adressen finden Sie unter „Zuweisen von festen IP­Adressen an Clusterressourcen und -komponenten“ im
Installations- und Fehlerbehebungshandbuch für Dell Failover-Cluster unter Microsoft Windows Server 2008.
Überprüfen Sie, ob beide Systeme eingeschaltet sind, damit die Netzwerkadapter im privaten Netzwerk verfügbar sind.
Fehlerbehebung 75
Page 76
Tabelle A-1. Allgemeine Fehlerbehebung im Cluster
Problem Mögliche Ursache Maßnahme
Ein Knoten kann dem Cluster nicht hinzugefügt werden.
Clients aus öffentlichen Netzwerken haben keinen Zugriff auf die vom Cluster bereitgestellten Anwendungen oder Dienste.
Der neue Knoten kann nicht auf die gemeinsamen Datenträger zugreifen.
Möglicherweise wurde für einen oder mehrere Knoten die Internetverbindungs­Firewall aktiviert, die nun die RPC-Kommunikation zwischen den Knoten blockiert.
Möglicherweise wurde für einen oder mehrere Knoten die Internetverbindungs­Firewall aktiviert, die nun die RPC-Kommunikation zwischen den Knoten blockiert.
(fortgesetzt)
Stellen Sie mit der Datenträgerverwaltung von Windows sicher, dass der neue Clusterknoten die Datenträger des Clusters benennen kann. Überprüfen Sie folgende Punkte, falls die Datenträger in der Datenträgerverwaltung nicht angezeigt werden:
•Überprüfen Sie alle Kabelverbindungen.
•Überprüfen Sie die Zugriffskontrolleinstellungen für die angeschlossenen Speichersysteme.
Konfigurieren Sie die Internetverbindungs-Firewall so, dass die vom Microsoft Cluster und den Clusteranwendungen/­diensten benötigte Datenkommunikation zugelassen wird. Weitere Informationen finden Sie im Microsoft Knowledge Base­Artikel KB883398 unter support.microsoft.com.
Konfigurieren Sie die Internetverbindungs-Firewall so, dass die vom Microsoft Cluster und den Clusteranwendungen/­diensten benötigte Datenkommunikation zugelassen wird.
Weitere Informationen finden Sie im Microsoft Knowledge Base-Artikel KB883398 unter support.microsoft.com.
76 Fehlerbehebung
Page 77
Tabelle A-1. Allgemeine Fehlerbehebung im Cluster
Problem Mögliche Ursache Maßnahme
Die Ausführung von Virtual Disk Copy schlägt fehl.
Dem virtuellen Snapshot-Laufwerk kann kein Laufwerk­buchstabe zugewiesen werden.
Auf das virtuelle Snapshot-Laufwerk kann nicht zugegriffen werden.
Das Systemfehler­protokoll enthält eine Warnung bzgl. Ereignis 59 von partmgr mit dem Inhalt, dass das virtuelle Snapshot­Laufwerk ein red­undanter Pfad eines Clusterlaufwerks ist.
Bei der Ausführung von Virtual Disk Copy dient das Clusterlaufwerk als Quelllaufwerk.
Das virtuelle Snapshot­Laufwerk wurde fälschlicherweise dem Knoten zugewiesen, der das Quelllaufwerk nicht enthält.
(fortgesetzt)
Um einen Virtual Disk Copy­Vorgang für das freigegebenen Clusterlaufwerk durchzuführen, erstellen Sie einen Snapshot des Laufwerks und führen Sie anschließend Virtual Disk Copy für das virtuelle Snapshot­Laufwerk durch.
Heben Sie die Zuweisung des virtuellen Snapshot-Laufwerks an das Quelllaufwerk auf und weisen Sie es dem Knoten zu, der das Quelllaufwerk enthält. Weitere Informationen finden Sie unter Verwenden von erweiterten Funktionen (Premium) von PowerVault Modular Disk Storage Manager.
Fehlerbehebung 77
Page 78
78 Fehlerbehebung
Page 79
B

Cluster-Datenformular

Sie können Exemplare dieses Vordrucks bei den einzelnen Clusterknoten oder Racks anbringen, um Informationen über Cluster festzuhalten. Verwenden Sie diese Aufzeichnungen, wenn Sie technische Unterstützung anfordern.
Tabelle B-1. Informationen zur Clusterkonfiguration
Clusterinformationen Clusterlösung
Clustername und IPAdresse
Servertyp Installation
durchgeführt von Installationsdatum Anwendungen Standort Anmerkungen
Tabelle B-2. Informationen zur Clusterknotenkonfiguration
Knotenname Service-Tag-
Nummer
Öffentliche IPAdresse
Cluster-Datenformular 79
Private IP-Adresse
Page 80
Tabelle B-2. Informationen zur Clusterknotenkonfiguration
Knotenname Service-Tag-
Nummer
Tabelle B-3. Weitere Informationen zum Netzwerk
Weitere Netzwerke
Tabelle B-4. Informationen zur Speicherarraykonfiguration
Array Service-Tag-
Nummer des Arrays
1 2 3 4
IP-Adresse Anzahl der verbundenen
Öffentliche IPAdresse
DAE-Gehäuse
Private IP-Adresse
Virtuelle Laufwerke
80 Cluster-Datenformular
Page 81

iSCSI-Konfigurationsarbeitsblatt

Mutual­CHAP-Secret
Target-CHAP­Secret
A
B
iSCSI-Port 1
iSCSI-Port 2
Verwaltungsschnitt­stelle
Feste IP-Adresse (Hostserver)
Subnetzmaske
Standard-Gateway
A
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
Feste IP-Adresse (Speicherarray)
Subnetzmaske
Standard-Gateway
B
iSCSI-Controller 0, Eing. 0
iSCSI-Controller 0, Eing. 1
Verwaltungsport-Contrl. 0
iSCSI-Controller 1, Eing. 0
iSCSI-Controller 1, Eing. 1 Verwaltungsport-Contrl. 1
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
Hostserver
192.168.131.101 (Vorg.: Eing. 1)
192.168.130.102 (Vorg.: Eing. 0)
192.168.131.102 (Vorg.: Eing. 1)
192.168.130.101 (Vorg.: Eing. 0)
PowerVault MD36
xx
i
192.168.128.101 (Verw.-Netzwerkport)
192.168.128.102 (Verw.-Netzwerkport)
Wenn Sie zusätzlichen Platz für weitere Hostserver benötigen, verwenden Sie ein weiteres Arbeitsblatt.

IPv4-Einstellungen

C
iSCSI-Konfigurationsarbeitsblatt 81
Page 82

IPv6-Einstellungen

Target-CHAP­Secret
Mutual-CHAP­Secret
A
B
Wenn Sie zusätzlichen Platz für weitere Hostserver benötigen, verwenden Sie ein weiteres Arbeitsblatt.
Lokale IP-Link-Adresse
Routingfähige IP-Adresse
Subnetz-Präfix
Gateway
A
Hostserver
Host-iSCSI-Port 1
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
Lokale IP-Link-Adresse
Routingfähige IP-Adresse
Subnetz-Präfix
Gateway
Host-iSCSI-Port 2
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
___ . ___ . ___ . ___
iSCSI-Controller 0, Eing. 0
IP-Adresse
Routingfähige IP-Adresse 1
Routingfähige IP-Adresse 2
Router-IP-Adresse
B
iSCSI-Controller 0, Eing. 1
IP-Adresse
Routingfähige IP-Adresse 1
Routingfähige IP-Adresse 2
Router-IP-Adresse
FE80 : 0000 : 0000 : 0000 : ____ : ____ : ____ : ____
____ : ____ : ____ : ____ : ____ : ____ : ____ : ____
____ : ____ : ____ : ____ : ____ : ____ : ____ : ____
____ : ____ : ____ : ____ : ____ : ____ : ____ : ____
FE80 : 0000 : 0000 : 0000 : ____ : ____ : ____ : ____
____ : ____ : ____ : ____ : ____ : ____ : ____ : ____
____ : ____ : ____ : ____ : ____ : ____ : ____ : ____
____ : ____ : ____ : ____ : ____ : ____ : ____ : ____
PowerVault MD36
xx
i
82 iSCSI-Konfigurationsarbeitsblatt
Page 83
iSCSI-Controller 1, Eing. 0
IP-Adresse
Routingfähige IP-Adresse 1
Routingfähige IP-Adresse 2
Router-IP-Adresse
FE80 : 0000 : 0000 : 0000 : ____ : ____ : ____ : ____
____ : ____ : ____ : ____ : ____ : ____ : ____ : ____
____ : ____ : ____ : ____ : ____ : ____ : ____ : ____
____ : ____ : ____ : ____ : ____ : ____ : ____ : ____
iSCSI-Controller 1, Eing. 1
IP-Adresse
Routingfähige IP-Adresse 1
Routingfähige IP-Adresse 2
Router-IP-Adresse
FE80 : 0000 : 0000 : 0000 : ____ : ____ : ____ : ____
____ : ____ : ____ : ____ : ____ : ____ : ____ : ____
____ : ____ : ____ : ____ : ____ : ____ : ____ : ____
____ : ____ : ____ : ____ : ____ : ____ : ____ : ____
iSCSI-Konfigurationsarbeitsblatt 83
Page 84
84 iSCSI-Konfigurationsarbeitsblatt
Page 85

Stichwortverzeichnis

A
Anforderungen für
Clusterspeicher, 9
B
Betriebssystem
Installation, 33
C
CHAP, 39
Mutual, 39 Ta r g et , 3 9
Cluster-Datenformular, 79
E
Ereignisprotokoll, 60 Erstes Setup eines
Speicherarrays, 40
Erweiterte Funktionen
Kopieren virtueller Laufwerke, 11 Virtuelles Snapshot-Laufwerk, 11
F
Fehlerbehebung
Allgemein für Cluster, 73
I
Installation
iSCSI-NICs, 34 Microsoft
iSCSI-Software-Initiator, 36
Installation und Konfiguration
Speicherverwaltungssoftware, 36
iSCSI, 38
terminology, 38
K
Konfiguration
Failover-Cluster, 7 2 Gemeinsames Speichersystem, 38
Konfiguration von iSCSI
Im Speicherarray, 40
M
Multipath-Software, 10
Stichwortverzeichnis 85
Page 86
N
V
NIC-Teaming, 22
P
PowerVault 22xS Speichersystem
Clusterbetrieb, 67
R
Recovery Guru, 61
S
Speicherprofil, 62 Statussymbole, 64
U
Unterstützte
Clusterkonfigurationen, 12
Verk abe lung
Cluster in Direct-Attach-
Konfiguration, 22
Cluster in Network-Attach-
Konfiguration, 25 Maus, Tastatur und Monitor, 17 Netzteile, 17 Speichersysteme, 22
Virtuelle Laufwerkskopie, 71 Virtuelles
Snapshot-Laufwerk, 70
W
Windows Server 2003 Enterprise
Edition
Installation, 33
Z
Zuweisen
Laufwerkbuchstaben und
Bereitstellungspunkte, 66
86 Stichwortverzeichnis
Loading...