assassin
Goto Top

Failover Cluster, Dateiserver mit Windows Server 2019 Std

Hallo allerseits...ich glaub ich bin zu doof dazu oder zu blind - aber wie kann ich einen Failover Dateiserver am einfachsten einrichten? In meiner testumgebung habe ich zwei identische VMs, jede VM hat zwei virtuelle Festplatten - eine fürs Betriebssystem, und eine wo dann später die Freigaben drauf liegen sollen.
Diese beiden VMs haben bereits die Failover CLuster rolle instaliert, sind also auch Teil des ebenfalls in der Testumgebung befindlichen AD/DNS servers. Aber wie komme ich jetzt weiter, dass die beiden die zweite virtuelle Festplatte failover tauglich machen?

Ziel soll sein: Ich will mit dem AD/DNS server auf eine Dateifreigabe zugreifen - die auch bestehen soll, wenn ich einen der beiden Knoten ausschalte. Es muss sich also das darunterliegende Dateisystem replizieren - aber in beide richtungen, weil ja der Master dadurch immer switcht - jenachdem welchen knoten ich da gerade runtergefahren habe...aber wie am einfachsten realisieren? Finde da auch keine so passende anleitung im Netz face-sad
Muss halt eine echtzeit Blockreplizierung sein, also wenn man nen Word dokument auf hat und die lock datei wird erzeugt, und ich schalte dann einen Knoten ab - darf der User davon nichts mitbekommen, es muss alles weiterhin reibungslos laufen.

Content-Key: 666601

Url: https://administrator.de/contentid/666601

Ausgedruckt am: 29.03.2024 um 00:03 Uhr

Mitglied: Doskias
Doskias 10.05.2021 aktualisiert um 16:06:10 Uhr
Goto Top
Moin,

dein Stichwort ist distributed File System (kurz DFS)
Links gibt es viele, zum Beispiel hier: https://www.windowspro.de/andreas-kroschel/das-distributed-file-system-d ...

Gruß
Doskias
Mitglied: JasperBeardley
JasperBeardley 10.05.2021 um 16:07:55 Uhr
Goto Top
Moin,

ich möchte Dir nicht zu nahe treten, aber du solltest dir die Funktionsweise eines Failoverclusters nochmal anschauen.
Das was dir vorschwebt geht mehr in Richtung DFS.

Gruß
Jasper
Mitglied: mbehrens
mbehrens 10.05.2021 um 16:16:34 Uhr
Goto Top
Zitat von @Assassin:

Hallo allerseits...ich glaub ich bin zu doof dazu oder zu blind - aber wie kann ich einen Failover Dateiserver am einfachsten einrichten?

Da wäre als Erstes die Entscheidung, ob klassischer Failover Cluster, DFS oder SOFS.
Mitglied: GrueneSosseMitSpeck
GrueneSosseMitSpeck 10.05.2021 aktualisiert um 22:46:14 Uhr
Goto Top
hab sowas früher mal betrieben... ein klassischer Cluster hat ja zwei Laufwerke: Witness und Quorum. Für einen Failover Fileshare braucht man da ein drittes Laufwerk, dann die Fileserver Rolle und etwas Geschick beim Clustersetupassistenten (HA Wizard)

Ansonsten Google hilft natürlich weiter...

https://www.veeam.com/blog/how-to-create-file-server-cluster-windows-201 ...
Mitglied: Assassin
Assassin 11.05.2021 um 07:19:24 Uhr
Goto Top
bei DFS hatte man doch aber glaube ich keine normale Freigabe, also Geräte wie Netzwerkscanner können da nicht darauf zugreifen, oder? und DFS soll beim schreiben recht langsam sein.
SoFS ist doch mehr für HyperV VMs gedacht, wo nicht ständig metadaten geändert werden wie bei Office dokumenten, oder?


Darum probiere ich halt gerade mal in einer Testumgebung, was es da so für möglichkeiten gibt, wie die sich handeln lassen, wie robust diese sind wenn man einfach mal einen knoten ausschaltet,... sowas halt
Mitglied: Doskias
Doskias 11.05.2021 aktualisiert um 08:07:59 Uhr
Goto Top
Moin

Zitat von @Assassin:
bei DFS hatte man doch aber glaube ich keine normale Freigabe, also Geräte wie Netzwerkscanner können da nicht darauf zugreifen, oder?
Doch. Du ersetzt ja den Servernamen im Prinzip nur durch den Domänennamen. Ob du nun also \\Server\ eingibst und der Name auf eine IP-Adresse aufgelöst wird oder ob du \\Domäne\ eingibst und der DNS sich eine von mehreren IPs aussucht spielt keine Rolle. Die Scanner mit denen ich bislang bei DFS-Konstrukten zusammen gearbeitet haben konnte das.
Davon abgesehen, selbst wenn nicht: Die Möglichkeit mittels \\Server\ auf die Freigabe zu schreiben kannst du theoretisch beibehalten. Die Synchronisation erfolgt ebenfalls, allerdings nimmst du dir halt die Ausfallsicherheit. In wie weit das bei den Scannern Priorität hat, kann ich dir nicht sagen, da ich deine Umgebung nicht kenne. Ich persönlich denke aber, dass wenn dir 1 Fileserver im DFS-Verbund fehlt, dann hast du ganz andere Probleme als ein Paar User die nicht scannen können. Und wenn das zufällig grade auffallen sollte, wenn du wg. Updates neu startest, dann geht der Scann nach 5 Minuten ja wieder. Aber wie gesagt: Das ist nur theoretisch erforderlich, da die Netzwerkscanner die ich kenne mit DFS keine Probleme haben.

und DFS soll beim schreiben recht langsam sein.
Nein wieso? DFS schreibt die Daten auf einen der Server und repliziert sie dann. Das schreiben auf einen Server dauert (wenn am gleichen Standort) nicht länger als im DFS Verbund. Allerdings kommt anschließend noch die Zeit der Replizierung hinzu bis es alle sehen. Je nach Scanngröße und auf welchem der Server man gelandete ist, kann es schon etwas dauern, bis man den Scann sieht. Beispiel:

ohne DFS: Scanner --> Freigabe --> User-PC praktisch sofort sichtbar nach dem Scann
mit DFS: Scanner --> Server A -- Server B --> User-PS Ist bei der User bei der Anmeldung auf Server A gelandet, dann sieht er die Daten wir bei der Einstellung ohne DFS. ist er bei Server B gelandet dauert es etwas länger bis die Replizierung abgeschlossen ist,

DFS wird wie gesagt über DNS aufgelöst. Ein "schwenk" in dem Sinne erfolgt erst dann wenn der bei der Anmeldung ausgewählte Server nicht mehr verfügbar ist. Bei standortübergreifenden DFS ist daher eine saubere Konfiguration erforderlich, da zwischen Server A und B die Anbindung die Übertragung nochmal bremst. Ich hatte mal ein Konstrukt zweier DFS auf unterschiedlichen Standorten mit einer 25 MBit Leitung verbunden. Da wurden Bauzeichnungen von mehreren GB gescannt. Wenn Standort A gescannt hat, konnten die User direkt drauf zugreifen. Standort B hat die Daten erst viel später gehabt, da sie erst synchronisiert werden mussten. Allerdings mussten sie durch DFS nur einmal über die Leitung bis Standort B sie kannte und danach ging das öffnen deutlich schneller. Ohne DFS wären die Daten sofort für alle verfügbar gewesen, aber der Scann von Standort A nach B extrem lange gedauert und bei jedem Aufruf aus dem anderen Standort (egal wo die Daten gelegen haben) hätten mehrere GB über die 25Mbit Leitung übertragen werden müssen. Und da die User nicht warten, wurden die daten auch mehrfach geöffnet. DFS hat die Situation in dem Beispiel dahingehend deutlich entschärft, dass zumindest 1 Standort sofort auf alle Daten Zugriff hatte und die Leitung aus Standort B nicht permanent am Anschlag war, solange an beiden Standorten die Server Aktiv waren. Wenn natürlich an einem Standort der DFS nicht verfügbar war, war wieder alles wie vorher. Aber zum Glück nur temporär.

Man kann also nicht pauschal sagen, dass DFS langsamer ist oder nicht. Das hängt von der Betrachtung und Sichtweise ab. In meinem Beispiel mit unterschiedlichen Standorten war es für die Anwender an Standort A schneller, da die Daten vorher nur an Standort B lagen. Für die User Standort B hat es länger gedauert bis die Daten verfügbar waren, allerdings war es anschließend genau so schnell. Nebeneffekt war allerdings, dass beim Kunden durch die Existenz von DFS häufiger Wartungen am FS während der Arbeitszeit durchgeführt wurden anstatt außerhalb, wodurch Standort B oft auf den Fileserver an Standort A ausweichen musste, wodurch es dann für die User an Standort B auch langsamer war. Wenn du aber beide DFS am gleichen Standort hast, sollte sich da kein nennenswerter Zeitverlust durch die Synchronisation (von der ersten mal abgesehen wo alles abgeglichen wird) feststellen lassen.

Gruß
Doskias
Mitglied: Assassin
Assassin 11.05.2021 um 08:25:24 Uhr
Goto Top
Okay, danke für die erklärung face-smile
Standortübergreifen soll es nicht werden, geht primär darum mal ein Server neuzustarten im laufnemdem Betrieb - ohne dass die User was mitbekommen.
Meistens nutzt man wohl ein einzelnes SAN dafür, das per ISCSI oder ähnlichem mit mehreren Knoten verbunden ist die dann ein Cluster bilden - aber das SAN ist in meinen Augen dennoch der SPOF. Es gibt ja auch Replizierungssoftware die Datacore, aber ich dächte windows hat seit server 2019 ebenfals mittel an board um eine Hyperconvergende lösung zu schaffen - nicht nur für VMs. Um eben den IM server verbauten Festplattenspeicher mit einem anderen baugleichen Server/Knoten Synchron zu halten, und eben mit einer VIrtuelen IP zu arbeiten - halt wie man sie im FailoverCluster erzeugen könnte.

weil mit der VEEAM anleitung hier: https://www.veeam.com/blog/how-to-create-file-server-cluster-windows-201 ...
wird am ende auch nur mit einem einzelnen SAN gearbeitet wie man hier sieht bei der vorbereitung: https://www.veeam.com/blog/windows-server-2019-failover-cluster.html

da kann ich auch direkt eine Freigabe auf dem SAN erstellen - will ich aber nicht :D
im Prinzip such ich halt das was mit dem Datacore Sansymphony möglich ist - nur mit Windows Boardmitteln
Mitglied: emeriks
emeriks 11.05.2021 um 08:30:14 Uhr
Goto Top
Hi,
von wieviel Daten (GB & Anzahl Dateien) reden wir denn?
Ist eine Echtzeit-Verfügbarkeit erforderlich?
Wie soll das Backup erfolgen?
Womit virtualisierst Du?
Was hast Du da als Disk-Speicher drunter?

Für einen Failovercluster brauchst Du je Rolle mindestens eine gemeinsame LUN. Diese LUN muss man dann dem Cluster als Clusterdatenträger hinzufügen. Dann richtet man die FS-Rolle eine und weist dieser diese LUN als Speicher hinzu. Die LUN wird dann immer an jenem Clusterknoten aktiv sein, welcher gerade die FS-Rolle breitstellt. Auf dem anderen Knoten wir die LUN als "down" angezeigt (roter Pfeil nach unten).

E.
Mitglied: Assassin
Assassin 11.05.2021 aktualisiert um 08:41:48 Uhr
Goto Top
Echtzeitverfügbarkeit wäre schon nicht schlecht. Datenmenge: 1.5TB an Bildern, Word, Excel, PDF, Servergespeichrte Profile...alles was so anfällt an daten.
Backup läuft über den HyperV Host agentenlos (Altaro)
Disks: mehrere SSDs im Raid10 pro Server(Knoten, nutzbarer speicher: ~14TB


ich dachte eben, dass ich eine virtuele IP adresse habe, und im fale eines ausfalls eines servers trotz einer freigabe auf IP ebene - niemand was mitbekommt.

Aber scheinbar wird das so nicht möglich sein mit Windows Boardmitteln...Datacore Repliziert die daten bzw. die Virtuele Festplatte in Echtzeit über FibreChannel und gibt sie an den Host per iscsi weiter. Hatte da aber halt gehört, das so eine lösung mit Server 2019 auch möglch sein soll - ohne einer seperaten Software.
Mitglied: emeriks
emeriks 11.05.2021 um 08:45:23 Uhr
Goto Top
Mitglied: Assassin
Assassin 11.05.2021 um 08:46:20 Uhr
Goto Top
Im Prinzip wie bei ner Stratus everRUn FT VM - da kann man auch im laufendem System von einem Knoten den stecker ziehen - wärend man z.B. gerade eine riesiege datei übers Netzwerk auf die angelegte VM rüber schiebt - ohne dass es abbricht. EverRun Synchronisiert den RAM der VM in echtzeit mit dem anderen Knoten.

sowas such ich halt für eine Dateifreigabe. Dass man als User garnichts mitbekommt wenn einer übers Stromkabel oder Netzwerkkabel vom Server gestolpert ist - wärend man gerade riesige Dateien auf die Freigabe von seinem User PC Kopiert und nebenbei noch in ner daraufliegenden SQL Datenbank rumfummelt
Mitglied: emeriks
emeriks 11.05.2021 aktualisiert um 08:53:50 Uhr
Goto Top
Na dann sollte es ein Failovercluster werden. DFS-N mit DFS-R kann sowas nicht.

Nebenbei: Eine SQL-Datenbank bekommt man auch mit einem Failovercluster nicht 100% verfügbar.
Mitglied: Assassin
Assassin 11.05.2021 aktualisiert um 09:05:26 Uhr
Goto Top
ein FailoverCluster ist ja auch nur HA, nicht FT soviel ich weiß. Wenn ich ein HyperV-FailoverCluster habe mit nur 2 knoten, dann crashen dennoch alle VMs wenn ich den Stecker von einem Knoten ziehe - der andere Knoten muss dann erstmal seine VMs hochfahren.
bei FT ist das egal, da kann ich stecke rziehen wie ich will - die VMs und auch der Zugriff auf die VMs läuft unbekümmert weiter

aber gibt es sowas eben auch für Dateifreigaben? :D

gut, wobei für eine Dateifreigabe HA schon reichen würde, kommt recht selten vor dass man vom Server mal den Stromstecker im laufendem betrieb zieht...
Mitglied: emeriks
emeriks 11.05.2021 um 09:13:18 Uhr
Goto Top
Ja und nein.
Hochverfügbarkeit und Höchstverfügbarkeit und Failover sind halt verschieden Paar Schuhe.
Höchstverfügbarkeit (im Sinne von immer, 100%) bekommst Du mit Windows, Hyper-V oder auch Vmware ESX & vSphere nicht hin.
Bei Hochverfügbarkeit muss zuerst klar definiert werden, was man da an Anforderungen hat. Und da hast Du schon zwei genannt, welche mit den vorhandenen Mitteln bedingt realisierbar sind.

"Unterbrechungsfrei Kopieren" geht mit Failovercluster, solange es ein geplanter Schwenk ist. Bei Ausfall und wieder Hochfahren ist es wie beim Ausfall einer VM und HA auf einem andren Host.
"Freigabe immer verfügbar" geht mit DFS-N und DFS-R. Wobei es auch hier zu kurzen Unterbrechungen kommen kann. Außerdem muss man aufpassen, wenn beide Replikate in der selben AD Site liegen und beide vom Client aus erreichbar sind.

Man kann auch DFS-N/R mit Failovercluster kombinieren. Muss man halt abschätzen, ob es sich lohnt.

Wenn Du so von FT schwärmst, dann wirst Du dir da was einkaufen müssen. Mit Bordmitteln geht das nicht.

Ansonsten: Definiere für Eure Verhältnisse realistische Ziele für das HA und dann setze es entsprechend um.
Mitglied: Doskias
Doskias 11.05.2021 um 09:14:10 Uhr
Goto Top
Du könntest dennoch darüber nachdenken bei Gelegenheit auf DFS zu wechseln. Es ist zwar zunächst erstmal etwas aufwand, aber DFS klappt auch mit einem Server. Es findet halt keine Replizierung statt. Wenn du aber erstmal dein ganzes Netzwerk auf DFS umgestellt hast ist die nächste File-Server-Migration ohne wirklichen Aufwand verbunden. Dann musst du nur den neuen Fileserver ins DFS aufnehmen, die Replizierung abwarten und den alten aus dem DFS entfernen. Erspart dann eine Menge Anpassungen an GPOs und/oder freigegebenen Ordnern.
Mitglied: emeriks
emeriks 11.05.2021 um 09:16:03 Uhr
Goto Top
Zitat von @Doskias:
Du könntest dennoch darüber nachdenken bei Gelegenheit auf DFS zu wechseln. Es ist zwar zunächst erstmal etwas aufwand, aber DFS klappt auch mit einem Server. Es findet halt keine Replizierung statt. Wenn du aber erstmal dein ganzes Netzwerk auf DFS umgestellt hast ist die nächste File-Server-Migration ohne wirklichen Aufwand verbunden. Dann musst du nur den neuen Fileserver ins DFS aufnehmen, die Replizierung abwarten und den alten aus dem DFS entfernen. Erspart dann eine Menge Anpassungen an GPOs und/oder freigegebenen Ordnern.
Das hat zwar nichts mit HA zu tun ist aber dennoch vollkommen richtig und empfehlenswert!
Mitglied: Assassin
Assassin 11.05.2021 um 09:44:34 Uhr
Goto Top
okay, werd ich mir mit anschauen face-smile
aber wie schaut es mit DFS aus wenn ich beim Kopieren einer großen datei auf die Freigabe - einen Knoten kontrolliert neustarte? wird dann der Kopiervorgang unterbrochen? also die Aktive verbindung zur freigabe?
Mitglied: emeriks
emeriks 11.05.2021 aktualisiert um 13:35:20 Uhr
Goto Top
Zitat von @Assassin:
aber wie schaut es mit DFS aus wenn ich beim Kopieren einer großen datei auf die Freigabe - einen Knoten kontrolliert neustarte? wird dann der Kopiervorgang unterbrochen? also die Aktive verbindung zur freigabe?
Wenn man die Hochverfügbarkeit der Freigabe aktiviert hat (das muss man je Freigabe extra aktvieren, wenn erwünscht), dann werden alle aktiven Sessions synchronisiert bzw. die Clients informiert. Was der Server da jetzt ganz genau macht, weiß ich nicht auswendig. Also ob er jetzt mit dem Schwenk wartet, bis die Kopie fertig ist oder ob die Kopie dann mit dem Schwenk springt. Das müsstet Du dann mal testen.

Edit: Ich habe "DFS" überlesen und für Failovercluster geantwortet. face-wink
Mitglied: emeriks
emeriks 11.05.2021 um 13:35:50 Uhr
Goto Top
Zitat von @Assassin:
aber wie schaut es mit DFS aus wenn ich beim Kopieren einer großen datei auf die Freigabe - einen Knoten kontrolliert neustarte? wird dann der Kopiervorgang unterbrochen? also die Aktive verbindung zur freigabe?
Da bricht er die Kopie ab.
Mitglied: Assassin
Assassin 11.05.2021 aktualisiert um 14:32:12 Uhr
Goto Top
Also kann man sagen das Aktive Dateizugriffe - sei es das bloße Kopiren eine große Datei auf ein Share, oder das Öffnen einer Word datei - auch heutzutage noch ziemlich problematisch ist das ausfallsicher hinzubekommen? Also dass ohne unterbrechnung weiter kopiert oder gearbeitet werden kann, auch wenn man ein Knoten kontroliert herrunterfährt oder gar den Stecker im laufendem Betrieb zieht.

für VMs gibts das ja schon - also wenn ich eine einzelne VM habe die wiederrum eine freigabe bereit stellt - und ich von einem ClientPC darauf kopiere - dann geht das auch ohne unterbrechung selbst wenn ich vom Hypervisor den stecker ziehe. Aber warum ist das so schwer umzusetzen für eine popelige Freigabe? Wenn ich zwei Windows VMs habe und die beiden eine Freigabe machen die zusammengeschaltet ist. Das muss doch möglich sein dass diese freigabe dann auch hoch oder höchstverfügbar ist - auch wenn ich eine VM wegschieße oder diese neustarte
so richtig begreife ich das nicht warum das so nicht geht.
Das ist doch ähnlich wie nen Raidcontroller im Write-Through modus.. könnte man doch hier auch mit heartbeat oder checkpointing arbeiten.
Mitglied: Doskias
Doskias 11.05.2021 aktualisiert um 15:16:47 Uhr
Goto Top
Das ist ganz einfach:

dann geht das auch ohne Unterbrechung selbst wenn ich vom Hypervisor den Stecker ziehe.
Hierbei hakt es kurz und der Server ist kurze Zeit später (einige Sekunden) unter der gleichen IP-Adresse wieder erreichbar.

Aber warum ist das so schwer umzusetzen für eine popelige Freigabe?
Weil die DFS-Freigabe vom DNS auf eine IP der DFS-Server aufgelöst wird. Wenn du dann eine Datei kopierst, will der Rechner diese zu einem Server verschieben. Wenn der Server dann weg ist, bricht der Kopiervorgang ab. Windows erkennt, dass der Server weg ist, fragt beim DNS nach und bekommt eine andere IP (also einen anderen DFS-Server) und im Explorer ist alles wie vorher.

Gruß
Doskias
Mitglied: Assassin
Assassin 11.05.2021 aktualisiert um 15:40:27 Uhr
Goto Top
Ja das mit dem DFS ist verständlich. Aber scheinbar bekommt der Client erst mit dem einmal abmelden und neu anmelden die neue IP zum Share mitgeteilt, und nicht in einer laufenden Sitzung.
Beim everRun ist es so, dass wenn eine VM im FT modus läuft, kann es für eine sekunde haken, danach gehts direkt weiter - Wenn hohe last auf dem Server ist. Da hat man auch einen einzelnen Ping aussetzer. Wenn die VM aber nicht gerade bösartig belastet wird, hat man nichtmal einen Pinaussetzer, bzw. sieht nur wie die antwortzeit kurz ein paar millisekunden höher ging und man merkt auch kein haken. Das haben die schon richtig gut gelöst finde ich.

Naja ich werd mir das mal mit dem DFS genauer anschauen, auch obs da möglichkeiten gibt dass der CLient die neue ShareIP mitgeteilt bekommt ohne dass der Client sich abmelden und neu anmelden muss.
Mitglied: emeriks
emeriks 25.05.2021 um 11:05:07 Uhr
Goto Top
Zitat von @Assassin:
Naja ich werd mir das mal mit dem DFS genauer anschauen, auch obs da möglichkeiten gibt dass der CLient die neue ShareIP mitgeteilt bekommt ohne dass der Client sich abmelden und neu anmelden muss.
(Ich war ein paar Tage nicht online)
Man kann am DFS-Ordner einstellen, wie lange der Client das einmal ausgewählte Ziel sich im Cache merken soll.
Mitglied: Assassin
Assassin 25.05.2021 um 12:43:09 Uhr
Goto Top
OK. Macht es da sinn das auf z.B. 10 sekunden zu stellen - sofern das überhaupt geht?
Mitglied: emeriks
emeriks 25.05.2021 um 13:21:21 Uhr
Goto Top
Zitat von @Assassin:
OK. Macht es da sinn das auf z.B. 10 sekunden zu stellen - sofern das überhaupt geht?
Man kann da Sekunden einstellen. 10 Sekunden sind aber arg wenig. Bedenke: Jeder Client, welche da gerade auf diesen Pfad zugreift, würde deswegen alle 10 Sekunden eine Anfrage stellen. Auch wird der Client, wenn das zuletzt verwendete Ziel nicht mehr erreichbar ist, sofort ein alternatives Ziel anfragen, bevor er ne Fehlermeldung bringt. Bzw. ich schätze, der Client bekommt schon bei der ersten Anfrage alle Ziele gemeldet und versucht dann einfach das nächste mit der höchsten Priorität aus der Liste .
Mitglied: Assassin
Assassin 25.05.2021 aktualisiert um 13:36:37 Uhr
Goto Top
Ich teste das mal aus, hab mir eben mal 2 Server installiert und ein Client in einer Sandbox umgebung installiert und er installiert gerade meine Test-Domäne. Erstmal eine gute anleitung finden wie man DFS einrichtet :D

btw. und vielen Dank für deine ausdauer und Hilfe face-smile
Mitglied: Doskias
Doskias 25.05.2021 um 14:11:37 Uhr
Goto Top