GrandAdmiralThrawn
XP Nazi
|
Ist es möglich, dass mehrere VMs auf einen Shared Storage zugreifen, oder muss ich auch den Fileserver virtualisieren und mit CIFS shares weiterarbeiten? Sowas nennt sich Storage Clustering und braucht ein entsprechendes Dateisystem wie GFS2, OCFS2, SFS oder StorNext und dergleichen. Auf ein Dateisystem wie XFS kann/darf/soll nicht simultan zugegriffen werden, weil das Dateisystem dadurch bei Beschreiben inkonsistent werden würde. Da mußt also bei sowas wie CIFS oder NFS bleiben. Aber eine Frage stellt sich mir: Wieso setzt keine normale ultrabillig-VM auf mit irgendeinem VMWare Player oder VBox oder KVM Zeug? Die Partition auf der das XFS sitzt könntest direkt einer VM übergeben, die dann selbst das XFS mounted, oder du sharest es halt vom Host OS per CIFS/NFS rein. Warum die ganzen Overkill Lösungen?!
|
daisho
VereinsmitgliedSHODAN
|
PCIe Passthrough funktioniert momentan nur bedingt, würde nicht unbedingt als Allheilmittel darauf setzen.
Am besten du schreibst mal exakt was du machen willst und was die Anforderungen sind, dann kann man eventuell eine (vermutlich viel einfachere) Lösung rausarbeiten.
|
schizo
Produkt der Gesellschaft
|
Danke für die vielen Antworten. Um das Projekt besser zu verstehen möchte ich mal auf die Vorgeschichte eingehen:
Ich hab derzeit einen Debian Server in Betrieb, welcher als Fileserver/Mailserver/SVN/FTP/... dient und Hardwaremäßig schon etwas älter ist. Daher habe ich mich schon öfters mit dem Gedanken gespielt, diesem ein Upgrade zu gönnen. Wenn ich jedoch schon etwas an der Hardware ändere und das Ding sowieso neu aufsetzen muss wäre es praktisch, das ganze mit anderen Ideen, welche mir so im Kopf umherschwirren zu vereinen. Ich möchte jedoch ungern mehr als einen PC im 24/7 Betrieb laufen haben.
Da es schon ab und zu nützlich gewesen wäre, eine Maschine zum kompilieren zu besitzen wollte ich den Punkt auch damit realisieren. Da ich es jedoch nicht ausschließen kann, neben gcc auf den VS compiler angewiesen zu sein möchte ich mich diesbezüglich auf keine reine Linux Variante versteifen.
Außerdem wäre es praktisch, auf dieser Kiste neben dem kompilieren auch Software testen zu können (z.B. als Referenzsystem, auf welchem ich auch einfach Snapshots anlegen kann) und bedenkenlos auch Kollegen den Zugriff auf einzelne VMs gewähren kann.
Dies wären alles Punkte, welche mit der Gratisversion des ESXi oder Proxmox realisierbar wären. Wie gesagt ist das ganze im großen und ganzen nur Spielerei, bei der ich mir nebenbei noch Wissen aneigne, insofern mag ich wenn möglich eher wenig bis gar nichts in Lizenzkosten stecken.
PCIe Passthrough wäre für ein anderes Projekt, an welchem ich (aus Zeitmangel leider schon länger) bastle eine Überlegung wert: Der Virtualisierung des HTPCs, bzw. die Realisierung eines Entertainment Systems mittels Windows Multipoint Server 2012 (als ich mich das letzte mal in die Richtung eingelesen habe gab es irgendeinen springenden Punkt, der gegen Linux Multiseat gesprochen hat). Wenn ich eine Grafikkarte also einer VM zuweisen könnte wäre ein nice2have, wenns mit keiner Lösung gscheit funktioniert werde ich das eigentliche Projekt aber auch nicht über den Haufen schmeißen.
Bzgl. Datastore: Da derzeit noch dazu einzelne bestehende Platten eines Raidsets zu spinnen beginnen habe ich vor, auch dieses zu erneuern. Insofern hätte ich genug Spare Platten rumliegen, um die Daten zu portieren. Die weiterverwendung des bestehenden XFS eines anderen Raidsets wäre halt angenehm gewesen, aber an einem Umstieg auf ein anderes Filesystem solls auch nicht scheitern.
Außerdem hätte ich so zukünftig etwas Spielraum, wenn mir wieder irgendeine Idee in den Kopf kommt, für die ich nur ungern eine eigene Kiste abstellen möchte.
Das ganze mag eine Overkill Lösung sein, aber neben dem Lerneffekt dürfte Manie auch ein ausschlaggebender Faktor sein.
edit: Ahja, einen Punkt den ich vergessen habe: Ich würde wohl ein paar der funktionierenden Platten aus dem alten Raidset hernehmen und auf einem Onboard Controller des neuen Boards ein Raid5 oder 10 für den Storage der neuen VMs errichten. Insofern sollte dann nichts dagegensprechen, die Platten des vorhandenen Raidcontrollers mittels VMVD bzw. Proxmox Alternative einzubinden.
Ein Grund, der für mich für einen ESXi spricht ist die Verbreitung in Enterprise Umgebungen, wohingegen die Verwaltung im Browser bei Proxmox auch seinen Reiz hätte.
Bearbeitet von schizo am 20.10.2014, 17:46
|
Guest
Deleted User
|
PCIe Passthrough wäre für ein anderes Projekt, an welchem ich (aus Zeitmangel leider schon länger) bastle eine Überlegung wert: Der Virtualisierung des HTPCs, bzw. die Realisierung eines Entertainment Systems mittels Windows Multipoint Server 2012 (als ich mich das letzte mal in die Richtung eingelesen habe gab es irgendeinen springenden Punkt, der gegen Linux Multiseat gesprochen hat). Wenn ich eine Grafikkarte also einer VM zuweisen könnte wäre ein nice2have, wenns mit keiner Lösung gscheit funktioniert werde ich das eigentliche Projekt aber auch nicht über den Haufen schmeißen. kannst imho knicken. HTPC (ich denke hier an tv, etc. ist eine realtimeanwendung wos mit geshareden ressourcen eher eng wird um ein brauchbares ergebnis zu bekommen. und von einer graka einer vm zuweisen auf vmware hab i no nie was gehört. und wenn glaub ich net, dass das gut geht.
|
schizo
Produkt der Gesellschaft
|
kannst imho knicken. HTPC (ich denke hier an tv, etc. ist eine realtimeanwendung wos mit geshareden ressourcen eher eng wird um ein brauchbares ergebnis zu bekommen. und von einer graka einer vm zuweisen auf vmware hab i no nie was gehört. und wenn glaub ich net, dass das gut geht. Ich bezweifels ja auch gewissermaßen, aber einen Versuch wärs wert. Ansonsten muss ich halt bei einer eigenen Kiste dafür bleiben. Aber eben grad durch die dedizierte Grafikkarte hätte ich angenommen, dass ich so noch ein flüssiges Bild bekommen könnte.
|
Ringding
Pilot
|
Irgendwie muss es aber schon gehen, das ganze VT-d kann ja nicht nur ein Jux-Feature sein  . Leider unterstützen es halt immer nur ausgewählte Serverchipsets. Es gibt doch auch Virtualisierungshost, wo ganze Batterien an Grafikkarten drinnenstecken, um OpenCL-Tasks zu rechnen. Nur Monitore hängen da halt keine dran… Ob das geshared ist, ist doch auch ziemlich wurscht, wenn der Rest der Maschine idle ist.
Bearbeitet von Ringding am 21.10.2014, 08:44
|
XXL
insomnia
|
kannst imho knicken. HTPC (ich denke hier an tv, etc. ist eine realtimeanwendung wos mit geshareden ressourcen eher eng wird um ein brauchbares ergebnis zu bekommen. und von einer graka einer vm zuweisen auf vmware hab i no nie was gehört. und wenn glaub ich net, dass das gut geht. http://www.nvidia.com/object/dedicated-gpus.htmlsie arbeiten immerhin schon dran, das ganze ist halt für privaten spass viel zu teuer
|
daisho
VereinsmitgliedSHODAN
|
kannst imho knicken. HTPC (ich denke hier an tv, etc. ist eine realtimeanwendung wos mit geshareden ressourcen eher eng wird um ein brauchbares ergebnis zu bekommen. und von einer graka einer vm zuweisen auf vmware hab i no nie was gehört. und wenn glaub ich net, dass das gut geht. Ich habe in meinem ESXi eine AMD HD 5450 meiner XMBC VM per Passthrough zugeteilt. AMD Grafikkarten sind da relativ problemlos, bei NVIDIA funktioniert das nur mit Quadro/Tesla Karten (bzw. mit entsprechendem BIOS in manchen Äquivalenten Karten - sofern man dem Treiber vorgaukeln kann das man eine Quadro/Tesla eingebaut hat) Also mit VT-d geht das schon, es ist aber nicht so dass du irgendeine Hardware einbauen kannst und es garantiert läuft - sprich es wird vermutlich kaum "supported" sein. Wenn es läuft schön, wenn nicht ... pech. ESXi hat außerdem eine sehr eingeschränkte Hardwareunterstützung (leider) und eigene Treiber einbinden ist da nicht immer ganz einfach (auch wenn es den ESXi-Customizer gibt) ... VMware nimmt auch immer wieder ältere Treiber raus um (vermutlich) das Gesamtpackage klein zu halten, wobei ich auch denke das die Verträge mit Server-Herstellern wie Dell/HP/... haben
|
schizo
Produkt der Gesellschaft
|
Ich tendiere immer mehr zum ESXi und bin gerade dabei, Überlegungen bzgl. der Hardware anzustellen. Meine derzeitigen Hardwarevorstellungen sind diese (recht ähnlich zu Daishos Setup). Gibts daran etwas auszusetzen, oder sollt das passen? Hab zwar kurz überlegt, zu nem E5 zu greifen, um in Zukunft ev. ne zweite CPU dazustecken zu können, aber die TDP ist mir dann doch etwas zu hoch. Davon abgesehen bräucht ich dann erst recht wieder nen zusätzlichen Raidcontroller, da es keine 2011-3 Boards mit onboard HW Raid gibt. Bzgl Storage für die VMs bin ich noch am überlegen, ob ich mir zwei SSDs für ein Raid1 zulegen soll, oder mit 4 vorhandenen ST1500 ein Raid10 bilden soll. Aus kostengründen würde ich eher zum Raid10 tendieren, da ich ansonsten nochmal 2-400€ in die Hand nehmen müsste, je nachdem wie knapp ich den Storage kalkuliere. Mit 16GB Ram sollte ich vorerst auch auskommen, hätte bei dem Board aber noch etwas Spiel nach oben. edit: Ich nehm an, dass es kein Problem ist, den ESXi in einer Partition desselben Raidsets zu installieren, auf welchem nachher auch die Images liegen.
Bearbeitet von schizo am 24.10.2014, 11:56
|