"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

S: RAID-Treiber für C222-Chipsatz

daisho 21.01.2014 - 08:28 4287 15
Posts

daisho

SHODAN
Avatar
Registered: Nov 2002
Location: 4C4
Posts: 19561
Are there any?

Ich würde die gerne in meine ESXi Installations-ISO einbinden (für ESXi @ RAID1), finde dazu leider nichts (da ich mit Linux leider auch nicht viel am Hut habe, kann ich nicht sagen ob es dazu ev. kompatible Treiber gibt?) :(

ESXi unterstützt leider keinerlei Software-Raid-Controller (sprich sie haben einfach keine Treiber im Package).

Ringding

Pilot
Avatar
Registered: Jan 2002
Location: Perchtoldsdorf/W..
Posts: 4300
Was erhoffst du dir davon? Du kannst ja wohl ein ganz normales Linux-Software-RAID machen, oder? Dieses komische fakeraid ist doch nur in Multiboot-Situationen irgendwie interessant, aber ich frage mich, wozu man auf einem VMWare-Server Multiboot hat.

daisho

SHODAN
Avatar
Registered: Nov 2002
Location: 4C4
Posts: 19561
Das sollte die Bootpartition des ESXi sein, da kann ich vorher kein anderes OS drauf installieren ... ESXi ist dann quasi das Betriebssystem (läuft auch mit einem Linux Kernel, hat aber halt keinerlei Treiber für solche Controller an Bord).
Hätte den Vorteil dass ich bei einem Problem (eine Platte geht ex o.Ä.) einfach die SSD austauschen kann und nicht umständlich ein Backup/Image rückspielen muss.

Ist nicht so tragisch, wäre aber bequemer :)

userohnenamen

leider kein name
Avatar
Registered: Feb 2004
Location: -
Posts: 15840
muss es der esxi sein?
gibt ja auch genug andere gute bis sehr gute alternativen

Ringding

Pilot
Avatar
Registered: Jan 2002
Location: Perchtoldsdorf/W..
Posts: 4300
Du meinst also, dass du überhaupt nicht auf die Platten an diesem Controller zugreifen kannst, oder nur nicht auf das RAID?

daisho

SHODAN
Avatar
Registered: Nov 2002
Location: 4C4
Posts: 19561
ESXi sieht den Raid einfach nicht bei der Installation, einfach weil keine Treiber in deren Installation integriert sind (wie früher unter Windows, als man F6 drücken musste um fremde Treiber einzubinden).

Ist aber nicht so tragisch.
ESXi weil ich VMware gut finde und VMware bereits habe, habe in der Arbeit auch HyperV und ... no, plz not :D

userohnenamen

leider kein name
Avatar
Registered: Feb 2004
Location: -
Posts: 15840
zu HyperV hätt ich eh ned geraten :D
wenn hätt ich PVE empfohlen

Ringding

Pilot
Avatar
Registered: Jan 2002
Location: Perchtoldsdorf/W..
Posts: 4300
Das war aber nicht meine Frage. Wenn du kein RAID machst, sondern die Platten einfach so dranhängst, werden sie dann gesehen?

Ich kenne den speziellen Controller zwar jetzt nicht, aber es würde mich wundern, wenn der nicht unterstützt würde. Andererseits weiß ich natürlich nicht, wie alt der Kernel von ESXi ist.

daisho

SHODAN
Avatar
Registered: Nov 2002
Location: 4C4
Posts: 19561
Ja, im AHCI-Mode läuft alles Pipifein, im RAID-Mode erkennt er sie nicht.
Laufen tut der Server schon, RAID1 Boot wäre halt eine Überlegung gewesen - macht auch nix, dann mach ich halt ein Image davon wenn alles läuft.

Die Platten separat betreiben hat zumindest den Vorteil dass der ZFS ZIL-Cache nur eine der Platten über die Zeit tötet :p

Ringding

Pilot
Avatar
Registered: Jan 2002
Location: Perchtoldsdorf/W..
Posts: 4300
Warum machst du dann nicht einfach ein Linux-Software-RAID daraus? Der einzige Nachteil wäre doch, dass du im Fall des Falles, also wenn die 1. Platte hin ist, diese abstecken müsstest, um zu booten.

COLOSSUS

Administrator
Frickler
Avatar
Registered: Dec 2000
Location: ~
Posts: 11890
Ich hab ja vom ESXi und Co. keine Ahnung, kann aber mit Sicherheit sagen:

o) md/mdadm koennen seit geraumer mit IMSM-Metadaten (welche alle C*-Intel-Chipset-SB-HBAs schreiben/verwenden sollten) umgehen und diese verwalten.
o) man kann den GRUB mbr und die Stage1 auf mehr als eine Festplatte, auch innerhalb eines RAID-Verbund installieren, und dann von jeder dieser Platten booten.
o) GRUB2 unterstuetzt ootb alle md-RAID-Levels, von 0 bis 6.

Valera

Here to stay
Registered: Dec 2005
Location: Mint
Posts: 683
Wollte das selbe schreiben wie Colossus. Kenn mich bei ESXi nicht aus, aber wenn im AHCI alles läuft und du ein Linux Software RAID erstellen kannst, dann kannst du das auch für die Systemplatte machen und Grub auf beide Platten kopieren.
Ich hab das schonmal gemacht aber ich weiß nicht mehr wie ;) gibt aber etliche Howtos im Netz.
Genauso hab ich das im ESXi Serverthread gemeint: 2 SSDs --> OS im RAID1, ~10GB ZIL im RAID1 und Rest L2ARC im RAID0 - alles auf den 2 SSDs und alles per Linux Software RAID (und Grub eben auf beide Platten kopieren). CPU Leistung soltest du genug haben - weiß nur nicht wie das bei dir mit Zugriffen auf das OS aussieht - bei meinen Minipipianwendungen, also reiner email- und Fileserver ist das imho kein Problem.
Bearbeitet von Valera am 25.01.2014, 22:36

bsox

Schwarze Socke
Avatar
Registered: Jun 2009
Location: Dschibuti
Posts: 1034
Vielleicht darf ich mich hier thematisch dranhängen:

Ich spiele mich schon länger mit dem Gedanken meinen derzeitigen Eier-legende-Wollmilchsau-Homeserver der neben Firewall-, Email-, NAS-,DLNA-, usw. Server ist und bei dem alles auf einer Betriebssysteminstanz auf der Physik rennt, aufzuteilen und zu virtualisieren. Einen Plan wie ich mit einem Zwischenschritt den physischen Server zwischenzeitlich auf Virtualbox virtualisiere um die Downtime gering zu halten habe ich mir zurechtgelegt, allerdings bin ich mir bei der Auswahl des zukünftigen Hypervisors und der darunter liegenden Distribution noch nicht hundertprozentig sicher.

Klicki-bunti brauchts nicht, aber ich habe bisher für meine Anwendungsfälle gute Erfahrungen mit Virtualbox, sowohl auf der CL als auch um GUI gemacht. Trotzdem glaube ich, dass ein Wechsel auf eine, hm, professionellere Lösung angebracht wäre.

Vorhandene Hardware:
AMD Athlon(tm) II X2 240e Processor
8GB RAM - wahrscheinlich zu wenig für ZFS; wird wohl eine andere Redundanzlösung werden.
3 x 3TB WDC WD30EFRX - derzeit mdadm raid5 Datengrab
1 x 1TB SAMSUNG SpinPoint F1 DT - für temporäre Datenschubserei, damit ich nicht immer die 3 raid Platten aus ihrem Schlaf aufwecken muss
1 x 160GB Seagate Momentus 5400.5 - Bootplatte, auf dem rennt der komplette derzeitige Server; wird durch eine 240GB SSD ersetzt.
Ethernet controller: Realtek Semiconductor Co., Ltd. RTL8111/8168B PCI Express Gigabit Ethernet controller (rev 03)
Ethernet controller: Intel Corporation 82541PI Gigabit Ethernet Controller (rev 05)

Weitere/neue Hardware würde ich nur ungern anschaffen, wobei der Server von Daisho schon sehr fein aussieht. Besonders das IPMI Motherboard...

Meine Anforderungen:
- Gäste: ipfire als Firewall, Debian in einer DMZ, Debian im LAN, eventuell freeNAS für Storage, Windows Gäste, sporadische VMs mit exotischen Betriebssystemen zum herumspielen.
- Ich will devices (network, block) direkt an manche Gäste weiterreichen. => VT-d
z.B: soll die nic ins Internet direkt mit ipfire kommunizieren und die NAS Platten mit dem Storageserver. (entweder freeNAS, oder der LAN Debian. Jedenfalls soll sich der Gast direkt um das Raid kümmern, nicht der Host.)

Etwas eingelesen habe ich mich in OpenVZ, KVM und Xen wobei ich tendenziell zu KVM auf CentOS neige. Auch den von UON erwähnten PVE habe ich mir angesehen, aber deren Community Edition sagt mir nicht sehr zu. Wenn ich die die Combo KVM&OpenVZ will, dann konfiguriere ich mir das selber.
Meine Erfahrungen mit VMWare unter Linux sind schon ein Weilchen her, aber damals hat sich das schlanke GUI in ein langsames Tomcat Monster verwandelt und seit dem war diese Plattform für mich im Heimbereich nicht mehr interessant.

So, meine Fragen:
Ist CentOS mit KVM zu empfehlen?
Oder führt kein Weg an Xen, bzw. ESXi vorbei?

nexus_VI

Overnumerousness!
Avatar
Registered: Aug 2006
Location: südstadt
Posts: 3643
Empfehle KVM, bzw. deine gewünschten Dienste gleich per Container mit LXC realisieren. VMWare, VirtualBox, Xen, OpenVZ - ich kann davon nur abraten.

Für den Heimgebrauch ist das alles imho unnötig kompliziert, aber das musst du selbst wissen ;)

bsox

Schwarze Socke
Avatar
Registered: Jun 2009
Location: Dschibuti
Posts: 1034
Sodala, KVM unter Debian ist's geworden. Ich dachte ja, dass RedHat (CentOS) als Mutter von KVM die beste Wahl für mich sei, aber jeez, der Kernel von CentOS und die KVM Tools sind einfach steinalt. Und Debian kenne ich mittlerweile schon eine gefühlte Ewigkeit. Vielleicht hätte ich mir noch Fedora ansehen sollen, aber der Gedanke kam mir erst nachdem ich fertig war.

Mit vt-d ist es leider nichts geworden, da mein Mainboard das nicht unterstützt, aber ich bin trotzdem mit der Performance zufrieden. Die alten raid5 Disken konnte ich so wie sie sind 1:1 einem Gast zuordnen und die Daten weiter verwenden. Die physischen und virtuellen NICs sind ebenfalls per virtio Treiber angebunden, das passt in Summe schon für meine Anforderungen zu Hause.

Aber ein großes 'Booh!' für http://www.linux-kvm.org/ . Dafür, dass es die offizielle KVM Seite sein soll und von RedHat betreut ist, ist die Information zu KVM echt total zerfleddert und zum Teil veraltet. Da sind die distributionsspezifischen Dokumentationen um etliches verständlicher wenn man mit KVM anfangt.
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz