"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

Ubuntu als Mac-Fileserver

Master99 10.02.2011 - 16:04 5572 44
Posts

Master99

verträumter realist
Avatar
Registered: Jul 2001
Location: vie/sbg
Posts: 12589
werd in der arbeit nen "alten" core2duo server reaktivieren der neben dateifreigabe für mac & win-rechner auch als zielvolume für timemachine-backups dienen soll.

geplant wäre:

raid5 mittels mdadm
afp (via netatalk/avahi) und samba
evtl. kommt noch ein ftp dazu
ssh remotezugriff für wartung/konfig

gedacht hätt ich an ubuntu server - anregungen, einwände?

was mir jetzt noch fehlt ist eine komfortable lösung kopiervorgänge am server durchzuführen und ftp-server (benutzer/zugriffsrechte) konfigurieren. beides vorzugsweise grafisch bzw. mittels web-gui weil das auch von kollegen (non-linuxer) bedient werden soll.

was sind da meine optionen ausser kanonen auf spatzen (x-server installieren + vnc)?

Viper780

Er ist tot, Jim!
Avatar
Registered: Mar 2001
Location: Wien
Posts: 48856
würd sowas wie openfiler, FreeNAS,open-e oder NASLite dafür in betracht ziehen.

die sind alle recht einfach aufzusetzen, können das was du willst und haben alle ein WebInterface

bsox

Schwarze Socke
Avatar
Registered: Jun 2009
Location: Dschibuti
Posts: 1039
Mich würd' auch brennend interessieren wie ihr einen Linux Rechner als host für Timemachine verwendet.

Debian/Ubuntu/whatever als Fileserver via afp, cifs, nfs, etc zu konfigurieren und das Apferl darauf zugreifen zu lassen ist ja eh standard. Aber ich bekomm' es um's verrecken nicht zusammen den Share als gültiges Timemachine target zu konfigurieren. Im Netz habe ich nur veraltete Konfigurationen gefunden die bis dato bei mir nicht zum Ziel gefunden haben. Hat das wer von Euch mit aktuellem MacOs und Linux schon zum Laufen gebracht?

Master99

verträumter realist
Avatar
Registered: Jul 2001
Location: vie/sbg
Posts: 12589
hab das vor nem jahr schonmal mit nem qnap-nas (linux powered) gemacht (insgesamt drei macs drauf gesichert), funzt tadellos... einzig was bei den meisten tutorials nicht steht ist das handische erstellen des spare-images. am automatischen erstellen des images scheiters nämlich AFAIK oft...

aber ist ohnehin gscheiter wenn man das händisch anlegt und gleich eine maximalgröße angibt. die linux-implementation von afp hat(te?) nämlich probleme mit der rückmeldung wenn der speicher ausgeht was durchaus ein großes problem darstellt wenn man ein unendlich-inkrementelles-backup-system wie time machine verwendet das alte datenbestände im normalfall erst löscht wenn der speicher ausgeht.

ich find die qnap-anleitung mit dem genauen terminal-befehl nicht mehr online, habs aber in meiner DA drinnen. kann ich später posten wenn du willst...

das aktuellste how-to das ich gestern gefunden hab war btw.: http://talklikeaduck.denhaven2.com/...or-snow-leopard

Viper780

Er ist tot, Jim!
Avatar
Registered: Mar 2001
Location: Wien
Posts: 48856
sehr grad das der open-e Lite sehr sehr stark beschnitten ist und kein RAid kann, streich den mal. Wennst was mit Linux willst bist mit openfiler sicher gut dran, FreeNAS ist halt altgedient und hat einen sehr stabilen BSD unterbau

bsox

Schwarze Socke
Avatar
Registered: Jun 2009
Location: Dschibuti
Posts: 1039
Zitat von Master99
am automatischen erstellen des images scheiters nämlich AFAIK oft..
Vollkommen richtig, daran hat's bis dato auch bei mir gehappert. Danke für den Link! Den werd' ich mir am WoE genauer ansehen.

Master99

verträumter realist
Avatar
Registered: Jul 2001
Location: vie/sbg
Posts: 12589
hier noch die qnap-anleitung zum händischen anlegen des spare-bundles:

http://wiki.qnap.com/wiki/How_to_se...le_Time_Machine

Code:
HN=`hostname | cut -f1 -d.`;MA=`ifconfig en0 | grep ether | sed "s|:||g" | cut -f2 -d' '`;
hdiutil create -size 350g -fs HFS+J -volname "TM_$HN" $HN\_$MA.sparsebundle 

maximalgröße (in diesem syntaxbeispiel 350g) natürlich noch anpassen an deine anforderungen

rsync hat bei mir btw. nicht immer funktioniert, kannst es aber auch einfach händisch auf die netzwerkfreigabe rüberkopieren.

Master99

verträumter realist
Avatar
Registered: Jul 2001
Location: vie/sbg
Posts: 12589
so, mal wieder zeit mich mit dem server zu beschäftigen...

nachdem ich vor 2 wochen schonmal ubuntu 10.10 aufgesetzt hatte (mir war dann eine verbreitete und gut dokumentierte plattform ohne restriktionen was erweiterungen udgl. angeht doch lieber als eine spezialisierte out-of-the-box-lösung) und der initialisierungs-sync ewigst gedauert hat (5 Tage?) war ich nach ersten tests sehr ernüchternd was performance angeht.

datenraten allesamt <20MB/s und auch browsing nicht wirklich fluffig... weitere tests über samba waren noch schlechter und inzwischen ist die performance ohne änderungen am raid noch weiter in den keller gerutscht.
selbst bei einer lokalen kopie eines dvd-images vom raid auf die systemplatte trödelt der server bei 25mb/s rum -> I'm not amused!

beim checken der block/chunk-größen (da hab ich beim erstellen auf die default-werte 'vertraut') hab ich dann entdeckt, dass ubuntu eine alte mdadm-version von 2008 verwendet... zahlreiche dokumentierte bugs inklusive.
kein wunder also dass das verwendeten metadaten-format und chunk-size nicht den anforderungen heutiger raids mit >=2TB platten entsprechen.

werd wohl nochmal ground-zero machen und auf ein anderes pferd setzen...

>= 50MB/s darf ich doch erwarten von einem Core2Duo, 2GB RAM und 5 x 2TB im Raid5 oder?

PIMP

Moderator
Avatar
Registered: Sep 2002
Location: Wien ❤️
Posts: 8814
gbit? nic?

COLOSSUS

Administrator
Frickler
Avatar
Registered: Dec 2000
Location: ~
Posts: 11899
Zitat von Master99
kein wunder also dass das verwendeten metadaten-format und chunk-size nicht den anforderungen heutiger raids mit >=2TB platten entsprechen.

Woraus schlieszt du das? Welche Werte hat dir mdadm denn fuer das Array "ausgesucht"?


Und ja, GBit solltest du bei sequential reads und sequential writes durchaus saturieren koennen. Die stripe width (Anzahl der Disks im Array) ist auch noch entscheidend, aber so als Vergleichswert: mein 5x1.5TB RAID5 liest ueber 300MiB/s sequentiell.

baldi

Addicted
Registered: Dec 2006
Location: austria
Posts: 478
Ohne Ubuntu schlecht reden zu wollen, könntest du vll auch auf einen "ZFS-Server" (solaris express 11, nexenta, etc) setzen.
Hier hast du mit Napp-It (http://www.napp-it.org/) auch ein funktionelles WebGui dabei bzw. kannst installieren.

Ansonsten, solltest du auf alle Fälle ne höhrere Schreibrate erreichen.
Welche Festplatten verwendest du? Welche mit "4k-Design" ? Diese können Probleme machen ...

Master99

verträumter realist
Avatar
Registered: Jul 2001
Location: vie/sbg
Posts: 12589
motherboard ist ein GA-EP45-DS3R mit 2 x Realtek 8111C via PCI-E

http://www.gigabyte.de/products/pro...842&dl=1#ov

hab mir jetzt nochmal vipers empfehlungen angeschaut, aber bis auf FreeNAS kommt das alles nicht in frage (fehlende features, kostenpflichtige upgrades, veraltete codebasis...)

seh auch keinen grund bis auf die einfacherer konfiguration wieso ich so ein 'eingeschränktes' system verwenden sollte wenn ressourcenverbrauch nicht wirklich ein problem dar stellt.

zu was würdet ihr mir also raten?
Bearbeitet von Master99 am 31.03.2011, 13:05

baldi

Addicted
Registered: Dec 2006
Location: austria
Posts: 478
Zitat
was sind also meine optionen?

Debian?

Solaris ;) (oder ein Ableger davon - OpenIndiana, Nexentastor)

Btw. weiß nicht wirklich ob mdadm damit Probleme hat ... könnte zumindest sein.

COLOSSUS

Administrator
Frickler
Avatar
Registered: Dec 2000
Location: ~
Posts: 11899
Wenn deine Platten Partitioniert sind, und diese Partitionen dann die Member deines Arrays, dann kein dir ein "falsches" Alignment durchaus reinpfuschen. Ich wuerde dir raten, die ganzen Platten als Member Devices fuer dein RAID5 zu verwenden, und die Chunk Size auf mindestens 256k zu setzen. Anonsten: http://johannes.truschnigg.info/blo...-Software-RAID5

Master99

verträumter realist
Avatar
Registered: Jul 2001
Location: vie/sbg
Posts: 12589
Festplatten sind eine 250GB WD2500AAJS als Systemplatte und 4x WD20EARS im RAID. 4K Sektoren also... seh gerade das mein raid-device 512 byte sectoren hat. dürfte wohl der hauptgrund sein für die miese performance.

btw. sollte fdisk aber nicht zumindest die einzelplatten richtig erkennen? da wird auch 512bytes als sector size angezeigt

platten wurden btw. partioniert ja (da - non-fs data), damit ne geringfügig kleinere austauschplatte kein problem macht.

edit: Metadata-Version 0.9 und 64kbyte Chunk Size wurde von mdadm standardmäßig verwendet
Bearbeitet von Master99 am 31.03.2011, 13:54
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz