URL: https://www.overclockers.at/linux/ubuntu-als-mac-fileserver_222219/page_1 - zur Vollversion wechseln!
werd in der arbeit nen "alten" core2duo server reaktivieren der neben dateifreigabe für mac & win-rechner auch als zielvolume für timemachine-backups dienen soll.
geplant wäre:
raid5 mittels mdadm
afp (via netatalk/avahi) und samba
evtl. kommt noch ein ftp dazu
ssh remotezugriff für wartung/konfig
gedacht hätt ich an ubuntu server - anregungen, einwände?
was mir jetzt noch fehlt ist eine komfortable lösung kopiervorgänge am server durchzuführen und ftp-server (benutzer/zugriffsrechte) konfigurieren. beides vorzugsweise grafisch bzw. mittels web-gui weil das auch von kollegen (non-linuxer) bedient werden soll.
was sind da meine optionen ausser kanonen auf spatzen (x-server installieren + vnc)?
würd sowas wie openfiler, FreeNAS,open-e oder NASLite dafür in betracht ziehen.
die sind alle recht einfach aufzusetzen, können das was du willst und haben alle ein WebInterface
Mich würd' auch brennend interessieren wie ihr einen Linux Rechner als host für Timemachine verwendet.
Debian/Ubuntu/whatever als Fileserver via afp, cifs, nfs, etc zu konfigurieren und das Apferl darauf zugreifen zu lassen ist ja eh standard. Aber ich bekomm' es um's verrecken nicht zusammen den Share als gültiges Timemachine target zu konfigurieren. Im Netz habe ich nur veraltete Konfigurationen gefunden die bis dato bei mir nicht zum Ziel gefunden haben. Hat das wer von Euch mit aktuellem MacOs und Linux schon zum Laufen gebracht?
hab das vor nem jahr schonmal mit nem qnap-nas (linux powered) gemacht (insgesamt drei macs drauf gesichert), funzt tadellos... einzig was bei den meisten tutorials nicht steht ist das handische erstellen des spare-images. am automatischen erstellen des images scheiters nämlich AFAIK oft...
aber ist ohnehin gscheiter wenn man das händisch anlegt und gleich eine maximalgröße angibt. die linux-implementation von afp hat(te?) nämlich probleme mit der rückmeldung wenn der speicher ausgeht was durchaus ein großes problem darstellt wenn man ein unendlich-inkrementelles-backup-system wie time machine verwendet das alte datenbestände im normalfall erst löscht wenn der speicher ausgeht.
ich find die qnap-anleitung mit dem genauen terminal-befehl nicht mehr online, habs aber in meiner DA drinnen. kann ich später posten wenn du willst...
das aktuellste how-to das ich gestern gefunden hab war btw.: http://talklikeaduck.denhaven2.com/...or-snow-leopard
sehr grad das der open-e Lite sehr sehr stark beschnitten ist und kein RAid kann, streich den mal. Wennst was mit Linux willst bist mit openfiler sicher gut dran, FreeNAS ist halt altgedient und hat einen sehr stabilen BSD unterbau
Vollkommen richtig, daran hat's bis dato auch bei mir gehappert. Danke für den Link! Den werd' ich mir am WoE genauer ansehen.Zitat von Master99am automatischen erstellen des images scheiters nämlich AFAIK oft..
hier noch die qnap-anleitung zum händischen anlegen des spare-bundles:
http://wiki.qnap.com/wiki/How_to_se...le_Time_Machine
Code:HN=`hostname | cut -f1 -d.`;MA=`ifconfig en0 | grep ether | sed "s|:||g" | cut -f2 -d' '`; hdiutil create -size 350g -fs HFS+J -volname "TM_$HN" $HN\_$MA.sparsebundle
so, mal wieder zeit mich mit dem server zu beschäftigen...
nachdem ich vor 2 wochen schonmal ubuntu 10.10 aufgesetzt hatte (mir war dann eine verbreitete und gut dokumentierte plattform ohne restriktionen was erweiterungen udgl. angeht doch lieber als eine spezialisierte out-of-the-box-lösung) und der initialisierungs-sync ewigst gedauert hat (5 Tage?) war ich nach ersten tests sehr ernüchternd was performance angeht.
datenraten allesamt <20MB/s und auch browsing nicht wirklich fluffig... weitere tests über samba waren noch schlechter und inzwischen ist die performance ohne änderungen am raid noch weiter in den keller gerutscht.
selbst bei einer lokalen kopie eines dvd-images vom raid auf die systemplatte trödelt der server bei 25mb/s rum -> I'm not amused!
beim checken der block/chunk-größen (da hab ich beim erstellen auf die default-werte 'vertraut') hab ich dann entdeckt, dass ubuntu eine alte mdadm-version von 2008 verwendet... zahlreiche dokumentierte bugs inklusive.
kein wunder also dass das verwendeten metadaten-format und chunk-size nicht den anforderungen heutiger raids mit >=2TB platten entsprechen.
werd wohl nochmal ground-zero machen und auf ein anderes pferd setzen...
>= 50MB/s darf ich doch erwarten von einem Core2Duo, 2GB RAM und 5 x 2TB im Raid5 oder?
gbit? nic?
Zitat von Master99kein wunder also dass das verwendeten metadaten-format und chunk-size nicht den anforderungen heutiger raids mit >=2TB platten entsprechen.
Ohne Ubuntu schlecht reden zu wollen, könntest du vll auch auf einen "ZFS-Server" (solaris express 11, nexenta, etc) setzen.
Hier hast du mit Napp-It (http://www.napp-it.org/) auch ein funktionelles WebGui dabei bzw. kannst installieren.
Ansonsten, solltest du auf alle Fälle ne höhrere Schreibrate erreichen.
Welche Festplatten verwendest du? Welche mit "4k-Design" ? Diese können Probleme machen ...
motherboard ist ein GA-EP45-DS3R mit 2 x Realtek 8111C via PCI-E
http://www.gigabyte.de/products/pro...842&dl=1#ov
hab mir jetzt nochmal vipers empfehlungen angeschaut, aber bis auf FreeNAS kommt das alles nicht in frage (fehlende features, kostenpflichtige upgrades, veraltete codebasis...)
seh auch keinen grund bis auf die einfacherer konfiguration wieso ich so ein 'eingeschränktes' system verwenden sollte wenn ressourcenverbrauch nicht wirklich ein problem dar stellt.
zu was würdet ihr mir also raten?
Zitatwas sind also meine optionen?
Debian?
Wenn deine Platten Partitioniert sind, und diese Partitionen dann die Member deines Arrays, dann kein dir ein "falsches" Alignment durchaus reinpfuschen. Ich wuerde dir raten, die ganzen Platten als Member Devices fuer dein RAID5 zu verwenden, und die Chunk Size auf mindestens 256k zu setzen. Anonsten: http://johannes.truschnigg.info/blo...-Software-RAID5
Festplatten sind eine 250GB WD2500AAJS als Systemplatte und 4x WD20EARS im RAID. 4K Sektoren also... seh gerade das mein raid-device 512 byte sectoren hat. dürfte wohl der hauptgrund sein für die miese performance.
btw. sollte fdisk aber nicht zumindest die einzelplatten richtig erkennen? da wird auch 512bytes als sector size angezeigt
platten wurden btw. partioniert ja (da - non-fs data), damit ne geringfügig kleinere austauschplatte kein problem macht.
edit: Metadata-Version 0.9 und 64kbyte Chunk Size wurde von mdadm standardmäßig verwendet
overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2025