"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

Welches NAS ? QNAP oder Synology ? 2 oder 4 bay ? Homeserver?

davebastard 22.07.2018 - 16:55 28933 115
Posts

Viper780

Er ist tot, Jim!
Avatar
Registered: Mar 2001
Location: Wien
Posts: 48619
Ich hab einen Eigenbau Server (Intel Xeon Workstation mit 9X4TB und 250GB SSD) und wenn du nicht den Aufwand ins damit rum Spielen und warten stecken willst (sprich als Lernplattform) dann greif zu QNAP oder Synology. Und nein in die Zukunft investieren zahlt sich nicht aus. Wer weiß was die Technologie in 2 Jahren bringt?

Ich setz übrigens nas4free ein, das ist das ursprüngliche FreeNAS und kann es empfehlen.

nexus_VI

Overnumerousness!
Avatar
Registered: Aug 2006
Location: südstadt
Posts: 3634
Ich sehe das anders, arbeite aber auch hauptberuflich als GNU/Linux Admin. Außer Harddisks reinschieben und Strom anschließen war betreffend Hardware nichts zu tun. Was das angeht gibt es keinen Mehraufwand zu einem Consumer NAS.

Debian installiert und konfiguriert habe ich mit Erfahrung halt locker an einem Abend. Unattended Upgrades aus APT sind imho sogar weniger Arbeit, da funktionell so gut wie nie etwas geändert wird. Das kann man z.B. von den automatischen Synology Updates nicht behaupten.

normahl

Here to stay
Registered: Aug 2003
Location: AT
Posts: 3567
die synology updates haben aber jedenfalls bei mir immer perfekt funktioniert (obwohl ich oft mal auch die betas verwende) und unwichtig sind ja updates auch nicht.

Master99

verträumter realist
Avatar
Registered: Jul 2001
Location: vie/sbg
Posts: 12566
Zitat aus einem Post von nexus_VI
Debian installiert und konfiguriert habe ich mit Erfahrung halt locker an einem Abend.


reines NAS zum filesharing ja... aber für die meisten hier ist das ganze auch ein kleiner dienste-server, und dann wird der einrichtungs- und wartungsaufwand deutlich größer.

zB:
Card/CalDAV-Server
Video-/Photo-/Filesharing ins Internet für Freunde und Bekannte
UPNP&iTunes-Server für div. Medienplayer im Netzwerk
Dropbox-Ersatz inkl. GoogleDocs
Downloadclient für HTTP, FTP und Torrent

das ist sogar mit einfach erweiterbaren NAS-Distris wie OMV nicht mehr so trivial, bei einem Qnap oder Synology NAS aber vermutlich 'locker an einem Abend'.

nexus_VI

Overnumerousness!
Avatar
Registered: Aug 2006
Location: südstadt
Posts: 3634
In den Abend sind ja bereits alle Dienste wie MariaDB (Kodi DB), Nextcloud (das alleine deckt ja 4 deiner Punkte ab), DLNA Mediaserver, Transmission inkl. RSS Downloader, ... eingerechnet - alles genannte. Seither hab ich das System nicht mehr angegriffen.

Die Synology Updates haben mir regelmäßig Pakete geschossen, v.a. die aus den Community Repos. Oder halt spontan ungefragt von PHP 5.6 auf 7 gehoben werden, hurra. Bei den Unattended Upgrades konfiguriere ich nur für Security relevantes, und mach den Rest wenn ich Bock hab mit einem einzigen Befehl.

Wie gesagt, Aufwand deutlich größer - ich kann es nicht bestätigen. Wenn man zum ersten mal vor einem Debian System sitzt ist es natürlich was ganz anderes, das trifft bei davebastard aber nicht zu, glaube ich.

Edit: Ich kann gern ein paar Configs und CLI Befehle hier zusammenpasten, wenns wer mag.

Viper780

Er ist tot, Jim!
Avatar
Registered: Mar 2001
Location: Wien
Posts: 48619
Wenn das dein täglich Brot ist dann bist du damit klar besser bedient, wenn es aber einfach nur laufen soll und man wenig Vorwissen hat zahlt sich ein fertig teil schon eher aus

nexus_VI

Overnumerousness!
Avatar
Registered: Aug 2006
Location: südstadt
Posts: 3634
Es ist eh klar, muss aber trotzdem keine "Lernplattform" sein. Ich glaub es ist nicht allen klar wie wartungsarm so ein System in Wahrheit ist.

davebastard

Vinyl-Sammler
Avatar
Registered: Jun 2002
Location: wean
Posts: 11402
Zitat aus einem Post von nexus_VI
Wie gesagt, Aufwand deutlich größer - ich kann es nicht bestätigen. Wenn man zum ersten mal vor einem Debian System sitzt ist es natürlich was ganz anderes, das trifft bei davebastard aber nicht zu, glaube ich.

jop genau, ich hab auch täglich beruflich mit debian servern zu tun.
Darum will ich ja OMV verwenden, da kann ich mir einerseits was neues ansehen aber unter der Haube ist es trotzdem good old debian.

die überlegung wegen den Synology/QNAP war hauptsächlich wegen Preis und Größe und weils halt wirklich Fire and Forget ist. Wir haben für unwichtiges Zeugs auch ein großes Synology @ work, also ich kenn die oberfläche auch ein bisserl und weiß wie die updates usw. sind. Da gabs nie Probleme.

ich hatte ja auch >5jahre schon einen homeserver mit debian am laufen(https://www.overclockers.at/desktop...update_192193/. Warum Wartungsaufwand entstanden ist waren aber eigentlich immer irgendwelche selbstverschuldeten Spielereien/Schnappsideen die ich mir eingebildet habe. irgendwelche selbstkompilierten alpha oder beta versionen wo ich mir das system hin und wieder zugemüllt habe. Aber auch nie komplett, also ich konnte es dann immer wieder herrichten :D irgendwann ist halt das mobo gestorben und der lüfter vom proprietären nt war laut => ich habs entsorgt.

jetzt gibts aber schon ganz andere möglichkeiten. ich könnt die oben genannten Spielereien in einer VM oder einem Docker Container laufen lassen...
von daher werd ich wsl heut noch den HP Microserver bestellen, muss nur noch rausfinden ob ich so einen stromadapter brauch :p

edit: hab jetzt bestellt :)
Bearbeitet von davebastard am 23.07.2018, 22:56

daisho

SHODAN
Avatar
Registered: Nov 2002
Location: 4C4
Posts: 19550
Zitat aus einem Post von nexus_VI
Es ist eh klar, muss aber trotzdem keine "Lernplattform" sein. Ich glaub es ist nicht allen klar wie wartungsarm so ein System in Wahrheit ist.
Man darf auf keinen Fall den Aufwand bei einer Erstinstallation nicht außer Acht lassen, besonders bei einem fremden System.
Das ist Grund genug für die meisten das Handtuch zu werfen und zur Fertiglösung zu greifen!



Ich bin vielleicht ein Spezialfall weil ich alles ordentlich und sauber installiert haben will. Aber ich bin gerade dabei ein Nextcloud (und für später ev. meinen Webserver auch dorthin migrieren) auf Ubuntu aufzusetzen in einer VM auf meinem Homeserver ... und es ist alles andere als einfach. Da ist _genug_ Lernaufwand den man reinstecken muss (vor allem wenn man von Linux eigentlich keine Ahnung hat).

Das Ding ist für mich eine Blackbox dessen Befehle ich mir Stück für Stück anschauen darf (damit ich auch weiß was ich da eigentlich mache), lernen wie der ganze Käse funktioniert und wie ich das System designen soll damit das nachher auch Sinn macht.

Ich sitze da jetzt schon ein paar Tage (also quasi paar Stunden nach der Arbeit) daran und habe eigentlich nicht viel mehr gemacht als Ubuntu am VMware Server aufgesetzt (also quasi 2-3 Menüs) und Docker installiert (quasi 2-3 Kommandos, apt update/upgrade und docker.io installiert).
Jetzt sitze ich weiter hier und überlege mir wie ich das ganze System designe (Container für NGINX, MariaDB, Nextcloud fpm), wie greife ich darauf zu? (für mich immer noch eine Blackbox, ich habe nicht einfach eine explorer.exe die ich anklicken kann um Dateien hin zu kopieren oder die Configfile zu editieren), SSH ist ja nicht empfohlen (https://blog.docker.com/2014/06/why...sshd-in-docker/) usw usw.

Also ich denke das ich da schon noch länger dran sitzen werde. Für jemanden der das die ganze Zeit macht vermutlich eine Sache von 5 Minuten. Für mich ist es jetzt schon ein großer Zeitaufwand welchen ich aber freiwillig mache. Weiß nicht ob ich mir das antun würde wenn ich z.B. schon Kinder hätte o.Ä.

UnleashThebeast

Mr. Midlife-Crisis
Avatar
Registered: Dec 2005
Location: 127.0.0.1
Posts: 3421
Ich finds schade, dass so viele Leute mittlerweile Docker verwenden. Das is mMn ein größeres Sicherheitsrisiko als einfach alle Services direkt Baremetal laufen zu lassen, aber naja.

davebastard

Vinyl-Sammler
Avatar
Registered: Jun 2002
Location: wean
Posts: 11402
Zitat
Ich finds schade, dass so viele Leute mittlerweile Docker verwenden. Das is mMn ein größeres Sicherheitsrisiko als einfach alle Services direkt Baremetal laufen zu lassen, aber naja.

das kommt aber stark drauf an wie man das updatemanagement handhabt. wenn du das automatisierst also dass sich der container 1 x die woche die neueste Version von dockerhub holt und neu created ist das überhaupt kein drama.

bei einem selbstgebastelten container gehts auch, dann musst halt 1 mal die woche neu kompilieren.

edit: wir haben btw. @work fast alle services auf docker

nexus_VI

Overnumerousness!
Avatar
Registered: Aug 2006
Location: südstadt
Posts: 3634
Der Sinn der vorgefertigten Container ist ja genau derartigen Installationsaufwand zu vermeiden. Dafür hast du halt dann die genannte Blackbox, für mich wär das auch nix.

In der Arbeit verwende ich selbst verwaltete LXC Container, QEMU-KVM Maschinen oder bare-metal Systeme je nach Anwendungsfall.

Von einem derartigen Aufwand für einen Homeserver halt ich wenig, sehe den langfristigen Gewinn nicht. Ich habe meine PHP-FPM und MariaDB Installationen für den Nextcloud Betrieb optimiert, aber auch nur weil ich es leicht und schnell machen kann - nicht weil es unbedingt notwendig ist.

daisho

SHODAN
Avatar
Registered: Nov 2002
Location: 4C4
Posts: 19550
Bin primär dazu gekommen weil es sehr komfortabel aussieht einfach container offline zu nehmen und einen neuen zu deployen. Muss dann halt so designed werden dass Config/Content wo anders liegt (also nicht IM container), zumindest stelle ich mir das im Moment so vor.

Ich update schon gerne meine Systeme und lasse die nicht jahrelang auf Version "steinalt" und vom Konzept her wirkt Docker da schon sehr hilfreich und flexibel.

Gerade langfristig sehe ich da eher weniger ein Problem, weil den Erstellungsaufwand habe ich ja nur einmal - alles danach sollten ja nur noch updates sein.
Wenn ich irgendwas für nur Hausnummer 6 Monate plane, würde ich mir den Aufwand jetzt nicht antun.

nexus_VI

Overnumerousness!
Avatar
Registered: Aug 2006
Location: südstadt
Posts: 3634
Ich finde eigentlich ein "apt upgrade" das mir gleich alle Komponenten updated komfortabler und bin bei Bedarf auch flexibler, als wenn ich mehrere Container separat upgraden muss.

Gerade wenn aktuelle Releases gewünscht sind, ist man dann ja wieder vom Maintainer des Docker Container abhängig.

MuP

OC Addicted
Registered: Aug 2004
Location: Wien
Posts: 968
Hab einen server bei dem alles in docker containern ist. Finde ich super praktisch.

Verwende als UI portainer um Docker nach der installation zu warten. habe nen ordner für alle config dateien usw. auf meinem hauptsystem und mounte den ordner in den docker containern und kann so die configs vom hauptsystem aus per ssh bearbeiten bzw. sichern. Ist meiner meinung ziemlich dau sicher, wenn man sich mal 1-2 tage damit beschäftigt.
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz