"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

Asustor NAS - JBOD initialiseriung der ext. Einheit schlägt (manchmal) fehl

MaxMax 31.05.2023 - 13:13 1836 13
Posts

MaxMax

Here to stay
Registered: Jul 2001
Location: Wien
Posts: 1913
Hi, ich betreibe ein Asustor 6510T + 2 Stk. AS6004 (jede einheit hat 4x 3,5" HDDs als JBOD mit BTRFS) daran.
Problem: bei einem reboot des NAS wird nur eine AS6004 vollständig (in bezug auf HDDs) erkannt und dann auch initialisiert/gemounted (diese einheit funktioniert dann auch problemlos), bei der zweiten Einheit sagt das NAS aber: 1 (oder manchmal 2) HDDs fehlen, und setzt es inaktiv, optisch fällt mir halt nur auf, dass 3 der 4 HDDs sofort nach einschalten die grüne kontrollled leuchtet, die 4. HDD (meistens in slot 1 oder 2) braucht halt ~5sec länger bis sie grün wird, aber im endeffekt werden alle grün, aber dann sagt das NAS schon, dass eben eine HDD fehlt, obwohl jetzt aber eh alle 4 grün leuchten.

manuelles initialisieren oder aktiv setzen gibts nicht in der Asustor software afaik. nur durch abstecken des USB kabels (oder trennen des ext. netzteiles für die Einheit) kann ich die neuinitalisierung auslösen.
Nur sobald ich USB kabel oder stromstecker ziehe, drehen die platten runter und da liegt imho der fehler: die platten dürften ungleich lang für den spin-up brauchen und daher meldet sich wahrs. 1 oder 2 platten zu spät als "betriebsbereit" und das NAS sagt schon vorher "da fehlt was, breche initialsisierung ab".

Asustor support sagt, die HDDs stehen nicht auf der QVL, daher kein support, meine Frage nach einer manuellen Initialisierung wurde nicht beantwortet, lediglich "the NAS handles all the power requirements for the extension box"

Kabel/netzteile/Einheiten und USB ports hab ich schon kreuz und quergetauscht ohne erfolg.

hat wer eine idee, wie ich so eine manuelle initialisierung anstossen kann in der asus software? (dzt. brauch ich ca. 20 reboots bis ich doch beide ext. einheiten zufällig dann doch mal online/initialisiert krieg)

matiss

Chaos Maestro
Avatar
Registered: Dec 2007
Location: Vienna
Posts: 694
Blöde Idee, sind die NAS und die Festplatten Hot Swap fähig? Dann könntest es so probieren, bräuchtest zumindest nicht immer das ganze NAS neu starten. Aber keine Ahnung wie das in der Praxis auf die Lebensdauer der Festplatten geht.

COLOSSUS

Administrator
Frickler
Avatar
Registered: Dec 2000
Location: ~
Posts: 11898
Haha, der Asustor-Support putzt sich also wegen der Wahl der HDDs ab, und du stehst mit dem de facto unbrauchbaren Graffl da, wo man in der Firmware nicht aufs Settlen der udev-Events der Disks wartet, bevor man die Layer darueber startet? Das sagt mir recht eindeutig, ob ich jemals was von denen kaufen wuerde.

Da wirst auch nicht uebertrieben viel machen koennen - auszer die Firmware/das OS tauschen, falls das bei deinem Modell geht. Das Problem wurzelt an der Inkompetenz von Asustor bei der Implementierung, wo man sich eine Race Condition eingetreten hat, wo keine sein muesste.

Hat man auf den Geraeten eine lokale root-Shell?

MaxMax

Here to stay
Registered: Jul 2001
Location: Wien
Posts: 1913
ja, ich wollt eigentlich auch nix mehr von asus kaufen, aber das NAS hab ich vor 2,5J angeschafft, und es war unverschämt günstig damals und perfekt für meinen einsatzzweck. das problem dürft auch jetzt erst so krass sein, weil ich die HDDs alle ausgetauscht hab gegen größere.

afaik kann ich über SSH eine admin shell öffnen, aber ich hab davon kaum eine ahnung.

COLOSSUS

Administrator
Frickler
Avatar
Registered: Dec 2000
Location: ~
Posts: 11898
Also ich behaupte mal, dass, wenn man sich die Firmware genauer ansieht, eine Software-Only-Loesung basteln kann, die deinen Use Case repariert. Aber das ganze waere "exploratory surgery" - also da muesste sich jemand mit Ahnung von der Materie live an dieser Admin-Shell spielen koennen, damit das was werden kann.

Jedimaster

Here to stay
Avatar
Registered: Dec 2005
Location: Linz
Posts: 2514
Hmmm welche Platten hast du denn in der NAS ?

Ich hatte mal ähnliche Probleme mit WD Red HDD's (mit NASWARE 3.0 hahahaha) - die sich dann als Shingled Recording HDD's entpuppten und wo das Raid ständig schwierigkeiten machte (sprich eine Platte wurde ständig gekickt weil der Resync nicht nachkam bzw. das ganze OS auf die Platte warten musste bis das OS dann entscheiden hat 'die platte hat was, kick' - oder das Nas halt dann den ganzen Raidverbund vergessen hat weil mans erst wieder als 'Clean' markieren musste.

MaxMax

Here to stay
Registered: Jul 2001
Location: Wien
Posts: 1913
hi, ich habe Toshiba enterprise disks (Flux Control Microwave Assisted Conventional Magnetic Recording (FC-MAMR CMR) )
, bis 14TB sinds in der Asustor QVL liste. aber ich verwende 16TB und 18TB modelle, die sind beide nicht mehr in der QVL liste.

wie beschrieben, wenn das JBOD mal erkannt wird/initialisiert/aktiv/online ist, dann rennt das JBOD wochen/monate/jahrelang ohne probleme, also keine errors, keine sync fehler, keine SMARTdaten auffälligkeiten, es ist eben nur das booten des NAS und die erkennung der beiden externen zusatz-boxen mit 2 x (4x18TB) ein problem, wobei eben eines wird immer erkannt ohne probs, das andere dann nicht, und die beiden wechseln sich nach lust & laune ab, wer mal darf oder nicht...

@Colossus ja ich hab auch den amateureindruck, dass es doch iwie über einen CLI befehl möglich sein sollte, dass JBOD einfach neu zu mounten (wenn dann alle HDDs grüne LED haben) aber asus support schweigt dazu...
Bearbeitet von MaxMax am 31.05.2023, 16:30

Jedimaster

Here to stay
Avatar
Registered: Dec 2005
Location: Linz
Posts: 2514
OK wenns 2 idente externe Boxen sind und random eine der beiden das Problem hat sind die HDD's als Quelle wohl auszuschließen ...

edit: Es sei denn ... scheint die ganzen 14TB+ HDDs gibts neben CMR auch in einem 'Flux Control Microwave Assisted Conventional Magnetic Recording' ... möglicherweise ist das der grund wieso keine größeren HDD's als 14 TB auf der Liste stehn weil das Verfahren nicht 100%ig hinhaut ? Welches Modell ists denn genau ?
Bearbeitet von Jedimaster am 31.05.2023, 16:33

COLOSSUS

Administrator
Frickler
Avatar
Registered: Dec 2000
Location: ~
Posts: 11898
Ich wuerd den Support auch mal beinhart anluegen und behaupten, du hast jetzt auf die 14TB-Disks aus der QVL gewechselt, und das Problem ist immer noch das selbe. Alleine schon weil es mich interessiert, was sie dann vorschlagen zu tun.

MaxMax

Here to stay
Registered: Jul 2001
Location: Wien
Posts: 1913
Zitat aus einem Post von Jedimaster
OK wenns 2 idente externe Boxen sind und random eine der beiden das Problem hat sind die HDD's als Quelle wohl auszuschließen ...

edit: Es sei denn ... scheint die ganzen 14TB+ HDDs gibts neben CMR auch in einem 'Flux Control Microwave Assisted Conventional Magnetic Recording' ... möglicherweise ist das der grund wieso keine größeren HDD's als 14 TB auf der Liste stehn weil das Verfahren nicht 100%ig hinhaut ? Welches Modell ists denn genau ?

ja genau, ich hab die Flux CMR: Toshiba Cloud-Scale Capacity MG09ACA 18TB, 512e, SATA 6Gb/s
sowie die 16TB, die 10x 16 TB rennen seit 2,5J problemlos im haupt-NAS, die 8 x 18TB sind jetzt vor 2 wochen dazu gekommen und in die ext, boxen gewandert, seitdem hab ich NUR mit diesen ext. boxen probleme (vorher waren da 2-4 TB disks drinnen, auch ohne probs), die 10x 16TB in der haupt-NAS haben noch nie probs gemacht, die booten, initialisieren, funken seit 2,5J ohne probs.

Jedimaster

Here to stay
Avatar
Registered: Dec 2005
Location: Linz
Posts: 2514
Ne Möglichkeit die 18 TB ins Haupt-Nas reinzustecken und die alten HDD's extern zu testen gibts dank Raidverbund vermutlich nicht so einfach ?

MaxMax

Here to stay
Registered: Jul 2001
Location: Wien
Posts: 1913
jein, ich könnt schon die 10x16TB umlagern und dann alles tauschen etc, aber das dauert gefühlte 2 wochen, aber wenn ich keine andere lösung für dieses "erkennungsproblem beim booten" finde, dann werd ich das eh angehen probieren.

Jedimaster

Here to stay
Avatar
Registered: Dec 2005
Location: Linz
Posts: 2514
Tja, wenn der Support einfach jede Zusammenarbeit verweigert muss man halt leider selbst debuggen. Nervt total und die Antwort die man dann rausfindet gefällt auch meistens nicht. Sehr bescheidene Situation sowas - weil im schlimmsten Fall kommt raus das die NAS einfach nicht mit Flux-CMR - warum auch immer - kann und es nicht an den externen Boxen liegt. Bei mir wars noch harmlos aber genau aus diesem Grund hab ich 2 so gschixxxene SMR-2TB-WD RED NAS Festplatten daheim liegen weils in einem f.cking NAS einfach nicht stabil funktionieren. Bei mir wars übrigens ne Synology NAS.

WD hat mit dem Ding den Vogel für mich abgschossen weil der Unterschied zwischen CMR und SMR bei denen ist ein Buchstabe (E oder F) in der Modellnummer ob die HDD jetzt wirklich für nen Raidverbund funktioniert oder nicht - dokumentiert ists übrigens auch nirgends ;)

MaxMax

Here to stay
Registered: Jul 2001
Location: Wien
Posts: 1913
ja, 1x muss ich halt noch mind. rebooten, weil ich 2x NVMe einbauen will als schreib/lese cache, und den RAM erweitern.

aber gefühlt kommen halt alle 3 wochen auch firmware updates für das NAS wg securtiy issues, und da muss ich auch immer rebooten, aber vl. lasse ich das updaten dann einfach (zwar ungern....)

edit: ich könnt mir denken, der root cause ist, dass vl. 4x 18TB Flux-CMR zuviel strom auf einmal brauchen beim spin-up, aber andererseits hat das ext. netzteil 100W, und im betrieb braucht die box dann mit 4x18TB ca. 35w....
oder vl hab ich pech und eine von den 4 HDDs hat so eine "fertigungstoleranz" dass sie eben extrem viel länger braucht fürn spin-up als die anderen 3, und asusfirmware checkt das halt nicht oder fragt eben zu früh ab, ob eh alle platten ready sind.
Bearbeitet von MaxMax am 31.05.2023, 17:10
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz