Ankündigung

Einklappen
Keine Ankündigung bisher.

Webinterfacepasswort verloren.

Einklappen
X
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

  • N4B1 Webinterfacepasswort verloren.

    Hallo,

    nachdem mein NAS(N4B1ND4) heute morgen seine RAID konfiguration vergessen hatte, habe ich es komplett neu initialisiert und das adminpasswort geändert - was nun aber nichtmehr funktioniert. Vielleicht habe ich zweimal den selben Tippfehler gemacht. Gibt es eine Möglichkeit das NAS ohne webinterfacezugriff neu zu initialisieren? Oder das Passwort wiederherzustellen?
    Die Daten auf dem NAS sind mir dabei relativ egal da es eh fast leer war.

  • #2
    Zwei Möglichkeiten gibt es:
    Platten ausbauen und dann Entsprechend der Config wieder zusammensetzen. Das ist aber nur nötig für das RootFS wo alle benutzerdaten gespeichert werden. Es muß nicht sein das die RootFS Config identisch ist mit deiner "User" Config

    Oder den Enclosure Mode verwenden, das sollte auch alle Daten löschen.

    Die allerlertzte Möglichkeit ist, Platten komplettt (oder wenigstens den MBR) zu löschen.
    Some random kernel coder
    Lots of stuff attached to serial console
    https://github.com/ulli-kroll

    Kommentar


    • #3
      Danke für die Antwort erstmal,

      Wie komme ich in den Enclosure Mode? Ich habe auch beim LG support angerufen, die sagten mir dass ich die Initialisierungs-CD des NAS brauche (welche leider gerade mehrere hundert kilometer weit weg liegt).
      Was würde es mir helfen, die Platten auszubauen? Alles was ich brauche ist Zugriff zum webinterface des NAS/Das NAS auf Werkseinstellungen(wofür ich ja leider ins webinterface muss).

      Wenn ich die Platten komplett lösche, wie kriege ich die Firmware wieder drauf?

      Kommentar


      • #4
        Das gab es mal einen Tastenbefehl ...

        Wenn du die Platten ausbaust kannst du das Admin Password ändern.
        Sollte normalerweise unter /etc/passwd oder /etc/shadow zu finden sein.
        Außer LG hat wieder was eigenes gemacht, müsste ich ggf. mal tsten.

        Im Enclosure Mode sollte die Firmware vom Flash auf die HDD übertragen werden
        Some random kernel coder
        Lots of stuff attached to serial console
        https://github.com/ulli-kroll

        Kommentar


        • #5
          Den Enclosure Mode kriegt man beim N4B1 anscheinend nur durch die CD, an die ich frühstens nächsten Monat komme.
          Ich habe versucht einzelne Platten(ins. 4) mit einer live linux disk zu mounten, allerdings krieg ich es nicht hin. Wenn ich sie normal mounten will bekomme ich
          Code:
          unknown file system: linux_raid_member
          Versuche ich es mit
          Code:
          mount -t ext4 /dev/sda1 /test/mount
          sagt er mir
          Code:
          mount: /dev/sda1 already mounted or /test/mount busy
          wenn ich dann unmount versuche ist die Platte nicht gemounted.

          Wenn ich davon ausgehe dass die Firmware auf Platte1 ist, kann ich die Platte irgendwie mounten? Die Raid einstellungen können ja verloren gehen(das NAS sollte ja denke ich mal auch ohne fünktionstüchtige Raid-Einstellungen laufen/Zugriff aufs webinterface erlauben). Es hieß da was von dmraid -r -E, würde das helfen?

          Kenne mich mit Linux nicht viel aus.
          Zuletzt geändert von Daiya; 20.01.2014, 16:38.

          Kommentar


          • #6
            *SOFORT* aufhören mit dem Quatsch.

            Wenn du an ein System dran geht um es zu verändern, erst mal untersuchen *was* es ist.
            Und *NICHT* einfach herumdocktern.

            Bei der Meldung
            linux_raid_member
            immer vorsichtig sein.
            Das RootFS bei deiner LG (und auch bei meiner) ist garantiert ein RAID-1

            siehe bei mir
            Code:
            md1 : active raid1 sdb1[1] sda1[0]
                  9775424 blocks [2/2] [UU]
            Man muß in dem Fall beide Platte als RAID Member starten.

            Das Device ist dann unter /dev/md1 zu finden.
            Und das auch nur deshalb weil die Info dazu im RAID selber steht.
            Aus dem Grunde würde ja auch beim Start von Linux oder einstecken via USB das RAID automatisch gestartet und weitere Fehler verhindert.

            Prüfe ob dein RAID korrekt gestartet worden ist mit
            Code:
            cat /proc/mdstats
            Es sollte dann wie oben aussehen.

            ggf. fehlen noch einige Platten.
            Some random kernel coder
            Lots of stuff attached to serial console
            https://github.com/ulli-kroll

            Kommentar


            • #7
              Okay, kenne mich nicht so gut aus sorry.

              Ich hatte ein Raid0 mit 4 1tb Platten. Da mir die Kabel fehlen um alle Platten an meinen Rechner zu hängen hatte ich nach einer Möglichkeit gesucht, nur die Platte mit der FW des NAS zu mounten, dass Passwort zu ändern und die Platten mit dem webui neu zu formatieren. Ich gehe davon aus dass die FW nur auf einer Platte ist, wäre ansonsten ja unsinnig.

              tldr: Mir fehlen die Möglichkeiten alle 4 Platten an meinen Rechner zu packen, ist es möglich nur die Platte mit der Firmware zu mounten so dass ich das Passwort ändern und sie wieder ins NAS setzen kann? Raid config und Daten sind mir egal.

              Wenn nicht werde ich wohl bis nächsten Monat warten müssen.

              Kommentar


              • #8
                Ich weiss jetzt auch nicht ob alle oder nur zwei angeschlossen werden müssen.
                Dafür gibt es Befehle die mir (und dir) das verraten ...

                Nummeriere mal die Platte (1-4)

                Und dann mal nacheinander eine Platte anschließen.
                Das Device mit dem sich die Platte anmeldet sieht du in den letzten Zeilen von dem Befehl dmesg
                Wichtig hier zählt die der SATA oder SCSI oder USB "Unterbau" also
                /dev/sd*

                z.B. meldet sich die Platte mit
                /dev/sdf usw.

                Dann mal
                Code:
                cat /proc/partitions | grep sdf
                machen damit nur die Platte mit ihrer Partition angezeigt wird.
                sieht z.B. so aus
                Code:
                cat /proc/partitions | grep sdf
                   8     0  976762584 sdf
                   8     1    9775521 sdf1
                   8     2     257040 sdf2
                   8     3  966727440 sdf3
                Die Partition um 1GB (9775521 kBlöcke) ist das RootFS mit RAID
                Dann mal sehen mit was wir es zu tun haben
                Code:
                mdadm --examine /dev/sdf1
                /dev/sdf1:
                          Magic : a92b4efc
                        Version : 00.90.00
                           UUID : 9367b2c8:bb091a26:e94cebc3:a0ec2cf7
                  Creation Time : Sat Oct 24 11:26:12 2009
                     Raid Level : raid1
                  Used Dev Size : 9775424 (9.32 GiB 10.01 GB)
                     Array Size : 9775424 (9.32 GiB 10.01 GB)
                   Raid Devices : 2
                  Total Devices : 2
                Preferred Minor : 1
                
                    Update Time : Mon Jan 20 23:49:16 2014
                          State : clean
                 Active Devices : 2
                Working Devices : 2
                 Failed Devices : 0
                  Spare Devices : 0
                       Checksum : 202ad2c8 - correct
                         Events : 526
                
                
                      Number   Major   Minor   RaidDevice State
                this     0       8        1        0      active sync   /dev/sda1
                
                   0     0       8        1        0      active sync   /dev/sda1
                   1     1       8       17        1      active sync   /dev/sdb1
                Die Zeile "Total Devices" zeigt an wieviele HDDs dein RAID beinhaltet
                Some random kernel coder
                Lots of stuff attached to serial console
                https://github.com/ulli-kroll

                Kommentar


                • #9
                  Platte 1:
                  Code:
                  cat /proc/partitions | grep sda
                     8        0  976762584 sda
                     8        1    1959898 sda1
                     8        2     257040 sda2
                     8        3  974543062 sda3
                  Da ich nicht sehe welches das RootFS sein soll habe ich mdadm auf alles gemacht:
                  Platte 1: http://pastebin.com/ningqvc1
                  Platte 2: http://pastebin.com/p5u2PXWc
                  Platte 3: http://pastebin.com/wHV0e9xA
                  Platte 4: http://pastebin.com/zKBKAv9F
                  Zuletzt geändert von Daiya; 21.01.2014, 02:51. Grund: formatierung

                  Kommentar


                  • #10
                    werde ich mir gleich mal genauer ansehen.
                    Jedenfalls ist /dev/sda1 oder /dev/md0 dein RootFS.

                    Ich wusste das die Daten nicht in /etc/passwd oder /ect/shadow lieger aber ...
                    Link merken ...
                    http://forum.lg.de/viewtopic.php?t=5290

                    Hmm Länge passt für MD5 aber wo ist mein SALT

                    Was ist das denn für ein QUARK
                    Code:
                     echo $passwd | md5sum | cut -d " " -f 1
                    Ein PW mit NewLine am Ende, wer soll darauf kommen.

                    Nur so als INFO
                    in
                    /var/www/en/php/share_set_user_info.php
                    werden die Userdaten geändert und im Shell Script
                    /usr/sbin/nas-common
                    wird das PW gehashed.
                    Muss ich nochmal prüfen
                    Zuletzt geändert von ElektromAn; 22.01.2014, 19:41.
                    Some random kernel coder
                    Lots of stuff attached to serial console
                    https://github.com/ulli-kroll

                    Kommentar


                    • #11
                      Das RootFS ist wie ich das sehe doch als Raid1 auf alle Platten verteilt oder nicht? Wenn nicht, auf welche(n) Platte(n) liegt es? Mir fehlen wie gesagt die Möglichkeiten alle 4 Platten an meinen PC anzuschließen. SSH ist an meinem NAS nicht eingerichtet(bzw kann sein dass es per default an ist, bekomme aber ein connection refused) und einen weiteren User habe ich auch nicht.

                      Kommentar


                      • #12
                        Zitat von Daiya Beitrag anzeigen
                        Das RootFS ist wie ich das sehe doch als Raid1 auf alle Platten verteilt oder nicht? Wenn nicht, auf welche(n) Platte(n) liegt es? Mir fehlen wie gesagt die Möglichkeiten alle 4 Platten an meinen PC anzuschließen. SSH ist an meinem NAS nicht eingerichtet(bzw kann sein dass es per default an ist, bekomme aber ein connection refused) und einen weiteren User habe ich auch nicht.
                        Das sollte auf jeder Platte sein ...

                        Das mit dem SSH ist ja nur damit ich auch meiner lokalen LG BOX das prüfen kann ...

                        Ob jetzt auch wirklich auf jeder Platte das RootFS ist, kann man relativ einfach prüfen und azch noch ob es das gleiche ist (was ja bei einem RAID1 der Fall sein sollte)
                        Warum die jetzt ein RAID-1 mit *vier* Platten genommen haben wissen die Geister ...

                        Was mir nur etwas Probleme macht ist das RAID selber, das mir da nicht irgendwelche Automatismen in die Quere kommen.
                        Diese können dann die Metadaten aka Datum des letzten Zugriffes aufs RAID verändern, und ggf auch dazu führen das dieses auch gemountet wird.
                        <ironie>
                        Ich *liebe* da *perfekte* die alles unüberlegt erledigen ...
                        </ironie>
                        Muss da ein wenig überlegen.

                        Kannst du man eine Platte anklemmen und ein
                        Code:
                         cat /proc/partitions
                        machen
                        Ich gehe mal davon aus das da schon einige RAID Devices aka /dev/md? auftauchen ...

                        Achja
                        Das jetzt *nur* ein SATA Port für eine Platte vorhanden ist, ist kein Problem.
                        Auch weil nachher wegen RAID1 auf allen Platten der gleiche Inhalt (RAID Metadaten ausgenommen) sein sollen.
                        Zuletzt geändert von ElektromAn; 22.01.2014, 21:52.
                        Some random kernel coder
                        Lots of stuff attached to serial console
                        https://github.com/ulli-kroll

                        Kommentar


                        • #13
                          So ein wenig recherchiert.

                          Wenn ein RAID Device aka /dev/md? auftaucht, das gleiche mal mit der SysresCue CD machen ...
                          http://de.wikipedia.org/wiki/SystemRescueCd
                          die habe ich schön länger auf meiner Liste der Lieblingstools.

                          Die anderen Distros haben das zuviele Automatismen ...
                          Some random kernel coder
                          Lots of stuff attached to serial console
                          https://github.com/ulli-kroll

                          Kommentar


                          • #14
                            bei
                            Code:
                            cat /proc/partitions
                            tauchen nur loop, sda, sdb, sdc, sdd devices und ein dm-0 device auf. Beim Versuch irgendeins der sda devices auf irgendeiner Festplatte zu mounten kommt immer entweder
                            Code:
                            mount: unknown filesystem type 'linux_raid_member'
                            bei sda1-3 und
                            Code:
                            mount: /dev/sda already mounted or /mnt/nas busy
                            /dev/sda ist nicht gemounted.

                            Ich benutze atm die Kaspersky Rescue Disk, die hatte ich rumliegen. Werde mir SysresCue auch brennen.

                            Kommentar


                            • #15
                              Kleine Einführung in Linux / Unix Devices

                              /sev/sda ist (meistens) eine Festplatte als ganzes
                              /dev/sda1 ist die erste
                              /dev/sda2 usw. sind die folgenden Partitionen.

                              Ein
                              /dev/sda1 Device kannst du, wenn es ein RAID Member ist, im Normalfall nicht mounten. Da hat schon der Kernel "zugeschlagen" und hat eben das RAID gestartet, ggf ein Teil davon.

                              Ein
                              Code:
                              mdadm --stop /dev/md[0-5]
                              Stoppt alle RAID Arrays.

                              So nun kommt der Knackfuß auf den ich eigentlich hinaus wollte :
                              Wenn du eine Platte von einem RAID1 *einzeln* ändern willst ist es schwierig.

                              Du darfst zwar eine Platte auf Filesystemebene ändern, musst aber alle RAID1 Member auf "Blockbasis" mit ändern.

                              Auf Filesystemebene geht sowas nicht. DAS ist garantiert ein Fall für Datenverlust.

                              Auf Blockbasis geht das nur nach folgendem Schema
                              Code:
                              mdadm --assemble /dev/md0 /dev/sda1 --run --readonly
                              Das startet eine Platte vom RAID1, macht also /dev/md0 sichtbar, fasst aber nicht die Metadaten usw. an.

                              Hmmm.

                              muss mal überlegen.
                              Ich muss alle RAID1 Member konsitent halten, haben aber physich nur zugriff auf eine Platte, wegen dem Interface.
                              Ein kopieren von /dev/sda1 geht nihct, da ich in dem Fall ja auch die RAID Metadaten spezifisch fü dieses Device mit kopiere, was falsch ist.

                              An /dev/md0 komme ich aber nur im "läufenden RAID" dran, sonst sperrt mich der RAID Layer.
                              Ein Blockcopy (aka dd) mit offset ist auch nicht einfach zu erklären, da sind die Gefahren zu groß.

                              Ich muss leider sagen *du* musst irgendwie alle vier Platten an den PC anschließen.
                              Ob als SATA oder USB/SATA ist egal.

                              Anders kenne ich jetzt keine Möglichkeit.
                              Some random kernel coder
                              Lots of stuff attached to serial console
                              https://github.com/ulli-kroll

                              Kommentar

                              Lädt...
                              X