@ElektromAn,
dann war ja meine Frage doch nicht so "dumm":
Wier repariert man also das XFS "im Fall der Fälle" - möglichst ohne
Ausbau der Hard Disk?
Beste Grüße
Hi,
bezüglich der Fragestellung, ist es nun eine dual-core CPU bei der nur
ein Kern aktiv ist, oder gar keine dual-core, hat uns Aldi da mit
irreführender Werbung beschissen oder nicht, habe ich mir noch folgendes
angeschaut, ich weiss nicht ob und wieviel es bedeutet:
Jens D. schrieb:> Also ein etwas ältere Version, denn auf der Box läuft ja:
Linux-2.6.31.14_SMP_820
Das dürfte meiner gegrenzten Erfahrung nach kein Problem sein. Habe in
der Arbeit Systeme, die mit Kernelversionen von 2.6.30 bis 2.6.38
laufen.
So weit ich das bisher verstanden habe kommt es beim Root File System im
wesentlichen drauf an welches Binary Format verwendet wird, z.B. elf,
abi, eabi, und dann auch noch solche Details ob beim Arm der 16-Bit
Befehlsatz (Thumb) oder 32-Bit (???) verwendet wird.
Anscheinend hat sich da aber irgendwie das Gnueabi-Format etabliert und
wir müssen uns darum derzeit keinen Kopf machen.
> Kann ein Booten überhaupt von HDD klappen? Weil XFS Dateisystem?
Wenn ich das recht in Erinnerung habe werden keime XFS-Module geladen,
d.h. XFS muss fest in den Kernel eincompiliert sein, demnach müsste der
Kernel auch direkt von XFS booten können.
Ansonsten würde es doch auch nicht wirklich weh tun die Platte neu zu
Partitionieren/Formatieren, oder?
Ich hoffe ich komme da heute Abend dazu, das zu testen.
Tschüss Dimpflmoser
dimpflmoser schrieb:> Ansonsten würde es doch auch nicht wirklich weh tun die Platte neu zu> Partitionieren/Formatieren, oder?> Ich hoffe ich komme da heute Abend dazu, das zu testen.>
Bevor man da bestehende Daten sichern muss, wäre ein Boot via NFS-Root
eventuell die sanftere Variante.
dimpflmoser schrieb:> Bevor man da bestehende Daten sichern muss, wäre ein Boot via NFS-Root> eventuell die sanftere Variante.
Kann mann denn U-Boot mit einem Tastenschlag in der UART-Konsole
anhalten um dann in ein Menu zu kommen? Ich kann mich erinnern, bei der
Linkstation Pro ist das so. Allerdings hat die sowohl Kernel mit initrd,
als auch system root auf Partitionen der Festplatte und nicht im NAND,
also kann man dort wenich falsch machen mit Flashen, man kann immer die
Festplatte in einen PC stecken und in den Originalzustand bringen, bei
NAND ist das leider heikler...
Lucian M. schrieb:> Kann mann denn U-Boot mit einem Tastenschlag in der UART-Konsole> anhalten um dann in ein Menu zu kommen?
Ja kann man ;)
Die Frage ist einmal: Kann man mit dem uBoot einen anderen Kernel von
USB-Stick / TFTP oder NFS laden?
...oder kann man mit dem Kernel vom Flash ein anderes System von
USB-Stick / TFTP oder NFS laden?
debootstrap --second-stage läuft bei mir noch ;)
Jens D. schrieb:> Die Frage ist einmal: Kann man mit dem uBoot einen anderen Kernel von> USB-Stick / TFTP oder NFS laden?
Das da, von mir aus gerne noch mit der Abwandlung "von
Festplattenpartition" halt wie bei normalen PCs oder anderen NASen (wie
die erwähnte LS-Pro von Buffalo) wäre mein Favorit.
Jedenfalls, eine Möglichkeit einen eigenen Kernel booten zu können (und
das im uboot-NAND festklopfen, um nicht bei jedem Boot UART zu
brauchen), das eröffnet viele Möglichkeiten, auch andere Module zu
bauen, man denke nur an DVB-T oder DVB-S2 Sticks um einen VDR-Server
daraus zu machen ;-)
Lucian M. schrieb:> auch andere Module zu> bauen, man denke nur an DVB-T oder DVB-S2 Sticks um einen VDR-Server> daraus zu machen ;-)
Genau das ist meine Anwendung, die ich im Auge habe. ;-)
Wobei ich mir jetzt einen DVB-Stick von Sundtek bestellt habe, die sind
zwar relativ teuer und die Treiber sind closed source, allerdings lese
ich bisher nur gutes über deren Support und deren Linux-Unterstützung.
Der Treiber läuft im User-Space weshalb man den Kernel nicht
modifizieren muss.
Demnach sehe ich bisher keine grundsätzlichen Hürden vor dem Einsatz als
VDR-Server, außer dass meine Zeit halt irgendwie doch begrenzt ist.
Tschüss Dimpflmoser
Lucian M. schrieb:> Jedenfalls, eine Möglichkeit einen eigenen Kernel booten zu können (und> das im uboot-NAND festklopfen, um nicht bei jedem Boot UART zu> brauchen)
Das braucht man auch nicht jedes mal per UART zu machen. Schließlich
kann man die "Kommandos" einfach modifizieren...
Ich überlege gerade welchen Kernel ich aus Debian nehmen sollte.
Generell habe ich nun squeeze mit "--arch armel" drauf.
Zur Auswahl stehen:
linux-image-2.6-iop32x
linux-image-2.6-ixp4xx
linux-image-2.6-kirkwood
linux-image-2.6-orion5x
linux-image-2.6-versatile
Also direkt von USB/Platte booten geht IMHO nicht... Den uBoot help
spuckt nur folgende boot Einträge aus:
[code]
bootm - boot application image from memory
bootp - boot image via network using BootP/TFTP protocol
rarpboot- boot image via network using RARP/TFTP protocol
tftpboot- boot image via network using TFTP protocol
[/boot]
Ein bootusb gibt es nicht. Somit bleibt IMHO nur bootarg zu ändern um
den Kernel aus dem Flash ein anderes Root unter zu schieben.
oder?
Jens D. schrieb:> bootm - boot application image from memory> bootp - boot image via network using BootP/TFTP protocol> rarpboot- boot image via network using RARP/TFTP protocol> tftpboot- boot image via network using TFTP protocol
Was soll genau bootm machen?
Naja, über TFTP zu booten wäre nicht so dramatisch, wenn man z.B. einen
TFTP-server auf eine neuere Fritzbox laufen hätte, und das Kernel-Image
in deren internen Flash oder USB gemountetem Medium...
Alternativ, kann man vielleicht später uboot selber auch ersetzten, mit
einer "vernünftigen" Variante, aber vermutlich muß zuerst eine
angepasste uboot-Variante erst gefunden oder entwickelt werden. Selbst
mit einem neuen Kernel scheint es noch ein wenig zu dauern:
http://archlinuxarm.org/forum/viewtopic.php?t=1865&p=10947
Oder kennt jemand einen anderen Ort wo die GPL-Sourcen zu diesem Kernel
liegen, oder zu bekommen sein müssten?
mehr Info's zu dem Hardware-Verwanten gibt es hier:
http://archlinuxarm.org/platforms/armv6/pogoplug-provideov3
interessant dabei: http://archlinuxarm.org/os/oxnas/oxnas-install.sh
Vielleicht bekommt man von dort sourcen???
Dem bestehenden Kernel per boot Argumente ein anderes root unter zu
schieben, funktioniert bei mir nicht. Die Angaben werden schliecht
ignoriert. Wobei ich in den Ausgaben sehen kann, das sie vom uBoot
übergeben werden.
Hab folgendes gemacht:
Jens D. schrieb:> Dem bestehenden Kernel per boot Argumente ein anderes root unter zu> schieben, funktioniert bei mir nicht. Die Angaben werden schliecht> ignoriert. Wobei ich in den Ausgaben sehen kann, das sie vom uBoot> übergeben werden.>> Hab folgendes gemacht:> setenv bootargs console=ttyS0,115200 root=/dev/sdb1 rootfstype=ext3 rootdelay=15
elevator=cfq mac_adr=0x00,0x30,0xe0,0x00,0x00,0x01 mem=128M poweroutage=yes
> run boot_nand
hm, schade
mich wundert, dass Du als root 'sdb1' angegeben hast. AFAIR wird die
interne Platte als sda eingebunden. Hast Du eine zweite Platte
angehängt? (Wie?)
Ich sehe gerade in der Kernel-Config in der Arbeit, dass es eine Option
gibt, die anscheinend die bootargs ignoriert. Diese Option heißt:
1
Always use the default kernel command string
Falls diese Option aktiviert ist müsste ja auch ein löschen der bootargs
das System nicht richtig starten, oder?
Alternativ kann man ja mal eine andere Mac-Adresse konfigurieren und
sehen ob die auch anders im Netzwerk erscheint.
Wofür stehen eigentlich die Optionen elevator=cfg und poweroutag=yes?
Bye Dimpflmoser
Jens D. schrieb:> Das laden ist schon mal Erfolgreich gewesen...> Dann starten:> $ go 0x800200
Hm, ich weiß noch nicht was in diesem Paket drin ist, interessant wäre
doch aus diesem Paket den Kernel/das uImage zu extrahieren und diesen
per TFTP zu laden.
Wie Lucian schon andeutet ist in der Original-Konfiguration die
RAM-Adresse für das Image die 0x61000000. Außerdem würde ich dann diesen
Kernel nicht über das Kommando go starten sondern über ein bootm.
D.h.
tftp 0x61000000 uImage
bootm 0x61000000
Ach wie gerne wäre ich jetzt daheim....
Jens D. schrieb:> Ja, da kommt was... Anscheinend ist es überhaupt nicht uBoot sondern der> Kernel???
Natürlich, ich war über Deine Aussage ein wenig verwundert, das uBoot
hast Du ja im NAND Speicher, um ein anderes zu verwenden glaube ich
musst Du es erstmal überflashen...
> [ 0.320000] CPU1: Booted secondary processor> [ 0.420000] Calibrating delay loop... 299.82 BogoMIPS (lpj=1499136)> [ 0.630000] Brought up 2 CPUs> [ 0.640000] SMP: Total of 2 processors activated (598.83 BogoMIPS).
Na bitteschön, dual-core!!!!
> Danach kommen zwei Pipse, dann längere Zeit nichts mehr und dann noch> einen Pieps...>> Vielleicht passen nun die bootargs einfach nur nicht?
Vielleicht braucht dieser Kernel einfach auch paar Module, die im
Aldi-NAS unter /lib/modules fehlen (abgesehen von der unterschidlichen
Kernel-Version), im Arch-Linux Image sind es jede Menge, unter anderem
auch scheinbar einige Plattform-spezifische, die der "Aldi-Kernel"
vielleicht monolytisch drinn hat...
Übrigens, wie genau waren denn die uBoot Komandos die nun dazu geführt
haben?
Was Du noch probieren könntest: den anderen Kernel aus dem Arch-Linux
Image, den mit "noPCI"...
Lucian
"noPCI" habe ich auch schon Probiert. Auch einige bootargs Variationen.
Aber er bleibt an der selben Stelle stehen...
Ich dachte es wäre uBoot, weil ich anscheinen
http://archlinuxarm.org/os/oxnas/oxnas-install.sh falsch interpretiert
habe ;)
Die Frage ist, ob man ein uBoot von diesem
http://archlinuxarm.org/platforms/armv6/pogoplug-provideov3 bekommen
kann... Hab aber noch nichts gefunden :(
Bin mir nicht sicher ob der Kernel zu dem Zeitpunkt überhaupt schon auf
Platte zugreift...
Nochmal zur anderen Idee:
/etc/init.d/rcS ruft ja /etc/profile auf.
rcS ist schreibgeschützt, aber profile kann man anpassen.
In profile könnte man also hingehen und den USB-Stick mit einem eigenen
OS drauf mounten und einen chroot machen und damit dann z.B.
/etc/inittab starten...
Man muß einzig /etc/profile ändern und ansonsten das Ogirinal System
unangetastet lassen.
Was meint ihr?
Jetzt muß ich mich aber wundern! Ich hab /etc/profile geändert und neu
gestartet und danach ist es wieder der alte Inhalt!
Es hat aber definitiv mal geklappt, siehe:
Beitrag "Re: Alles Rund um den MEDION LIFE P89626 NAS"
@Jens D.
Es fehlt ein RootFS !!!.
Ob jetzt dies mit dem Kernel (als InitRamFS) oder als zusätzliches
Datei geladen wird ist egal.
Für die zusätzliche Datei gibt es glaube ich noch eine uBoot Option.
Habe mir mal die Kernelsourcen von
http://download.pogoplug.com/opensource/pro/pogopro-linux-2.6.31.6-r2.tar.bz2
"gezogen".
Die Treiber für USB, SATA und Ethernet sind drin.
E-mAn
Hallo Jens D.,
ich weiß nicht ob es euch hilft - alle Änderungen unter
/usr/local/zy-pkgs/etc/init.d
bleiben auch nach dem Neustart erhalten. Ich habs so geschafft dass der
ssh-Zugang über dropbear gleich beim Hochfahren verfügbar ist und ich
nicht jedesmal das Backdoor-Script für Telnet starten muss.
mfg DaViD
@David: Kannst du das vorgehen im Wiki festhalten?
@ElektromAn: Ich hab eigentlich ein RootFS auf dem USB-Stick, welches
/dev/sdb1 ist (Gesteckt im vorderen USB-Platz). Meinst du deswegen
bricht der Bootvorgang ab? Sollte da nicht irgendein Fehler kommen?
Jens D. schrieb:> @ElektromAn: Ich hab eigentlich ein RootFS auf dem USB-Stick, welches> /dev/sdb1 ist (Gesteckt im vorderen USB-Platz). Meinst du deswegen> bricht der Bootvorgang ab? Sollte da nicht irgendein Fehler kommen?
Hi,
also ich schätze, der Kernel kann bei der Suche nach dem RootFS noch
nicht auf /dev/sdb1 zugreifen. Das wird ja erst später durch Udev
angelegt.
Das RootFS muss direkt für den Kernel zugreifbar sein, d.h. entweder
dass die enthaltenen Devicetreiber mit dem Device sprechen können, was
bei /dev/sda[12] ja der Fall ist, oder man muss dem Kernel eine intird
mitgeben, in die die notwendigen Komandos und Treiber zum einbinden des
externen Laufwerks liegen.
Ich kann's ja aktuell leider nicht selbst testen, aber versuche doch mal
bitte ob der Arch-Kernel auf /dev/sda1 zugreifen kann.
Wäre es für Dich ein großer Aufwand sda2 frei zuräumen und das Rootfs
wie es von Arm-Arch kommt auf sda2 zu spielen? Dann müsste man halt etc
fstab noch anpassen und als rootfs /dev/sda2 angeben.
Allerdings gehe ich davon aus, dass es erheblich einfacher ist das
Arch-Rootfs auf einem NFS-Server zur Verfügung zu stellen, wobei wir
nicht wissen ob der Kernen einen Support für ein NFS-Root hat.
Wobei, das könnte man leicht testen indem du als bootargs folgendes
angibst:
Dann bootest Du den Kernel per bootm ....
Im Output solltest Du dann sehen, dass das Ethernetinterface
konfiguriert wird und er versucht sich mit den NFS-Server zu verbinden,
was dann fehl schlägt.
Falls es dazu kommt wissen wir dass der Kernel grundsätzlich nfsroot
kann und wir können einen NFS-Server aufsetzen.
NFS hätte halt den Vorteil, dass man nichts überschreiben muss.
Noch ein Hinweis:
Bei deinen Beschreibungen Deiner Aktionen wäre es eventuell hilfreich
wenn Du die Komandos, die Du absetzt auch hier im Forum wieder gibst,
dann fällt es eventuell leichter zu verstehen was Du gemacht hast.
Tschüss Dimpflmoser
Jens D. schrieb:> Übrigens sehe ich immer in "Kernel command line:" das zumindest meine> geänderten bootargs übergeben werden.
Das ist ja zumindest mal ein gutes Zeichen.
> Ich schätze uBoot muß halt auch auf USB bzw. NFS zugreifen können, damit> das Funktioniert.
Nee, sobald der Kernel geladen ist, d.h. sobald Du die Zeile
1
Linux version 2.6.31.14_SMP_820 (root@Neo) (gcc version 4.3.2 (crosstool-NG-1.8.0) ) #2 SMP Wed Oct 5 21:54:14 CST 2011
siehst hat U-Boot nichts mehr zu melden, dann hat der Kernel übernommen
und der muss dann über seine Treiber die Geräte zur Verfügung stellen.
U-Boot benötigt man um den Kernel selbst zu laden, d.h. entweder so wie
Du das jetzt machst per tftp oder halt vom USB-Stick o.ä.
Beim Laden des RootFS hat der der Bootloader keine Aktien mehr.
Ich finde es seltsam, dass beim Arch-Kernel nur so wenig Meldungen sind.
Diese Meldungen hören in der Phase auf wenn die einzelnen Devices
geladen werden. Wir sind da noch weit vom Mounten des RootFS entfernt.
Es scheint mir eher so, dass der Kernel versucht ein Device zu
initialisieren, das auf unserer Kiste nicht drauf ist und dann
abschmiert. Selbst dann müsste ja noch ein 'Kernel panic' kommen.
Mir kommt noch ein anderer Aspekt: Könnte es sein, dass da auf dem
Board/Prozessor ein Watchdog initialisiert wurde, dieser während der
U-Boot-Phase und dem Laden des Kernels nicht zurückgesetzt wurde und das
Piepen vom Watchdog kommt?
Hast Du mal versucht, die Kiste für einige Zeit (1-2 Minuten) im U-Boot
zu lassen ohne, dass Du eine Eingabe machst? Was geschieht da?
> Ich hatte auch mal uBoot von> http://jeff.doozan.com/debian/uboot/files/uboot/ub...> und http://people.debian.org/~tbm/u-boot/2011.03-6/she...> probiert. Die liefen aber auch nicht...
Wie hast Du den U-Boot ausprobiert? Hast Du neu geflashed?
Was mich noch interessieren würde ob einer von beiden Kernel mit einer
initrd arbeitet? Wo liegt die? Was steckt da drin? Kann man die
Modifizieren?
Tschüss Dimpflmoser
Jens D. schrieb:> uBoot probieren, geht ähnlich wie den Kernel per TFTP starten,> beschreibung hier:> http://www.mikrocontroller.net/articles/GoFlexHome...> basiert auf http://jeff.doozan.com/debian/uboot/build_uboot.htm
Das ist ja cool, dass man den bootloader chainload-en kann zur Probe,
bevor man sich die Kiste zerflasht...
dimpflmoser schrieb:> Was mich noch interessieren würde ob einer von beiden Kernel mit einer> initrd arbeitet? Wo liegt die? Was steckt da drin? Kann man die> Modifizieren?
Die Kernel-Kommandozeile sollte dann im uBoot Environment sowas wie
@Jens D.
Die Position von RootFS kannst du per Kernelcmdline angeben.
z.B. root=/dev/sda1
Das nicht angezeigt wird kann dran liegen das ggf. die Puffer der
seriellen Schnittstelle etwas groß sind. Normalerweise sollte aber eine
Zeile erscheinen wie "Missing RootFS"
@dimpflmoser
Es gibt aber auch System die ohne udev auskommen. Dort sind die
Device-Nodes in /dev hardcoded angelegt worden.
ggf. geht es auch mit busybox
1
mount -t procfs procfs /proc
2
mount -t sysfs sysfs /sys
3
busybox mdev -s
ggf. auch mal die Anzahl der CPUs begrenzen.
1
maxcpus= [SMP] Maximum number of processors that an SMP kernel
2
should make use of. maxcpus=n : n >= 0 limits the
3
kernel to using 'n' processors. n=0 is a special case,
ElektromAn schrieb:> dann sollte an der Stelle auch ein initrd sein.>> Achtung :> initrd != iniramfs
Sorry, ich hatte unvollständig gepastet, danach konnte ich nicht mehr
editieren weil ein neuer Posting schon da war. Ist eher so:
Christian schrieb:> Befüllen des NAS stieg die Temperatur des Gerätes bedenklich an. Nach> einer halben Stunde Betrieb zeigte S.M.A.R.T. 59°C an.> Habt ihr hier ähnliche Werte oder habe ich hier ein "Montagsgerät"> erwischt?
Habe mal spaßeshalber eine Supportanfrage bei Medion gestellt. Heute kam
folgende Antwort:
"Aufgrund Ihrer Fehlerbeschreibung gehen wir von einem Defekt aus. Gerne
bieten wir Ihnen an, das Gerät in unserer Fachwerkstatt zu überprüfen."
Da kann Medion dann aber wohl alle Geräte zurücknehmen ...
@Lucian M.
Deine Addresse von initrd, TFTP zu kernelcmdline, stimmt nicht.
müssen beide die gleichen Addressen sein.
Stimmt die Größenangabe deiner initrd mit 15MB (entpackte Größe) ?
E-mAn
ElektromAn schrieb:> Deine Addresse von initrd, TFTP zu kernelcmdline, stimmt nicht.> müssen beide die gleichen Addressen sein.
Ja, tun sie nicht, die eine ist für den Fall, wenn über tftp kernel und
initrd bezogen werden, der andere, der Alltag bei den Buffalo LS-GL,
sowohl kernel als auch initrd werden von /dev/sda1 geladen, so bootet
meine Linkstation...
ElektromAn schrieb:> Stimmt die Größenangabe deiner initrd mit 15MB (entpackte Größe) ?
Inetwa, ja, entpackt hat die initrd 12MB
David schrieb:> ich weiß nicht ob es euch hilft - alle Änderungen unter> /usr/local/zy-pkgs/etc/init.d> bleiben auch nach dem Neustart erhalten
Ich habe es geschafft mit Dropbear und Winscp dank des Tipps mit dem
Pfad /usr/local/zy-pkgs/etc/init.d/ dropbear dauerhaft zum Laufen zu
bekommen und Winscp kann auch die Dateien anzeigen. Keys sind erzeugt
und dropbear korrekt geladen
Was ich nicht hinbekommen habe, ist der Zugriff auf die Dateien, ich
bekomme den Hinweis
1
SCP konnte für den Start der Übertragung nicht ausgeführt werden.
2
Bitte stellen Sie sicher, dass SCP auf dem Server installiert ist
3
und die $PFAD- Variable den Pfad zu SCP enthält. Anstatt SCP können Sie auch SFTP probieren.
4
Befehl gescheitert mit Beendigungscode 127.
Die Pfad-Variable habe ich mal gesetzt auf /var/ftp
Soweit ich gelesen habe sollte ich einen symlink auf die scp binaries
setzen, aber die habe ich ja nicht..!?
Was muss ich noch machen? Danke im voraus für den Tipp
Christian schrieb:> Christian schrieb:>> Hat eigentlich schon mal jemand die Datenintegrität überprüft? Ich>> stelle gerade mit Entsetzen fest, daß ein Großteil der übertragenen>> Dateien defekt ist.>> Eine heiße Spur habe ich jetzt gefunden. Die Fehler waren gut> reproduzierbar. Irgendwann ist mir aufgefallen, daß nur Dateien> betroffen waren die potentielle Wirte für Viren sind. Nach Abschalten> des Avast Antivir wurden die Dateien fehlerfrei aufs NAS geschrieben,> ebenso wenn ich die Dateiendungen umbenannt habe. Interessanterweise> tritt das Problem nicht, auf wenn ich die selben Dateien auf meine> beiden selbst aufgesetzten Samba-Server schreibe (auch beide GBit-LAN> und etwas schneller als das Medion NAS).> Hat jemand eine Idee wie man nun dahinterkommt wer schuld ist; das NAS,> der Virenscanner, Windows 7, mein PC bzw. die LAN-Treiber?> Die Situation ist schon übel; es werden fehlerhafte Dateien geschrieben,> man merkt es aber nur bei einem byteweisen Vergleich Original zu Kopie.>> Falls noch jemand das NAS zusammen mit Windows 7 64 Bit und Avast!> Antivir im Einsatz hat wäre es super wenn er das auch mal testen könnte.> Auffällig waren bei mir vor allem PDF, HTM(L), EXE, HLP.
Kann ich bestätigen, Win 7, 64 Bit Home Premium, Avast Antivir
Habe verschiedene Dokumente via Win Explorer auf die NAS kopiert, davon
sind 90% schrott. (File Format waren PDF, DOC, RTF, EPUB, MOBI, JPG)
SP()()KY schrieb:> Christian schrieb:>> Christian schrieb:>>> Hat eigentlich schon mal jemand die Datenintegrität überprüft? Ich>>> stelle gerade mit Entsetzen fest, daß ein Großteil der übertragenen>>> Dateien defekt ist.>>>> Kann ich bestätigen, Win 7, 64 Bit Home Premium, Avast Antivir>> Habe verschiedene Dokumente via Win Explorer auf die NAS kopiert, davon> sind 90% schrott. (File Format waren PDF, DOC, RTF, EPUB, MOBI, JPG)
Das P89626 NAS ist mein drittes NAS Laufwerk und mein erstes, das
brauchbar ist.
Da meine bisherigen Laufwerke mit CIFS (=SAMBA) und FTP langsam und
unzuverlässig waren, habe ich hier direkt mit rsync über NFS angefangen.
Die Hosts sind drei verschiedene Rechner unter Ubuntu. In diesen
Umgebungen habe ich keine Kopierfehler gefunden. Die Fährte WINDOWS
Explorer // SAMBA // Antivir scheint heiß zu sein.
Hermann K. schrieb:> Da meine bisherigen Laufwerke mit CIFS (=SAMBA) und FTP langsam und> unzuverlässig waren, habe ich hier direkt mit rsync über NFS angefangen.> Die Hosts sind drei verschiedene Rechner unter Ubuntu. In diesen> Umgebungen habe ich keine Kopierfehler gefunden.
Wie mountest Du denn genau (bitte poste mal die Parameter) die nfs
shares der NAS unter Linux so das der Transfer schnell ist? Wie sind die
MTU Einstellungen am NAS und an diesen Rechnern?
Hat es jetzt eigentlich schon jemand geschafft pyload auf der Kiste zum
Laufen zu bringen?
Wenn ja, bitte ich um eine "Anleitung" die auch ein fast DAU versteht
Danke und viel Spaß weiterhin
@Rainer dropbear
Du musst einen Symlink von dbscp nach scp machen.
scp sollte im Verzeichnis /usr/bin sein.
z.B.
1
ln -s dbscp /usr/bin/scp
@all mit defekten Files
Das Problem ist erstmal herauszufinden wo der Fehler ist.
Daher diese Sache mit md5sum und Co.
Kann sein das da ein Filelocking fehlt.
Testaufbau:
Datei nach NAS übertragen.
Auf dem PC und auf dem NAS (telnet/ssh) die md5 oder sha1 Summe prüfen.
Die Prüfung auf dem NAS ist wichtig, da die Datei ja sonst wieder
zurück auf dem PC übertragen wird.
Dies einmal mit und ohne Virenscanner machen.
Hermann K. schrieb:> Die Fährte WINDOWS> Explorer // SAMBA // Antivir scheint heiß zu sein
Nur in Verbindung mit der konkreten SAMBA-Implementierung auf dem Medion
NAS. Die gleichen Windows-Systeme hatten keine Probleme mit anderen
Samba-Servern. Und der Fehler ist einem Posting zufolge auch schon in
Verbindung mit Norton Internet Security 2012 aufgetreten. Sorry wenn ich
diesen Thread hier mit lästigen Berichten über Bugs des Gerätes zumülle
anstatt Beiträge zum eigentlichen Thema "how to hack this device" zu
leisten.
SP()()KY schrieb:> Kann ich bestätigen, Win 7, 64 Bit Home Premium, Avast Antivir>> Habe verschiedene Dokumente via Win Explorer auf die NAS kopiert, davon> sind 90% schrott. (File Format waren PDF, DOC, RTF, EPUB, MOBI, JPG)
Hab nun auchmal tests gemacht. Verschiedene Dateien in Unterschiedlicher
Größe: MD5/SHA1 hashes auf Win-Rechner erstellt, auf NAS Freigabe
kopiert und wieder am Win-Rechner verglichen. Dabei ist kein einziger
Fehler Aufgetreten.
Win7 64Bit pro, Antivir 10.2.0.704, GB-LAN
Ich wollte den Medion NAS als Backupserver für mein QNAP nutzen.
Beim Sync mit ftp von meinem QNAP NAS (ca. 20-30 GB) lag die Temp. über
50°C.
Hinzu kommt noch, dass das Gerät nach längerer Betriebszeit und unter
Last abstürzt. Kein Zugriff mehr auf die Ablagen oder das Webmenü. Da
hilft nur ausmachen und wieder einschalten. Nix mit passiv Kühlung...
Hallo zusammen,
ich hätte mal eine Frage. Wenn wir wissen, wo das NAS die Pakete
herholt, könnte man dann nicht einen internen Proxy einschalten, der
alle Anfragen auf einen eigenen Webserver umlenkt, aufdem dann die
Updatepakete des Zyksel liegen? Vielleicht wäre das ein Ansatzpunkt.
Komme leider zur Zeit selber nicht dazu es mal auszulesen, welche
Anfragen das NAS genau schickt über das Netzwerk.
Grüße
Apophis
Rainer schrieb:> Ich habe es geschafft mit Dropbear und Winscp dank des Tipps mit dem> Pfad /usr/local/zy-pkgs/etc/init.d/ dropbear dauerhaft zum Laufen zu> bekommen
Dazu habe ich noch eine Frage: Hast du dabei
/usr/local/zy-pkgs/etc/init.d/ZYPKG_DEPS geändert?
Was hast du genau gemacht?
btw. das mit dem debian Quellen geht z.B. bei
http://packages.debian.org/squeeze/armel/nano/download anscheinend
nicht.
Ach, laut Webseite http://matt.ucc.asn.au/dropbear/dropbear.html ist
dropbear auch "Compatible with OpenSSH ~/.ssh/authorized_keys public key
authentication"
Hab mal authorized_keys in /home/shares/.ssh/ hinterlegt, klappt aber
nicht. Ein test mit /home/USERNAME/.ssh/authorized_keys tut's auch
nicht...
Jemand eine Idee dazu?
Wie soll es sein, profile ist nach Neustat wieder resettet...
Mich würde das ja eigentlich nicht verwundern, wenn das Ändern über
einen Neustart hinaus nicht früher geklappt hätte....
dimpflmoser schrieb:> Wofür stehen eigentlich die Optionen elevator=cfg und poweroutag=yes?
"elevator=cfg" steht wohl für den I/O Scheduler "Completely Fair
Queuing"
gefunden hier:
https://www.redhat.com/magazine/008jun05/features/schedulers/
Anscheinend kann man doch die bootargs ändern!
Hab mal "initcall_debug printk.time=1" eingefügt (in uBoot gemacht):
und siehe da, ich bekomme ziemlich viele debug ausgaben, wie diese:
1
...
2
[ 11.510000] initcall sddr09_init+0x0/0x18 returned 0 after 91012 usecs
3
[ 11.510000] calling sddr55_init+0x0/0x18 @ 1
4
[ 11.630000] usbcore: registered new interface driver ums-sddr55
5
[ 11.640000] initcall sddr55_init+0x0/0x18 returned 0 after 117542 usecs
6
[ 11.640000] calling usbat_init+0x0/0x18 @ 1
7
[ 11.750000] usbcore: registered new interface driver ums-usbat
8
[ 11.760000] initcall usbat_init+0x0/0x18 returned 0 after 108757 usecs
9
[ 11.770000] calling mousedev_init+0x0/0xa4 @ 1
10
...
Anscheinend gehen aber einfach nicht alle... Denn mit einem
"init=/bla/bla" startet er dennoch normal durch. "/proc/cmdline" zeigt
dennoch die Änderungen an...
"loglevel=7" macht auch nichts.
Weiß zufällig jemand ob man für die Fotoslideshow von extern einen
seperaten Port brauch?
Wenn ich von extern drauf zugreife sehe ich die bilder einzeln...was
aber nicht geht ist die slideshow...brauch ich da zusätzlich einen
ofenen port?
Mfg
Hallo!
Ich konnte leider nichts in der Wiki ändern - deshalb hier mein Weg zum
dauerhaften SSH-Zugang (auch nach einem Neustart):
SSH kann mann dauerhaft aktivieren (auch nach einem Neustart) indem man
folgendes macht:
1. Die Binaries von https://sites.google.com/site/medionlifep89626/
herunterladen (Binaries von Andreas Ehrle, danke!)
2.) Die dropbearmulti auf der internen Festplatte ablegen
(z. B.: (/i-data/6764ac2f)/public/bin/dropbear)
3.) die benötigten Symlinks erstellen und die Zugriffsrechte ändern
ln dropbearmulti dropbear
ln dropbearmulti dbclient
ln dropbearmulti ssh
ln dropbearmulti dropbearkey
ln dropbearmulti dropbearconvert
ln dropbearmulti scp
chown root:root *
chmod 700 *
4.) RSA-Schlüssel erzeugen:
./dropbearkey -t rsa -f dropbear_rsa_host_key
5.) Start-Scripte anpassen:
im Ordner <pre>/usr/local/zy-pkgs/etc/init.d</pre> ein neues Script
mit folgendem Inhalt erstellen (z. B. my_extensions):
cp /i-data/6764ac2f/public/bin/dropbear/dbclient /bin/dbclient
cp /i-data/6764ac2f/public/bin/dropbear/dropbear /bin/dropbear
cp /i-data/6764ac2f/public/bin/dropbear/dropbearconvert
/bin/dropbearconvert
cp /i-data/6764ac2f/public/bin/dropbear/dropbearkey /bin/dropbearkey
cp /i-data/6764ac2f/public/bin/dropbear/scp /bin/scp
cp /i-data/6764ac2f/public/bin/dropbear/ssh /bin/ssh
dropbear -r
/i-data/6764ac2f/public/bin/dropbear/dropbear_rsa_host_key -E
und die Zugriffsrechte ändern :
chmod 755 my_extensions
Die DropBear-Symlinks müssen bei jedem Start neu in den ordner /bin
kopiert werden weil nach dem Neustart sämtliche Änderungen verloren
gehen.
6.) eigenes Start-Skript eintragen:
in der Datei ZYPKG_DEPS im Start-Up-Block die eigene Datei
eintragen. Müsste dann so aussehen:
# Dependency for zypkgs
# START-UP (DON'T REMOVE THIS LINE!)
/usr/local/zy-pkgs/etc/init.d/DyDNS
/usr/local/zy-pkgs/etc/init.d/SMART
/usr/local/zy-pkgs/etc/init.d/BackupPlanner
/usr/local/zy-pkgs/etc/init.d/NFS
/usr/local/zy-pkgs/etc/inet.d/my_extensions
# SHUTDOWN (DON'T REMOVE THIS LINE!)
/usr/local/zy-pkgs/etc/init.d/NFS
/usr/local/zy-pkgs/etc/init.d/BackupPlanner
/usr/local/zy-pkgs/etc/init.d/SMART
/usr/local/zy-pkgs/etc/init.d/DyDNS
Nach einem Neustart müsste SSH laufen.
Rainer schrieb:> David schrieb:>> ich weiß nicht ob es euch hilft - alle Änderungen unter>> /usr/local/zy-pkgs/etc/init.d>> bleiben auch nach dem Neustart erhalten>> Ich habe es geschafft mit Dropbear und Winscp dank des Tipps mit dem> Pfad /usr/local/zy-pkgs/etc/init.d/ dropbear dauerhaft zum Laufen zu> bekommen und Winscp kann auch die Dateien anzeigen. Keys sind erzeugt> und dropbear korrekt geladen> Was ich nicht hinbekommen habe, ist der Zugriff auf die Dateien, ich> bekomme den HinweisSCP konnte für den Start der Übertragung nicht ausgeführt
werden.
> Bitte stellen Sie sicher, dass SCP auf dem Server installiert ist> und die $PFAD- Variable den Pfad zu SCP enthält. Anstatt SCP können Sie auch
SFTP probieren.
> Befehl gescheitert mit Beendigungscode 127.Die Pfad-Variable habe ich mal
gesetzt auf /var/ftp
> Soweit ich gelesen habe sollte ich einen symlink auf die scp binaries> setzen, aber die habe ich ja nicht..!?>> Was muss ich noch machen? Danke im voraus für den Tipp
Hallo Rainer,
ich gerade probeweise zum ersten mal per WinSCP auf das NAS zugegriffen
und bekomm folgende Fehlermeldung
Command 'groups'
failed with return code 127 and error message
-sh: groups: not found.
allerdings funktionert sowohl der up- als auch der Donwload.
Mir war ein (dauerhafter) ssh-Zugang wichtiger.
ElektromAn schrieb:> crossdev --libc 2.9_p20081201-r3 --gcc 4.4.5 armv6-hardfloat-linux-gnueabi
Jau, hatte ich auch schon gemacht, aber mich aus dem Australien-Forum
dazu verleiten lassen µClibc zu nehmen, und softfloat
(armv6k-softfloat-linux-uclibceabi). Hat denn nun diese CPU eine FPU
oder nicht?
Willst Du binaries unter der Original-Firmware zum Laufen bringen, oder
letztendlich Gentoo darauf booten? (weil Du etwa die entsprechende
glibc-Version in Deinem toolchain angibst, sollte dann nicht auch die
gcc-version übereinstimmen? Ansonsten glaube ich, würde ich die neuesten
Versionen nehmen)
Jens D. schrieb:> Rainer schrieb:>> Ich habe es geschafft mit Dropbear und Winscp dank des Tipps mit dem>> Pfad /usr/local/zy-pkgs/etc/init.d/ dropbear dauerhaft zum Laufen zu>> bekommen>> Dazu habe ich noch eine Frage: Hast du dabei> /usr/local/zy-pkgs/etc/init.d/ZYPKG_DEPS geändert?> Was hast du genau gemacht?>>> btw. das mit dem debian Quellen geht z.B. bei> http://packages.debian.org/squeeze/armel/nano/download anscheinend> nicht.
Hi!
Ich konnte die Wiki nicht bearbeiten und hab deshalb meine
Vorgehensweise hier gepostet
@Lucian M.
Laut
http://armin762.wordpress.com/2010/02/23/armv4larmv4tlarmv5telarmv6jarmv7a-gentoo-stages/
sollte die Kiste VFP haben (Hardware FPU)
habe auch schon eine Toolschain für uClibc gebaut.
Achtung :
Bei Gentoo ist leider nicht die aktuelle uClibc 0.9.32 drin. Dazu wird
ein extra ebuild gebraucht. Diese libc kann auch NPTL.
Habe auch andere Toolchains armv5, es wird auch wieder eine für armv4
gebaut.
gcc version kann größer sein, nur die Version der libc sollte wie auf
dem Zielsystem sein. Sonst fehlen einig Symbole wenn du das Programm auf
dem "Zielsystem" ausführst.
Ob jetzt die uClibc brauchtbar ist, kann ich noch nicht prüfen
(Hardware), das zweite Problem könnte mit sehr großen
Dateien/Partitionen sein. Ich hatte da mal ein Post bei mir im Forum
gelesen.
@David Wesselich
Wrapper für fehlendes groups
Leider konnte ich gestern Abend nichts mit dem U-Boot testen, da ich das
USB-Serial-Kabel im Büro vergessen habe.
Ich hatte zwar versucht das NAS mit meinen beiden alten Psions zu
verbinden, die noch eine serielle Schnittstelle haben, dort kamen aber
nur wirre Zeichen an und das nur sporadisch. Ich schätze, dass da die
Pegel auf dem NAS nicht zu den vom Psion erwarteten Pegeln passten.
Jens D. schrieb:> IMHO wäre es am einfachsten, wenn man das read-only Dateisystem> überwinden könnte. Dann könnte man das ganze System umkrempeln.>> Mit einem einfachen "mount -o remount,rw /bla" ist es allerdings nicht> getan, siehe: Beitrag "Re: Alles Rund um den MEDION LIFE P89626 NAS"
Die MTDs werden ja mit dem Boot-Parameter auf RO gesetzt. Wenn man die
auf rw setzt hat man ja eventuell eine Chance direkt drauf zu schreiben
oder mit einem remount.
Allerdings hätte ich testen können (leider aber vergessen, bzw aus dem
Fokus geraden) das Image zu modifizieren, das als /dev/loop0 gemounted
wird.
Das Image selbst ist im RW-Memory (MTD7?), das kann man auf den PC
ziehen, entpacken, modifizieren, neues Image bauen und das alte Image
ersetzten.
Die Gefahr bleibt natürlich, dass man beim Ersetzten des Images aus dem
System ausgesperrt wird. Vorsichtshalber sollte man demnach ein Dump
dieses MTDs ziehen.
Bye Dimpflmoser
Jens D. schrieb:> Ich hab das mal mit dropbear gemacht:> http://packages.debian.org/squeeze/dropbear>
Achso, ich hatte unstable/SID Pakete benutzt und dort hat's geknallt
sobald eine Binary auf die glibc?? zugegriffen hat. Eventuell ist das
mit squeeze ja besser und es werde kompatible Pakete/Libs verwendet.
Jens D. schrieb:
> btw. das mit dem debian Quellen geht z.B. bei> http://packages.debian.org/squeeze/armel/nano/download anscheinend> nicht.
Kannst Du sagen woran das lag?
Waren nur einige Paketabhängigkeiten nicht erfüllt oder waren das
Kompatibiltätsprobleme bei diversen Libs?
Ich hatte mit einem anderen Paket ein Problem, das bestimmt auch mein
Nano auftritt:
Nano verwendet ja ncurses5, das wiederum greift auf termio o.ä. zurück,
das hatte ich auch alles installiert bzw aus anderen Debian-Paketen auf
das NAS kopiert, allerdings war dann die Terminal-Info nicht
konfiguriert, die von termio verwendet wird. Das hatte ich dann nicht
direkt lösen können und bin irgendwie wieder abgelenkt worden.
zu nano: Da kenne ich mich IMHO zu wenige mit Linux aus... Beim starten
kamen nur wirre Zeichen, keine echte Fehlermeldung das irgendwas
fehlt...
Wenn das mit dem
http://www.mikrocontroller.net/articles/P89626/debootstrap#chroot_per_Skript
besser klappt, also wenn man es schaft das Ursprüngliche Dateisystem in
die chroot Umgebung einzubinden, dann kann man auch alles bequem aus den
Repos ziehen und nutzten... Ein mc geht da ohne Probleme...
Ich meine das mount Problem von
Beitrag "Re: Alles Rund um den MEDION LIFE P89626 NAS"
Mein chroot Skript sieht z.Z. so aus:
Jens D. schrieb:> Also nochmal direkt:/etc # echo "# TEST" >> profile> /etc # reboot>> Wie soll es sein, profile ist nach Neustat wieder resettet...>> Mich würde das ja eigentlich nicht verwundern, wenn das Ändern über> einen Neustart hinaus nicht früher geklappt hätte....>
Da ich meine Box mal wieder nicht da habe, kann ich leider wieder nur
aus meiner trüben Erinnerung heraus spekulieren.
AFAIR wird ein Teil des Dateisystems in einer Ram-Disk angelegt.
Irgendwo auf der Platte/Flash habe ich ein Tar-Ball gesehen der die
Dateien enthält, die später in der RAM-Disk benötigt werden.
D.h. beim Start wird die Ram-Disk neu angelegt und das Archiv dort
reinkopiert. Ich würde nach diesem Archiv suchen und nachsehen ob ich
darin was ändern kann.
Aber auch hier ist wieder die Gefahr, dass man sich aussperrt wenn man
was falsch macht.
Jens D. schrieb:> Hab mal authorized_keys in /home/shares/.ssh/ hinterlegt, klappt aber> nicht. Ein test mit /home/USERNAME/.ssh/authorized_keys tut's auch> nicht...>> Jemand eine Idee dazu?
Habe das Problem noch nicht ganz verstanden, aber mit dem Dropbear schon
ein wenig Nahkampferfahrung sammeln können/müssen.
Was ist Dein Problem, kannst Du keine eingehende Verbindung, d.h.
PC->NAS per RSA-Key herstellen oder geht's ned nach draußen (NAS->PC)?
Dropbear kann beides und ich habe das auch auf einem anderen ARM-System
im Betrieb.
ich kann mich einloggen, aber nur mit passwort und leider nicht per
Public-Key...
Ach und die SSH Verbindung kann ich nicht in Nautilus (IMHO geht das
über FUSE) einbinden...
Jens D. schrieb:> ich kann mich einloggen, aber nur mit passwort und leider nicht per> Public-Key...>
Hat das Verzeichnis root.ssh die Rechte 700?
Hat die Datei root.ssh/authorized_keys die Rechte 600?
Ich gehe mal davon aus, dass der Public Key von deinem PC-Konto
eingetragen ist, oder?
Verwendest Du openssh auf dem PC? Falls nicht, kann Dein SSH-Client mit
Deinem lokalen Key umgehen?
Beim dropbear-ssh-client muss man mit dem Paramter -i angeben welchen
Key man vewenden möchte.
Kann es sein, dass Du ein Passwort auf deinen private Key vergeben hast
und dass einfach nur dieses Passwort verlangt wird?
> Ach und die SSH Verbindung kann ich nicht in Nautilus (IMHO geht das> über FUSE) einbinden...
Kenne Nautilus nicht (bin KDE-User).
Dolphin (KDE) benutzt da keine Systemresourcen sondern macht das
selbständig, d.h. wenn man das Verzeichnis in Dolphin/KDE mounted dann
ist das für andere Programme nicht sichtbar.
Ich schätze, dass für diese Verbindung auch per sftp aufgebaut wird. Das
tut bei meiner Installation auch nicht. Ich bekomme dort den Fehler:
1
sftp root@192.168.2.215
2
sh: /usr/libexec/sftp-server: not found
3
Connection closed
Unter dolphin gibt es noch die Alternative per fish:// aber auch das tut
nicht.
scp tut problemlos
Jens D. schrieb:> Das war der entscheidende Tipp. authorized_keys muß unter root.ssh/> gespeichert sein, dann klappt es auch!
Nur um sicher zu gehen, dass da jemand aufgrund eines
Flüchtigkeitsfehlers nicht weiter kommt. Die Datei muss natürlich unter
folgendem Pfad gespeichert werden:
1
/root/.ssh/authorized_keys
Die Rechte von root.ssh/ mussen 700 die von authorized keys 600 sein.
Tschüss Dimpflmoser
David Wesselich schrieb:> Command 'groups'> failed with return code 127 and error message> -sh: groups: not found.
das gehört so, da hier ein Paket fehlt das nachinstalliert werden
müsste. Die Groups-Funktionalität kann dropbear (oder wo auch immer das
herkommt) nicht von Hause aus.
Bei Winscp einfach unter WINScp Anmeldung/Umgebung/SCP/Shell/Andere
Einstellungen/Gruppen lesen Häkchen raus und die Fehlermeldung ist weg.
Guten Abend,
ich habe das Gerät im "ruhenden - keiner greift zu" Betrieb mal
ausgeschaltet (Testfall, wenn wir in Urlaub fahren).
Nach dem Anschalten wollte sich das System automatisch neu installieren
(via Medion Nas Starter Utility).
Alle Verzeichnisse und Zugriffe waren weg?!
Die Hotline von Medion hat mir bestätigt, dass das System nach dem
Ausschalten wieder neu installiert. Das kann doch nicht war sein? Was
ist denn bei einem Stromausfall?
Was könnt ihr mir dazu berichten. Wenn dem so ist, kann ich es nicht
gebrauchen.
LG Patch24
David Wesselich schrieb:> Ich konnte die Wiki nicht bearbeiten und hab deshalb meine> Vorgehensweise hier gepostet
funktioniert einwandfrei! Klasse Arbeit, vielen Dank!
In Ju schrieb:> Nach dem Anschalten wollte sich das System automatisch neu installieren> (via Medion Nas Starter Utility).> Alle Verzeichnisse und Zugriffe waren weg?!>> Die Hotline von Medion hat mir bestätigt, dass das System nach dem> Ausschalten wieder neu installiert. Das kann doch nicht war sein? Was> ist denn bei einem Stromausfall?
Also ich hab das Ding schon mehrfach runtergefahren (Wobei es dabei ja
nicht von alleine Aus geht. s.o.)
Ich habs auch mehrfach vom Stromnetz getrennt. Da ist nichts weg... Die
Daten, die eingerichteten User/Freigaben, alles da. Was weg sind sind
die internen Dinge, die uns hier beim Hacken stören ;)
Allerdings hab ich diese "Medion Nas Starter Utility" nie benutzt. Die
CD nie angeschaut. Vielleicht macht die Software also von außen
automatisch alles Platt? Wobei das nicht wirklich Sinn machen würde...
>> Also ich hab das Ding schon mehrfach runtergefahren (Wobei es dabei ja> nicht von alleine Aus geht. s.o.)
Wie funzt denn dieses runterfahren? Ausschalten kann ja jeder;-)
LG
Lucian M. schrieb:> Wie mountest Du denn genau (bitte poste mal die Parameter) die nfs> shares der NAS unter Linux so das der Transfer schnell ist? Wie sind die> MTU Einstellungen am NAS und an diesen Rechnern?
Die Mount-Parameter:
Wie gesagt, die Dateien sind in Ordnung. Ich habe zwischenzeitlich den
P89626 mehrfach ausgeschaltet, was zu keinen Fehlern geführt hat.
/var/x.cpio ist die lokale Platte, /j4/var/x.cpio ist der P89626. Die
Übertragungsrate ist:
Das bedeutet: 27.9 MBytes/s vom NAS, 156.5 MBytes/s von der lokalen
Platte und 3.8 GBytes/s aus dem Cache. MTU ist auf j4 (eth0), auf dem
P89626 (egiga0) und auf dem Switch 1500 Bytes. Da habe ich (noch) nichts
optimiert.
nfsstat zeigt auf der Seite des P89626
1
~$nfsstat-s
2
Serverrpcstats:
3
callsbadcallsbadauthbadclntxdrcall
4
9951578800
5
6
Servernfsv3:
7
nullgetattrsetattrlookupaccessreadlink
8
50%12807712%00%4900%253012%10%
9
readwritecreatemkdirsymlinkmknod
10
82087882%00%00%00%00%00%
11
removermdirrenamelinkreaddirreaddirplus
12
00%00%00%00%00%203842%
13
fsstatfsinfopathconfcommit
14
00%150%60%00%
und auf der Seite von j4 keine Besonderheiten:
1
root@j4:/tmp#nfsstat-c
2
Clientrpcstats:
3
callsretransauthrefrsh
4
506475905064776
5
6
Clientnfsv3:
7
nullgetattrsetattrlookupaccessreadlink
8
00%4240848%63470%240250%1118052%151510%
9
readwritecreatemkdirsymlinkmknod
10
419053482%1993243%13010%270%40%00%
11
removermdirrenamelinkreaddirreaddirplus
12
173370%36590%13010%00%00%685581%
13
fsstatfsinfopathconfcommit
14
70%120%60%12740%
Insbesondere ist retrans 0. Unterm Strich: Empfehlung für NFS.
ElektromAn schrieb:> crossdev --libc 2.9_p20081201-r3 --gcc 4.4.5 armv6-hardfloat-linux-gnueabi> das macht z. Zt. meine gentoo "Kiste"
Und läuft das bei Dir erfolgreich durch? bei mir bricht es ab:
Hermann K. schrieb:> Insbesondere ist retrans 0. Unterm Strich: Empfehlung für NFS.
Danke für Deinen auführlichen Bericht! Interessant wäre es auch zu hören
was heraus kommt, wenn Du mal Zeit hast mit Jumbo-Frames zu testen...
Hallo,
versuche gerade per USB-serial-Adapter (PL2302) auf die Serielle
Schnittstelle zuzugreifen aber bekomme da keine vernünftigen Ausgaben
auf das Terminal.
Zu meinem Setup:
Linux Laptop mit PL2302-Adapter
dmesg sagt mir:
1
[ 3659.312060] usb 3-1: new full speed USB device number 3 using uhci_hcd
[ 3659.481266] usb 3-1: pl2303 converter now attached to ttyUSB0
Auf dem Laptop habe ich Minicom am Laufen mit den Parametern 115200 8n1
1
minicom -D /dev/ttyUSB0
Den Adapter habe ich so mit der Box verbunden:
1
D-SUB J4
2
(pl2302) (NAS)
3
Pin 5 Pin 4 (Gnd)
4
Pin 3 Pin 2 (Rx)
5
Pin 2 Pin 3 (Tx)
Ich bekomme offensichtlich Daten vom NAS allerdings sind die nur Müll.
Wenn ich per Telnet Ausgaben auf ttyS0 umleite sehe ich synchron dazu
entsprechend Ausgaben auf dem Terminal, allerding halt nur Müll.
Habt Ihr eine Ahnung was dabei schief laufen kann?
Bye Dimpflmoser
ElekromAn schrieb:> Testaufbau:> Datei nach NAS übertragen.> Auf dem PC und auf dem NAS (telnet/ssh) die md5 oder sha1 Summe prüfen.> Die Prüfung auf dem NAS ist wichtig, da die Datei ja sonst wieder> zurück auf dem PC übertragen wird.>> Dies einmal mit und ohne Virenscanner machen.
Auch wenn mir das Ergebnis schon klar war (aber manchmal wird man halt
doch überrascht), hier die Überprüfung mit md5sum
Quelle:
vdr:/data# md5sum 1.pdf
82d151d2a3b5fad8936082ce390ecab9 1.pdf
Ziel:
/i-data/6764ac2f/Temp $ md5sum 1.pdf
031e207acd0d51979f99e14d508a3c46 1.pdf
Dateien nochmal gechrieben und Virenscanner konfiguriert Schreibzugriffe
aufs NAS nicht zu überwachen
ziel:
/i-data/6764ac2f/Temp $ md5sum 1.pdf
82d151d2a3b5fad8936082ce390ecab9 1.pdf
So interessant es auch wäre wo das Problem liegt, gebe ich es auf. Danke
für eure Rückmeldungen und Tipps.
Hat jemand eine Idee ob und wenn ja wie flexget auf dem NAS
installierbar ist? python wäre vorhanden, auch wenn's ne andere Version
ist...
http://flexget.com/
Verzeiht, ich habe bereits alles durchsucht, aber gibt es bereits eine
Lösung um dauerhaft(!) alle Optionen des Twonky Servers freizuschalten?
Im Thread zum P89626 auf nas-portal.org wird ja beschrieben, wie man die
vollen Optionen für das Webinterface freischaltet - diese gehen aber bei
einem Neustart des NAS verloren.
Gibt es dafür bereits eine Lösung?
Und Respekt an alle Tüftler und Bastler hier - ich verstehe zwar
vielleicht nur jedes dritte Wort, aber ich verfolge das hier mit großer
Spannung :D
Ein HTTP GET müsste mit der besagten URL reichen. Diese URL mit wget
aufrufen und in ein Script packen. Dann analog zum SSH Server dropbear
in nicht geresetteten Startscripte packen und schon sollte auch nach
einem Reboot alle Einstellungen verfügbar sein. Es sollte aber darauf
geachtet werden, ob der Twonky-Server dann schon läuft, sonst läuft der
wget Aufruf ins Leere.
Danke Michael :D
allerdings muss ich leider gestehen, dass ich jetzt spontan keine Ahnung
habe, wie ich das Umsetze.
Was ist ein HTTP GET?
Und bzgl Dropbear, SSH etc muss ich mich auch erst einlesen, da weiß ich
spontan ebenfalls nicht was die sind bzw. wie ich sie einsetze.
Aber grundsätzlich meinst du folgendes(?):
Durch irgendeine Form der command shell (also wahrscheinlich ist das
SSH?) auf den NAS zugreifen und ein Script in die Startscripte packen.
Aber wie "erkläre" ich dem NAS, dass er dieses Script starten soll?
Und gehen bei dem Vorgang nicht trotzdem alle Einstellungen vom letzten
mal verloren?
Speichert der NAS denn die Twonky Einstellungen denn? Bzw. er
überschreibt sie doch, wenn der NAS neu startet.
Ich stell mir das so vor:
(ungemoddeter) NAS -> per URL unlock der Twonky Einstellungen ->
Speichern der Einstellungen -> Netzschalter aus -> modden des NAS -> NAS
bootet -> NAS überschreibt dabei die Einstellungen die man im "unlocked"
Twonky vorgenommen hat -> das Script setzt ein -> ich muss zwar die
Einstellungen nicht wieder manuell freischalten, sie aber sehr wohl
jedes mal neu einstellen, oder?
Wie kann ich sicher gehen, dass der NAS die Einstellungen des
"erweiterten/voll funktionsfähigen" Twonky speichert und auch wieder
übernimmt, nach einem reboot des NAS?
Verzeiht, falls diese Fragen für euch stupide wirken, aber nachdem ich
eher nur sehr grundsätzlich Wissen über NAS/Linux habe reime ich mir das
hier so zusammen xD
Und Danke nochmals :)
Du hast Recht, wahrscheinlich wird, dass was ich beschrieben habe, dafür
reichen die Konfiguration von Twonky dauerhaft zu speichern. Ich habe
lediglich beschrieben, wie die erweiterten Einstellung nach einem
Neustart verfügbar gemacht werden.
Ich finde den Twonky irgendwie sowieso komisch. Ich habe ca. 30.000 MP3s
hochgeladen und, die wurden nach einigen Stunden auch endlich alle von
Twonky indiziert, aber die CPU reicht wohl nicht aus, vernüftig so große
Sammlungen zu verwalten. Denn sobald ich mit einem DLNA Client zugreife
geht die CPU Last auf 100%.
In dem Webinterface von Twonky konnte ich sehen, dass der 30.000 Files
gefunden hat, aber nach einem Reboot stand da wieder 0.
Michael schrieb:> Du hast Recht, wahrscheinlich wird, dass was ich beschrieben habe, dafür> reichen die Konfiguration von Twonky dauerhaft zu speichern.
Da fehlt ein NICHT!
Du hast Recht, wahrscheinlich wird, dass was ich beschrieben habe, dafür
NICHT reichen die Konfiguration von Twonky dauerhaft zu speichern.
In Ju schrieb:> Wie funzt denn dieses runterfahren? Ausschalten kann ja jeder;-)
Hatte ich weiter oben schon beschrieben (s.
Beitrag "Re: Alles Rund um den MEDION LIFE P89626 NAS" ): Per
SSH/Telnet ein "halt" absetzten... Dann warten bis Platte aus ist und
dann kann man Strom abschalten. Warum die Kiste nicht von alleine aus
geht, weiß ich nicht.
Was haltet ihr von dieser Idee: Solange es kein uBoot/Kernel gibt, den
man direkt starten kann, macht man folgendes:
Alle Dienste auf der Box beenden, chroot in Debian Systeme machen und
Dienste, die man haben möchte wieder starten.
z.Z. gibt es mit /usr/local/zy-pkgs/etc/init.d/ZYPKG_DEPS den einzige
Funktionierende Ort für einen Hook: Darin rufen wir ein Skript auf,
welches die Prozedur dann macht, wenn ein passender USB-Stick [1]
steckt...
Würde das ganze überhaupt gut funktionieren? Ich kenne mich dazu in
Linux zu wenig aus...
[1] http://www.mikrocontroller.net/articles/P89626/debootstrap
Franz schrieb:> ich weiß nicht ob es schon gepostet wurde, aber auf medion.at ist der> gpl_source zum download verfügbar:>> http://www1.medion.de/downloads/download.pl?lang=d...>> nützt der einem in irgendeiner Weise etwas?
Könnte extrem nützlich sein... Interessant, Du erwähnst Du bist über
medion.at darüber gestolpert, der Link zeigt letztendlich auf den .de
Server...
Downloadgeschwindigkeit ist bescheiden, knapp 118kB/s, so wird das etwa
1.5h dauern... Aber danke jedenfalls für den Hinweis!
oh...stimmt, naja ich bin über medion.at darauf gestoßen, aber ist ja
nur logisch wenns über die "Mutter" läuft xD
Es wäre extrem cool über den Source Code an die Lösung zu kommen wie man
eventuell den Twonky dauerhaft freischalten kann - allein schon, damit
man ein Passwort einrichten kann für die Weboberfläche xD
Und was ich öfter gelesen habe ist, dass ja auch versucht wird Debian
auf dem NAS zum laufen zu bringen - wie kann ein Laie sich das
vorstellen?
Läuft die Konfiguration/Einstellung des Debian Linux dann nur über
commando zeilen oder gibt es die Möglichkeit einer "Weboberfläche" oder
eines Virtuellen Desktops?
Denn als ich das erste mal von Debian auf zb dem Medion NAS gelesen
habe, habe ich es mir so vorgestellt, dass man eventuell auf dem NAS
dann den jeweils aktuellsten Twonky installieren kann und das ganze wie
über einen virtuellen Desktop steuert - ist das denn möglich?
Oder sollte ich mir als Laie Debian komplett aus dem Kopf streichen?
Franz schrieb:> Es wäre extrem cool über den Source Code an die Lösung zu kommen wie man> eventuell den Twonky dauerhaft freischalten kann - allein schon, damit> man ein Passwort einrichten kann für die Weboberfläche xD
Ich bezweifele dass die GPL-Sourcen hierfür dienlich sein würden, Twonky
ist meines Wissens komerziell, closed-source...
> Und was ich öfter gelesen habe ist, dass ja auch versucht wird Debian> auf dem NAS zum laufen zu bringen - wie kann ein Laie sich das> vorstellen?> Läuft die Konfiguration/Einstellung des Debian Linux dann nur über> commando zeilen oder gibt es die Möglichkeit einer "Weboberfläche" oder> eines Virtuellen Desktops?
Nich nur, man könnte z.B. Webmin aufsetzen, das erlaubt dann so manches
über eine Weboberfläche, kannst mal da angucken: http://www.webmin.com/>> Denn als ich das erste mal von Debian auf zb dem Medion NAS gelesen> habe, habe ich es mir so vorgestellt, dass man eventuell auf dem NAS> dann den jeweils aktuellsten Twonky installieren kann und das ganze wie> über einen virtuellen Desktop steuert - ist das denn möglich?
Bloß wenn man eine kompilierte Version für die entsprechende Architektur
bekommt, und das bekommen glaube ich nur diese NAS-Hersteller...
> Oder sollte ich mir als Laie Debian komplett aus dem Kopf streichen?
Wenn Du Bereitscheft und Zeit zum Lernen und Tüfteln aufbringen
kannst/willst, dann nicht. Und ausser Debian gibt es ja auch noch Arch,
Gentoo...
Achso, pardon, da hab ich mich falsch ausgedrückt - ja ich weiß, dass
Twonky keine GPL ist, ich meinte viel mehr, dass es durch den Source
Code vielleicht möglich ist das überschreiben der Twonky Einstellungen
aus dem Flash(?) des NAS auszuhebeln - also ein Tweak am NAS-OS und
nicht an Twonky.
Und Twonky gibt es doch auch für NAS oder?
Und unter Debian müsste Twonky Server sowieso laufen, oder braucht man
da ein x86 System?
Ich persönlich bin ja mit dem NAS vollkommen zufrieden, wenn es später
mal möglich ist die Erweiterten Einstellungen des Medienservers
dauerhaft freizuschalten, ein Passwort einzurichten und das Auto-Scan zu
konfigurieren xD
Denn ich nehm an, selbst wenn ich Twonky 6 oder 7 auf dem NAS zum laufen
bekomme könnte ich dennoch keine mkv's auf der XBox abspielen oder? Der
Twonky auf der NAS stellt die Datei ja nur zur Verfügung oder?
(Ich hoff es ist nicht allzu peinlich, dass ich mich nicht so gut
auskenne ^^)
Jens D. schrieb:> ata2: SATA link down (SStatus 0 SControl 300)>> d.h. es gibt einen zweiten SATA Anschluss?!?
Das sagt nicht, dass es einen physikalischen Anschluss gibt, wenigstens
in Form von Leiterbahnen auf der Platine wo am Schluß nichts mehr
angelötet wurde (so z.B. meine "alte" LS-Pro, da müsste man einen
eSATA-Port nur zusammen mit 2-3 SMD-Kondensatoren anlöten und hinten am
Gehäuse das entsprechendes Loch dremeln), sondern nur daß die Elektronik
im SoC diesen zweiten Anschluß unterstützen würde.
Hab mir mal ein bischen das GPL Paket angeguckt. Dort wird beschrieben,
wie man ein Build-Environment aufsetzt um die Firmware für das "NSA 210"
zu bauen. Von Medion ist da nicht die Rede. Die von Medion haben sich
wahrscheinlich möglichst wenig Arbeit gemacht.
U.a. bin ich auf folgendes gestoßen:
Franz schrieb:> Achso, pardon, da hab ich mich falsch ausgedrückt - ja ich weiß, dass> Twonky keine GPL ist, ich meinte viel mehr, dass es durch den Source> Code vielleicht möglich ist das überschreiben der Twonky Einstellungen> aus dem Flash(?) des NAS auszuhebeln - also ein Tweak am NAS-OS und> nicht an Twonky.
Ok, in der Hinsicht könntest Du recht haben, möglicherweise finet man
mehr heraus, wie das Ganze funktioniert um dann eventuell ein bisschen
tricksen zu können...
> Und Twonky gibt es doch auch für NAS oder?
NAS ist nicht gleich NAS, sie sind mit unterschiedlichen
CPU-Architekturen hergestellt, das heisßt dann auch daß die Firmwares
die darasuf laufen, meistens Linux, entsprechend kompiliert sind, so
auch jedes Programm was unter der entsprechenden Firmware ausgeführt
werden soll, somit auch Twonky. Auf deren Seite gibt es aber nicht
allzuviele unterschiedliche Downloads, sondern eher nur für PCs.
> Und unter Debian müsste Twonky Server sowieso laufen, oder braucht man> da ein x86 System?
Debian alleine reicht nicht, siehe oben. Natürlich gibt es Twonky unter
verschiedenen Linuxen (meinetwegen Debian), aber halt nicht frei für
jedermann...
> Denn ich nehm an, selbst wenn ich Twonky 6 oder 7 auf dem NAS zum laufen> bekomme könnte ich dennoch keine mkv's auf der XBox abspielen oder? Der> Twonky auf der NAS stellt die Datei ja nur zur Verfügung oder?
Bei DLNA / uPNP ist es nicht ganz so einfach, sowohl Server als auch
Client müssen meines Wissens miteienander harmonieren ,in der Art und
Weise wie sie Informationen die vor dem eigentlichen Streamen notwendig
sind, austauschen. Ich kenn mich mit DLNA zu wenig aus, aber vom Prinzip
her denke ich schon daß die Art und Weise wie der Server dem Client die
Streams bereitstellt, einen Rolle spielen...
> (Ich hoff es ist nicht allzu peinlich, dass ich mich nicht so gut> auskenne ^^)
Nö, keine Sorge, all das sollte man eigentlich nicht wissen müssen, bloß
die Industrie segnet uns immer wieder mit beta- und alpha-Produkten,
oder mit beschnittenen, kastrierten, sodas dann einige von uns mit mehr
oder weniger Erfolg anfangen zu stöbern, um deren Produkte auch wirklich
brauchbar zu machen :-). Für viele ist es der Spaß am "hacken", aber
auch das hat mal Grenzen, irgendwann mal will man das Dinge eingfach nur
funktionieren, und zwar so das man nichts mehr auszusetzen hat ;-)
Michael schrieb:> U.a. bin ich auf folgendes gestoßen:> build_NSA212.tar.gz\build_NSA212.tar\trunk\linux-2.6.31.14\STG212_Kernel .config>> Vielleicht hilft das einen Kernel zu bauen, der funktioniert und der> aber auch beide Core unterstützt.
Na toi, toi, toi, auf sowas habe ich ehrlich gesagt am meissten
gehofft!!!
Darf ich nochmal mein Problem hochbringen und um Hilfe bitten.
Ich komme nicht vernünftig auf die serielle Schnittstelle und demnach
nicht ins U-Boot.
Könnt Ihr sehen was ich da falsch machen bzw Tipps geben was ich noch
probieren kann?
Hier nochmal meine Mail von gestern Nacht:
Dimpflmoser schrieb:> Hallo,>> versuche gerade per USB-serial-Adapter (PL2302) auf die Serielle> Schnittstelle zuzugreifen aber bekomme da keine vernünftigen Ausgaben> auf das Terminal.>> Zu meinem Setup:>> Linux Laptop mit PL2302-Adapter> dmesg sagt mir:> [ 3659.312060] usb 3-1: new full speed USB device number 3 using uhci_hcd> [ 3659.469220] pl2303 3-1:1.0: pl2303 converter detected> [ 3659.481266] usb 3-1: pl2303 converter now attached to ttyUSB0>> Auf dem Laptop habe ich Minicom am Laufen mit den Parametern 115200 8n1minicom
-D /dev/ttyUSB0
>> Den Adapter habe ich so mit der Box verbunden:> D-SUB J4> (pl2302) (NAS)> Pin 5 Pin 1 Gnd)> Pin 3 Pin 3 (Rx)> Pin 2 Pin 2 (Tx)>> Ich bekomme offensichtlich Daten vom NAS allerdings sind die nur Müll.> Wenn ich per Telnet Ausgaben auf ttyS0 umleite sehe ich synchron dazu> entsprechend Ausgaben auf dem Terminal, allerding halt nur Müll.>> Habt Ihr eine Ahnung was dabei schief laufen kann?>> Bye Dimpflmoser
Dimpflmoser schrieb:> Auf dem Laptop habe ich Minicom am Laufen mit den Parametern 115200 8n1> minicom -D /dev/ttyUSB0
Teste doch mal mit:
screen /dev/ttyUSB0 115200
Jens D. schrieb:> Noch eine Frage zum chrooten: Warum schlägt das fehl:> + mount -o bind /dev /e-data/3e5fea5f-e3aa-4766-9064-1fdefbe13b7c/dev> mount: mounting /dev on /e-data/3e5fea5f-e3aa-4766-9064-1fdefbe13b7c/dev failed:
Invalid argument
>> + mount /i-data /e-data/3e5fea5f-e3aa-4766-9064-1fdefbe13b7c/i-data> mount: mounting /i-data on /e-data/3e5fea5f-e3aa-4766-9064-1fdefbe13b7c/i-data
failed: Invalid argument
Hat dazu jemand eine Idee?
Hab auch '''mount --rbind /dev ${ROOT}dev''' probiert, selbe Fehler...
Michael schrieb:> Vielleicht hilft das einen Kernel zu bauen, der funktioniert und der> aber auch beide Core unterstützt.
Meines Wissens sollte der Kernel wenn halbwegs aktuell ohne weitere
Anpassungen beide Cores unterstützen. Entscheidend ist, daß der U-Boot
den zweiten Core auch aktiviert. Liegen die Sourcen vom U-Boot auch bei?
Ohne Möglichkeit via JTAg neu zu flashen sind Anpaassungen am U-boot
allerdings hochriskant ...
Christian schrieb:> Ohne Möglichkeit via JTAg neu zu flashen sind Anpaassungen am U-boot> allerdings hochriskant ..
Vor dem flashen kann man aber uBoot und Kernel ohne Problem über UART
und TFTP testen!
Mal eine Vermutung: Medion hat es sich leicht gemacht und einfach fast
unmodifiziert die Komponenten für den Zyxel NSA 210/212 genommen. Das
Zyxel NSA 210 hat einen IMHO einen Single-Core:
http://zyxel.nas-central.org/wiki/Dmesg_%28NSA-210%29 von daher haben
wir auf dem Aldi Dual-Core in uBoot mit nur Single-Core Unterstützung?
...und der Zyxel NSA 212 hat IMHO auch nur single core:
http://zyxel.nas-central.org/wiki/Bootlog_NSA-221
Siehe
http://zyxel.nas-central.org/wiki/Usb_key_func.sh#Comments
"In firmware version 3.24 (and in 4.01 for the NSA-320) the options
iocharset=utf8,shortname=mixed are used for mounting the stick,
effectively limiting the possible filesystems to vfat only :( . This
makes it impossible to use symlinks and Posix file permissions."
Ah! Danke für die Info. Ich wollte gerade alle möglichen Dateisysteme
mal durchgehen!
Dann könnte man entweder mit zwei Sticks arbeiten, oder sich auf der
Platte platz schaffen (Wobei ich nicht weiß wie man das machen könnte.
Wegen RAID config und so...)
Oder ein Stick mit zwei Partitionen: sdb1 mit vfat und sbd2 mit ext3 und
debian...
Hat schon jemand den Medion-Support angeschrieben weil das NAS im Moment
nur einen Kern nutzt? Immerhin wurde das System mit "Dual-Core"
beworben, da kann Otto-Normaluser eigentlich davon ausgehen, dass auch
beide Cores genutzt werden...
Beim Booten sieht man dann die Ausgabe: "Hello from usb_key_func.sh !!!"
Danach geht es dann nicht mehr weiter!
d.H. die, die kein UART haben, sehen nix und die Box sieht tot aus, weil
nicht weiter gebootet wird.
Wenn '''usb_key_func.sh''' mit '''exit 1''' endet, dann geht der
Bootvorgang weiter! Das sollten also die Leute ohne Serielle-Ausgabe
machen...
SO! Nun kann man sich also recht früh in den Bootvorgang einklinken und
ganz unterbrechen. Somit könnte man doch dann mit einem anderen System
weiter machen!!! Halt die chroot Geschichte mit Debian oder was
anderes...
Jens D. wäre toll, wenn du mal probieren könntest U-Boot dazu zu bringen
Verbindungen übers Netzwerk zu akzeptieren. So können auch Leute ohne
Zugang zur serielle Schnittstelle auch rumprobieren :) Vielleicht mal
was flashen oder so :) Oh oh gefährlich!
Das ist nicht so einfach... Dazu braucht man ein uBoot mit netconsole...
So wie für die Dockstar. Gibt es aber IMHO noch nicht. Wenn jemand was
macht, kann ich es gern per TFTP testen...
Einen "usb_key_func.sh" Stick zu benutzten ist aber gefahrlos, nur sieht
man erstmal nix. Man könnte vielleicht einen SSH Server laufen lassen...
Aber ich komme damit eh nicht weiter, denn ich dann /dev nicht
durchreichen:
1
/ # export ROOT=/mnt/debian/
2
/ # mount --bind /sys ${ROOT}sys
3
/ # mount --bind /dev ${ROOT}dev
4
mount: mounting /dev on /mnt/debian/dev failed: Invalid argument
5
/ # mount --bind /proc ${ROOT}proc
sys und proc gehen, aber dev nicht und ohne dev kann man IMHO nicht
wirklich was Sinnvolles machen :(
Siehe auch: http://debianforum.de/forum/viewtopic.php?f=12&t=133224
Das mit dev ist aber auch unabhängig vom Stick. Das kann man auch normal
über Telnet Probieren...
Ich dachte mir sowas in der Art:
'''usb_key_func.sh''' auf sdb1 des Sticks:
1
#!/bin/sh
2
echo"...continue loading debian..."
3
4
mkdir /mnt/debian
5
mount /dev/sdb2 /mnt/debian
6
7
/mnt/debian/usb_key_func2.sh
'''usb_key_func2.sh''' auf sdb2 des Sticks:
1
#! /bin/sh
2
3
ROOT=/mnt/debian/
4
5
export TERM=xterm-color
6
7
mount --bind /dev ${ROOT}dev
8
mount --bind /sys ${ROOT}sys
9
mount --bind /proc ${ROOT}proc
10
11
cp /etc/Zy_Private ${ROOT}etc/Zy_Private
12
13
chroot${ROOT}
14
15
#~ /etc/init.d/rcS
16
/etc/init.d/rc 2
Wie man nach dem chroot Sinnvoll weiter macht, weiß ich nicht.
Markus schrieb:> Hat schon jemand den Medion-Support angeschrieben weil das NAS im Moment> nur einen Kern nutzt? Immerhin wurde das System mit "Dual-Core"> beworben, da kann Otto-Normaluser eigentlich davon ausgehen, dass auch> beide Cores genutzt werden...
Gibt es denn Beweise dass nur ein Kern benützt wird und der zweite Kern
nicht bei Bedarf zugeschalten wird?
Ich ruf gern bei Medion an und urgiere das Thema, allerdings hab ich
persönlich keinen Beweis in der Hand.
Wenn ihr den Beweis habt und euch der Zeit zu schade seid bei Medion
anzurufen, dann übernehme ich das gern - wenn ich schon nix
Software/Hardware technisch beitragen kann, dann soll das mein Beitrag
sein ;)
Franz schrieb:> Gibt es denn Beweise dass nur ein Kern benützt wird und der zweite Kern> nicht bei Bedarf zugeschalten wird?
Zuschalten eines zweiten Kerns macht Linux nicht.
Beweise:
1) Telnet backdoor auf einem unmodifizierten NAS aktivieren.
2) dmesg auf der Console eintippen. Dort steht in einer Zeile: "Brought
up 1 CPUs".
3) "cat /proc/cpuinfo" zeigt auch nur einen Kern.
Franz schrieb:> ich weiß nicht ob es schon gepostet wurde, aber auf medion.at ist der> gpl_source zum download verfügbar:>> http://www1.medion.de/downloads/download.pl?lang=d...>> nützt der einem in irgendeiner Weise etwas?>
Hallo Franz,
das nützt in der Hinsicht, dass nun endlich eine funktionierende
Cross-Compiler-Toolchain zur Verfügung steht:
Hallo,
ich mache mir mal die Sache einfach, da mir jetzt der Thread zu lang
wird und unterteile meinen Post
@all, wegen FS Fehler, Virenscanner und Co.
ich habe gesehen das die FS (XFS) für die Paltte mit nobarrier
gemountet werden.
Bitte mal die FS mit
1
mount -o remount,barrier
re-mounten.
@all wegen CPU
Die CPU muss im Bootvorgang erkannt werden, danach ist es nicht mehr
möglich, die CPU "einzuschalten". Der Scheduler fordert beim Kernel Init
den Speicher an. Und Hotswapable CPUs gibt es bei ARM nicht.
@all, wegen crossdev und glibc-2.8*
Das Problem habe ich auch. Ich habe jetzt die Holzhammermethode
genommen und eben das ohne jede Option gemacht, mal sehen was daraus
kommt.
ggf. ist es möglich den Kernel von 2.6.30 zu rebasen.
Die Quellen von der PogoplugPro scheinen OK zu sein.
Auch habe ich dort die GPIO Pins für das Abschalten der Platte gefunden.
Einfach
1
make menuconfig ARCH="arm"
Unter System dann das Oxford NAS auswählen. Da gibt es eine menge
Optionen.
@all, wegen Zyxel kompatiblität
Die Zyxel BOX 210? hat einen alten 2.6.24.4.Kernel und soll schon die
GPT lesen können.
@Franz, Arthur Dent
Eine exe Datei ???
gnaaaaahhhhhhhhh.
Da muss ich ja wirklich noch meine W*ndows BOX aus dem Keller hohlen.
Und nein ich habe kein Wine und Co. auf meinem Rechner.
Eine Toolchain habe ich schon und git ist sowieso auf meinem Rechner.
@Franz .D
was sollt denn
reloaded-2.6.31.14_SMP_820.ko
tun ?? kexec ??
E-mAn
ElektromAn schrieb:> @Franz .D> was sollt denn> reloaded-2.6.31.14_SMP_820.ko> tun ?? kexec ??
Scheint sowas in der Art.... Abgefahren, aber interessant....
Mit Holzhammermethode vorhin meintest Du mit crossdev das target ohne
Versionsbeschränkung zu bauen?
Michael Kebe schrieb:> Aber was machen wir jetzt mit den Dateien?
Irgendwo in den Sourcen findet man bestimmt auch heraus, wie man
entweder diese .bin oder die .wrapped flashen kann, ist aber riskant. Am
besten soll die jemand mit UART aus dem stock-bootloader mal versuchen
zu chainloaden, um dann zu sehen ob man sich mit der netconsole
verbinden kann.
Interesant wäre auch heraus zu finden, ob uBoot auch selber die
SATA-Festplatte ansprechen kann, um z.B. das Kernelimage und eine
Ramdisk anstatt aus dem NAND von einer Partition zu laden....
Jens D. schrieb:> Dimpflmoser schrieb:>> Auf dem Laptop habe ich Minicom am Laufen mit den Parametern 115200 8n1>> minicom -D /dev/ttyUSB0>> Teste doch mal mit:>> screen /dev/ttyUSB0 115200
In meiner Verzweiflung habe ich das natürlich auch getestet.
Mit dem Terminalprogramm hat man halt den Vorteil dass man auch noch
einfach xon/xoff und HW-Handshake testen kann, wobei HW-Handshake bei
3-adrigem Anschluss natürlich Müll ist.
Habe auch verschiedene Geschwindigkeiten von 9600-230000 getestet, aber
das hilft alles nichts.
Ich hatte mir gefragt ob denn der PL2302 auf der RS232-Seite direkt mit
dem NAS verbunden wird oder ob's eventuell auf der USB-Seite ist, wobei
das natürlich eher Müll wäre, oder?
Habe leider keinen anderen PL2302 gefunden mit dem ich das testen
könnte.
Macht es denn Sinn einen MAX323 dazwischen zu hängen?
Tschüss Dimpflmoser
Jens D. schrieb:> Mehr Info + Sourcen v0.7.121:> http://www.inreto.de/dns323/reloaded/dns323-reload...>> keine Info, aber Sourcen v0.7.167:> http://www.inreto.de/dns323/reloaded/dns323-reload...>>> Dann würde nämlich auch das mit dem "usb_key_func" richtig Sinn machen!> Hab dazu eine Wiki Seite gemacht:
Naja, die Sourcen müsste man noch anpassen, aber vermutlich könnte man
das sogar ohne irgendwelche usb_key_funk dinger dann auch über Telnet
manuell laden, und als Parameter eine initrd und ein RootFS von der
internen Platte, was man vorher dort ablegt, angeben, oder?
Möglicherweise parallel mit den Shares, die würden sich vermutlich schon
nicht beissen...
Lucian M. schrieb:> vermutlich könnte man> das sogar ohne irgendwelche usb_key_funk dinger dann auch über Telnet> manuell laden, und als Parameter eine initrd und ein RootFS von der> internen Platte, was man vorher dort ablegt, angeben, oder?
Vermutlich. Wobei das dann auf jeden Fall länger beim Booten braucht.
Ich hab auch mal eine alternative usb_key_func.sh im Wiki rein gestellt,
die dann Telnet startet, somit können das dann auch Leute ohne UART
testen:
http://www.mikrocontroller.net/articles/P89626/usb_key_func#alternative_usb_key_func.sh
Zu uBoot: Man kann IMHO uBoot mit SATA und USB Unterstützung fertig
backen.
Jens D. schrieb:> Zu uBoot: Man kann IMHO uBoot mit SATA und USB Unterstützung fertig> backen.
Ja klar, ich habe mich wohl eher nicht genau genug ausgedrückt, ob
dieses uBoot das schon kann, oder relativ leicht aus den Sourcen (in
denen ich SATA-Zeugs durchaus gesehen habe, sogar in der erwähnten
ox820.h) mit entsprechender Unterstützung gebaut werden kann.
Arthur Dent schrieb:> Hallo Franz,>> das nützt in der Hinsicht, dass nun endlich eine funktionierende> Cross-Compiler-Toolchain zur Verfügung steht:>> wget -c download2.medion.com/downloads/software/gpl_source_md86407.exe> wine gpl_source_md86407.exe> cd ~/.wine/drive_c/Medion/> tar -xvf x-tools.armv5v6.tar.gz> mv x-tools ~/> export CC=~/x-tools/armv6_le/arm-none-linux-gnueabi/bin/arm-none-linux-gnueabi-
gcc
>> Somit lässt sich nun endlich auch dropbear wie gewünscht compilieren:> tar -xvf dropbear-2011.54.tar.gz> cd dropbear-2011.54> ./configure --host=arm> make dropbear dbclient dropbearkey dropbearconvert scp>> Danke für den Link, ich bin begeistert!>> Viele Grüße>> graznik
Nicht nur dropbear lässt sich bauen, auch der Bau von rsync funktioniert
mit der toolchain, man muss nur acl disablen.
In den Sourcen scheint auch noch die eine oder andere Information zu
stecken ...
Vielen Dank für den Link!
ElektromAn schrieb:> @Franz, Arthur Dent> Eine exe Datei ???> gnaaaaahhhhhhhhh.
Ich kann deine Ablehnung verstehen.
> Da muss ich ja wirklich noch meine W*ndows BOX aus dem Keller hohlen.> Und nein ich habe kein Wine und Co. auf meinem Rechner.
Dann solltest du Wine einfach installieren, tut auch gar nicht weh,
versprochen. Die .exe startest du nur einmal zum Entpacken der Dateien,
danach kannst du wine auch wieder deeinstallieren.
Gruß
graznik
@Arthur Dnet
ich hatte W*ndows noch auf einen anderen Rechner ...
Ich habe mich mittlerweile an Linux (Sabayon/Gentoo) gewöhnt.
Besonders gut ist die Sache mit dem SSH Tunnel.
Einige meiner Arbeitskollegen haben Probleme mit einen einfachen VPN
Tunnel ala VNC. Da gibt es ein Programm das es relativ easy macht, man
muss nur so eine PIN eingeben.
Ich habe ein etwas manchmal eine etwas seltsame Config
Doppeltes NAT im Source (UMTS und Router) und dazu noch doppeltes NAT
zuhause.
Wenn die Leute dann von meinem Source auf ihr (Heim-)Netwerk wollen
fliegen die auf die Fr*sse ...
Anyway
Archiv gezogen und einpackt.
Die Kernel Source sind Version 2.6.31.14 es sind nur sechs Security
Patchesd gegenüber dennen Sourcen vom PogoplugPro dirn.
So für für U-Boot Leute ein git-repo für die oxnas
In den sourcen von Medion sind auch die Kernelconfigs in der Datei
*STG212_Kernel.config*
Der 3.1.* Kernel ist schlecht gemanaged. Der wird es nie in Mainline
schaffen ... Realname fehlt.
In menuconfig ist die Rede von Leon Support.
Das ist ein Coprozessor der TOE (für Ethernet) macht. Ich habe auch
irgendwo gesehen das der Watchdog auch darüber läuft, bin mir da aber
nicht sicher.
Der Copro (Leon) wird beim Kernelboot mit einer Firmware geladen. Im
Verzeichnis /arch/arm/plat-oxnas liegt diese. Irgendwas mit S-Records.
Die Sourcen von U-Boot haben netconsole Support
@Jens D.
ja ich habe die default config für crossdev genommen. Ich muss
vielleicht noch die Kernelversion angeben.
@all
An die Leute die es mit crossdev unter Sabayon/Gentoo versuchen wollen
:
Bitte wenn layman installliert ist und die *ebuild's* von Sabayon
holt, diese erstmal deaktivieren
1
layman -d OVERLAY
Es werden sonst die Sabayon ebuild's für crossdev benutzt und de sind
nicht darauf getestet worden.
E-mAn
PS
Schöne Wochenende ...
Hab Medion angeschrieben, mal sehen, ob sie antworten...:
"Hallo, das Medion NAS P89626, welches letzte Woche bei Aldi Süd
erhältlich war wurde mit "Dual Core" beworben.
Nach Foreninformationen wird jedoch nur ein Core dieses Systems genutzt.
Wird es in absehbarer Zeit eine neue Firmware geben, mit der die
beworbene "Dual Core"-Funktionialität hergestellt, d.h. auch der zweite
Core genutzt wird? Mit freundlichen Grüßen"
Vielleicht sollten noch mehr Leute mit dem Hinweis auf "wie in der
Werbung ist das aber nicht" an Medion schreiben.
Wobei ich die Befürchtung hege, dass sie den 2. Core eventuell aus
Wärmegründen deaktiviert haben - aber dann baue ich lieber eine aktive
Kühlung ein, mit nahezu doppelter CPU-Power sollten die Transferraten
die 50MB/s locker knacken können.
Andererseits hat die Vermutung "vorhandene Firmware einer
Singlecorelösung aus Bequemlichkeit nahezu 1:1 übernommen" auch etwas
für sich ;)
Markus schrieb:> Vielleicht sollten noch mehr Leute mit dem Hinweis auf "wie in der> Werbung ist das aber nicht" an Medion schreiben.> Wobei ich die Befürchtung hege, dass sie den 2. Core eventuell aus> Wärmegründen deaktiviert haben - aber dann baue ich lieber eine aktive> Kühlung ein, mit nahezu doppelter CPU-Power sollten die Transferraten> die 50MB/s locker knacken können.
Ich habe heute morgen ein paar Geschwindigkeits-Tests gemacht,
allerdings mit ernüchterndem Ergebnis. Ich habe das NAS über NFS an
meinen Linux-Rechner gehängt und ein paar Dateien (insgesamt so ca.
70GB) kopieren wollen. Am Anfang, direkt nach dem Einschalten hatte ich
Transferraten, die lagen bei ca. 50-51MB/sec (1GBit LAN). Das Kopieren
habe ich sporadisch mit df geprüft, dann urplötzlich wurde der freie
Speicher auf dem NAS größer(!) anstatt kleiner, obwohl fleißig weiter
kopiert wurde. Die Temperatur des NAS stieg auf über 56 Grad Celsius und
smart lieferte deshalb FAILURES.
Ich habe dann den Test abgebrochen und nach einiger Zeit noch ein paar
neue Tests gestartet. Hierbei waren die Transferraten nur bei ca
11MB/sec. Ich vermute, dass die CPU-Temperatur einen sehr großen
Einfluss auf die Transferraten hat und die CPU bei hohen Temperaturen
automatisch heruntergetaktet wird.
Tomi schrieb:> Müßte der PLX 7825 sein ..
Was meinst du damit? Laut den Sourcen von Medion ist das Ding ziemlich
ähnlich zum Zyxel NSA 212. Werden teilweise die gleichen Sourcen
genutzt. Ich lad die von dir genannten Sourcen mal runter und schau
drüber.
@all die sich über die schlechte Netzwerkperformance beschweren
Das Problem glaube ich nicht die CPU !
Das meiste dürfte durch MMAP (für die Leute die es nicht kennen eine Art
DMA) im Speicher hin- und hergeschoben werden. Dafür gibts im Kernel die
Funkionen sendfile und Co.
CRC vom IP Frame dürfte der GMAC Teil des SoC machen. Dafür ist der
Copro Leon zuständig. Die macht TOE, aber leider gehen diese Daten
auch über dem "internen" SoC Bus und über deren Bandbreite habe ich noch
nichts gelesen.
Kann denn die eingebaute Platte mehr als *50Mbyte/s* ?
Der Souce ist von einem Marvell Feroceon/Kirkwood Dual Core System.
E-mAn
Dirk S. schrieb:> Ich habe dann den Test abgebrochen und nach einiger Zeit noch ein paar> neue Tests gestartet. Hierbei waren die Transferraten nur bei ca> 11MB/sec. Ich vermute, dass die CPU-Temperatur einen sehr großen> Einfluss auf die Transferraten hat und die CPU bei hohen Temperaturen> automatisch heruntergetaktet wird.
Ich habe einen 12V Gehäuselüfter, den ich mit 5V betreibe (schön leise)
oben auf das NAS gelegt, so dass er die Luft aus dem Gehäuse saugt. Das
mache ich immer dann, wenn ich größere Datenmengen transferiere
(ansonsten nutze ich das Gerät hauptsächlich für das Streamen zum
Fernseher). Keine Temperaturprobleme :)
@Tomi
Auf plxtech gibt es noch ein PDF mit dem NAS7820 SoC.
Dort kannst du auch den internen Aufbau des SoC sehen.
Bei deinem Datenblatt siehst du nur die externe Anbindung.
Der NAS7825 dürfte auch bei der PogopugPro drin sein, wegen dem WLAN.
Laut Kconfig irgendwas mit RT2XXX b/g/n WLAN.
Auch hat diese noch einen versteckten SATA Port ;-)
NAS7820 + PCIe = NAS 7825
Und für die serielle Console ist ein Anschluss vorhanden ;-)
E-mAn
Apropos Performance, es scheint, als ob das Netzwerk der limitierende
Faktor ist, wenn auch die Schreib-Performance der HD etwas zu wünschen
übrig lässt (hat jemand Erfahrungen hinsichtlich XFS und Performance?):
Lesen über nfs:
129652+0 records in
129652+0 records out
2124218368 bytes (2.1 GB) copied, 77.6824 s, 27.3 MB/s
Schreiben (kopieren) über nfs:
129652+0 records in
129652+0 records out
2124218368 bytes (2.1 GB) copied, 257.8 s, 8.2 MB/s
Lesen local auf dem NAS:
129652+0 records in
129652+0 records out
2124218368 bytes (2.0GB) copied, 24.260484 seconds, 83.5MB/s
Schreiben local auf dem NAS (kopieren einer Datei):
129652+0 records in
129652+0 records out
2124218368 bytes (2.0GB) copied, 106.430207 seconds, 19.0MB/s
Dirk S. schrieb:> Apropos Performance, es scheint, als ob das Netzwerk der limitierende> Faktor ist, wenn auch die Schreib-Performance der HD etwas zu wünschen> übrig lässt (hat jemand Erfahrungen hinsichtlich XFS und Performance?):
Kann ich so nicht direkt bestätigen. Ich befülle das NAS seit ca. 1.5h
mit TV-Mitschnitten (je ~1GB groß) und habe bereits 200GB kopiert. Das
macht etwas über 2GB/Min oder 2000:60 = 33.3 MB/s (Win 7 zeigt mir 35.5
MB/s an um genau zu sein). Die CPU-Last ist zwischen 80% und 100%, mein
smbd pendelt zwischen 70% und 95%.
HDD-Temperatur laut SMART ist 33°, das NAS steht auf einem (Marmor-)
Fenstersims mit sehr dezenter aktiver "von oben saugen"-Belüftung wie in
meinem letzten Post beschrieben.
Die CPU läuft nicht komplett auf Anschlag (idelt noch so mit 5%-20% laut
top), wäre interessant ob mit dem 2. Core noch mehr drin wäre. Nun ja,
zumindest würden die "Nebenaufgaben" (Indizieren der Medien,
DLNA-Server, Apache, etc) nicht bremsen...
Würde gernen den Unterschied der aktuellen Firmware ( 1.00(UZD.2) ) zu
der in Australien initial mitgelieferten ( 1.00(UZD.0) ) erfahren, nicht
dass der Multicoresupport wegen Wärmeproblemen weggepatched wurde.
Zumindest berichten einige User von Performancewerten, die ich so mit
meinem System nicht hinbekommen..?
Habt ihr euch mal die gezogenen Backup von /dev/mtd1 und /dev/mtd2
angeschaut?
Irgendwie sehen die nicht gut aus. Irgendwie nur die beiden Hexwerte 55
und AA. Irgendwann nur noch FF bis zum Ende. Was meint ihr?
Ich habe mir soeben den halben Flashspeicher mit dem Programm nandtest
(aus dem Debian package mtd-utils) kaputtgeschrieben. Und zwar mit
"nandtest /dev/mtd0".
NICHT MACHEN!!!!!!
nandtest testet wohl den NAND Flashspeicher indem es Daten schreibt und
liest. Das ist mir erst aufgefallen als ich "Writing..." und
"Reading..." im schnellen Wechsel nach dem Ausführen des Programmes las.
Dies' hab ich natürlich direkt mit CTRL-C abgebrochen.
Zum Glück hatte ich noch die Dumps von Jens' Script. Und konnte so
prüfen was alles kaputt war. Habe die md5-Summen verglichen mit einem
erneuten dump. mtd1 bis mtd4 hatten Unterschiede.
Ruhig bleiben und hoffen, dass kein Stromausfall kommt :)
Ich habe mich erstmal an mtd3 versucht, da dort "nur" das uboot
environment drin steht.
Bad block at 1e0000, 1 block(s) from 1e0000 will be skipped
19
Writing data to block 16 at offset 0x200000
20
Writing data to block 17 at offset 0x220000
21
Writing data to block 18 at offset 0x240000
22
Writing data to block 19 at offset 0x260000
23
Writing data to block 20 at offset 0x280000
24
Writing data to block 21 at offset 0x2a0000
25
Writing data to block 22 at offset 0x2c0000
26
Writing data to block 23 at offset 0x2e0000
27
Writing data to block 24 at offset 0x300000
28
Writing data to block 25 at offset 0x320000
29
Writing data to block 26 at offset 0x340000
30
Writing data to block 27 at offset 0x360000
31
Data was only partially written due to error
32
: Success
Der bad block wurde übersprungen... Hoffentlich reichts.
Dump gemacht, verglichen, BINGO!
Scheint alles wieder in Ordnung zu seien.
Jetzt wo ich alles festgehalten habe. Kann ich die Box mal neustarten
und hoffen, dass die wieder hochkommt.
Bis zu nächsten Beitrag... **daumendrück**
Yeah, die Box lebt noch! Also ich hoffe wir haben jetzt was daraus
gelernt und mein Zittern war nicht umsonst. Ich hoffe wir können bald
ein neues U-Boot oder nen neuen Kernel flashen!
Das flashen von mir war aber relativ einfach, da die größen identisch
waren. Spielt die Größe überhaupt eine Rolle? Oder ist bei jeder mtd
Partition noch genug Platz? Wer kennt sich da genauer aus?
Habe mir hdparm mal die Konfiguration der Harddisk ausgelesen:
...
Configuration:
Logical max current
cylinders 16383 16383
heads 16 16
sectors/track 63 63
--
CHS current addressable sectors: 16514064
LBA user addressable sectors: 268435455
LBA48 user addressable sectors: 2930277168
Logical Sector size: 512 bytes (*)
Physical Sector size: 4096 bytes (*)
Logical Sector-0 offset: 0 bytes
device size with M = 1024*1024: 1430799 MBytes
device size with M = 1000*1000: 1500301 MBytes (1500 GB)
cache/buffer size = unknown
Nominal Media Rotation Rate: 5900
...
Könnte hier der Schlüssel zu den Performanceproblemen liegen?
Logical-Sectorsize 512 Byte, Pysical Sectorsize 4096 Byte, wenn hier die
Verwaltungsstrukturen an den falschen Stellen liegen könnte ich mir
schon vorstellen, dass es Probleme gibt. Deshalb kommt man selbst beim
lokalen Schreiben wohl auch nicht über die 18-20MB/sec. Lesen mit
>=85MB/sec ist ja eigentlich ganz in Ordnung.
Michael Kebe schrieb:> Das flashen von mir war aber relativ einfach, da die größen identisch> waren. Spielt die Größe überhaupt eine Rolle? Oder ist bei jeder mtd> Partition noch genug Platz? Wer kennt sich da genauer aus?
Die Größe der Partitionen bekommt man ja über /proc/mtd:
dev: size erasesize name
mtd0: 08000000 00020000 "NAND 128MiB 3,3V 8-bit"
mtd1: 00040000 00020000 "stage1"
mtd2: 00380000 00020000 "uboot"
mtd3: 00080000 00020000 "uboot_env"
mtd4: 00a00000 00020000 "kernel"
mtd5: 00a00000 00020000 "etc"
mtd6: 00a00000 00020000 "info"
mtd7: 05dc0000 00020000 "sysdisk"
Wenn ich das richtig verstehe, ist
uboot, also mtd2 3,5 MB groß
uboot_env, also mtd3 512kb groß
und es wird in 128kb Einheiten geflashed.
Harry schrieb:> Hallo zusammen,>> ich habe ein anderes Problem mit dem Medion NAS. Wenn ich meine Daten> mit robocopy [quelle] [ziel] /MIR /DCOPY:T auf den NAS kopiere werden> die Dateien zunächst mit dem richtigen Datum angelegt. Kurze Zeit später> wird das Datum von einzelnen Dateien bzw. Ordner auf das aktuelle Datum> gesetzt.
Hallo,
habe exakt das gleiche Problem. Hat jemand bereits eine Lösung gefunden
?
Servus - verfolge den Thread mit steigender Begeisterung, auch wenn ich
nur in Ansätzen folgen kann.
Meine Frage ist eine simple: kann man (inzwischen) den ftp-Zugang auf
ein Verzeichnis oder eine Freigabe beschränken?
Wenn ja - wie?
vielen Dank!
Oh Gott, ich habe gerade ein bisschen die Musik durchgesehen, die ich
auf den NAS rüberkopiert habe...
bei einem ganzen Stück meiner MP3s scheint es auf den letzten 10s des
Stücks ein Problem zu geben.
Zb ich spiel ein Stück ab, dass 3:13 dauert, bei ca 3:03 oder so skipped
es schon zum nächsten lied (die Datei selber dürfte was haben, der
Fehler tritt auf, egal ob per iTunes, VLC oder am Android Handy (Stock
Player und Winamp) - die Datei am PC weißt das Problem nicht auf)
Woran kann das liegen?
Kann das ein Problem meines Switches sein? (D-Link DGS-1005D/E)
Oder hat der NAS etwas?
Ich muss noch meine ganze Sammlung durchsehen (gottseidank eh
überschaubar) - aber das kann es doch nicht sein, oder?
Wie kann da was beim Übertragen beschädigt werden?
Bitte verzeiht mir den Doppelpost (kann meinen vorherigen Post nicht
editieren)
Bilder sind ebenfalls teilweise (eigentlich zu einem überwiegenden Teil)
beschädigt.
Woran kann soetwas liegen?
Franz schrieb:> Bilder sind ebenfalls teilweise (eigentlich zu einem überwiegenden Teil)> beschädigt.>> Woran kann soetwas liegen?
@Franz: Hast du zufällig Windows 7 und den Avast Antivir? Probier doch
mal probehalber den Virenscanner abzuschalten und kopiere dann deine
Dateien nochmals auf das NAS. Manche (auch ich) haben wohl ein Problem
mit der oben genannten Kombination und dem Medion NAS.
ElektromAn schrieb:> @all, wegen FS Fehler, Virenscanner und Co.> ich habe gesehen das die FS (XFS) für die Paltte mit nobarrier> gemountet werden.> Bitte mal die FS mitmount -o remount,barrier> re-mounten.
Einen Versuch war es wert, hat aber leider nichts gebracht.
ich habe win7, ja, aber nicht avast
ich bin beim googlen darauf gestoßen, dass jemand bei einem anderen NAS
ein ähnliches problem hatte und darauf auf Filezilla umgestiegen ist
ich habe bisher die datein per windos explorer verschoben/kopiert -
könnte es daran liegen?
testweise habe ich jetzt vorhin mit filezilla einen ordner musik (wo
vorher 2 korrumpierte files drin waren) und einen foto ordner (mit fast
der hälfte korrumpierter files) auf den NAS kopiert - beide fehlerfrei
ich muss es jetzt noch mit großen datenmengen testen - ich will nichts
verschreien, aber ich hoffe, dass die dann ebenfalls fehlerfrei
übertragen werden
aber kann das sein, dass das an Windows liegt eventuell?
ist der windows explorer eher schlecht geeignet um sachen auf den NAS zu
verschieben?
geht Medion davon aus, dass jeder weiß was ein FTP Client ist und dass
jeder einen benützt?
langsam ärgere ich mich über Medion :(
und danke für eure Hilfe :)
@ Markus
ich werde die Tage ebenfalls eine mail an medion schicken - oder
zumindest anrufen
ich hoffe es rufen noch mehr an und beschweren sich, vielleicht schiebt
Medion dann eine gscheite Firmware nach - wünschenswert wäre es xD
Ich habe dieses Problem ebenfalls und zwar mit dem G-DATA Virenscanner,
meines Wissens haben alle Virenscanner ähnliche engines, dass es also
nicht vom Virenscanner Hersteller abhängig ist. Wie in einem Beitrag
weiter oben bereits berichtet, Virenscanner für das Heimnetz abschalten.
Bei mir hat das jedenfalls 100% funktioniert. Ich gehe davon aus, dass
Medion noch erheblich Probleme bekommt, wenn sie dieses Problem nicht
schnellstens lösen. Auch ich habe bereits gestern eine Mail an Medion
geschickt.
Rainer schrieb:> Hat jemand eine Idee ob und wenn ja wie flexget auf dem NAS> installierbar ist? python wäre vorhanden, auch wenn's ne andere Version> ist...> http://flexget.com/
Ich möchte hier keinen nerven, aber muss nochmal das Thema mit Flexget
hochbringen und es noch etwas schmackhafter machen, vielleicht erbarmt
sich jemand das auf dem NAS zu compilieren. Dann könnte ich das Ding mal
in den Keller stellen :-)
1
FlexGet is a multipurpose automation tool for content like torrents, nzbs, podcasts,
2
comics, series, movies, etc. FlexGet is able to handle different kinds of sources like
3
RSS-feeds, html pages and csv files. There are even some plugins for sites that do not
Wann versteht der ein oder andere endlich das es kein Fehler von medion
sein wir sondern von euren drecks os oder virenscanner herstellern ? ich
wette da werden irgendwelche puffer nicht richtig geleert oder so nen
bullshit.... da kann das nas nix für wenns die daten garnicht erst
bekommt.
BillX schrieb:> Wann versteht der ein oder andere endlich das es kein Fehler von medion> sein wir sondern von euren drecks os oder virenscanner herstellern ?
Ist nicht gänzlich auszuschließen, aber hast du dafür einen Beweis der
es rechtfertigen würde hier so ausfallend zu werden? Es hat bisher noch
niemand mit einem anderen NAS oder auch selbst aufgesetzten
Samba-Servern ein ähnliches Problem. Das ist zumindest ein kleines
Indiz.
BillX schrieb:> Wann versteht der ein oder andere endlich das es kein Fehler von medion> sein wir sondern von euren drecks os oder virenscanner herstellern ? ich> wette da werden irgendwelche puffer nicht richtig geleert oder so nen> bullshit.... da kann das nas nix für wenns die daten garnicht erst> bekommt.
da die NAS in einen Preissegment vertrieben wird welches überwiegend
"Nutzer" anspricht, kann ich diese deine Wertung und Bewertung nicht
nachvollziehen...
Ge Ai schrieb:> Ich habe dieses Problem ebenfalls und zwar mit dem G-DATA Virenscanner,> meines Wissens haben alle Virenscanner ähnliche engines, dass es also> nicht vom Virenscanner Hersteller abhängig ist. Wie in einem Beitrag> weiter oben bereits berichtet, Virenscanner für das Heimnetz abschalten.> Bei mir hat das jedenfalls 100% funktioniert. Ich gehe davon aus, dass> Medion noch erheblich Probleme bekommt, wenn sie dieses Problem nicht> schnellstens lösen. Auch ich habe bereits gestern eine Mail an Medion> geschickt.
das deaktivieren der Antivir Laufwerksüberwachung war in der tat die
schnellste variante, ausserdem wurden die kopiervorgänge deutlich
schneller abgearbeitet :) (Schreibgeschwindigkeit zw. 3 - 8 MB/s , bei
einer Filegrösse von 3-8 MB)
wie kann das AV programm da so negative auswirkungen haben?
da müssen doch viele so ein problem haben
wie kann man bei G-Data eigentlich ausstellen, dass es den Verkehr zum
NAS nicht scanned? weil die funktion für alle (usb)laufwerke zu
deaktivieren halte ich für gefährlich
und warum funktioniert es über filezilla, aber nicht über den windows
explorer?
[ 1104.598466] usb 2-1: pl2303 converter now attached to ttyUSB0
9
[ 1104.600770] usbcore: registered new interface driver pl2303
10
[ 1104.600784] pl2303: Prolific PL2303 USB to serial adaptor driver
Jetzt muss ich doch nur noch dafür sorgen, dass ich GND, TX und RX
richtig anschliesse und schon hab ich die Verbindung oder?
TX vom PC -> RX vom NAS
RX vom PC -> TX vom NAS
Beim 9-poligen Stecker die Pins
3(TX), 2(RX) und 5(GND)
und beim 25-poligen die Pins
2(TX), 3(RX), 7(GND).
Kann ich da was kaputt machen? Fehlt da noch so ein Levelconverter?
Hauptfenster von G-Data öffnen. Dann bei Virenprüfung "Optionen",
"Wächter" , "Erweiert" und dann im nächsten Fenster den Haken aus
"Netzwerkzugriffe" entfernen. Laut Beschreibung ist dies bei
Heimnetzwerken nicht erforderlich.
cool danke
und kann ich da auch nur den NAS als ausnahme definieren? (bei
"ausnahmen" die netzwerkadresse des nas angeben)
weil zb bin ich mit meinem netbook auch viel unterwegs - zuhause brauch
ich ja die prüfung für den NAS nicht, unterwegs ist es aber durchaus
praktisch einen automatischen scan laufen zu haben
und G-Data ist "sicher" der verursacher für die korruption der dateien?
Jens D. schrieb:> Kann jemand, der einen crosscompiler am laufen hat,> reloaded-2.6.31.14_SMP_820.ko erstellen??? Siehe:> Beitrag "Re: Alles Rund um den MEDION LIFE P89626 NAS"
Ich habe da so ein Modul erstellt, musste aber wenn ich das richtig
verstehe, etwa 2 Sourcen passend zur Platform und CPU aus dem
Medion-Kernel nehmen, ob es die richtigen sind weiß ich nichjt,
kompilieren tut es, aber mit Warnings über undefinierten Symbolen:
Habe es nicht probiert, da ich derzeit keinen UART-Zugang habe. Auch den
Kernel habe ich neu gebaut, mit leicht veränderter Konfiguration, also
falls man den mal booten könnte, von mir aus über tftp, sollte er seine
Konfiguration in /proc/config.gz exportieren, und ich habe CPU_HOTPLUG
aktivierte, vielleicht ist deswegen der 2. Kern inaktiv?.
Jens, willst Du da mal was probieren, zum einen den Kernel ohn reloaded,
und dann auch das reloaded-Modul?
http://www.muresan.de/medion-nas/kernel+mods+reloaded.tar.bz2
Lucian M. schrieb:> Habe es nicht probiert, da ich derzeit keinen UART-Zugang habe.
Kannst du doch auch im laufenden System testen. Must allerdings dafür
sorgen das Telnet wieder hochkommt. Ansonsten reboot.
Scheint aber nicht zu laufen:
1
insmod: error inserting '/reloaded/reloaded-2.6.31.14_SMP_820.ko': -1 Unknown symbol in module
2
reloading failed!
Auf stderr (per UART):
1
reloaded: Unknown symbol pabort_noifar
2
reloaded: Unknown symbol v6_early_abort
3
reloaded: Unknown symbol sys_read
4
reloaded: Unknown symbol v6_user_fns
5
reloaded: Unknown symbol v6_cache_fns
6
reloaded: Unknown symbol sys_open
7
reloaded: Unknown symbol v6wbi_tlb_fns
8
reloaded: Unknown symbol local_v6_flush_kern_cache_all
Jens D. schrieb:> Kannst du doch auch im laufenden System testen. Must allerdings dafür> sorgen das Telnet wieder hochkommt. Ansonsten reboot.
Ja, klar, bloss ich war fast sicher dass es wegen diesen unknown symbols
nicht klappen wird, ausserdem brauche ich physikalischen Zugang zur Box
um sie aus gecrashtem Zustand neu booten zu können, an die WebGUI komme
ich dann schon auch remote ran um den Telnet daemon zu starten...
Kannst Du mal bitte auch nur den Kernel probieren, direkt von uBoot aus?
Falls er booten sollte, wäre mal interssant ob er den 2ten Core
hochbringt...
sd 2:0:0:0: [sdb] Assuming drive cache: write through
10
sd 2:0:0:0: [sdb] Assuming drive cache: write through
11
sdb: sdb1 sdb2
12
sd 2:0:0:0: [sdb] Assuming drive cache: write through
13
sd 2:0:0:0: [sdb] Attached SCSI removable disk
14
md: Waiting for all devices to be available before autodetect
15
md: If you don't use raid, use raid=noautodetect
16
VFS: Cannot open root device "sdb2" or unknown-block(8,18)
17
Please append a correct "root=" boot option; here are the available partitions:
18
0800 1465138584 sda driver: sd
19
0801 514048 sda1
20
0802 1464621952 sda2
21
1f00 131072 mtdblock0 (driver?)
22
1f01 256 mtdblock1 (driver?)
23
1f02 3584 mtdblock2 (driver?)
24
1f03 512 mtdblock3 (driver?)
25
1f04 10240 mtdblock4 (driver?)
26
1f05 10240 mtdblock5 (driver?)
27
1f06 10240 mtdblock6 (driver?)
28
1f07 96000 mtdblock7 (driver?)
29
0810 1958912 sdb driver: sd
30
0811 24066 sdb1
31
0812 1927800 sdb2
32
Kernel panic - not syncing: VFS: Unable to mount root fs on unknown-block(8,18)
33
[<c0045d3c>] (unwind_backtrace+0x0/0xe0) from [<c0489fc0>] (panic+0x44/0x100)
34
[<c0489fc0>] (panic+0x44/0x100) from [<c0008f44>] (mount_block_root+0x1d8/0x29c)
35
[<c0008f44>] (mount_block_root+0x1d8/0x29c) from [<c00092d4>] (prepare_namespace+0x168/0x1c0)
36
[<c00092d4>] (prepare_namespace+0x168/0x1c0) from [<c0008c1c>] (kernel_init+0x1a4/0x1ec)
37
[<c0008c1c>] (kernel_init+0x1a4/0x1ec) from [<c0041c20>] (kernel_thread_exit+0x0/0x8)
btw. ein wenig Dumm: Mit dem reset Knopf bekommt man die Box nicht
wieder! Ich sehe zwar Meldungen das der Reset Knopf gedrück wurde (per
UART) aber er macht keinen reboot.
Wenn ich die Kiste normal hochfahren lasse, sieht das so aus:
1
/ # fdisk /dev/sdb -l
2
3
Disk /dev/sdb: 2005 MB, 2005925888 bytes
4
255 heads, 63 sectors/track, 243 cylinders
5
Units = cylinders of 16065 * 512 = 8225280 bytes
6
7
Device Boot Start End Blocks Id System
8
/dev/sdb1 1 3 24066 6 FAT16
9
/dev/sdb2 4 243 1927800 83 Linux
10
/ # mount
11
...
12
/dev/sdb2 on /e-data/c64017f9-b19d-45ff-b6ea-9e13d18f1f81 type ext4 (rw,relatime,barrier=1,data=ordered)
13
...
14
/ # ls -ls /e-data/c64017f9-b19d-45ff-b6ea-9e13d18f1f81/
15
4 drwxr-xr-x 2 root root 4096 Dec 7 12:13 bin
16
4 drwxr-xr-x 2 root root 4096 Dec 7 12:16 boot
17
220 -rwxrwxrwx 1 admin everyone 225280 Dec 7 08:59 data.tar
18
4 -rwxrwxrwx 1 admin everyone 439 Dec 8 12:36 debian_bootstrap.sh
19
4 -rwxrwxrwx 1 admin everyone 1234 Dec 9 13:35 debian_bootstrap2.sh
20
4 -rwxrwxrwx 1 admin everyone 882 Dec 12 10:15 debian_chroot.sh
21
4 drwxr-xr-x 2 root root 4096 Jan 1 1970 dev
22
4 drwxr-xr-x 57 root root 4096 Dec 12 10:15 etc
23
4 drwxr-xr-x 2 root root 4096 Oct 3 02:53 home
24
80 -rw-r--r-- 1 root root 80774 Dec 8 13:09 hwinfo.txt
Jens D. schrieb:> md: Waiting for all devices to be available before autodetect> md: If you don't use raid, use raid=noautodetect
Hmm, probierst Du auch mal das mit raid=noautodetect? Und überhaupt,
wenn Du ihm dann als root /dev/sda2 (also die Riesen XFS-Partitition der
internen Festplatte) aber auch so mit deaktiviertem RAID angeben
würdest, versucht er zumindest, dort nach einem root zu suchen? Wenn ja,
könnte es vielleicht klappen wenn Du Dein rootfs vom Stick auf eben
diese Partition parallel zu den originalen public|video|music|photo
shares kopierst (kannst es ja hinterher immer noch löschen)
Lucian M. schrieb:> Hmm, probierst Du auch mal das mit raid=noautodetect?
Hab ich probiert. Ist das selbe.
Ich wollte auch mal selber ein Kernel/Ramdisk Image bauen und testen...
Funktioniert aber nicht so richtig.
Erstellt hab ich es im chroot debian so:
1
root@NAS15TB:/# mkimage -A arm -O linux -T kernel -C none -a 0x00008000 -e 0x00008000 -n "Debian Kernel" -d /boot/vmlinuz-2.6.32-5-kirkwood uImage-2.6.32-5-kirkwood
2
Image Name: Debian Kernel
3
Created: Mon Dec 12 11:22:46 2011
4
Image Type: ARM Linux Kernel Image (uncompressed)
5
Data Size: 1435664 Bytes = 1402.02 kB = 1.37 MB
6
Load Address: 0x00008000
7
Entry Point: 0x00008000
8
root@NAS15TB:/# mkimage -A arm -O linux -T ramdisk -C gzip -a 0x0000000 -e 0x0000000 -n "Debian Ramdisk" -d /boot/initrd.img-2.6.32-5-kirkwood uInitrd-2.6.32-5-kirkwood
9
Image Name: Debian Ramdisk
10
Created: Mon Dec 12 11:22:55 2011
11
Image Type: ARM Linux RAMDisk Image (gzip compressed)
12
Data Size: 5476879 Bytes = 5348.51 kB = 5.22 MB
13
Load Address: 0x00000000
14
Entry Point: 0x00000000
Das laden per TFTP will aber nicht:
1
Filename 'uImage-2.6.32-5-kirkwood'.
2
Load address: 0x61000000
3
Loading: T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T