Hallo, als Hilfsadmin im Bekanntenkreis bin ich aktuell auf der Suche nach einem neuen PC und einem Backup-Konzept. Es geht um einen Arbeitsplatz für eine selbstständige Übersetzerin. Anforderungen PC: - Desktop/Tower (kein Laptop) - Windows (aktuell Win 10, bei Update würde ich aber gleich auf Win 11 gehen wollen) - min 16 GB RAM (aktuell 8 GB und beim Starten der Anwendungen fängt der PC an zu swappen), Ideal 1x16 GB damit die Option besteht auf 2x16 GB aufzurüsten - Anschlussmöglichkeit von 2 Monitoren (DisplayPort oder HDMI) - SSD >= 512 GB Fragen zum PC: - Gibt es einen Grund Win 11 Pro statt Home zu nehmen? (kenne mich mit Windows nicht gut aus) - Gibt es noch Anforderungen an einen PC auf die ich achten sollte? (Abgesehen von läuft mit Win 11) Backup Hier gibt es aktuell noch nichts... :( Meine Idealvorstellung wäre ein pull von einem NAS, so das die Ransomware keinen Zugriff auf das Backup hat. (Mache das unter Linux mit einem einfachen rsnapshot/rsync über ssh mit Key-Auth) Backups wären natürlich Snapshots der letzten X-Tage und werden nicht mit jedem Backup überschrieben. - Lässt sich so etwas mit Windows umsetzen? - Gibt es da etwas fertiges von Synology/QNAP?
PCs für solche Anwendungen kauft man direkt bei den üblichen Verdächtigen (Dell, Lenovo, ...), nicht im Mediamarkt. Alles weitere findest du dann dort. Oliver
Hubert schrieb: > Anforderungen PC: Die Anforderungen an den PC richten sich nach der Software, die drauf laufen soll, nicht nach den Ideen des Hilfsadmim. > Backup > Hier gibt es aktuell noch nichts... :( > Meine Idealvorstellung wäre ein pull von einem NAS, so das die > Ransomware keinen Zugriff auf das Backup hat. NAS IST KEIN BACKUP und ein Konzept schon mal gar nicht. Kann man 100x schreiben und der Hilfsadmin wird's trotzdem nicht glauben. Wer als Selbstständiger so einen Mist dastehen hat, spielt mit seiner beruflichen Existenz.
Hubert schrieb: > (aktuell 8 GB und beim Starten der Anwendungen fängt der > PC an zu swappen) Wie merkst Du das? Das letzte mal, wo ich einen PC swappen gehört habe, war der Aldi-PC mit XP und 512MB. Windows versucht immer den Speicher voll auszunutzen. Egal, ob Du 4GB, 8GB oder 16GB hast, unter "Verfügbar" wird immer nur eine kleine Zahl stehen, unter "In Verwendung" >80%. Ich hatte letztes Jahr einen neuen PC mit 8GB bekommen, der alte hatte 4GB. Keine einzige Anwendung läuft spürbar schneller. Eine SSD hatte ich schon vorher, die hatte richtig den Löwen geweckt.
Peter D. schrieb: > Egal, ob Du 4GB, 8GB oder 16GB hast, unter "Verfügbar" wird immer nur > eine kleine Zahl stehen, unter "In Verwendung" >80%. Viel Meinung, wenig Ahnung. Lies noch mal, was Windows so anzeigt.
Michael L. schrieb: > Die Anforderungen an den PC richten sich nach der Software, die drauf > laufen soll, nicht nach den Ideen des Hilfsadmim. Jeder Depp, der freihändig bis 3 zählen kann, kann abschätzen, was für eine Software bei einer Übersetzerin läuft. Und jeder Depp weiß, das sich die Software fortentwickelt, es heute aber noch keine Systemanforderungen für die Version von morgen gibt. Du kanns nichts,außer schwätzen. Michael L. schrieb: > NAS IST KEIN BACKUP und ein Konzept schon mal gar nicht. Nichts verstanden aber so tun als ob.
Re D. schrieb: > Viel Meinung, wenig Ahnung. Lies noch mal, was Windows so anzeigt. Ich hab mir einfach WinLED auf die Taskleiste gelegt. Ungewöhnlich häufige Schreibzugriffe würde ich merken.
Wenn die Software jetzt mit 8 GB so gerade klar kommt, damm macht es doch total Sinn, den nächsten Rechner mit doppelt so viel RAM zu kaufen. Oder willst du aus 12 GB gehen? Das würde bestimmt nicht viel billiger. Die home Version von Windows 10 (11 weiß ich nicht) installiert manchmal eigenmächtig Updates ohne zu fragen und obwohl man Updates pausiert hat. Manchmal rebooted der Rechner dabei sogar ohne Rückfrage.
Michael L. schrieb: > Die Anforderungen an den PC richten sich nach der Software, die drauf > laufen soll, nicht nach den Ideen des Hilfsadmim. und Peter D. schrieb: > Wie merkst Du das? Das ist halt MS Office, Browser und Übersetzung SW. Läuft auf aktuellem System "ok", aber wird mit jedem Update der Übersetzungs-SW (Name ist mir gerade entfallen) etwas langsamer. Wenn man im Taskmanager schaut hat die CPU nicht viel zu tun, aber RAM ist am Anschlag und "Ausgelagerter Pool" steigt an. Das habe ich als swappen interpretiert, oder liege ich hier schon falsch? Michael L. schrieb: > NAS IST KEIN BACKUP und ein Konzept schon mal gar nicht. Kann man 100x > schreiben und der Hilfsadmin wird's trotzdem nicht glauben. Wer als > Selbstständiger so einen Mist dastehen hat, spielt mit seiner > beruflichen Existenz. Warum nicht? Auf dem NAS wird nicht gearbeitet, es zieht sich nur immer einen Stand, z.B. beim Runterfahren des PC, und sichert den. Hätte ich besser beschreiben soll. Im Sinne von 3-2-1 müsste man davon noch eine Kopie ziehen und an einen anderen Ort verbringen, aber eine Kopie ist im ersten Schritt immer besser als keine ;)
Auf jeden Fall sollten die Backups nicht ständig (schreibend) zugreifbar sein. Ein Passwort würde mir nicht reichen.
Noch mal ergänzt um das ganze etwas klarer zu machen: Die SW Anforderungen sind mit dem aktuellen PC (ca. 8 Jahre alt, wohl mal RAM erweitert und SSD eingebaut) soweit erfüllt, aber es hakt/ist langsam und RAM ist am Anschlag (siehe vorherigen Post). Deshalb die Anforderung 16 GB, Ideal mit einem Riegel, dann könnte noch auf 32 GB aufgerüstet werden sollte es nicht reichen. Prozessor sollte egal sein, interne Grafik reicht auch völlig, so lange zwei Monitore angeschlossen werden können. Meine Frage als Ahnungsloser was Windows angeht: Ist aktuell schon absehbar das auf bestimmte Eigenschaften bei Rechnern die mit Win 11 kommen geachtet werden sollte? Und beim Backup: Kann man bei Windows ein pull von einem NAS (oder was auch immer) umsetzen, ohne das der Rechner Zugriff auf dieses Gerät hat? Oliver S. schrieb: > PCs für solche Anwendungen kauft man direkt bei den üblichen > Verdächtigen (Dell, Lenovo, ...) Dell und Lenovo hatte ich mir angeschaut. Bin selber Thinkpad "Fan", zumindest bei den alten. Aber mir scheint Dell ein deutlich besserer Preis/Leistungsverhältnis zu haben.
Hubert schrieb: > Deshalb die Anforderung 16 GB, Ideal mit einem Riegel, "Ein Riegel" ist selten Ideal. Desktop-CPUs haben zwei Channels für den RAM, da sollte schon jeder seinen Riegel haben. Erweiterbar (dann auf 4 gesteckte Riegel) ist das trotzdem, zumindest bei "normalen" Mainboards. Deshalb: Gleich zwei 16GB-Module (~85€ für beide zusammen, DDR5) stecken, für 32GB gesamt. DDR5-8GB-Module gibt's zwar auch, damit kommst du dann auf 50-60€ für den halben Speicher, lohnt m.M.n. nicht... Wenn du eine CPU-Generation in die Vergangenheit gehst, und damit auf DDR4-Speicher, schauen die Preise wieder anders aus. Wäre eine Überlegung, wenn das Geld so knapp ist.
Hubert schrieb: > Ist aktuell schon absehbar das auf bestimmte Eigenschaften bei Rechnern > die mit Win 11 kommen geachtet werden sollte? Für Windows 11 brauchst du diesen TPM Chip. Ich gehe mal stark davon aus, dass der selbstverständlich in jedem neuen PC vorhanden ist.
Hubert schrieb: > Wenn man im Taskmanager schaut hat die CPU nicht viel zu tun, aber RAM > ist am Anschlag und "Ausgelagerter Pool" steigt an. Wie gesagt, RAM ist nach einiger Zeit immer >80%, egal wie viel. Hubert schrieb: > Das habe ich als swappen interpretiert, oder liege ich hier schon > falsch? Eine verständliche Erklärung der Werte habe ich nirgends gefunden. Es ist aber meine Erfahrung bei 4GB, 8GB und 16GB, daß sie recht nichtssagend sind. Lade Dir dochmal eine Programm in die Taskleiste, was die SSD-Aktivität anzeigt. Wenn man eine Anwendung das erste mal startet, dann gibt es heftige Zugriffe auf die SSD. Daran ändern auch 256GB RAM nichts. Viel überflüssiges RAM merkt man erst, wenn man viele Anwendungen startet und wieder schließt. Öffnet man sie nochmal, dann holt Windows sie aus dem RAM und sie starten schneller. Wenn dann die 10. Anwendung wieder gleich langsam startet, dann konnte Windows sie nicht mehr im RAM halten. Es mag Poweruser geben, die immer >100 Anwendungen offen halten müssen. Ich verliere da schnell den Überblick und schließe unbenötigte Fenster. Kauf ruhig 16GB, aber erwarte keine Wunder.
:
Bearbeitet durch User
Michael L. schrieb: > Die Anforderungen an den PC richten sich nach der Software, die drauf > laufen soll, nicht nach den Ideen des Hilfsadmim. 1. Hat der TO nichts davon gesagt, wer diese Anforderungen gestellt hat. 2. Wer meine Hilfe will, hält sich an meine Empfehlungen. 3. Wer sich nicht an meine Empfehlungen halten möchte, muß sich im Zweifel jemand anderen suchen, der seinen Mist supportet. Meine Lebenszeit ist mir zu kostbar, um sie auf Ignoranten zu verschwenden. > NAS IST KEIN BACKUP und ein Konzept schon mal gar nicht. ... aber immer noch besser als der aktuelle Zustand, nämlich gar nichts. > Kann man 100x schreiben und der Hilfsadmin wird's trotzdem nicht glauben. > Wer als > Selbstständiger so einen Mist dastehen hat, spielt mit seiner > beruflichen Existenz. Ganz schön vorlaut für einen, den offensichtlich schon das verstehende Lesen stark herausfordert (siehe dazu oben unter 1.).
Hubert schrieb: > Die SW Anforderungen sind mit dem aktuellen PC (ca. 8 Jahre alt, wohl > mal RAM erweitert und SSD eingebaut) soweit erfüllt, aber es hakt/ist > langsam und RAM ist am Anschlag (siehe vorherigen Post). Meiner geht ins 10. Jahr (AMD FX-8350), tut alles, was er soll und hakt nicht.
Peter D. schrieb: > Hubert schrieb: >> (aktuell 8 GB und beim Starten der Anwendungen fängt der >> PC an zu swappen) > > Wie merkst Du das? Also unter Linux und verschiedenen anderen unixoiden Systemen kann man zum Beispiel mit den Werkzeugen free(1) oder top(1) anzeigen, mit welcher Art von Daten der Arbeitsspeicher belegt ist. free(1) gibt dann zum Beispiel etwas aus wie:
1 | total used free shared buff/cache |
2 | Mem: 32749988 17432468 307972 4379596 15009548 Swap: 31250428 279040 30971388 |
3 | Total: 64000416 17711508 31279360 |
(Spalte "available" hier aus Platzgründen gelöscht.) Gibt es so etwas unter Windows etwa nicht? > Ich hatte letztes Jahr einen neuen PC mit 8GB bekommen, der alte hatte > 4GB. Keine einzige Anwendung läuft spürbar schneller. Das hängt halt auch vom verwendeten Betriebssystem ab. Ohne viel eigene Ahnung von Windows zu haben, scheint es meines Wissens dankbarer für mehr CPU-Leistung, Linux dagegen eher für mehr RAM zu sein. > Eine SSD hatte ich > schon vorher, die hatte richtig den Löwen geweckt. Wen wunderts -- die Persistenz- und Netzwerklayer gehören üblicherweise zu den langsamsten Subsystemen handelsüblicher PCs. Wenn Du den Löwen brüllen hören möchtest, probier' mal eine NVMe aus... ;-)
Re D. schrieb: > Jeder Depp, der freihändig bis 3 zählen kann, kann abschätzen, was für > eine Software bei einer Übersetzerin läuft. ... und wer sogar bis fünf zählen kann, weiß, daß PCs und ihre Benutzer ausgesprochen individuell sind. Wenn die Dame etwa noch andere Dinge mit ihrem Computer anstellt, als ihn nur rein beruflich zu benutzen, kann da alles Mögliche drauf laufen.
Peter D. schrieb: > Re D. schrieb: >> Viel Meinung, wenig Ahnung. Lies noch mal, was Windows so anzeigt. > > Ich hab mir einfach WinLED auf die Taskleiste gelegt. Ungewöhnlich > häufige Schreibzugriffe würde ich merken. Ein modernes Betriebssystem merkt sich üblicherweise, wie oft auf welche Daten zugegriffen wird, und lagert nur die am seltensten genutzten aus. Obendrein wird freier Arbeitsspeicher für den Dateisystempuffer genutzt, welcher die Schreibzugriffen minimieren und optimieren soll. Deswegen liefern (virtuelle und reale) Disk-LEDs höchstens einen groben Anhalt.
Hubert schrieb: > Und beim Backup: > Kann man bei Windows ein pull von einem NAS (oder was auch immer) > umsetzen, ohne das der Rechner Zugriff auf dieses Gerät hat? Unter WSL (Windows Subsystem for Linux) könntest Du einen OpenSSH sshd nutzen, dann sollte auch rsnapshot(1) über rsync(1) gehen.
Hubert schrieb: > - Gibt es einen Grund Win 11 Pro statt Home zu nehmen? (kenne mich mit > Windows nicht gut aus) - Remote Desktop Server - Einhängen in einer Domäne - Lokaler Account bei W11 ohne MS-Cloud-Account (? bei Pro kann man das noch umgehen, bei Home glaube ich nicht mehr, aber da bin ich mir nicht sicher) > - Gibt es noch Anforderungen an einen PC auf die ich achten sollte? > (Abgesehen von läuft mit Win 11) Die Maschine soll leise sein. Nichts fertig zusammenbauen. Bei Dell/Lenovo/HP gibt es kleine, leise Desktops, die Du fertig vorkonfiguriert kaufst und im Bedarfsfall (wenn der Rechner beruflich verwendet wird) gleich das passende Servicepaket dazubuchst. > Backup > Hier gibt es aktuell noch nichts... :( Meine Überlegungen: 1. Mehrere Backup-Medien verwenden. Wenn eine externe Festplatt runterfällt , ist sie hin. Und das Backup dadrauf auch. 2. Backup-Medien offline lagern. Wenn ein Blitz den PC schrottet, wird er auch das NAS, was dauernd mitläuft, schrotten. Deswegen externe Wechselmedien verwenden, die üblicherweise im Schrank liegen. 3. Einige Backupmedien räumlich getrennt lagern. Damit überleben die Daten auch, wenn das Haus abbrennt oder überflutet (Ahrtal) wird oder unbefugt komplett ausgeräumt wird. Als Backupsoftware verwende ich gerne DriveSnapshot. Das macht Komplettbackups, die nachher auch wieder bootfähig sind. Du kannst auch eine Recovery-CD kaufen, von der Du booten kannst, wenn nichts mehr funktioniert. http://www.drivesnapshot.de/de/ Du must aber selber ein Konzept machen, vor welchen Gefahren DU Dich schützen willst. fchk
Hallo abgesehen von zwei oder drei (für mich als stillen Mitleser) hilfreichen bzw. informativen und freundlichen Kommentaren und Empfehlungen darf ich wieder mal feststellen: Es wird nicht auf die Frage des TOs eingegangen, die Frage wird nicht genau und in jedem Detail wahrgenommen (vermutlich vorsätzlich). sich in andere und das aus dem Zusammenhang klar erkennbare "Normal" hineinzuversetzen, ist vielen "nicht möglich" (vermutlich wird es aber bewusst ignoriert, damit die Vorwürfe auch schön passen) Wenn der TO entsprechende Voraussetzungen und Programme erwähnt, dann läuft halt nichts anderes auf dem PC - ganz einfach, im Zweifelsfalle wird der TO noch nachträglich Informationen geben (die sich erst ergeben - nein das ist nicht die "Salamitaktik" sondern ganz Normal für Leute die nachfragen müssen) Wenn den TO (der Anwenderin) ein einfaches Backup ausreicht, dann ist es so - nicht überall muss es die reine Lehre sein, nicht überall muss es "Atombombenfest" sein. Mich würde sowieso interessieren, ob bei euch persönlich (nein nicht irgendeine Story aus dem Netz oder was euer AG, eine Behörde für eine Backupstrategie fahren muss - ihr ganz persönlich zu Hause oder das Kleinstunternehmen ...) ein Backup nach der reinen Lehre die Rettung war - also die HDs kaputt und gleichzeitig die Bude abgebrannt, die Cloud ist pleite und oder das erste "Vorortbackup" auch defekt... Schade das es so oft (nicht nur in diesen Thread) genauso abläuft. Ist es denn so schwer sich in andere hineinzuversetzen, mal seine Blase zu verlassen und einfach die Frage des TOs vollständig in allen Details durchzulesen und die Vorgaben zu akzeptieren?
Peter G. schrieb: > Ist es denn so schwer sich in andere hineinzuversetzen… Nein. Daher sind Backups wichtig. Zwei Fälle von Randsom-Ware Verschlüsselungen ohne Backup gesehen. Alles weg. Und ein Freund hatte bereits ein Brand mit verkohltem PC. Meine Empfehlung für Backups: A) Automatische Backups durch ein kleines Linux System (Raspi o.ä.) mit Restic als Backupsoftware. Diese greift auf die Windows Dateien per Datei-Freigabe zu. Restic hat den Vorteil dass es u.a. versioniert speichert. Selbst wenn die letzten Datei Versionen zerstört sind, hat man alte Versionen zum Zurückspielen. Hat bei mir rsync verdrängt. B) Da das Ganze ein PC werden soll, kann ich ein BlueRay oder DVD Brenner empfehlen. Backups können nicht überschrieben werden und ein Blitzeinschlag kann dem Backup auch nichts antun. Nachteil: Man muss halt per Hand die Disks einlegen und man sollte sich auf Nutzerdokumente beschränken (statt Komplettbackup). Und wegen Brand oder Diebstahl gehört ein einigermaßen aktuelles Backup sowieso außer Haus. Wer keine Angst vor Cloud hat, kann es natürlich auch dorthin machen.
Seit einer weile synchronisiere ich meine Daten mit Syncthing mit meinem Server (und weiteren Geräten). Geht erstaunlich gut. Als Backup habe ich ein Raspberry PI, der dann mir rsync Hardlink Backups macht. Eventuell kannst du ja was ähnliches machen. Eine Idee wäre, Syncthing die Daten mit dem NAS Syncen lassen, auf irgend ein FS mit Snapshot Support, und dann mit einem Shellscript & Cron Job Snapshots machen / verwalten oder so. Eventuell kann man die ja sogar als readonly share bereitstellen, um jederzeit ganz einfach wieder an Daten von Gestern / letzte Woche, etc. zu kommen. Bei meinem Server kann ich alles so aufsetzen, wie mir das passt. Mit NAS habe ich aber keine Erfahrungen, keine Ahnung, was sich mit denen so alles machen lässt. Das wichtigste bei Backups ist, von zeit zu zeit mal nachzusehen, ob sie noch gehen. Irgendwas passiert immer, sei es eine defekte Platte, ein kaputtes Netzteil, oder sonst was.
Peter G. schrieb: > Wenn den TO (der Anwenderin) ein einfaches Backup ausreicht, dann ist es > so - nicht überall muss es die reine Lehre sein, nicht überall muss es > "Atombombenfest" sein. Natürlich. Die will nix atombombenfestes, die will einfach nur ein Backup, daß verschlüsselungstrojanerfest ist, und jederzeit nach was auch für immer einer Katastrophe eine einfache Wiederherstellung der Daten erlaubt. Vielleicht auch noch dazu die Möglichkeit, die eben ausversehen gelöschte Datei wiederherzustellen. Das ganze natürlich DGSVO-Gerecht, wegen Kundendaten. Also nur ein ganz einfaches Backup, nicht fancy. Was man halt so unter Backup versteht. Und jetzt bist du wieder dran. Oliver
Ein T. schrieb: > Wenn Du den Löwen > brüllen hören möchtest, probier' mal eine NVMe aus... ;-) Man liest aber häufig, das den Unterschied zu SATA bei praktischen Anwendungen niemand mehr merkt, sondern nur noch bei speziellen Benchmarks angezeigt bekommt.
Peter D. schrieb: > Man liest aber häufig, das den Unterschied zu SATA bei praktischen > Anwendungen niemand mehr merkt, sondern nur noch bei speziellen > Benchmarks angezeigt bekommt. Das liest man nicht nur, das ist so. Ausnahmen bestätigen, wie immer, die Regel. Die Anwendungen auf dem PC, um des es hier geht, gehören nicht dazu. Oliver
Hubert schrieb: > Meine Idealvorstellung wäre ein pull von einem NAS, so das die > Ransomware keinen Zugriff auf das Backup hat. > (Mache das unter Linux mit einem einfachen rsnapshot/rsync über ssh mit > Key-Auth) Das Wichtigste ist aber, daß die Dame überhaupt damit umgehen kann. Wenn sie aber nur Windows kennt, habe ich da so meine Zweifel, ob sie mit Linux klarkommmt. Und ein extra NAS, was 24/7 rödelt und Strom verbraucht, wäre auch nicht mein Ding. Wenn man mit dem PC sein Geld verdient, sollte man selber regelmäßig prüfen können, ob das Backup überhaupt noch funktioniert. Dazu sollte man sich einen 2. PC hinstellen und z.B. alle 6 Monate die SSD komplett formatieren, mit Recovery CD starten, das Backup einspielen und damit ne Weile arbeiten, ob auch alles läuft. Erst bei einer Kaltinstallation merkt man, ob das Backup was taugt. Ich hatte früher das Systemabbild von W7 benutzt. Damit konnte man bei noch startendem W7 das Backup einspielen, aber irgendwann nicht mehr mit der Recovery CD, weil Microsoft was geändert hatte. Ich hab dann zu AOMEI gewechselt. Das unterstützt sogar einen Recovery Stick.
Beitrag #7424528 wurde vom Autor gelöscht.
Peter G. schrieb: > abgesehen von zwei oder drei (für mich als stillen Mitleser) hilfreichen > bzw. informativen und freundlichen Kommentaren und Empfehlungen darf ich > wieder mal feststellen: Allerdings hat in diesem Thread noch niemand von der guten alten Zeit erzählt als Computer noch mit Dampf und Kohle liefen und nur in Assembler zu programmieren waren. Insofern läuft dieser Thread doch noch recht gut :-)
Peter D. schrieb: > Man liest aber häufig, das den Unterschied zu SATA bei praktischen > Anwendungen niemand mehr merkt, Doch doch, das merkt man. Ich kann hier zB. eines meiner Projekte bauen und der komplette Lauf dauert ca. 18½ Sekunden auf einer 850 EVO (SATA). Mache ich das Ganze auf der 970 EVO (NVMe), dann geht's gut eine drittel Sekunde schneller. Und zwar Reproduzierbar, möchte ich hinzu fügen.
Norbert schrieb: > Ich kann hier zB. eines meiner Projekte bauen und der komplette Lauf > dauert ca. 18½ Sekunden auf einer 850 EVO (SATA). > > Mache ich das Ganze auf der 970 EVO (NVMe), dann geht's gut eine drittel > Sekunde schneller. Und zwar Reproduzierbar, möchte ich hinzu fügen. Irgendwie fehlt mir da das Ironie-Tag ;) 1,8% schneller, und das bei einer der Benchmarkanwendungen, die da überhaupt einen Effekt zeigen. Das kann man messen, aber nicht merken. Dafür braucht es schon ganzzahlige Faktoren, oder gleich Größenordnungen. Oliver
Oliver S. schrieb: > Dafür braucht es schon ganzzahlige Faktoren, oder gleich > Größenordnungen. Wenn man Geräte nicht bewusst auf Unterschiede testet, braucht man schon mindestens ein Drittel bessere Leistung, bis es auffällt.
Norbert schrieb: > Mache ich das Ganze auf der 970 EVO (NVMe), dann geht's gut eine drittel > Sekunde schneller. Ich hab auch gemerkt, daß die Transferrate bei SSDs sehr von der Größe abhängt. Z.B. eine 1TB SATA ist deutlich schneller, als eine 256GB SATA. Es lohnt sich also eine größere SSD zu kaufen, als man braucht. Heutzutage sollte eine 2TB SSD optimal sein. Große SSDs enthalten mehr Chips, die der Controller parallel ansteuern kann. Er kann damit auf mehrere Chips parallel schreiben und andere Chips im Hintergrund löschen.
:
Bearbeitet durch User
Peter D. schrieb: > Es lohnt sich also eine größere SSD zu kaufen, als man braucht. Bezogen auf SSDs mit SATA Interface ist das Schnee von gestern. Die werden durch SATA schon so weit gedrosselt, das ein Unterschied allenfalls noch bei durchgängigen schnellen Schreibtransfers jenseits des SLC-Caches auftritt.
Peter D. schrieb: > Ich hab auch gemerkt, daß die Transferrate bei SSDs sehr von der Größe > abhängt. Z.B. eine 1TB SATA ist deutlich schneller, als eine 256GB SATA. Wenn es nicht eine extrem olle Gurke ist, dann hängt die (Lese)Geschwindigkeit einzig und allein vom SATA Interface ab. Wenn der Rechner nicht eine extrem olle Gurke ist, dann ist's SATA-III. Mithin etwas unterhalb 600MB/s. (Meist im 570er Bereich) Beim Schreiben cachen die Dinger ebenfalls reichlich, so das auch bei »normaler« Arbeit kein Unterschied festzustellen ist. Erst wenn man viele GB (oder sogar GiB) schreibt, wird man einen bestenfalls mäßigen Unterschied feststellen.
Oliver S. schrieb: > Irgendwie fehlt mir da das Ironie-Tag ;) Na der war doch wohl hoffentlich implizit! ;-)
Εrnst B. schrieb: > "Ein Riegel" ist selten Ideal. Desktop-CPUs haben zwei Channels für den > RAM, da sollte schon jeder seinen Riegel haben. Stimmt, daran habe ich nicht gedacht. Bei Dell/Lenovo springt bei Auswahl von 32 GB RAM leider auch Prozessor, SSD Größe oder ähnliches mit hoch. Damit wird die Option gleich einige 100 € teurer. Werde voraussichtlich mit einem Riegel bestellen und dann nachrüsten. Ein T. schrieb: > Unter WSL (Windows Subsystem for Linux) könntest Du einen OpenSSH sshd > nutzen, dann sollte auch rsnapshot(1) über rsync(1) gehen. Das wäre super, werde mal schauen ob ich irgendwie an eine Windowsversion zum testen komme. Klaus H. schrieb: > A) Automatische Backups durch ein kleines Linux System (Raspi o.ä.) mit > Restic als Backupsoftware. Diese greift auf die Windows Dateien per > Datei-Freigabe zu. So in etwa habe ich mir das auch vorgestellt, wollte nur kein Raspi nehmen wo per USB noch ein HDD dran hängt, sondern alles in einem Gehäuse damit es etwas ordentlich aussieht. Rastic schaue ich mir noch mal an, aber auf den ersten Blick würde ich bei rsnapshot bleiben. Das ist einfach und im Fall der Fälle kann man einfach auf das Backup zugreifen da kein extra Programm notwendig ist. Klaus H. schrieb: > B) Da das Ganze ein PC werden soll, kann ich ein BlueRay oder DVD > Brenner empfehlen. > Backups können Das wäre ideal, wird aber sehr wahrscheinlich nicht funktionieren. Ich bin schon froh wenn es überhaupt ein Backup gibt. Und das wird nur funktionieren wenn es vollautomatisch läuft.
Aktuell ist folgendes geplant: Ein DELL Vostro Small Desktop https://www.dell.com/de-de/shop/desktops-all-in-ones-pcs/vostro-klein-desktop/spd/vostro-3020-sff/s2028vdt3020sffbts01sb?view=configurations Dazu ein NAS (vermutlich Synology DS120j). Auf den Rechner kommt ein Script zum runter fahren. Das schaltet per WOL das NAS ein. Das NAS zieht sich dann die Daten vom PC und rotiert die Backups. (Beim ziehen bin ich mir noch nicht ganz sicher, aber Laut Datenblatt geht das wohl [rsync over SSH]. Und rotierende Backups der letzten x Tage/Wochen/Monate wird ein NAS ja wohl auch können...) Nach Abschluss des Backup-Vorgang (den das Script erkennt) fährt der PC runter. Hier bin ich mir noch nicht sicher wie der PC erkennt das der Backup-Vorgang abgeschlossen ist. Meine Idee ist aktuell das der PC prüft ob die letzten x Minuten keine Verbindung zum SSH Server bestanden und dann davon ausgeht dass das Backup abgeschlossen ist. Im Idealfall kann dann noch eine USB Festplatte mit dem NAS gesynct werden die nach dem Sync getrennt (und einem anderem Ort) gelagert wird. Zur Not muss ich das alle paar Monate beim nächsten Besuch machen... Was haltet Ihr davon? Ist das machbar und ein einigermaßen robuster Prozess?
Hubert schrieb: > Das wäre super, werde mal schauen ob ich irgendwie an eine > Windowsversion zum testen komme. Die kannst du mit jedem Windows PC einfach auf einen (8 GB) USB Stick herunterladen. Zum Testen brauchst du keinen Lizenz-Key. Dessen Eingabe kann man bei der Installation einfach überspringen. Offiziell für 3 Monate, inoffiziell offenbar unbeschränkt. https://www.microsoft.com/de-de/software-download/windows10%20
Michael L. schrieb: > Hubert schrieb: >> Backup >> Hier gibt es aktuell noch nichts... :( >> Meine Idealvorstellung wäre ein pull von einem NAS, so das die >> Ransomware keinen Zugriff auf das Backup hat. > NAS IST KEIN BACKUP und ein Konzept schon mal gar nicht. Kann man 100x > schreiben und der Hilfsadmin wird's trotzdem nicht glauben. Wer als > Selbstständiger so einen Mist dastehen hat, spielt mit seiner > beruflichen Existenz. Das ist Blödsinn, Du weisst offensichtlich nicht, was ein Pull-Backup ist und wie es angewendet wird. Ein Pull-Backup ist sehr sicher, wenn der Backup-Server (das kann auch ein NAS sein) von aussen nicht erreichbar ist, ggf. noch eine Firewall z.B. UFW dazu. Der Backup-Server muss dann aber lokal administriert werden, da ein Zugriff von aussen ja nicht möglich ist.
Stephan S. schrieb: > Das ist Blödsinn, Du weisst offensichtlich nicht, was ein Pull-Backup > ist und wie es angewendet wird. Ein Pull-Backup ist sehr sicher Bezüglich Angriffen aus dem zu sichernden System: bedingt. Der Agent ist lokal angreifbar, das Backup-System möglicherweise indirekt via LAN. Bezüglich Angriffen aus dem LAN: bedingt. Das Backup-System selber ist möglicherweise angreifbar. Bezüglich physischen Zugriffen bzw. physischer Zerstörung des Backup-Systems: NEIN. Also ist es nach den üblichen Ansprüchen erstmal kein wirkliches Backup. Es kann aber eine clevere Vorstufe für ein echtes Backup sein. Aber nicht mehr.
Hallo Mit all dem hast du (wahrscheinlich - ich bin kein Experte) recht. Aber hier kommen wir mal wieder zum Kernproblem vieler in dieses (vielen technischen) Forum zurück: Das Lesen der Vorgaben des TO und hineinversetzen der Situation des TO (hier der Nutzerin) bzw. den "normalen Menschenverstand". Es geht um eine selbstständige Übersetzerin und nicht einen Hochschulserver, nicht eine Steuerbehörde, nicht der Sozialhilfebehörde, ein Krankenhaus, von Tesla,.. Sprich: Ein großer Aufwand für Kriminelle (und erst recht "Hobbystörer" oder "Aktivisten") muss in einem vernünftigen Verhältnis zur erpressbaren Summe (einfacher Krimineller), den perfiden Spaß am Schaden und Leid (Hobbystörer) oder den nach außen getragen Auswirkungen("Aktivisten") sein. Eine freie Übersetzerin bietet da doch eher ein wenig interessantes Ziel - da reicht eine "Grundabsicherung", das automatische System und "fertige Software" welche durch den Kriminellen nur bedient, werden muss, abhält doch in der gelebten Wirklichkeit vollkommen aus.
Peter G. schrieb: > Es geht um eine selbstständige Übersetzerin Und deren Wohnung ist z.B. gegen einen Wohnungsbrand gefeit? (=physische Zerstörung des Backup-Systems). Hinweis: Die Versicherung ersetzt (mit ein wenig Glück) das NAS selber. Die Daten sind aber immer noch wech...
C-hater schrieb: > Und deren Wohnung ist z.B. gegen einen Wohnungsbrand gefeit? (=physische > Zerstörung des Backup-Systems). Ist alles richtig, nur wenn es überhaupt kein Backup gibt hilft das auch bei einem Randsomwarebefall/Hardwarefehler nicht. Und wenn es das eine erst ein mal gibt, kann der nächste Schritt gemacht werden. Siehe: Hubert schrieb: > Im Idealfall kann dann noch eine USB Festplatte mit dem NAS gesynct > werden die nach dem Sync getrennt (und einem anderem Ort) gelagert wird. > Zur Not muss ich das alle paar Monate beim nächsten Besuch machen...
Hubert schrieb: > Ist alles richtig, nur wenn es überhaupt kein Backup gibt hilft das auch > bei einem Randsomwarebefall/Hardwarefehler nicht. > Und wenn es das eine erst ein mal gibt, kann der nächste Schritt gemacht > werden. Du hast einfach nicht kapiert, dass jedes sinnvolle Backup-Konzept vom worst case ausgehen muss und im Kern versucht, das Risiko zu minimieren, dass eben dieser eintritt. Trennung des physischen Aufenthaltsorts der Daten und der OFFLINE-Status des Backups ist dabei die ERSTE und VORDRINGLICHSTE Maßnahme, nicht erst die zweite oder gar dritte... Wenn man die kritischen Punkte des Backups (nämlich Erstellung und Restore) mit einbezieht, kann das nur zu einem Generationen-Konzept führen. Nur dadurch wird nämlich gewährleistet, dass auch in diesen kritischen Phasen immer mindestens ein Backup existiert, was OFFLINE und physisch an einem anderen Ort ist.
Peter G. schrieb: > Sprich: > Ein großer Aufwand für Kriminelle (und erst recht "Hobbystörer" oder > "Aktivisten") muss in einem vernünftigen Verhältnis zur erpressbaren > Summe (einfacher Krimineller), den perfiden Spaß am Schaden und Leid > (Hobbystörer) oder den nach außen getragen Auswirkungen("Aktivisten") > sein. > > Eine freie Übersetzerin bietet da doch eher ein wenig interessantes Ziel Ach je. Diejenigen, die einzelne PCs angreifen, haben doch weder Lust noch Zeit, erst einmal zu prüfen, ob sich das "lohnt". Da laufen automatisierte Angriffe nach Schema F. Erst mal verschlüsseln, dann schauen, was man daraus machen kann. Oliver
Stephan S. schrieb: > Michael L. schrieb: >> NAS IST KEIN BACKUP und ein Konzept schon mal gar nicht. Kann man 100x >> schreiben und der Hilfsadmin wird's trotzdem nicht glauben. Wer als >> Selbstständiger so einen Mist dastehen hat, spielt mit seiner >> beruflichen Existenz. > > Das ist Blödsinn, Du weisst offensichtlich nicht, was ein Pull-Backup > ist und wie es angewendet wird. Ein Pull-Backup ist sehr sicher, wenn > der Backup-Server (das kann auch ein NAS sein) von aussen nicht > erreichbar ist, ggf. noch eine Firewall z.B. UFW dazu. Der Backup-Server > muss dann aber lokal administriert werden, da ein Zugriff von aussen ja > nicht möglich ist. Egal, wie sicher ein Pull-Backup sein mag, es ändert sich nix an der konzeptuellen Schwäche. Ich hätte ebenso schreiben können: Ein Backup ist kein Backup.
Peter G. schrieb: > Aber hier kommen wir mal wieder zum Kernproblem vieler in dieses (vielen > technischen) Forum zurück: Und wenn hier jemand nach Möglichkeiten fragt, sich am besten ins Knie zu schießen.. > Das Lesen der Vorgaben des TO und hineinversetzen der Situation des TO > (hier der Nutzerin) bzw. den "normalen Menschenverstand". ..dann soll man ihm diese liefern, anstatt ihn davon zu überzeugen, es besser bleiben zu lassen? > Es geht um eine selbstständige Übersetzerin und nicht einen > Hochschulserver, nicht eine Steuerbehörde, nicht der Sozialhilfebehörde, > ein Krankenhaus, von Tesla,.. Das Konzept Nas als Backup taugt nicht mal zum Sichern von Foren-Opas Daten, wie zahlreiche Anfrage nach Datenrettung hier im Forum zeigen. Aber für jemand, der vermutlich von seiner Arbeit leben will, zumindest eine minimale Buchhaltung führen muß, Aufbewahrungspflichten unterliegt, womöglich Terminarbeiten erledigt, für den soll's dann langen. > Eine freie Übersetzerin bietet da doch eher ein wenig interessantes Ziel > - da reicht eine "Grundabsicherung", das automatische System und > "fertige Software" welche durch den Kriminellen nur bedient, werden > muss, abhält doch in der gelebten Wirklichkeit vollkommen aus. Der weitaus häufigste Fall bei Datenverlust sind Anwenderfehler, nicht Viren, Kriminelle, Hardwareausfall o.ä. Oft wissen, egal ob Private oder Firma, nicht mal wie, wann und warum es passiert ist, wenn Daten fehlen.
C-hater schrieb: > Bezüglich Angriffen aus dem zu sichernden System: bedingt. Der Agent > ist lokal angreifbar, das Backup-System möglicherweise indirekt via LAN. Das Wesen eines Pull-Backups ist u.a., dass der Agent auf dem Backup-Server sitzt. > Bezüglich Angriffen aus dem LAN: bedingt. Das Backup-System selber ist > möglicherweise angreifbar. 100% sicher ist nie etwas. Aber ein Backup-Server ohne Freigaben hinter einer Firewall ist schon SEHR sicher. > Bezüglich physischen Zugriffen bzw. physischer Zerstörung des > Backup-Systems: NEIN. Das ist klar, da muss eine externe Kopie des Backups her.
Stephan S. schrieb: > Das Wesen eines Pull-Backups ist u.a., dass der Agent auf dem > Backup-Server sitzt. Nein, das tut er nicht. Der "Agent" sitzt auf dem zu sichernden System. Er kann ein allerdings ein extra Stück Software sein oder auch nur eine generische "Freigabe". Beides ist jedenfalls auf dem Target selbst angreifbar, weil es halt auf dem Target selbst läuft. >> Bezüglich physischen Zugriffen bzw. physischer Zerstörung des >> Backup-Systems: NEIN. > Das ist klar, da muss eine externe Kopie des Backups her. Wenn du wenigstens das begriffen hast, ist schon viel gewonnen...
C-hater schrieb: > Stephan S. schrieb: > >> Das Wesen eines Pull-Backups ist u.a., dass der Agent auf dem >> Backup-Server sitzt. > > Nein, das tut er nicht. Der "Agent" sitzt auf dem zu sichernden System. > Er kann ein allerdings ein extra Stück Software sein oder auch nur eine > generische "Freigabe". Du weisst offensichtlich immer noch nicht was ein Pull-Backup ist: da sitzt der Agent nicht auf dem zu sichernden Rechner, sondern auf dem Backup-Rechner. Der Name sagt es bereits. Beschäftige Dich mal damit und Du wirst sehen, dass das eine ziemlich sichere Methode ist.
Stephan S. schrieb: > Du weisst offensichtlich immer noch nicht was ein Pull-Backup ist: da > sitzt der Agent nicht auf dem zu sichernden Rechner, sondern auf dem > Backup-Rechner. Nein. Der Backup-Rechner initiiert das Backup. Und benutzt dazu entweder einen speziellen "Agent" oder halt eine ganz normale Freigabe des zu sichernden Rechners. In beiden Fällen muß er sich der darauf verlassen, dass der Agent/die Freigabe authentische Daten liefert. Kann er aber eben nicht wirklich, weil Malware, die hinreichende Rechte erlangt hat, beides beliebig manipulieren kann, weil sie halt auf dem zu sichernden System selber läuft. Das kann doch nicht so schwer zu begreifen sein?
Bezieht sich die Feststellung der Unmöglichkeit absolut zuverlässiger Backups noch auf die Originalfrage? Letztlich ist die Aufgabe von Backups, jene Daten zu sichern, die sich auf dem zu sichernden System befinden. Es ist i.A. nicht die Aufgabe, festzustellen, ob sich beispielsweise die darin befindlichen Fotos noch im Originalzustand befinden, oder ob sie zwischenzeitlich von einem Hacker subtil manipuliert wurden, oder ob der Hacker den Agent/Fileserver/... so manipulierte, dass nur beim Backup jedesmal Pumuckl durchs Bild stapft. Analog dazu gilt das für viele Manipulationen am zu sichernden System. Es gibt schlichtweg Grenzen, in denen reale System arbeiten müssen. Besonders bei einer so harmlosen Frage wie jener des Threads. Sonst landen wir am Ende bei beweisbar absolut manipulationssicheren Systemen. Viel Vergnügen damit.
:
Bearbeitet durch User
Stephan S. schrieb: > 100% sicher ist nie etwas. Aber ein Backup-Server ohne Freigaben hinter > einer Firewall ist schon SEHR sicher. Die Synology kann aber nur per Weboberfläche aus dem LAN administriert werden. Kann eben auch über dieses angegriffen werden. Ansonsten geht ein rsync backup über ssh von Windows problemlos, da brauchts auch kein WSL, Windows 10 hat selber SSH im Bauch. Mache ich jeden Tag so. Allerdings von einem Linux-Backupserver aus. Ich würde trotzdem eher (zusätzlich?) auf Festplatten sichern. Mindestens zwei Stück damit eine immer physisch getrennt ist. Es gibt nicht nur Blitzschlag, ein lose angeklemmter Nullleiter reicht auch. Wasser und Brandschäden wurden ja schon genannt. Blue-Rays/DVDs sind ungeeignet. Zu klein, zu langsam und vor allem zu kurzlebig. Die vergessen die Daten nach ein paar Jahren. Außerdem ne aussterbende Technologie.
Um Backups aus der Zone der physischen Gefährdung heraus zu bekommen, ohne USB-Medien schleppen zu müssen, und weil NAS mit in der Betrachtung ist: Online-Replikation mit Versionierung im Ziel. NAS wie z.B. QNAP haben sowas schlüsselfertig an Bord. Wer also keine Insel ist...
:
Bearbeitet durch User
C-hater schrieb: > In beiden Fällen muß er sich der darauf verlassen, dass der Agent/die > Freigabe authentische Daten liefert. Du bist etwas wirr im Kopf. Ab dem Zeitpunkt, wo die Daten nicht mehr authentisch sind, sind sie zerstört. Sinn des Backups ist es die Daten bis zu dem Zeitpunkt zu haben. Skizzier doch mal ein System, wo man einen infizierten PC hat und noch authentische daten sichern kann?
Re D. schrieb: > Skizzier doch mal ein System, wo man > einen infizierten PC hat und noch authentische daten sichern kann? Da dieser Laden gerade heute mit ein paar Buzzwords aufwarten konnte, in denen selbstredend die aktuelle Sau "KI" nicht fehlen durfte: https://www.heise.de/news/Veeam-Backup-Replication-v12a-beherrscht-Objektspeicher-als-Backup-Quelle-9076610.html Natürlich hat auch das mit der Übersetzerin und ihrem geplätteten Hilfsadmin nichts zu tun. Aber es ist tatsächlich nicht völlig absurd, Backup-Software eine Manipulation von Daten auf dem Ursprungssystem erkennen zu lassen.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Backup-Software eine Manipulation von Daten auf dem Ursprungssystem > erkennen zu lassen. Erkennen <> Sichern Der Nächste bitte.
Peter G. schrieb: > Mich würde sowieso interessieren, ob bei euch persönlich (nein nicht > irgendeine Story aus dem Netz oder was euer AG, eine Behörde für eine > Backupstrategie fahren muss - ihr ganz persönlich zu Hause oder das > Kleinstunternehmen ...) ein Backup nach der reinen Lehre die Rettung war > - also die HDs kaputt und gleichzeitig die Bude abgebrannt, die Cloud > ist pleite und oder das erste "Vorortbackup" auch defekt... Bei mir privat rsync(1)t rsnapshot auf einen Remote-Server.
Peter D. schrieb: > Ein T. schrieb: >> Wenn Du den Löwen >> brüllen hören möchtest, probier' mal eine NVMe aus... ;-) > > Man liest aber häufig, das den Unterschied zu SATA bei praktischen > Anwendungen niemand mehr merkt, sondern nur noch bei speziellen > Benchmarks angezeigt bekommt. Man liest auch häufig, daß die Erde eine Scheibe und Corona ein Trick von Bill Gates sei, um den Leuten per Impfung einen Chip zu implantieren, mit dem er sie dann fernsteuern könne... :-) Fakt ist: ich bemerke die Performanceunterschiede insbesondere beim Booten des Systems und bei meiner Arbeit mit verschiedenen Datastores und größeren Datenmengen, jedenfalls sind die Unterschiede unter Linux deutlich spürbar. Andere Anwendungsfälle, gerade solche, deren Daten in den Dateisystempuffer passen, profitieren naturgemäß weniger von schnellem I/O.
Ich benutze zuhause unter Linux ein Backup Programm, das auf rsync basiert. Damit kopiere ich meine persönlichen Dateien einmal pro Monat auf eine externe Festplatte, die ich in einem Feuerfesten Safe lagere. Also ganz einfach, mir reicht das so. Ab und zu teste ich, ob das letzte Backup noch lesbar ist. Da fällt mir gerade ein: Die Festplatte ist schon 8 Jahre alt, vielleicht sollte ich sie erneuern. Andererseits "never change a running system". Wer weiß ob die neue so zuverlässig funktioniert, wie die alte. Deswegen ist sie ja so alt geworden.
Andreas M. schrieb: > Ansonsten geht ein rsync backup über ssh von Windows problemlos, da > brauchts auch kein WSL, Windows 10 hat selber SSH im Bauch. Mache ich > jeden Tag so. Allerdings von einem Linux-Backupserver aus. Danke für den Tipp, habe etwas gegoogled und das hier gefunden: https://learn.microsoft.com/en-us/windows-server/administration/openssh/openssh_install_firstuse?tabs=gui Ist das die von Dir angesprochene Lösung oder gibt es noch einen anderen Weg?
Das beste Backup-Konzept nutzt nix, wenn es zu kompliziert und aufwändig für den Anwender ist, und das Sichern deswegen öfters mal ausfällt. Ich würde mir auf jeden Fall mal die in Windows integrierten Backup-Funktionen mal anschauen, unter "Dateiversionsverlauf" versteckt. Das dann (meinetwegen stündlich) auf das NAS sichern lassen, geht völlig unauffällig im Hintergrund. Bonus: Der Anwender kann ohne Support-Aufwand selber alte Datei-Versionen aus dem Backup wiederherstellen. Den komplizierten Part, nämlich die NAS-Freigabe selber (die dann ja für den Windows-Rechner erreichbar sein muss) gegen Ransomware/Verschlüsselung/Löschen zu schützen, kann man dann komplett auf das NAS verlagern, wo man dank Linux mehr Möglichkeiten hat. z.B. regelmäßige Read-Only-Snapshots ziehen, und/oder (verschlüsselt, rclone) in die Cloud hochladen.
Εrnst B. schrieb: > Das beste Backup-Konzept nutzt nix, wenn es zu kompliziert und aufwändig > für den Anwender ist, und das Sichern deswegen öfters mal ausfällt Full ack Εrnst B. schrieb: > Ich würde mir auf jeden Fall mal die in Windows integrierten > Backup-Funktionen mal anschauen, unter "Dateiversionsverlauf" versteckt. Danke, super Hinweis, die kannte ich nicht. Εrnst B. schrieb: > Den komplizierten Part, nämlich die NAS-Freigabe selber... Über den Ansatz hatte ich auch schon nachgedacht, ihn aber verworfen weil das heißen würde das NAS/Server/... müsste 24x7 laufen. Ich denke aber noch mal drüber nach.
Εrnst B. schrieb: > Das beste Backup-Konzept nutzt nix, wenn es zu kompliziert und aufwändig > für den Anwender ist, und das Sichern deswegen öfters mal ausfällt. ... oder wenn er keinen blassen Schimmer hat, wie er an den Backup heran kommt, sollte er ihn einmal benötigen. Hubert schrieb: > Über den Ansatz hatte ich auch schon nachgedacht, ihn aber verworfen > weil das heißen würde das NAS/Server/... müsste 24x7 laufen. Hochfahren, danach wieder runterfahen. Sollte man beides automatisieren können. Hochfahren per Timer, wenn das System das vorsieht, oder auch per WakeOnLAN. Ich hatte das auch schon andersrum gemacht. Pull-Backup per RasPI, der nachts den zu sicherenden PC per WoL aktivierte, die Files zog, und danach den PC per ssh wieder runter fuhr. Auf die Stände vom Backup konnte man per R/O-Share vom PCs aus zugreifen.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Ich hatte das auch schon andersrum gemacht. Pull-Backup per RasPI, der > nachts den zu sicherenden PC per WoL aktivierte, die Files zog, und > danach den PC per ssh wieder runter fuhr. So herum habe ich da noch nicht drüber nachgedacht. Hat den unheimlichen Vorteil das die Komplexität komplett auf NAS/Server/... liegt und dieser nicht 24x7 laufen muss. Bonus: Optional kann eine Firewall zwischen NAS/Server/... und dem restlichen Netz geschaltet werden die nur Ausgehenden Verkehr vom NAS/Server/... zulässt. Werde mal nachfragen ob es ok ist wenn der PC nachts aufwacht ;)
:
Bearbeitet durch User
(prx) A. K. schrieb: > Ich hatte das auch schon andersrum gemacht. Pull-Backup per RasPI, der > nachts den zu sicherenden PC per WoL aktivierte, die Files zog, und > danach den PC per ssh wieder runter fuhr. Und wenn man dabei gerade am PC sitzt, werden dann alle Anwendungen geschlossen? Ich fahre meinen PC nie runter, sondern drücke nur die Schlummertaste.
Peter D. schrieb: > Und wenn man dabei gerade am PC sitzt, werden dann alle Anwendungen > geschlossen? Niemand in diesem Haushalt pflegte sich nachts um 2 Uhr an den PC zu setzen. Und um sicherzugehen kann man kann den Shutdown abblasen, wenn zu diesem Zeitpunkt jemand angemeldet ist. Man kann es auch so halten, dass der ganze Backup abgeblasen wird, wenn die Kiste vorher schon läuft und vielleicht tagelang an irgendwas rumackert. Bissel Kreatitivät bitte!
:
Bearbeitet durch User
Hubert schrieb: > Danke für den Tipp, habe etwas gegoogled und das hier gefunden: > https://learn.microsoft.com/en-us/windows-server/administration/openssh/openssh_install_firstuse?tabs=gui > Ist das die von Dir angesprochene Lösung oder gibt es noch einen anderen > Weg? Ja genau. Auf der Windowsmaschine läuft ein OpenSSH Server. Ich habe dann die Login Shell auf PowerShell umgestellt. Dazu ist auf dem Server ein rsync für Windows installiert. Der Linuxrechner führt dann rsync aus was sich per SSH und Key anmeldet und das Backup zieht, einfach komplett in einen Ordner. Ich habe damit dann zeitlich abgestuft tägliche, wöchentliche und monatliche Stände. Die Backups könnte man theoretisch per ReadOnly Freigabe und Samba im Netz noch bereitstellen. Das Backup von ca 40 GB auf etwa 4 Mio.(!) Dateien verteilt dauert so ca 2 Stunden. (Ist ein Jenkins Server mit hunderten Projekten)
Andreas M. schrieb: > Ich habe > dann die Login Shell auf PowerShell umgestellt. Dazu ist auf dem Server > ein rsync für Windows installiert. Habe etwas gegoogled zu Windows und rsync und habe nichts "natives" gefunden. Das geht dann nur über das WSL richtig? Liege ich mit der Vermutung richtig das wegen der rsync/WSL Nutzung die Login Shell umgestellt werden muss?
Oliver S. schrieb: > Ein T. schrieb: >> Fakt ist: ich bemerke > > DAS Totschlagargument jedes Esoterikers... Hast Du auch etwas zum Thema beizutragen, mein kleiner Held?
Hubert schrieb: > Habe etwas gegoogled zu Windows und rsync und habe nichts "natives" > gefunden. Das geht dann nur über das WSL richtig? Das geht auch ohne WSL: https://github.com/WayneD/rsync/actions/workflows/build.yml Da muss es bei den builds ein ZIP geben, sehe ich auf dem Handy gerade nicht. Ansonsten kann man es auch über msys installieren. Hubert schrieb: > Liege ich mit der Vermutung richtig das wegen der rsync/WSL Nutzung die > Login Shell umgestellt werden muss? Nein, das ist mein persönlicher Geschmack. Der DOS Befehlsprompt kann ja fast nichts. Mir ist noch eine Idee gekommen. Du könntest auf der Synology auch Nextcloud installieren und auf dem PC den zugehörigen Clienten. Damit bekommst Du Dann ein Laufwerk/Ordner der automatisch mit der Synology synchronisiert. So ähnlich wie Onedrive nur mit der NAS als Cloudserver. Backup läuft dann nur noch intern in der NAS.
Andreas M. schrieb: > Hubert schrieb: >> Liege ich mit der Vermutung richtig das wegen der rsync/WSL Nutzung die >> Login Shell umgestellt werden muss? > > Nein, das ist mein persönlicher Geschmack. Der DOS Befehlsprompt kann ja > fast nichts. Naja, der TO schrieb ja, daß er sich eher unter Linux zuhause fühlt, und dann ist die Powershell ja schon ein bisschen gewöhnungsbedürftig. Daher könnte es für den TO möglicherweise einfacher sein, die im WSL enthaltene Bash zu nutzen, die er ja von Linux schon kennen dürfte.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.