Heute hat ein Einsteiger-DSO eine Speichertiefe von etwa 2 Mpts (Keysight) bis 24 MPts (Rigol). Bei einer Auflösung von 8 Bit sind das somit: (2*1000^2)/(1024^2) = 1,90 MiB bzw. (24*1000^2)/(1024^2) = 22,88 MiB Habe ich irgendwo einen Denkfehler in der Rechnung oder warum ist das so wenig? Kann es sein, dass der Speicher direkt auf dem Chip Die steckt, der auch für das Sampling zuständig ist? Also Vergleichbar zum L3 Cache auf modernen Intel CPUs? Das würde dann zumindest den geringen Speicherplatz erklären. Sry, falls die Frage doof klingt, aber ich komme aus der Computer Ecke und da haben wir 16 GiB und mehr Arbeitsspeicher als Normalfall. Und falls der Speicher direkt auf dem Samplingchip stecken sollte, warum ist man dann bei standalone DSO Geräten für geringe Abtastraten noch nicht auf die Idee gekommen, das auf klassischem DDR3 oder DDR4 Speicher auszulagern?
:
Verschoben durch Moderator
Wer braucht diese unnötigen Strom- und Geldfresser bei der Signalanalyse ? Man benutzt ein Scope um Signal-Anormalitäten aufzuspüren, deren Länge/Dauer im Mikrosekundenbreich ist. Dafür brauch man keine GigaBytes an Speicher. Hinzukommt das DDR speicher wegen den Refreshcyclen und Burstmode nicht auf Dauer isochron arbeiten. Dram ist für kontinuirliches Schreiben in maximaler (Burts-) Datenrate nicht ausgelegt.
Fpgakuechle K. schrieb: > Wer braucht diese unnötigen Strom- und Geldfresser bei der > Signalanalyse > ? > > Man benutzt ein Scope um Signal-Anormalitäten aufzuspüren, deren > Länge/Dauer im Mikrosekundenbreich ist. Dafür brauch man keine GigaBytes > an Speicher. Ein paar Anwendungen gibt es: https://www.golem.de/news/5-25-disketten-zerkratzt-zerbeult-und-doch-zu-retten-2107-157374-7.html und (weiter unten ab "Other features include:") https://github.com/imqqmi/FloppyControl#Software > > Hinzukommt das DDR speicher wegen den Refreshcyclen und Burstmode nicht > auf Dauer isochron arbeiten. Dram ist für kontinuirliches Schreiben in > maximaler (Burts-) Datenrate nicht ausgelegt. Deswegen war ja noch meine Frage, warum man das nicht wenigstens zum auslagern verwendet? Es müsste doch möglich sein, den Speicher auf dem Chip in Bänke aufzuteilen und während das Oszi bei geringen Abtastraten die eine Bank mit neuen Daten beschreibt, wird die andere auf DDR Speicher weggesichert. Und als reine Daten für die nachträgliche Beabreitung sollte es egal sein, das DDR Speicher Refreshcyclen braucht und Burdmodes hat.
Nano schrieb: > und > (weiter unten ab "Other features include:") > https://github.com/imqqmi/FloppyControl#Software Bei diesem Link steht etwas von 20 MB dass das Oszilloskop haben sollte. Der Speicher auf dem Keysight wäre dafür schon zu klein.
Nano schrieb: > Fpgakuechle K. schrieb: >> Man benutzt ein Scope um Signal-Anormalitäten aufzuspüren, deren >> Länge/Dauer im Mikrosekundenbreich ist. Dafür brauch man keine GigaBytes >> an Speicher. > > Ein paar Anwendungen gibt es: > 5-25-disketten-zerkratzt-zerbeult-und-doch-zu-retten <Ironie> Ja klar ein Scope als backupmedium für Floppies, das ist genau der Anwendungszweck für den ein 'Schwingungs-visualizierer' erfunden wurde ... </Ironie> > Und als reine Daten für die nachträgliche Beabreitung sollte es egal > sein, das DDR Speicher Refreshcyclen braucht und Burdmodes hat. Die nachträgliche Bearbeitung macht man besser auf Geräten, die für die nachträgliche Bearbeitung konzipiert worden wie 'Computer. Die Scope AD-Wandlerzeichnet die Daten Lückenfrei auf und schreibt sie dann an die eigentlichen Auswerteeinheit weg. Das nennt man dann auch Digitizer und nicht scope. So macht das NI seit Jahrzehnten: https://www.ni.com/de-de/shop/hardware/products/pxi-oscilloscope.html
Fpgakuechle K. schrieb: > Hinzukommt das DDR speicher wegen den Refreshcyclen und Burstmode nicht > auf Dauer isochron arbeiten. Dram ist für kontinuirliches Schreiben in > maximaler (Burts-) Datenrate nicht ausgelegt. DDR-4 kann grob 20GB/s. Bei 2 Ga/s@8bit ist da gut Luft zusammen mit etwas cache. Wichtiger dürfte Produktsegmentierung sein: Willst du als Hersteller ein 500€ scope mit 1Gpts/channel bauen oder denen, die das brauchen doch lieber ein 10k€+ verkaufen? Fpgakuechle K. schrieb: > <Ironie> > Ja klar ein Scope als backupmedium für Floppies, das ist genau der > Anwendungszweck für den ein 'Schwingungs-visualizierer' erfunden wurde > ... > </Ironie> Die ersten MRR Spectrometer (brightspec) wurden auch mit Oszilloskopen gebaut. Natürlich waren das keine entry level Modelle.
user schrieb: > Produktsegmentierung So sieht es aus. Auf unserem 20k MSO in der Arbeit Bootet beim einschalten dann ein Windows, vermutlich wird da der Arbeitsspeicher für Signale genutzt..
Kann das sein, dass du noch nie richtig mit dem Scope gearbeitet hast und dich nur wichtig machen willst?
Nano schrieb: > Habe ich irgendwo einen Denkfehler in der Rechnung oder warum ist das so > wenig? Für ein Oszi ist das viel. > Kann es sein, dass der Speicher direkt auf dem Chip Die steckt, der auch > für das Sampling zuständig ist? Nein, aber man muss es auch historisch betrachten. Sehr schneller speicher mit 1Gbyte/s war vor 20 und mehr Jahren noch eine abosulte Herausforderung. Technisch aufwändig und teuer. Also konnte man sich nur eher wenig Speicher leisten. > Also Vergleichbar zum L3 Cache auf modernen Intel CPUs? Nein. > Sry, falls die Frage doof klingt, aber ich komme aus der Computer Ecke > und da haben wir 16 GiB und mehr Arbeitsspeicher als Normalfall. Heute. > Und falls der Speicher direkt auf dem Samplingchip stecken sollte, warum > ist man dann bei standalone DSO Geräten für geringe Abtastraten noch > nicht auf die Idee gekommen, das auf klassischem DDR3 oder DDR4 Speicher > auszulagern? Sowas könnte man heute machen. Warum man das nicht macht, weiß ich nicht. Bzw. ich weiß nicht, welcher Speichertyp in den modernen DSOs bzw. in den sehr günstigen China-DSOs steckt. Vermutlich wird das DDR2 oder besser sein.
Fpgakuechle K. schrieb: > Hinzukommt das DDR speicher wegen den Refreshcyclen und Burstmode nicht > auf Dauer isochron arbeiten. Dram ist für kontinuirliches Schreiben in > maximaler (Burts-) Datenrate nicht ausgelegt. Auch du weißt, was ein Cache bzw. FIFO ist. Damit ist das Problem erledigt.
Dunno.. schrieb: > Auf unserem 20k MSO in der Arbeit > Bootet beim einschalten dann ein Windows, vermutlich wird da der > Arbeitsspeicher für Signale genutzt.. Möglich, aber unwahrscheinlich.
Nano schrieb: > Ein paar Anwendungen gibt es: > https://www.golem.de/news/5-25-disketten-zerkratzt-zerbeult-und-doch-zu-retten-2107-157374-7.html Rechnen wir mal: Bei den im Link betrachteten SD-Disketten und -Laufwerken ist die Übetragungsgeschwindigkeit 125 kbit/s (d.h. 8 µs/bit). Um das Signal dekodieren zu können, muss die Abtastrate größer als das Doppelte davon sein, also >250 kS/s. Schon mit 500 kS/s sollten die 0- und 1-Bits bei guter Signalqualität ohne Tricks klar voneinander unterscheidbar sein. In dem Link geht es aber um alte, verratzte Disketten, bei denen die Signalqualität eben nicht mehr so gut ist. Also multiplizieren wir die Abtastrate noch mit 4. Mit den resultierenden 2 MS/s wird jede Periode der maximalen Signalfrequenz (125 kHz) 16-mal abgetastet, was auf jeden Fall ausreichen sein sollte. Eine Umdrehung der Diskette dauert 0,2 s. Um eine Spur komplett einzulesen, braucht man also 2 MS/s · 0,2 s = 400 kS Für DD-Disketten sind es 800 kS, für HD-Disketten 1,6 MS. Das schaffen die meisten aktuellen DSOs, wie du selbst schriebst Nano schrieb: > Heute hat ein Einsteiger-DSO eine Speichertiefe von etwa 2 Mpts > (Keysight) bis 24 MPts (Rigol). Selbst wenn das Oszi weniger Speicher hat, muss man nicht aufgeben, denn man kann die Diskette ja auch in kleineren Einheiten, bspw. sektorweise lesen. Generell sind IMHO gute Triggermöglichkeiten wichtiger als ein riesiger Speicher. Das "skop" in Oszilloskop deutet ja an, dass man sich die Signale betrachten möchte. Aber wer schaut sich schon ein Signal mit mehreren Megasamples im Detail an? Meist ist in einem Signal nur ein relativ kleiner Ausschnitt von ein paar kS von Interesse. Die Aufgabe der Triggerung ist es nun, genau diesen Ausschnitt auf das Display zu bringen. Deswegen sollte ein ordentliches Oszi neben dem Flankentrigger mindestens noch einen Pulstrigger und am besten noch einen Zähler für Trigger-Events haben, so dass man bspw. auf die 42. Flanke triggern kann.
Ist halt ein Kompromiss. Wenn man alles einbaut was man in 1% der Anwendungsfälle braucht, dann wird es teuer und groß.
Yalu X. schrieb: > Generell sind IMHO gute Triggermöglichkeiten wichtiger als ein riesiger > Speicher. Das "skop" in Oszilloskop deutet ja an, dass man sich die > Signale betrachten möchte. Aber wer schaut sich schon ein Signal mit > mehreren Megasamples im Detail an? Meist ist in einem Signal nur ein > relativ kleiner Ausschnitt von ein paar kS von Interesse. Die Aufgabe > der Triggerung ist es nun, genau diesen Ausschnitt auf das Display zu > bringen. Das nützt dir aber nix, wenn du sporadische oder sonstige, fiese Fehler suchst, wo du nicht mal ansatzweise die Triggerbedingung kennst! Eben darum braucht man recht viel Speicher, um tausende von Zyklen aufzuzeichnen und dann nach dem Fehler zu suchen. Aber das ist nicht unbedingt das täglich Brot eines Oszibenutzers. Die meisten Messungen kommen ohne viele Megasamples Speichertiefe aus. Wo nach viel Speicher nötig ist, wenn der Trigger deutlich NACH dem interessanten Ereignis liegt. Dann braucht man eben die entsprechende Speicherzeit, damit man es aufzeichnen kann. Wenn der Trigger VOR dem Ereignis liegt ist es einfach, da muss nur die Aufzeichnung später starten, das ist trivial und kann jedes DSO heute.
Moin, Da koennt' ich doch mit der gleichen Berechtigung fragen: Warum steckt man moderne Oszilloskope nicht in dicke, schwere Metallgehaeuse. Denn damit koennte man viel besser Naegel in die Wand schlagen... Achja, wenn ich mich recht entsinne, koennte mein Scope 2bit Speicher haben. Ich glaub' da ist irgendwo ein 7474 verbaut :-) SCNR, WK
Falk B. schrieb: > Das nützt dir aber nix, wenn du sporadische oder sonstige, fiese Fehler > suchst, wo du nicht mal ansatzweise die Triggerbedingung kennst! Verstehe ich das richtig: Du scrollst bei einem, sagen wir mal 10 MS langen Signal mehr als 5000 Bildschirmbreiten (Annahme: Full-HD-Display) manuell durch, um nach einem Fehler zu suchen, von dem du nicht einmal ansatzweise weißt, wie er aussieht? Viel Spaß dabei ;-) > Wo nach viel Speicher nötig ist, wenn der Trigger deutlich NACH dem > interessanten Ereignis liegt. Fällt dir dazu ein konkretes Beispiel ein, bei dem 1 MS Speichergröße nicht ausreicht?
Dergute W. schrieb: > Achja, wenn ich mich recht entsinne, koennte mein Scope 2bit Speicher > haben. Ich glaub' da ist irgendwo ein 7474 verbaut :-) Ja ich glaube auch mein altes analoges Scope hat irgendwo ein bit oder zwei "Speicher". (FlipFlop für Trigger oder so was). ;-)
Mein DSO speichert nur etwa 2000 Samples, das war vor 10 Jahren im Low-Cost Sektor üblich. Und das ist schon viel besser, als mein analoges von davor. Denn jetzt kann ich sehen, was kurz vor dem Trigger passierte.
Yalu X. schrieb: > Verstehe ich das richtig: Du scrollst bei einem, sagen wir mal 10 MS > langen Signal mehr als 5000 Bildschirmbreiten (Annahme: Full-HD-Display) > manuell durch, um nach einem Fehler zu suchen, von dem du nicht einmal > ansatzweise weißt, wie er aussieht? IM Extremfall KANN das passieren, auch wenn ICH das "Vergnügen" noch nicht hatte. Mein LeCroy Wavejet 314 hat die nette Eigenschaft, daß es einem sehr einfach erlaubt, die vielen Speicherseiten bei jedem Trigger einfach nacheinander durchzuscrollen. Das ist sehr praktisch und schnell, hab ich auch schon erfolgreich genutzt. Je nach Einstellung und Speichertiefe hat man so 32-1024 einzelne Aufzeichungen der gleichen Triggerbedingung. > Fällt dir dazu ein konkretes Beispiel ein, bei dem 1 MS Speichergröße > nicht ausreicht? Nein, aber die Welt der Elektronikentwicklung und Fehlersuche ist nur allzu oft größer als meine Vorstellungskraft.
Hmm, spannender ist die Frage, warum das Update auf 4 Gpts schlappe 40k€ kostet. Ach ja, weil man den Speicher auch entsprechend schnell füllen muss bei 65 GHz Analogbandbreite.
Nano schrieb: > Sry, falls die Frage doof klingt, aber ich komme aus der Computer Ecke > und da haben wir 16 GiB und mehr Arbeitsspeicher als Normalfall. Soso. Der Normalfall bei dir ist eine RAM-Größe von 16 GB oder mehr. Nö, ich will sowas hier nicht diskutieren, obwohl es für die meisten Leute schon recht esoterisch ist, 16 GB an RAM im PC zu haben. Aber bedenke mal, daß ein heutiges DSO eine Sample-Rate von 1 GSPS oder mehr hat und da der Speicher mitkommen muß, ohne sich zwischendurch mal irgend einen Waitstate zum Refresh o.ä. leisten zu dürfen. So etwas ist auch heutzutage noch eine technische Herausforderung, der entsprechende Speicher nebst Ansteuerung ist nicht trivial und das Ganze teuer. Du scheinst eine gar sehr auf deine nächste Umgebung fokussierte Sichtweise zu haben und wendest das, was dir gerade 'üblich' erscheint, auf Gebiete an, die dir eher fernliegen. Und dann wunderst du dich darüber, daß dort der Wind ganz anders weht als du es gewohnt bist. Also, woanders ist es eben anders und dafür gibt es gar sehr oft triftige Gründe, die du bloß nicht kennst. Das ist das Problem. Siehe z.B. das Scheitern des Bettenverkäufers oder des Küchenmesser-Herstellers in Japan. W.S.
Fpgakuechle K. schrieb: > Hinzukommt das DDR speicher wegen den Refreshcyclen und Burstmode nicht > auf Dauer isochron arbeiten. War das beim Westdeutschen Ram auch so? Wie haben die das gelöst?
HFler schrieb: > Hmm, spannender ist die Frage, warum das Update auf 4 Gpts schlappe 40k€ > kostet. Ach ja, weil man den Speicher auch entsprechend schnell füllen > muss bei 65 GHz Analogbandbreite. Nicht wenn es ein Sampling-Osilloskop ist. Analoge Bandbreite hat da erstmal NICHTS mit Samplingrate zu tun. Und selbst wenn so ein Killer 100Gsps scheinbar hat, so erfolgt die Speicherung im Samplingmodus NICHT mit 100GB/s sondern DEUTLICH langsamer, weil die Signalerfassung über viele hundert bis tausend Perioden des Signals erfolgt.
W.S. schrieb: > bedenke mal, daß ein heutiges DSO eine Sample-Rate von 1 GSPS oder mehr > hat und da der Speicher mitkommen muß, ohne sich zwischendurch mal > irgend einen Waitstate zum Refresh o.ä. leisten zu dürfen. Nein, das muss er nicht. FIFOs wurden schon erfunden.
Es gibt halt Problemstellungen, für die ist ein Oszi nicht das richtige Werkzeug. Die o.g. 5000 Bildschirmseiten gehören dazu. Ich würde da (und vor allem wenn Analog eher zweitrangig ist und man sich digitale Signale anschaut) zu einem Logic Analyzer wechseln. Die von Saleae werden leider immer teurer, bieten aber mittlerweile auch ein Analog-Frontend (genauer gesagt kann man sogar auf jeder Strippe beides gleichzeitig samplen, wenn man Lust drauf hat). Und es gibt in der Software einen ungetriggerten Live-View. Hab ich schon erwähnt, dass es eine API gibt, mit dem man eigene Protocol Analyzer schreiben kann? </werbung> Damit wär das Auslesen von einer Diskette vmtl. wesentlich einfacher als mit Oszi. Das Exportformat muss man sich dann natürlich nochmal anschauen
@Falk für ein Sampling Scope hast du recht. Die sind aber explizit dazu gemacht, sich wiederholende Signale zu messen. Bei Realtime Scope sieht die Welt anders aus und die sind ja ehr die Regel als Sampling Scopes.
> Heute hat ein Einsteiger-DSO eine Speichertiefe von etwa 2 Mpts
Das Schluesselwort hier ist "Einsteiger" - alles klar.
Ja, meins hat glaub 100 MSample, ist aber auch etwas teurer.
@Pandur du wirfst da was durcheinander. Sample Rate und Sample Depth sind nicht identisch. Siehe Einheiten Mpts = Speichertiefe.
Der Tektronix-Chef war wohl einst mit Bill Gates einen saufen und meinte dann: acht Kilopunkte sind genug für jedermann.
> Der Tektronix-Chef war wohl einst mit Bill Gates einen saufen und meinte > dann: acht Kilopunkte sind genug für jedermann. Laber keinen Scheiss! Meins hat 1kByte! :) https://w140.com/tekwiki/wiki/7D20 Und eigentlich reicht das auch. Dafuer haettest du in den 80ern deine Oma in Zahlung gegeben. Verwoehnte Jugend hier! Im Ernst, damit koennte man 90% dessen machen was ich hier im Forum immer so an Anwendungen sehe.... Olaf
Fpgakuechle K. schrieb: > Man benutzt ein Scope um Signal-Anormalitäten aufzuspüren, deren > Länge/Dauer im Mikrosekundenbreich ist. Granatapfelwortmalerツ - Wäre Sygnalyse OK?
MaWin schrieb: > War das beim Westdeutschen Ram auch so? Nöpp. Ram heißt auf westdeutsch Bock. Oder Rammbock. Haste keine Ziege?
Nano schrieb: > Habe ich irgendwo einen Denkfehler in der Rechnung oder warum ist das so > wenig? Hast du. Ein Oszi ist kein Datenlogger. Wenn du irgendetwas ansehen willst, stellst du den Trigger passend ein - focused on the essentials. Selbst 4K Abtastpunkt - von mir aus auch 4 KiB - bekommst du auf dem Bildschirm nicht dargestellt ;-)
Falk B. schrieb: > Nein, das muss er nicht. FIFOs wurden schon erfunden. Ach? Und was kann der Fifo tun, wenn auf einen Rutsch einige MB oder nach Ansicht des TO einige GB an Daten ankommen und gespeichert werden müssen? First in mit 1 GB/s und was dann, wenn der Fifo voll ist? Nee, mein Lieber, da wäre der dahinterliegende Speicher ja überflüssig, weil der Fifo die komplette Speicherung übernehmen könnte, sofern er groß genug wäre. Ist er aber nicht. Und PENG! W.S.
Wolfgang schrieb: >> Habe ich irgendwo einen Denkfehler in der Rechnung oder warum ist das so >> wenig? > > Hast du. Ein Oszi ist kein Datenlogger. > Selbst 4K Abtastpunkt - von mir aus auch 4 KiB - bekommst du auf dem > Bildschirm nicht dargestellt ;-) Ausnahme Eye-diagramm und andere Persistance Geschichten, aber auch da brauchste kaum Megabyte an Erinnerungsvermögen, Schliesslich passte ein VGA in 8 bit in 64kbyte. Ja da sind sie wieder die 64k Segmente von anno Dosmals ;-) Anhang aus: https://cdn.rohde-schwarz.com/pws/dl_downloads/dl_common_library/dl_brochures_and_datasheets/pdf_1/Eye_Measurements_on_HDMI_signals.pdf > Sry, falls die Frage doof klingt, aber ich komme aus der Computer Ecke > und da haben wir 16 GiB und mehr Arbeitsspeicher als Normalfall. Ja, die Frage ist doof -Mantafahrerdoof-, so doof wie die Idee ein flinker Sportwagen bräuchte zum Fahrspass den 1400l Tank eines Mercedes-Benz_Actros https://de.wikipedia.org/wiki/Mercedes-Benz_Actros https://youtu.be/PgigEmJFw0Y?t=55
W.S. schrieb: >> Nein, das muss er nicht. FIFOs wurden schon erfunden. > > Ach? > Und was kann der Fifo tun, wenn auf einen Rutsch einige MB oder nach > Ansicht des TO einige GB an Daten ankommen und gespeichert werden > müssen? First in mit 1 GB/s und was dann, wenn der Fifo voll ist? Der FIFO muss nur die sehr kurzen Pausen eines Refresh bzw. Bankumschaltung des DDR-x RAMs puffern, also eher Mikrosekunden! > Nee, mein Lieber, da wäre der dahinterliegende Speicher ja überflüssig, > weil der Fifo die komplette Speicherung übernehmen könnte, sofern er > groß genug wäre. Ist er aber nicht. Und PENG! [ ] Du hast die Funktion eines FIFO verstanden. Mal wieder ein typischer W.S. Beitrag . . .
HFler schrieb: > Bei Realtime Scope sieht die Welt anders aus und die sind ja ehr die > Regel als Sampling Scopes. Allerdings, und das auch mit hohen Echtzeit Abtastraten. HFler schrieb: > @Pandur > > du wirfst da was durcheinander. Sample Rate und Sample Depth sind nicht > identisch. Siehe Einheiten Mpts = Speichertiefe. Pandur hatte keine Zeiteinheit verwendet, sondern MSamples geschrieben. Damit ist also keine Sample*rate* sondern eine Speichertiefe gemeint. Wolfgang schrieb: > Hast du. Ein Oszi ist kein Datenlogger. Wofür der Anwender sein Oszi verwenden möchte ist doch dessen Sache. Datenlogger gibt es, klar, aber die haben oft nur eine sehr geringe Datenrate. Es gibt aber Messungen bei denen man über eine lange Zeitspanne eine einigermaßen hohe Abtastrate haben möchte, oder zu mehreren Einzelereignissen eine sehr hohe zeitliche Auflösung. Da sind Oszis mit segmented Memory wunderbar geeignet. Wolfgang schrieb: > Selbst 4K Abtastpunkt - von mir aus auch 4 KiB - bekommst du auf dem > Bildschirm nicht dargestellt ;-) Klar, mit Intensity Grading sieht man da noch deutlich mehr "Punkte". Aber auch das ist nicht alles, moderne Oszis zeigen nicht nur einen Signalverlauf, die machen auch Messungen. Und zwar nicht nur über das was gerade angezeigt wird, sondern oft über alles was im RAM liegt. Dazu gehören auch FFT mit 1 MPunkte und dementsprechend guter RBW und auch Signaldekodierungen. Fpgakuechle K. schrieb: > Schliesslich passte ein > VGA in 8 bit in 64kbyte. 640*480*8 Bit = 307200 Byte = 300 kByte
> Der FIFO muss nur die sehr kurzen Pausen eines Refresh bzw. > Bankumschaltung des DDR-x RAMs puffern, also eher Mikrosekunden! Aber danach muss er das wieder los werden damit er erneut Platz hat. Soviel Luft ist da nicht. Und wie teilt dir dein Ram mit das es gerade unpaesslich ist? Und vor allem wenn du sowieso schon die reinkommenden Bits auf unterschiedliche Rams verteilen muss damit die ueberhaubt mitkommen. Und der FPGA muss natuerlich auch eine Nummer groesser sein damit er den Platz fuer einen schnellen Dualportram hat. Und bedenke, hier jammern Rigolkunden die schon bei 500Euro fuer ein Oszi in seufzen kommen. Da knallst du als Entwickler nicht mal eben einen fetteren FPGA rein. Olaf
Olaf schrieb: > Aber danach muss er das wieder los werden damit er erneut Platz hat. Das nennt man Lesen, es wird aus dem FIFO gelesen. Olaf schrieb: > Soviel Luft ist da nicht. Wie viel ist da denn? Olaf schrieb: > Und wie teilt dir dein Ram mit das es gerade unpaesslich ist? Das bekommt man doch wunderbar vom Speichercontroller mitgeteilt. Olaf schrieb: > Und der FPGA muss natuerlich auch eine Nummer groesser sein damit er den > Platz fuer einen schnellen Dualportram hat. Das hat heutzutage jedes FPGA eingebaut. Auch mehrere Speichercontroller für DDR RAM kann man in quasi alle FPGAs mit genug Pins reinstecken. Olaf schrieb: > Da knallst du als Entwickler nicht mal eben einen fetteren FPGA rein. Doch, genau das machen die (Rigol verbaut schon seit vielen Jahren FPGAs von Xilinx). Oder noch besser: Sie lassen eigene ASICs fertigen. Das lohnt sich, denn die Stückzahlen sind wohl hoch genug.
Olaf schrieb: >> Der FIFO muss nur die sehr kurzen Pausen eines Refresh bzw. >> Bankumschaltung des DDR-x RAMs puffern, also eher Mikrosekunden! > > Aber danach muss er das wieder los werden damit er erneut Platz hat. > Soviel Luft ist da nicht. Und wie teilt dir dein Ram mit das es gerade > unpaesslich ist? Und vor allem wenn du sowieso schon die reinkommenden > Bits auf unterschiedliche Rams verteilen muss damit die ueberhaubt > mitkommen. Du hast ebenso wie der gute W.S: keine Ahnung, wie ein FIFO funktioniert. Probier's nochmal. Kleiner Tip. Man muss zwischen mittlerer und maximaler Datenrate unterscheiden. > Und der FPGA muss natuerlich auch eine Nummer groesser sein damit er den > Platz fuer einen schnellen Dualportram hat. Das KANN ein FPGA sein, bei besseren Oszis ist das eher ein ASIC. > Und bedenke, hier jammern > Rigolkunden die schon bei 500Euro fuer ein Oszi in seufzen kommen. Da > knallst du als Entwickler nicht mal eben einen fetteren FPGA rein. Das war gar nicht die Frage.
Yalu X. schrieb: > Nano schrieb: >> Ein paar Anwendungen gibt es: >> > https://www.golem.de/news/5-25-disketten-zerkratzt-zerbeult-und-doch-zu-retten-2107-157374-7.html > > Rechnen wir mal: > > Bei den im Link betrachteten SD-Disketten und -Laufwerken ist die > Übetragungsgeschwindigkeit 125 kbit/s (d.h. 8 µs/bit). Um das Signal > dekodieren zu können, muss die Abtastrate größer als das Doppelte davon > sein, also >250 kS/s. Schon mit 500 kS/s sollten die 0- und 1-Bits bei > guter Signalqualität ohne Tricks klar voneinander unterscheidbar sein. Bei den 1-er Bit sind es nur 4 µs/bit. Das steht auch so im Golem Artikel. > In dem Link geht es aber um alte, verratzte Disketten, bei denen die > Signalqualität eben nicht mehr so gut ist. Also multiplizieren wir die > Abtastrate noch mit 4. In eurem Artikel (Quelle siehe unten) schreibt ihr, das man die 10 fache Abtastrate nehmen soll. Und bei analogen Signale ist es sogar das 25 bis 40 fache und bei der Diskette ist es wohl rein elektrisch ein analoges Signal: " Um ein Signal mit einer gegebenen Frequenz ausreichend genau in Phase und Amplitudenverlauf darstellen zu können, sollte es mindestens mit der 10-fachen Frequenz abgetastet werden. Nur dann lassen sich in der Regel die interessanten Details in einem Signal erkennen. Für eine genaue Analyse analoger Signale, um z.B. die Güte einer Flanke oder Überschwinger beurteilen zu kjönnen, ist sogar ein Faktor von 25 bis 40 anzuraten" https://www.mikrocontroller.net/articles/Oszilloskop#Allgemein (OT: Bemerkung am Rande: In eurem Artikel habt ihr bei oben zitierten Satz ein j im Wort "können".) > Mit den resultierenden 2 MS/s wird jede Periode > der maximalen Signalfrequenz (125 kHz) 16-mal abgetastet, was auf jeden > Fall ausreichen sein sollte. Eine Umdrehung der Diskette dauert 0,2 s. > Um eine Spur komplett einzulesen, braucht man also > > 2 MS/s · 0,2 s = 400 kS > > Für DD-Disketten sind es 800 kS, für HD-Disketten 1,6 MS. > > Das schaffen die meisten aktuellen DSOs, wie du selbst schriebst Wenn 1,6 MS ausreichen sollen, warum steht dann hier dass es 20 MB an RAM haben sollt? "Oscilloscope analogue flux transition capture support. At this point only the Rigol DS1054Z is supported and tested. Other scopes may work but it's not tested. Please let me know if it works. A modified floppy drive is needed for this. The oscilloscope should have at least 20MB storage to store a full track in memory." https://github.com/imqqmi/FloppyControl#Software Das Rigol ist auch das, was er da benutzt hat. Aber bei dem Keysight wird es mit seinen nur 2 MP laut deiner Rechnung arg eng und nach obiger github Readme reicht es beim Keysight nicht. > Nano schrieb: >> Heute hat ein Einsteiger-DSO eine Speichertiefe von etwa 2 Mpts >> (Keysight) bis 24 MPts (Rigol). > > Selbst wenn das Oszi weniger Speicher hat, muss man nicht aufgeben, denn > man kann die Diskette ja auch in kleineren Einheiten, bspw. sektorweise > lesen. Ja, könnte man. Aber ab irgendeinem Punkt wird es dann arg unbequem. Eine 3,5" Diskette hat 80 Spuren und 18 Sektoren, das würde bedeuten dass man 1440 mal manuell Abtasten müsste. Da ist der Aufwand irgendwann nicht mehr gerechtfertigt. Der github Readme Artikelschreiber liest mit dem Rigol daher eine ganze Spur auf einmal ein.
Fpgakuechle K. schrieb: > Die nachträgliche Bearbeitung macht man besser auf Geräten, die für die > nachträgliche Bearbeitung konzipiert worden wie 'Computer. Dazu möchte ich noch etwas sagen. Der Punkt warum hier zusätzliches DDR Ram helfen könnte ist ja der, weil man bei einer Übertragung von Oszi zu PC ja noch stärker limitiert ist und dann die Abtastrate noch weiter minimiert werden muss, als es bei einem im Oszi eingebauten DDR RAM notwendige wäre, damit man das noch in Echtzeit direkt auf den PC schieben kann. Das Oszi müsste man ja nichtmal mit eingebautem DDR RAM anbieten, es würde schon genügen, wenn dafür ein DDR3 oder besser DDR4 Slot auf der Platine und eine RAM Kompatibilitätsliste vorhanden wäre.
user schrieb: > Fpgakuechle K. schrieb: >> Hinzukommt das DDR speicher wegen den Refreshcyclen und Burstmode nicht >> auf Dauer isochron arbeiten. Dram ist für kontinuirliches Schreiben in >> maximaler (Burts-) Datenrate nicht ausgelegt. > DDR-4 kann grob 20GB/s. Bei 2 Ga/s@8bit ist da gut Luft zusammen mit > etwas cache. > > Wichtiger dürfte Produktsegmentierung sein: Willst du als Hersteller ein > 500€ scope mit 1Gpts/channel bauen oder denen, die das brauchen doch > lieber ein 10k€+ verkaufen? Ja, das klingt am plausibelsten. Es ist irgendwie schade, aber vielleicht gibt es irgendwann mal ein Wettbewerber, der das so macht, dann müßten die anderen nachziehen, weil er dann ein Alleinstellungsmerkmal hätte.
Thomas schrieb: > Ist halt ein Kompromiss. Wenn man alles einbaut was man in 1% der > Anwendungsfälle braucht, dann wird es teuer und groß. Es würde ja genügen, wenn ein DDR RAM Slot auf der Platine vorhanden wäre und der kann ja dann gerne für den Großteil des Marktes unbestückt sein und wer dann mehr braucht, rüstet den RAM Riegel selber nach. Yalu X. schrieb: > Falk B. schrieb: >> Das nützt dir aber nix, wenn du sporadische oder sonstige, fiese Fehler >> suchst, wo du nicht mal ansatzweise die Triggerbedingung kennst! > > Verstehe ich das richtig: Du scrollst bei einem, sagen wir mal 10 MS > langen Signal mehr als 5000 Bildschirmbreiten (Annahme: Full-HD-Display) > manuell durch, um nach einem Fehler zu suchen, von dem du nicht einmal > ansatzweise weißt, wie er aussieht? Er könnte die Stelle doch per Algorithmus finden. Wichtig ist doch erst einmal so ein langes Signal mit einer möglichst hohen Abtatsrate aufzuzeichnen und für die Verarbeitung schiebt man es dann hinterher auf den PC und lässt da klassische Algorithmen oder in modern, ne KI drüberlaufen. Fest steht: Bei dem Weg von "Oszi zu integriertem DDR RAM" kann die Abtastrate höher sein, als "von Oszi übers Netzwerk oder USB an den PC". Die höhere erlaubte Abtastrate wäre dann der Gewinn. > Fällt dir dazu ein konkretes Beispiel ein, bei dem 1 MS Speichergröße > nicht ausreicht? Im BBC Micro gibt es einen Bug, den man wohl bis heute noch nicht gefunden hat, vielleicht wäre es dafür aus rein historischem Interesse sinnvoll: "The National Semiconductor 81LS95 multiplexer is needed for the high memory speed. Furber recalled that competitors came to Acorn offering to replace the component with their own, but "none of them worked. And we never knew why. Which of course means we didn't know why the National Semiconductor one did work correctly. And a million and a half BBC Micros later it was still working and I still didn't know why". Another mystery was the 6502's data bus. The prototype BBC Micro exceeded the CPU's specifications, causing it to fail. The designers found that putting a finger on a certain place on the motherboard caused the prototype to work. Acorn put a resistor pack across the data bus, which Furber described as "'the engineer's finger' and again, we have no idea why it's necessary, and a million and a half machines later it's still working, so nobody asked any questions".[10]" https://en.wikipedia.org/wiki/BBC_Micro#Hardware_features:_Models_A_and_B W.S. schrieb: > Nö, ich will sowas hier nicht diskutieren, obwohl es für die meisten > Leute schon recht esoterisch ist, 16 GB an RAM im PC zu haben. Mehr als 50,27 % der Steam Kunden, also Gamer, haben bereits 16 GB und wenn du die entsprechende Zeile anklickst, dann haben ca. 13 % sogar noch mehr. https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam Die PS5 hat das bereits auch schon, da beim PC aber immer noch Sachen im Hintergrund laufen und man bei einer Konsole besser optimieren kann wird das bald dazu führen, dass man auf dem PC 24 GB oder 32 GB verbauen wird, sobald die ersten Spiele rauskommen, die auch die PS5 voll ausnutzen. > Aber > bedenke mal, daß ein heutiges DSO eine Sample-Rate von 1 GSPS oder mehr > hat und da der Speicher mitkommen muß, ohne sich zwischendurch mal > irgend einen Waitstate zum Refresh o.ä. leisten zu dürfen. So etwas ist > auch heutzutage noch eine technische Herausforderung, der entsprechende > Speicher nebst Ansteuerung ist nicht trivial und das Ganze teuer. Das habe ich oben bereits vor deinem Kommentar alles geschrieben. Also nichts Neues. Da sagte ich mit reduzierter Abtastrate könne man hier dann eine größere Signaldauer abtasten und das ist trotzdem mehr, als wenn du die Abtastrate soweit reduzieren müsstest, damit du das in Echtzeit per USB oder Ethernet auf den PC schieben kannst.
Phantomix X. schrieb: > Es gibt halt Problemstellungen, für die ist ein Oszi nicht das richtige > Werkzeug. Die o.g. 5000 Bildschirmseiten gehören dazu. > Ich würde da (und vor allem wenn Analog eher zweitrangig ist und man > sich digitale Signale anschaut) zu einem Logic Analyzer wechseln. Früher zu Opas Zeiten hatte man ein Messgerät für den Strom und ein weiteres für die Spannung. Heutige DSO kommen schon mit Logic Analyzerfunktionen und sogar mit Signalgeneratorfunktionen, daher liegt es meiner Meinung nach auf der Hand, dass das langfristig zu einer einzigen Geräteklasse zusammenwachsen könnte. Im > 10 K€ Profi Bereich vielleicht erst einmal nicht, aber gerade im mittleren und unteren Preissegment könnte es dazu kommen.
Gustl B. schrieb: > Olaf schrieb: >> Soviel Luft ist da nicht. > > Wie viel ist da denn? Eigentlich genauso viel (genauso hohe Datenrate) wie reinkommt. Sonst würde er überlaufen - oder er müßte eben so groß sein, daß er die eigentliche Speichertiefe umfaßt. So ein (gedachter) Fifo wäre am Ende also nur eine Verzögerung. Ein Fifo kann also nur dort sinnvoll eingesetzt werden, wenn es kurze Bursts von Daten gibt, die von viel längeren Lücken gefolgt werden. Eben so, daß er in passabler Zeit wieder entleert werden kann. Und die Datenrate über alles wird von der Geschwindigkeit begrenzt, mit der der nachfolgende RAM (bzw. das nachfolgende Gerät) die Daten abnehmen kann. Aber so weit kann Falk nicht denken. W.S.
W.S. schrieb: > Ein Fifo > kann also nur dort sinnvoll eingesetzt werden, wenn es kurze Bursts von > Daten gibt, die von viel längeren Lücken gefolgt werden. Nein. Ein FIFO ist ein meist kleiner Puffer, nicht mehr. Und am Ende ist die durchschnittliche Schreibrate genauso groß wie die durchschnittliche Leserate. Immer. Wenn du beim Schreiben sehr schnell schreibst und dann lange Pausen machst, dann kann man deutlich gemütlicher lesen wenn man dauerhaft liest. Aber man kann auch langsam aber gleichmäßig schreiben und den FIFO dann in Bursts auslesen. Beim RAM ist das so, dass da ab und zu Pausen sind. Jetzt muss man den FIFO so dimmensionieren, dass der gerade garantiert nicht überläuft. Mal ein Beispiel: Das Oszi tastet mit 1 GSample und 8 Bits/Sample ab und schreibt das in einen FIFO. Von dort soll es ins DDR RAM gehen. Das RAM macht jede Millisekunde für 10 us Pause. Und zusätzlich ist die Schreibrate ins RAM (wenn das gerade keine Pause macht) deutlich größer als 1 GByte/s. Dann muss das FIFO also die Daten zwischenpuffern die während der 10 us nicht abgeholt werden. Das sind dann 10kBytes. Sofort nach der Pause wird aus dem FIFO schneller gelesen als neue Daten reinkommen, dann ist der FIFO zwar immer noch nicht instantan leer, aber der Füllstand sinkt und bis zur nächsten Pause ist der FIFO sehr wahrscheinlich leer oder fast leer. Ein 16 kByte FIFO würde also reichen. W.S. schrieb: > Gustl B. schrieb: >> Olaf schrieb: >>> Soviel Luft ist da nicht. >> >> Wie viel ist da denn? Das hatte ich gefragt weil oben behauptet würde da wäre nicht viel Luft. Aber die Begründung dafür fehlt. Das kann schon richtig sein, denn man entwirft ja effiziente Syteme, zu viel Luft kostet am Ende nur.
W.S. schrieb: > So ein (gedachter) Fifo wäre am Ende also nur eine Verzögerung. Ein Fifo > kann also nur dort sinnvoll eingesetzt werden, wenn es kurze Bursts von > Daten gibt, die von viel längeren Lücken gefolgt werden. Eben so, daß er > in passabler Zeit wieder entleert werden kann. Und die Datenrate über > alles wird von der Geschwindigkeit begrenzt, mit der der nachfolgende > RAM (bzw. das nachfolgende Gerät) die Daten abnehmen kann. Aber so weit > kann Falk nicht denken. Der weise W.S. hat gesprochen. Hört, hört! Auch und ganz besonders du leidest unter dem Dunning-Kruger-Effekt Effekt. https://de.wikipedia.org/wiki/Dunning-Kruger-Effekt Ich hab zwar keine DSOs entwickelt, wohl aber diversen Telekomkram, wo auch diverse kleine und große FIFOs drin stecken. Und ICH weiß, wie sie funktionieren! Für die FIFO-Legastheniker. Der ADC vom DSO schickt mit konstanter Datenrate eben Daten in Richtung Speicher. Sagen wir 4x1GB/s für ein Vierkanal DSO mit 1 Gsps und 8 Bit. Die müsse DAUERHAFT im Speicher landen, ohne Lücker etc. Für's Erste kommen die in einen FIFO, meist als Dual Port RAM in einem FPGA oder ASIC. An dessen Ausgang wird über Zwischenlogik ein DDR-x SDRAM angeflanscht. Der kann bzw. MUSS im Burst Mode etwas mehr als 4GB/s schlucken können, egal ob über die Bitbreite oder entsprechende Taktfrequenz. Leider ist auch der schönste Burst irgenwann mal zu Ende, außerdem muss so ein SDRAM auch alle paar Dutzend us ein Refresh Kommando erhalten. Sagen wir alle 50us. Das dauert aber nur wenige Takte, vielleicht 10. Dann kommt der nächste Burst. D.h. alle 50us stockt der Datenabfluß aus dem FIFO, dieser füllt sich netto mit den vollen 4GB/s. Aber schon nach wenigen Dutzend Nanosekunden "saugt" der DDR-RAM mit >4GB/s die Daten aus dem FIFO und speichert sie. Dabei leert sich der FIFO netto mit der Rate (4,x - 4 GB/s). Natürlich darf der FIFO während eines Burst nicht leer werden, d.h. der Transfer vom FIFO in den SD_RAM darf erst starten, wenn >= Burstlänge Daten im FIFO liegen. Ebenso darf der FIFO während der kurzen Refresh-Zyklen nicht überlaufen, aber das sind Zeiten deutlich <1us. OK, 4GB/s bedeutet 4kB/us. Vermutlich wird so ein FIFO zwischen 0,5-2k Samples Speichertiefe haben. Q.E.D. Hier nochmal kurz und kompakt. 1. Zustand SDRAM transferiert Daten vom FIFO in den SDRAM, Nettorate im FIFO ist Ausgangsrate - Eingangsrate; Ausgangsrate vermutlich 1,1*Eingangsrate oder höher. Dieser Zustand besteht relativ lang, viele Dutzend Mikrosekunden. 2. Der SD-Ram braucht ne Pause, Burst zu Ende oder Refresh nötig, FIFO-Füllrate = Eingangsrate, da Ausgangsrate = 0, das dauert aber zum Glück nur wenige Dutzend ns, ein paar Takte am SDRAM. Das was sich an Daten im FIFO während der Pause (2) mit hoher Geschwindigkeit anstaut, muss danach wieder langsam abgebaut werden. Im Mittel sind beide Raten EXAKT gleich. Das ist vergleichbar mit dem Drosselstrom eines Step Down Wandlers und PWM mit kleinem Tastverhältnis. Kurze Zeit volle Spannung, der Strom (Füllstand) steigt schnell an, dann lange Zeit Freilauf, Strom (Füllstand) fällt langsam. Siehe Anhang als einfaches Beispiel. 100V == 100% Füllstand. Beim UART im PC ist es anders herum! Dort füllt sich der FIFO relativ langsam (in Vergleich zum CPU-Takt). wenn der FIFO mit meist 16 Byte 14 Byte enthält, wird ein Interrupt ausgelöst und die CPU liest den FIFO sehr schnell in einer Schleife im Interrupt. So spart man Interrupts und damit CPU-Last, auf Kosten der Latenz. So Herr W.S., jetzt sind Sie wieder am Ball.
Danke Falk, das war wunderschön ausführlich und auch das Bildchen gefällt mir.
Und wenn ein RAM von der durchschnittlichen Datenrate nicht ausreicht, kann ja auch im Wechsel ein zweiter bedient werden. Wird halt zunehmend komplex.
Reichen 2 GPts? https://www.keysight.com/de/de/products/oscilloscopes/infiniium-real-time-oscilloscopes/infiniium-uxr-series-oscilloscopes.html#NPXKeySpecifications Für das Geld könnte man sich aber auch ein Haus kaufen. In München. 1,3 Millionen Dollar. Hier ein Tear-down https://youtu.be/DXYje2B04xE
Nano schrieb: > Bei den 1-er Bit sind es nur 4 µs/bit. Das steht auch so im Golem > Artikel. Nein, das hast du falsch verstanden. Jedes Bit – egal, ob 0 oder 1 – ist 8 µs lang. Sonst würde ja eine Datei mit lauter 0-Bits doppelt so viel Platz auf der Diskette belegen wie eine mit lauter 1-Bits. Ein 0-Bit wird auf dem Diskettenmedium durch 1 Flusswechsel innerhalb der 8 µs repräsentiert, ein 1-Bit durch 2 Flusswechsel. Das ergibt die folgende Signalform (Zitat aus dem verlinkten Artikel): "Um ein "0"-Datenbit zu speichern, gibt es einen Peak in einem 8-μs-Fenster, um ein "1"-Datenbit zu speichern, zwei." Damit liefert der Lesekopf für eine Sequenz aus lauter 1-Bits ein Signal mit 125 kHz, für eine Sequenz aus lauter 0-Bits ist die Frequenz die Hälfte, nämlich 62,5 kHz. Die höchste auftretende Signalfrequenz ist also 125 kHz. Anmerkung: Wegen der Kodierung der Bits durch verschiedene Frequenzen wird das Verfahren auch FM (Frequenzmodulation) genannt: https://de.wikipedia.org/wiki/Digitale_Frequenzmodulation >> In dem Link geht es aber um alte, verratzte Disketten, bei denen die >> Signalqualität eben nicht mehr so gut ist. Also multiplizieren wir die >> Abtastrate noch mit 4. > > In eurem Artikel (Quelle siehe unten) schreibt ihr, das man die 10 fache > Abtastrate nehmen soll. Mit den von mir genannten 2 MS/s ist es sogar die 16-fache Abtastrate. Das Oszi muss auch nicht die Signalform bis ins letzte Detail erfassen. Es genügt schon, wenn man zuverlässig die 1 oder 2 Peaks innerhalb jedes 8µs-Zeitslots erkennen kann. Da zwischen zwei Peaks 8 (beim 1-Bit) oder 16 Abtastwerte (beim 0-Bit) liegen, sollte dies problemlos möglich sein. Ob das Signal eher eine Sinus- oder eher eine Dreiecksform hat ist unerheblich. >> Für DD-Disketten sind es 800 kS, für HD-Disketten 1,6 MS. >> >> Das schaffen die meisten aktuellen DSOs, wie du selbst schriebst > > Wenn 1,6 MS ausreichen sollen, warum steht dann hier dass es 20 MB an > RAM haben sollt? > "Oscilloscope analogue flux transition capture support. At this point > only the Rigol DS1054Z is supported and tested. Other scopes may work > but it's not tested. Please let me know if it works. A modified floppy > drive is needed for this. The oscilloscope should have at least 20MB > storage to store a full track in memory." > https://github.com/imqqmi/FloppyControl#Software Naja, das Oszi des Autors hat offensichtlich einen so großen Speicher (m.W. gibt es das Gerät wahlweise mit 12 MB oder 24 MB, er hat wohl eins mit dem vollen Ausbau), warum sollte er es dann mit weniger versuchen? >> Nano schrieb: >>> Heute hat ein Einsteiger-DSO eine Speichertiefe von etwa 2 Mpts >>> (Keysight) bis 24 MPts (Rigol). >> >> Selbst wenn das Oszi weniger Speicher hat, muss man nicht aufgeben, denn >> man kann die Diskette ja auch in kleineren Einheiten, bspw. sektorweise >> lesen. > > Ja, könnte man. Aber ab irgendeinem Punkt wird es dann arg unbequem. > Eine 3,5" Diskette hat 80 Spuren und 18 Sektoren, das würde bedeuten > dass man 1440 mal manuell Abtasten müsste. Nicht manuell. Praktisch alle DSOs der letzten 20 bis 30 Jahre können von einem PC ferngesteuert werden, so dass der Aufzeichnungsvorgang automatisiert werden kann. > (OT: Bemerkung am Rande: In eurem Artikel habt ihr bei oben zitierten > Satz ein j im Wort "können".) Danke für den Hinweis, hab's korrigiert.
Yalu X. schrieb: > Nano schrieb: >> Bei den 1-er Bit sind es nur 4 µs/bit. Das steht auch so im Golem >> Artikel. > > Nein, das hast du falsch verstanden. Jedes Bit – egal, ob 0 oder 1 – ist > 8 µs lang. Sonst würde ja eine Datei mit lauter 0-Bits doppelt so viel > Platz auf der Diskette belegen wie eine mit lauter 1-Bits. > > Ein 0-Bit wird auf dem Diskettenmedium durch 1 Flusswechsel innerhalb > der 8 µs repräsentiert, ein 1-Bit durch 2 Flusswechsel. Das ergibt die > folgende Signalform (Zitat aus dem verlinkten Artikel): > > "Um ein "0"-Datenbit zu speichern, gibt es einen Peak in einem > 8-μs-Fenster, um ein "1"-Datenbit zu speichern, zwei." Ah, okay. Danke für die Richtigstellung. Dann habe ich das falsch verstanden.
Nano schrieb: > In eurem Artikel (Quelle siehe unten) schreibt ihr, > das man die 10 fache Abtastrate nehmen soll. Und bei > analogen Signale ist es sogar das 25 bis 40 fache [...] Wer sich im Mikrocontrollerforum über analoge Signale informiert, fragt auch in einem Veganerforum nach einem Rezept für Gulasch. > " Um ein Signal mit einer gegebenen Frequenz ausreichend > genau in Phase und Amplitudenverlauf darstellen zu können, > sollte es mindestens mit der 10-fachen Frequenz abgetastet > werden. Nur dann lassen sich in der Regel die interessanten > Details in einem Signal erkennen. Für eine genaue Analyse > analoger Signale, um z.B. die Güte einer Flanke oder > Überschwinger beurteilen zu kjönnen, ist sogar ein Faktor > von 25 bis 40 anzuraten" > https://www.mikrocontroller.net/articles/Oszilloskop#Allgemein Das ist -- kurz und drastisch ausgedrückt -- Schwachsinn. Die Wiederholrate einer m.o.w. komplexen Signalform im Zeitbereich hat erstmal nichts mit der erforderlichen analogen Bandbreite -- also der höchsten interessierenden Spektralkomponente -- zu tun, und die wiederum nichts mit der insgesamt erforderlichen Speichermenge. Beispiel: Die Entfernung Mond-Erde wird seit Jahrzehnten routinemäßig mittels LIDAR gemessen; die Zeitauflösung ist deutlich besser als 1ns. Die Laserpulse sind ca. 200ps lang; das entspricht einer Analogbandbreite von 2.5GHz. Die Pulswiederholrate beträgt aber nur 10Hz (!). Aus diesen Zahlen kann man die erforderliche Abtastrate nur grob abschätzen -- und über den notwendigen Speicher überhaupt nichts sagen. Die Mondentfernung ändern sich nämlich nicht beliebig von jetzt auf gleich; man weiss also schon recht genau, wann man die Registrierung überhaupt anschalten muss, und wann sowieso nur Rauschen anliegt.
Egon D. schrieb: > Wer sich im Mikrocontrollerforum über analoge Signale > informiert, fragt auch in einem Veganerforum nach einem > Rezept für Gulasch. Blödsinn. Selbst im uC selbst sind meist ADCs eingebaut. Egon D. schrieb: > Die Wiederholrate einer m.o.w. komplexen Signalform im > Zeitbereich hat erstmal nichts mit der erforderlichen > analogen Bandbreite -- also der höchsten interessierenden > Spektralkomponente -- zu tun, und die wiederum nichts mit > der insgesamt erforderlichen Speichermenge. Und gleich nochmal Blödsinn. Hier geht es nicht um eine Wiederholrate. Es ging um die Frequenz die man ordentlich abgetastet schön dargestellt haben möchte. Und eigentlich geht es nicht mal darum, sondern um ein beliebiges Signal das eine Spannungsänderung je Zeitspanne, dU/dt hat. Wenn die Abtastzeitpunkte zu weit auseinander liegen, zeitlich, dann wird die Spannungsänderung des Analogsignals nicht mehr "realitätsnah" dargestellt. Bei einem periodischen Sinussignal gibt es da die Nyquist Grenze. Das muss man mehr als mit der doppelten Frequenz abtasten damit man mehr als zwei Abtastpunkte je Periode bekommt. Bei einem nicht-sinusförmigen Signal muss man noch deutlich schneller abtasten, je schneller, desto realitätsnäher kann man das echte Signal am Eingang rekonstruieren.
Gustl B. schrieb: > Egon D. schrieb: >> Wer sich im Mikrocontrollerforum über analoge Signale >> informiert, fragt auch in einem Veganerforum nach einem >> Rezept für Gulasch. > > Blödsinn. Im Gegenteil. Jahrelange Erfahrung. > Selbst im uC selbst sind meist ADCs eingebaut. ??? Wo ist da der Zusammenhang zu meiner Aussage? Ich habe nicht von Analog-Digital-Wandlern gesprochen, sondern von analogen Signalen! "Der durchschnittliche Teilnehmer" auf µC.net weiss von den Signalen, die am Eingang des ADC anliegen, nur, dass es "irgendwas mit Volt" ist... > Egon D. schrieb: >> Die Wiederholrate einer m.o.w. komplexen Signalform im >> Zeitbereich hat erstmal nichts mit der erforderlichen >> analogen Bandbreite -- also der höchsten interessierenden >> Spektralkomponente -- zu tun, und die wiederum nichts mit >> der insgesamt erforderlichen Speichermenge. > > Und gleich nochmal Blödsinn. Würde es Dir etwas ausmachen, Deinen Beissreflex etwas zu dämpfen? Vielen Dank. :) > Hier geht es nicht um eine Wiederholrate. Korrekt. Es ging um die Frage "Warum haben [...] Oszis so wenig Speicher?" Das ist erstens eine Suggestivfrage -- denn die Oszis haben m.E. nicht "wenig" Speicher -- und zeigt zweitens die unter PC-Jüngern übliche Neigung zur Materialschlacht: Wenn es irgend ein Problem beliebiger Art gibt -- nicht nachdenken, sondern einfach mit mehr Gigahertz und mehr Gigabyte draufhauen. > Es ging um die Frequenz die man ordentlich abgetastet > schön dargestellt haben möchte. Verzeihung -- aber das ist Arduino-Niveau. Die Frage ist nicht, ob das Signal "schön" dargestellt wird -- die relevante Frage ist, ob es die Information enthält, die ich suche, oder nicht. > Und eigentlich geht es nicht mal darum, sondern um ein > beliebiges Signal das eine Spannungsänderung je Zeitspanne, > dU/dt hat. Wenn die Abtastzeitpunkte zu weit auseinander > liegen, zeitlich, dann wird die Spannungsänderung des > Analogsignals nicht mehr "realitätsnah" dargestellt. Bei > einem periodischen Sinussignal gibt es da die Nyquist > Grenze. Das muss man mehr als mit der doppelten Frequenz > abtasten damit man mehr als zwei Abtastpunkte je Periode > bekommt. Bei einem nicht-sinusförmigen Signal muss man > noch deutlich schneller abtasten, je schneller, desto > realitätsnäher kann man das echte Signal am Eingang > rekonstruieren. Es tut mir leid, aber das ist GENAU die Sorte Unkenntnis, die mir so auf den Zünder geht: Die Theorie der Abtast- systeme beruht auf einem BANDBEGRENZTEN (!!!) Signal. Bei einem bandbegrenzten Signal ist es aber völlig wurscht, ob man es zehnmal, hundertmal oder tausendmal schneller abtastet, als die höchste Spektralkomponente angibt -- es steckt in allen Fällen genau dieselbe Information in den Abtastwerten! Bei einem BANDBEGRENZTEN Signal -- wie es die Theorie fordert -- KÖNNEN keine "weiteren Einzelheiten" zwischen den Abtastpunkten auftauchen, weil das der Voraussetzung der Bandbegrenzung widerspräche !!!!
Egon D. schrieb: > ??? Wo ist da der Zusammenhang zu meiner Aussage? Das was du geschrieben hattes klang so als sei es falsch sich hier zu analogen Signalen zu informieren. Das sehe ich nicht so, auch wer mit uCs Dinge baut wird mal mit Analogkram zu tun haben und sollte das lernen. Egon D. schrieb: > Das ist erstens eine Suggestivfrage Natürlich, da gebe ich dir vollkommen Recht. Egon D. schrieb: > Verzeihung -- aber das ist Arduino-Niveau. Die Frage ist > nicht, ob das Signal "schön" dargestellt wird -- die > relevante Frage ist, ob es die Information enthält, die > ich suche, oder nicht. Schön ist tatsächlich der falsche Begriff. Man möchte, dass das was man sieht der Realität entspricht oder ihr zumindest sehr nahe kommt. Egon D. schrieb: > Die Theorie der Abtast- > systeme beruht auf einem BANDBEGRENZTEN (!!!) Signal. Natürlich ist sie das. Nur sieht man das nicht so schön in der Praxis. Bei einem einzelnen Sinussignal kann man Nyquist schön nachvollziehen, bei einem beliebigen Signal - selbst wenn es bandbreitenbegrenzt ist - sieht man nicht was die passende Abtastrate ist die man benötigt. Und genau deshalb gibt es diese Faustregel: >> "Um ein Signal mit einer gegebenen Frequenz ausreichend >> genau in Phase und Amplitudenverlauf darstellen zu können, >> sollte es mindestens mit der 10-fachen Frequenz abgetastet >> werden. [...]" Dabei ist mit "Frequenz" aber eben genau nicht die höchste im Signal enthaltene Frequenz gemeint, sondern die Wiederholrate von einem periodischen Signal das man sich anguckt. Der Faktor 10 ist nur da damit ein paar Obertöne mit erfasst werden und auch ein Rechteck halbwegs rekonstruiert werden kann.
Gustl B. schrieb: > Egon D. schrieb: >> ??? Wo ist da der Zusammenhang zu meiner Aussage? > > Das was du geschrieben hattes klang so als sei es > falsch sich hier zu analogen Signalen zu informieren. Man soll sich natürlich zu analogen Signalen informieren, aber man soll diese Informationen nicht ausgerechnet hier suchen -- denn hier ist das Mikrocontroller-Forum, und nicht das Analogsignalforum :) Soll heißen: Das Spektrum hier ist sehr breit. Leider gehen m.E. häufig die Antworten von sehr sachkundigen Leuten in der Masse der Halbwahrheiten unter. > Egon D. schrieb: >> Verzeihung -- aber das ist Arduino-Niveau. Die Frage ist >> nicht, ob das Signal "schön" dargestellt wird -- die >> relevante Frage ist, ob es die Information enthält, die >> ich suche, oder nicht. > > Schön ist tatsächlich der falsche Begriff. Man möchte, > dass das was man sieht der Realität entspricht oder ihr > zumindest sehr nahe kommt. Sicher. Der Knackpunkt dabei ist: Die Theorie setzt voraus , dass man nur einen Teil der Realität sieht, denn sie sagt ja: " WENN das Signal bandbegrenzt ist, DANN ..." Der Teil des Signals, der im Durchlassbereich des Abtast-Tiefpasses liegt, wird korrekt abgebildet; der Teil, der abgeschnitten wird, wird eben abgeschnitten. Es ist die Aufgabe des Fachmannes, sicherzustellen, dass sein Gerät, das, was er sehen will, auch zeigen kann. Wenn er Unmögliches verlangt, ist das nicht die Schuld seines Messgerätes. > Egon D. schrieb: >> Die Theorie der Abtastsysteme beruht auf einem >> BANDBEGRENZTEN (!!!) Signal. > > Natürlich ist sie das. Nur sieht man das nicht so schön > in der Praxis. Das stimmt. > Bei einem einzelnen Sinussignal kann man Nyquist schön > nachvollziehen, bei einem beliebigen Signal - selbst wenn > es bandbreitenbegrenzt ist - sieht man nicht was die > passende Abtastrate ist die man benötigt. Das stimmt, aber das liegt in der Natur der Sache: Um ein korrektes Messergebnis zu erhalten, muss ich in der Regel die Sachkenntnis haben, ein geeignetes Messgerät auszuwählen. Diese Sachkenntnis unterscheidet den Fachmann von Laien. Ein Laie kann auch mit einem teuren Gerät Unsinn messen. (Der Fachmann auch... aber das ist ein anderes Thema :) > Und genau deshalb gibt es diese Faustregel: > >>> "Um ein Signal mit einer gegebenen Frequenz ausreichend >>> genau in Phase und Amplitudenverlauf darstellen zu können, >>> sollte es mindestens mit der 10-fachen Frequenz abgetastet >>> werden. [...]" Meiner Meinung nach ist diese Faustregel einfach falsch. (Ich gebe zu, dass sie ein winziges Körnchen Wahrheit enthält. Trotzdem vermittelt sie m.E. eine völlig falsche Vorstellung.) > Dabei ist mit "Frequenz" aber eben genau nicht die höchste > im Signal enthaltene Frequenz gemeint, sondern die > Wiederholrate von einem periodischen Signal das man sich > anguckt. Naja, in dieser Interpretation wird es aber RICHTIG falsch. Nimm mein (Extrem-)Beispiel von der Erde-Mond-Messung: Die Wiederholrate beträgt 10Hz; das 40fache wären 400Hz. Mit einer Abtastrate von 400Hz siehst Du von den 200ps-Impulsen genau gar nix. > Der Faktor 10 ist nur da damit ein paar Obertöne > mit erfasst werden und auch ein Rechteck halbwegs > rekonstruiert werden kann. Jedes Sampling-Oszilloskop beweist, dass man auch langsamer abtasten kann, als Nyquist fordert, und trotzdem die Oberwellen sehen kann. Das Problem der Faustregel ist, dass sie zuviel unausgesprochen voraussetzt und außerdem die falschen Größen zueinander in Beziehung setzt: Die Abtastrate mit der Signal-Wiederholrate in Verbindung zu bringen ist komplett neben der Spur. Korrekt wäre m.E., 1. die Analogbandbreite des Oszis mit seiner Abtastrate in Verbindung zu bringen; bei den heute üblichen Echtzeit-DSOs für universelle Verwendung im Labor ist der Faktor 10 schon angemessen (100MHz-Oszi hat 1GSps); 2. die höchste relevante Spektralkomponente mit der Analogbandbreite in Beziehung zu setzen.
Egon D. schrieb: > Der Teil des Signals, der im Durchlassbereich des > Abtast-Tiefpasses liegt, wird korrekt abgebildet; der > Teil, der abgeschnitten wird, wird eben abgeschnitten. Das ist sehr vereinfacht. Gerade Oszilloskope haben da keinen steilflankigen Tiefpass am Eingang. Wenn das Oszilloskop also 100 MHz Analogbandbreite hat, dann ist das die -3 dB Bandbreite. Aber auch 200 MHz wird man noch sehen und 500 MHz wird man in der FFT des Oszilloskops auch noch gut erkennen. Egon D. schrieb: > Es ist die Aufgabe des Fachmannes, sicherzustellen, dass > sein Gerät, das, was er sehen will, auch zeigen kann. > Wenn er Unmögliches verlangt, ist das nicht die Schuld > seines Messgerätes. Auch das ist realitätsfern. In Bezug auf Oszilloskope. Der Nutzer will mit seinem 100 MHz (-3 dB Bandbreite) einen 10 MHz Rechteck sehen. Ist das Gerät geeignet? Wie schnell müsste es abtasten und welche Bandbreite müsste es haben? Theoretisch unendlich. In der Praxis geht das nicht, da nimmt man dann eben eine Faustregel die besagt wann man einen Rechteck noch grob erahnen kann. Egon D. schrieb: > Naja, in dieser Interpretation wird es aber RICHTIG falsch. Diese Faustregel ist für Leute die da auf einen Bildschirm gucken und etwas sehen möchten. Und sie ist für die üblichen Anwendungen - einen Rechteck angucken. Dort passt sie auch ganz brauchbar. Egon D. schrieb: > Jedes Sampling-Oszilloskop beweist, dass man auch > langsamer abtasten kann, als Nyquist fordert, und > trotzdem die Oberwellen sehen kann. Nur bei periodischen Signalen, da funktioniert random sampling, weil man eben schon die Zusatzinformation hat, dass das Signal periodisch ist. Egon D. schrieb: > Korrekt wäre m.E., Richtig, in der Theorie, aber für den Benutzer wenig aussagekräftig. Kann er dann mit dem 100 MHz Oszi mit den 1 GSample/s den 10 MHz Rechteck sehen? Egon D. schrieb: > Die Abtastrate mit > der Signal-Wiederholrate in Verbindung zu bringen ist > komplett neben der Spur. Ist es, aber praxisnah. Da werden großteils Rechtecke und andere Digitalsignale angeguckt. Ich finde man sollte die Faustregel einfach einschränklen auf den Rechteck mit 50% Tastverhältnis. Dafür ist die Regel gedacht und auch nur dafür taugt sie ganz passabel.
Gustl B. schrieb: > Egon D. schrieb: >> Wer sich im Mikrocontrollerforum über analoge Signale >> informiert, fragt auch in einem Veganerforum nach einem >> Rezept für Gulasch. > > Blödsinn. Selbst im uC selbst sind meist ADCs eingebaut. Ach nö. Der Vergleich ist kein Blödsinn, sondern sowohl lustig als auch recht zutreffend. Aber nicht ganz, denn man sieht inzwischen in den Läden auch vegane Schnitzel, vegane Bratwürste und anderes veganes Kunstzeug. Es scheint also auch unter den Veganern ein Bedürfnis nach Fleischkonsum zu geben. Aber das nur am Rande. Naja, aus der Existenz von ADC und Komparatoren in µC sollte man nicht schließen, daß die Diskutierer in diesem Forum engagierte und fähige Analogtechniker sind. So herum. Nochwas: gewöhne dir lieber nicht gar zu sehr den Umgangston von Falk an. Besonders laut "Blödsinn" zu schreien, hilft vielleicht, den eigenen Frust abzulassen, hat aber ansonsten keinen positiven Effekt. W.S.
W.S. schrieb: > Besonders laut "Blödsinn" zu schreien, hilft vielleicht, den eigenen > Frust abzulassen, hat aber ansonsten keinen positiven Effekt. Aber sicher. Der Blödsinn wird ohne Schönfärberei als das benannt, was er ist. Auch wenn das für Schneeflöckchen wie dich schwer zu verdauen ist. Umso besser!
Egon D. schrieb: > Jedes Sampling-Oszilloskop beweist, dass man auch > langsamer abtasten kann, als Nyquist fordert, und > trotzdem die Oberwellen sehen kann. Ähem, nein. Man kann bzw. muß in größeren Abständen abtasten, damit die nachfolgende Elektronik das Sample verarbeiten kann, aber das eigentliche Abtasten muß kurz sein, um den momentanen Istwert zu erfassen und nicht den Mittelwert über eine viel zu große Zeit. OK, eigentlich ist es immer ein Mittelwert, auch wenn der Abtastimpuls nur Picosekunden lang ist, aber das macht eben die erzielbare Bandbreite aus. Und es gibt noch eine Einschränkung: Um ein sinnvolles Bild zu kriegen, muß das zu vermessende bzw. anzuzeigende Signal periodisch sein. Ein Sampling-Oszi kann nicht per One-Shot arbeiten. Für 1000 Bildpunkte braucht man eben auch 1000 Perioden des Eingangssignals. Ganz generell: Um das Abtasttheorem kommt man nicht drumherum. Auch nicht mit "Ich will aber!" oder einem Fifo - mal nebenher gesagt. W.S.
Bei uns in der Firma haben wir tatsächlich die ganzen Speichererweiterungen für unsere waverunner HD scopes gekauft. Braucht man bei uns z.B. für die Zertifizierung von Schaltungen im Automotive-Bereich. Da gibt es z.B. Tests wo man die supply-spannung extremst langsam (über Minuten hinweg) hochrampen muss um zu sehen wie sich die Schaltung dann verhält, während man in dem 1-Minuten Fenster dann noch SPI Signale mit 1 MHz recorden muss..
Falk B. schrieb: > recorden, soso Tja, das ist sowas ähnliches wie downloaden. Oder: "do you spiek british? Yes, a paar broken" W.S.
Yalu X. schrieb: > Verstehe ich das richtig: Du scrollst bei einem, sagen wir mal 10 MS > langen Signal mehr als 5000 Bildschirmbreiten (Annahme: Full-HD-Display) > manuell durch, um nach einem Fehler zu suchen, von dem du nicht einmal > ansatzweise weißt, wie er aussieht? Sowas ist leider Alltagspraxis und nicht erst seit WindowsXP: so schauen (und navigieren) sich auch (Informatiker UND El.Ings UND BWLer) mit wichtigen Entscheidungsfunktion Dokumente am Bildschirm an. Das färbt leider derart ab dass solche Leute "dasselbe Prinzip" auch beim erstellen ihrer Dokumente für andere anwenden (Screenshot-Sammlungen in .doc/.docx - undurchsuchbar...) Das begründet auch die "beliebtheit" von YouTube: man ist faktisch gezwungen solche "Dokumentationen" zeitaufwändig linear durchzusehen und wird obendrein angepfiffen weil man dabei nicht produktiv sein kann... :(
W.S. schrieb: > Soso. Der Normalfall bei dir ist eine RAM-Größe von 16 GB oder mehr. > > Nö, ich will sowas hier nicht diskutieren, obwohl es für die meisten > Leute schon recht esoterisch ist, 16 GB an RAM im PC zu haben. ??? bei mir (Arbei und privat) war das vor einem Jahrzehnt ausklingender "Normalfall". Ja, heute mag das bestimmt "esoterisches Minimum" sein. Ich meine draussen, in der Realität. Nicht Retrocomputing oder so.
Nano schrieb: > 2 Mpts (Keysight) bis 24 MPts (Rigol). Du möchtest hier nicht wirklich hochwertige Messinstrumente von Keysight mit dem Spielzeug von Rigol vergleichen, oder - und obendrein auch noch quer über die Produktlinien hinweg? Die Geräte im Einsteigermarktsegment haben bei beiden genannten Herstellern (und auch den ungenannten) ähnliche Speichertiefen, wie die des jeweiligen Wettbewerbers. Allerdings kommen die höherpreisen Geräte der Markenhersteller mit erheblich besseren Analogwerten. Gerne darfst du dich hier informieren: https://www.batronix.com/versand/messtechnik/Keysight-EDU.html
Messtechniker schrieb: > Gerne darfst du dich hier informieren: > https://www.batronix.com/versand/messtechnik/Keysight-EDU.html Grade DAS ist die Spielzeugserie von Keysight. Messtechniker schrieb: > Spielzeug von Rigol Auch Rigol hat natürlich das Niedrigpreissegment, das ist eher Spielzeug. Wenn, dann sollte man gleiche Preisklassen vergleichen. Bei Batronix wären das dann https://www.batronix.com/versand/oszilloskope/Keysight-DSOX2004A.html und https://www.batronix.com/versand/oszilloskope/Rigol-MSO5204.html Ja aber das Keysight ist doch so viel älter, ... das ist nicht fair! Tja, kostet aber ähnlich. Was rechtfertigt den Preis?
Gustl B. schrieb: > Grade DAS ist die Spielzeugserie von Keysight. und damit passend zur Spielzeugserie vom Rigol und Siglent. Gustl B. schrieb: > Was rechtfertigt den Preis? Qualität und Nutzbarkeit. Allein an den Daten lässt sich das nicht ablesen. Muss man in der Hand gehabt haben.
Messtechniker schrieb: > und damit passend zur Spielzeugserie vom Rigol und Siglent. Nur deutlich teurer. Messtechniker schrieb: > Qualität und Nutzbarkeit. Allein an den Daten lässt sich das nicht > ablesen. Muss man in der Hand gehabt haben. Kann ich nicht bestätigen. Habe hier das DSOX2002A und ein MSO5xxx. Und welches verwende ich deutlich lieber? Ganz klar das Rigol. Das hat nicht nur die höhere Abtastrate, nein auch deutlich bessere Triggermöglichkeiten wie Zone Trigger. Und es hat die deutlich bessere FFT mit mehr Punkten, höhere Display-Auflösung, mehere Dekodieroptionen die man sogar gleichzeitig verwenden kann genauso wie gleichzeitig mehrere Mathe Kanäle. Der einzige Vorteil vom Keysight der mir wirklich positiv aufgefallen ist ist die etwas flüssigere Bedienung. Aber das ist in der Praxis eher egal weil man da nicht dran rum spielt sondern sich überlegt was man machen will, dann alles so einstellt dass das Passende gemessen wird und dann macht man eben Messungen.
Nano schrieb: > Fest steht: > Bei dem Weg von "Oszi zu integriertem DDR RAM" kann die Abtastrate höher > sein, als "von Oszi übers Netzwerk oder USB an den PC". > Die höhere erlaubte Abtastrate wäre dann der Gewinn. Ethernet ist gar nicht langsam. Man kann sich problemlos 'off-the-shelf" 10, 25, 40, 100 und mehr Gb/s Ethernetkarten kaufen (10 GbE ist gar nicht so teuer). Nur in einem portablen Standalone-Gerät wird man die Daten nicht sinnvoll verarbeiten können und spontan (d.h. ohne vorherige Planung, wie man die Daten verarbeiten möchte) schon gleich gar nicht. Und bei den hohen Datenraten muss man dann allmählich Abschied von normalen Rechnern und Netzwerkstacks nehmen und stattdessen (Dual Socket) EPYCs mit DPDK oder XDP verwenden... Aber so was gibt es z.B. bei Software Defined Radios (SDRs), die ja eigentlich gar nicht so weit weg von Oszilloskopen sind. Hier mit 10 GbE. Kann man an GNU Radio anflanschen. https://www.ettus.com/product-categories/usrp-networked-series/
SDR schrieb: > Ethernet ist gar nicht langsam. Das nicht, aber langsamer. Selbst bei Einsteigeroszis mit 2 GSample/s oder 4 Kanälen mit je 500 MSample/s reicht 10 Gbit nicht mehr. Und wenn man dann die Mittelklasse Oszis anguckt dann reicht auch 100 Gbit nicht. Der interne RAM ist da aber schnell genug. Ethernet ist nett und sinnvoll wenn die Daten schnell zum PC übertragen werden sollen. Das gibt es zwei Betriebsarten: - Schnell in den internen RAM schreiben nach einem Trigger bis der RAM voll ist und das dann langsamer über Ethernet an den PC schicken. - Nur so schnell abtasten, dass die Daten durch Ethernet passen und dafür an den PC streamen. Hat beides Vor- und Nachteile. Sinnvoll ist es die Daten direkt an der Quelle zu reduzieren damit weniger übertragen werden muss. Bei einem SDR könnte lokal schnell die FFT gerechnet werden und dann überträgt man gar nicht mehr die Abtastwerte, sondern die FFT, und das auch nur so schnell wie man die dem Benutzer anzeigen möchte. Vielleicht 1024 Bins 60 Mal je Sekunde. Das ist dann eine deutlich kleinere Datenrate.
Nano schrieb: > Habe ich irgendwo einen Denkfehler in der Rechnung oder warum ist das so > wenig? Deine Rechnung ist richtig aber: Ein Oszi braucht nur soviel Speicher um das Display zu befüllen. Wenn du 2 MSPS hast, wieviel Sekunden davon lassen sich auf dem Display darstellen? Also wieviel Pixel hast du da, die du anzeigen kannst? Ich denke dass das dein Denkfehler ist ;)
Oben wurde gefragt, wofür man schnelle scopes mit viel Speicher braucht. Zum debuggen von einigermaßen schnellen, aber sporadisch sendenden Kommunikationsschnittstellen, z.B. 10 MHz SPI, die nur sehr langsam sendet, man aber mehrere Pakete, z.B. Bursts aus einem Sensor Fifo aufzeichnen möchte. Ein Logic Analyser geht u.U. nicht, weil man die Signalqualität angucken möchte.
Ich zeichne gerne viele scope Seiten auf, speicher die Daten und analysiere sie am PC.
Gustl schrieb: > Der einzige Vorteil vom Keysight der mir wirklich positiv aufgefallen > ist ist die etwas flüssigere Bedienung. Aber das ist in der Praxis eher > egal weil man da nicht dran rum spielt sondern sich überlegt was man > machen will, dann alles so einstellt dass das Passende gemessen wird und > dann macht man eben Messungen. Meines Wissens kann das Keysight die diversen Protokolle in Hardware dekodieren, während die Chinaware Software dafür benutzt.
SDR schrieb: > Nano schrieb: >> Fest steht: >> Bei dem Weg von "Oszi zu integriertem DDR RAM" kann die Abtastrate höher >> sein, als "von Oszi übers Netzwerk oder USB an den PC". >> Die höhere erlaubte Abtastrate wäre dann der Gewinn. > > Ethernet ist gar nicht langsam. Man kann sich problemlos 'off-the-shelf" > 10, 25, 40, 100 und mehr Gb/s Ethernetkarten kaufen (10 GbE ist gar > nicht so teuer). Bevor man aber in das Oszi und den PC eine schnelle NIC baut und sich vielleicht noch einen Switch kauft, falls nötig, der das kann, kann man auch gleich DDR RAM im Oszi verbauen. Das wäre günstiger. Natürlich muss der Oszi Hersteller das dann auch dafür entsprechend auslegen. > Nur in einem portablen Standalone-Gerät wird man die > Daten nicht sinnvoll verarbeiten können und spontan (d.h. ohne vorherige > Planung, wie man die Daten verarbeiten möchte) schon gleich gar nicht. Deswegen schickt man sie an den PC und benutzt da entsprechende Algorithmen.
M. K. schrieb: > Ein Oszi braucht nur soviel Speicher um > das Display zu befüllen. Wenn du 2 MSPS hast, wieviel Sekunden davon > lassen sich auf dem Display darstellen? Also wieviel Pixel hast du da, > die du anzeigen kannst? Ich denke dass das dein Denkfehler ist ;) Nein. Oszilloskope nehmen deutlich mehr Punkte auf als das Display Spalten hat, einfach damit man auch nachträglich reinzoomen kann. Auch für hochauflösende FFT oder Intensity Grading braucht man viel mehr Punkte als das Display Pixel in der Horizontalen hat. Aber ja, wenn man nur ein minimales Oszilloskop bauen möchte das nur einen Signalverlauf anzeigt ohne Zoomfunktionen und so, dann genügt sehr wenig Speicher. Jojo schrieb: > z.B. 10 MHz SPI, die nur sehr langsam > sendet, man aber mehrere Pakete, z.B. Bursts aus einem Sensor Fifo > aufzeichnen möchte. Dafür gibt es segmented Memory. Nano schrieb: > Meines Wissens kann das Keysight die diversen Protokolle in Hardware > dekodieren, während die Chinaware Software dafür benutzt. Magst du mal hinten auf dein Keysight Oszi gucken wo das gefertigt wurde? Auf meinem steht Malaysia ist das deswegen besser als China? Welchen Vorteil hat ein Hardwaredekoder wenn auch der Softwaredekoder schnell genug ist? Ja, stimmt schon, das Keysight kann das in Hardware, ist für mich in der Praxis aber kein Vorteil, da muss das funktionieren und schnell sein, egal wo das am Ende gerechnet wird.
Jojo schrieb: > Oben wurde gefragt, wofür man schnelle scopes mit viel Speicher braucht. > Zum debuggen von einigermaßen schnellen, aber sporadisch sendenden > Kommunikationsschnittstellen, z.B. 10 MHz SPI, die nur sehr langsam > sendet, man aber mehrere Pakete, z.B. Bursts aus einem Sensor Fifo > aufzeichnen möchte. Ein Logic Analyser geht u.U. nicht, weil man die > Signalqualität angucken möchte. Das ist doch umständlich: Da nehme ich den LA und trigger damit das Scope, um im Fehlerfall parallel die Signalqualität beurteilen zu können. Gruß... Bert
Einen extra LA anzuschließen zum triggern (auf was triggert der denn) ist weniger umständlich, als ein scope mit ordentlicher Speichertiefe, bei dem man nur auf Start drücken muss? Und man hat gleich beides, SPI Decoder und analog Werte. Dazu ne Fette zoom und Such Funktion. Ich möchte auf ordentlich speicher nicht mehr verzichten. Das oben genannte langsam hoch rampen ist auch wichtig tatsächlich. Oder halt ansonsten Weiterverarbeitung aufm PC.
Jojo schrieb: > Das oben genannte langsam hoch rampen ist auch wichtig tatsächlich. Rampen? Na dann paß mal auf, daß das nicht zu sehr ramponiert wird . . .
Moin, "Rampen" ist nur automotive slang fuer "die Amper hochskillen". SCNR, WK
Ich denke, dass fast alle modernen Oszilloskope heute DRAM zum Aufzeichnen benutzen. Deshalb sind große Speichertiefen möglich, da auch mehrere DRAM-Bausteine benötigen werden, um die Datenrate beim Aufzeichnen zu ermöglichen (Höhere Abtastrate -> mehr DRAM-Bausteine -> mehr Speichertiefe). Ein begrenzender Faktor sind die Prozessoren, die diese Daten auswerten und anzeigen. Selbst mit einem leistungsfähigen PC wird es schnell zäh, 1 GSa auszuwerten und anzuzeigen. Ohne HW-Unterstützung (ASIC oder leistungsfähiges FPGA) geht da wenig. Reduktionen bei der Auswertung (Zusammenfassen von Abtastwerten vor der Auswertung/Anzeige) haben oft unangenehme Nebenwirkungen. Bei den Keysight-Geräten sind die Speicher in einem ASIC integriert. Das macht eine schnelle Verarbeitung möglich (1 Millionen Erfassungen/s) und spart Bauteile und Pins. Da es aber wohl statischer Speicher ist, sind nur geringe Speichertiefen möglich (DRAM in ASIC schwierig). Fazit: Viel Speicher, keine Dirty Tricks bei Auswertung und hoher Bedienkomfort -> kostet Geld.
Dergute W. schrieb: > "Rampen" ist nur automotive slang fuer "die Amper hochskillen". Aha, dafür braucht es eine echte Rampensau! ;-)
Nano schrieb: > Heute hat ein Einsteiger-DSO eine Speichertiefe von etwa 2 Mpts > (Keysight) bis 24 MPts (Rigol). [...] > Habe ich irgendwo einen Denkfehler in der Rechnung oder warum ist das so > wenig? Das ist für die typischen Oszilloskopanwendungen NICHT wenig! Klar gibt es ab und an Fälle wo etwas mit mehr Speicher einfacher geht weil man weniger (geistigen) Aufwand treiben muss um zum Ziel zu kommen und sehr sehr selten gibt es sogar Fälle wo 2 oder gar 24MPoint nicht mehr reichen, keine Frage! Aber in 99% der vorstellbaren Anwendungsfälle von Besitzern dieser Low-End Skopes kann man sogar mit 4kPoint und erheblich weniger zum Ziel kommen. Sogar in >>99,5% wenn man etwas mehr Nachdenkt. Und das 24Mpoint bei fachgerechter Arbeit nicht mehr ausreicht dürfte nur winzigsten Bruchteil der Durchschnittsanwender überhaupt mal passieren. Und selbst dann nur als große Ausnahme in deren Anwendungen. Speicher kostet Platz und Geld. Wie viel von beiden hängt dabei natürlich vom jeweiligen Stand der Entwicklung ab. Also sucht man einen guten Kompromiss zwischen Kosten, echten Bedarf der Anwender und Marketingargumenten. Nano schrieb: > Kann es sein, dass der Speicher direkt auf dem Chip Die steckt, der auch > für das Sampling zuständig ist? > Das würde dann zumindest den geringen Speicherplatz erklären. So war es früher. ging nicht anders wenn man halbwegs schnelle Speicher haben wollte... Oder man konnte nur bei langsamen Ablenkungen speichern. Das war z.B. bei den Kombiscopes von Hameg so das bei den kleinsten WErten für die ZEitbasis die Speicherfunktion deaktiviert war. So konnten die das auch damals schon alles mit Bauteilen von der Stange machen. Bei aktuellen Geräten ist der große Speicher aber extern. GGf noch ein kleiner Pufferspeicher on Chip auf dem ADC bzw. ASIC zur Erfassung. Nano schrieb: > Sry, falls die Frage doof klingt, aber ich komme aus der Computer Ecke > und da haben wir 16 GiB und mehr Arbeitsspeicher als Normalfall. Der Produktlebenszyklus bei Oszilloskopen hat sich zwar im Verhältnis zu früher extrem verkürzt, aber Grundsätzlich wird ein Oszilloskopmodell heute immer noch viele Jahre fast ohne Änderungen gebaut. (Modellpflege aka neue Hardwarerevisionen nur um bekannte Probleme zu beheben, weil sich die Bauteilverfügbarkeit verändert hat oder wenn man dadurch die Produktionskosten signifikant senken kann. Aber normalerweise alles ohne Änderung der technischen Daten) Die DS1000z Serie (wie DSO1054z)mit 24MPoint Speicher On-Board ist jetzt beispielsweise auch schon fast 10 Jahre auf dem Markt! Die Entwicklung dürfte also deutlich vor über 10 Jahren begonnen haben. Wie lange wird ein PC Motherboard oder ein bestimmter RAM Riegel so normalerweise wirklich produziert bis die Produktion eingestellt wird und nur noch bisher schon produzierte Ware ausgeliefert wird? Zudem kommt dazu das man bei so langen Produktlebensdauern anders wie bei einem PC Denken muss. Wenn du im PC Bereich einen Ram riegel nicht mehr bekommst nimmst du halt einen anderen Passenden. Bei Fix-Aufgelöteten und im Layout Eindesignten RAM Bausteinen geht das nicht, das erfordert einen neue Hardware-Version. Wenn sich bei einem PC Herausstellt das man als Hersteller auf schlechte RAMs gesetzt hat, die möglicherweise noch in der Gewährleistung ausfallen dann muss man im schlimmsten Fall den Kunden neue RAM Riegel bereitstellen . WEnn bei dem einen oder anderen PC nach 4-5 Jahren der Ram zickt und der Kunde einen neuen Riegel kaufen muss wird das bei einem "so alten" Gerät akzeptiert. Wenn bei einem Oszilloskop ein RAM Baustein in der Gewährleistung ausfällt musst du das ganze Oszilloskop tauschen. Ein Aufwändiges ReWork ausführen und die kpl. Logistikkosten tragen oder die Skopes gleich ganz abschreiben. Als möchtest du nicht den "neuesten Shit" verbauen sondern etwas was sich bewährt hat. Lieber etwas gröbere Strukturen usw. Dazu vorzugsweise Lieferanten bei denen du nicht damit rechnen musst das die schon nach ein paar Monaten die Speicherserie einstellen... Und vor allem: Bei einem PC ist, abhängig von der Typischen Anwendung und OS, mit mehr Speicher auch deutlich mehr Nutzwert verbunden. WIN7 lief z.B. mit 2GByte RAM stabil, aber mit 4GByte hat es erst richtig Spass gemacht. Der Typische nur Office und Internetuser hat aber schon von 8 GByte nich tmehr viel mehr gehabt, währen jemand der CAD usw. gemacht hat oder der ein oder andere Gamer schon 16GByte brauchte damit es Flüssig lief. Trotzdem hatten zu der Zeit wo Win7 aktuell war die günstigen Komplettrechner und Laptops zumindest Anfangs bei Auslieferung 2GByte und die normalen Durchschnittsgeräte sowie normale Buisness-Office Geräte 4Gbyte. Warum wohl hatten die nicht alle 16GByte und mehr? Es hat doch auch damals schon Anwendungen gegeben die das Brauchten? Und wenn du dir das ehrlich beantwortest, dann hast du auch die Antwort warum die Speicherentwscheidungen bei Oszilloskopen so getroffen wurden: Es bringt nur GANZ wenigen Vorteile weil es für die meisten Denkbaren Anwendungen in der Zielgruppe nicht gebraucht wird, aber es für ALLE mehr kosten würde! Aber wie auch bei PCs geht die Entwicklung weiter. Und wenn zur Entwicklung einer neuen Oszilloskopserie der Speicher billiger und kompakter geworden ist, dann bekommt die neue PC Serie auch mehr SPeicher. Einfach weil es Preismäßig keine Rolle mehr spielt und sich Marketingmäßig gut macht. Und wenn man dann mal schaut was so im "gehobenen Einsteigerbereich" aktuell für Speichertiefen gängig sind... Die kleinen MSO5000 von Rigol haben mal kurz Speicher für 200MPoint bei 1 Kanal an Board. (wenn gleich erst einmal nur bis 100Mpoint ferigeschaltet) Sind aber auch schon vier Jahre auf dem Markt. Nano schrieb: > Und falls der Speicher direkt auf dem Samplingchip stecken sollte, warum > ist man dann bei standalone DSO Geräten für geringe Abtastraten noch > nicht auf die Idee gekommen, das auf klassischem DDR3 oder DDR4 Speicher > auszulagern? Macht man schon... Wenn auch nicht in Form von Modulen sondern durch direktes Auflöten der Speicher-IC (Hat auch was mit der Speicherorganisation zu tun usw.) Falk B. schrieb: > Sowas könnte man heute machen. Warum man das nicht macht, weiß ich > nicht. Bzw. ich weiß nicht, welcher Speichertyp in den modernen DSOs > bzw. in den sehr günstigen China-DSOs steckt. Vermutlich wird das DDR2 > oder besser sein. Also mein DS1054z hat z.b. in der Nähe des "Aquisition-FPGA" einen 64MB DDR2 Ram Chip vom Typ H5PS5162GFR https://pdf1.alldatasheet.com/datasheet-pdf/view/534193/HYNIX/H5PS5162GFRC4C.html sowie ein CY7C1360C-200AXC 9MBit SRAM https://www.mouser.de/datasheet/2/100/CYPR_S_A0011119697_1-2541285.pdf In der Nähe des Prozessors (Linux...) Ist noch einmal ein H5PS5162GFR Bei den wesentlich neuern MSO5000 finden sich in der Nähe des ADC bzw. Aquisition ASIC/FPGA insgesamt füns Stück 2Gbit (128x6Mbit) DDR3 Speicher-IC vom Typ MT41K128M16JT-125JT. Aber kein externer SRAM mehr. https://media-www.micron.com/-/media/client/global/documents/products/data-sheet/dram/ddr3/2gb_ddr3_sdram.pdf?rev=4bc67ac3a6f34250a2b73cb9db8c5502 Beim Application-Prozessor (Linux...) finden sich ebenfalls zwei weitere 2GBit IC vom selben Typ MT41K128M16JT-125JT sowie Vermutlich als Cache zwei 1MBitx36 SRAM Speicher vom Typ S7R323682M http://www.netsol.co.kr/wp-content/uploads/2019/01/S7R32xx82M_rev1.38.pdf (andere Platinenseite) Und natürlich noch der NAND Flash vom Typ MT29F8G08ADADAH4-IT Beim MSO7000, das selbst in der kleinsten Ausführung preislich wohl definitiv nicht mehr zur Einsteigerklasse zählt, sind angeblich dieselben Bausteine verbaut da der Aufbau sehr änlich sein soll bis auf kleinere Einsparungen beim 5000er. Gruß Carsten
:
Bearbeitet durch User
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.