Hallo zusammen! Mich würde mal interessieren, wie es z.B. bei Rückfahrkameras oft gemacht wird, das das Bild von mehreren Kameras auf einem Monitor geteilt dargestellt werden (Quadbild, geteiltes Bild usw.). Gibt es für sowas einen speziellen IC? Gruß, Maxi
Nein, die Signale werden zuerst synchronisiert, dann mit Scaler-ICs, auf die richtige Größe gebracht und letztendlich mit Delayschleifen so getimt, dass sie nebeneinander dargestellt werden.
Heute wird das ganze wahrscheinlich digital gemacht, sprich die (F)BAS Signale werden Digitalisiert und der Rest macht ein DSP/Bildprozessor. Dies ist auch der Grund für den Wegfall von spezial-ICs.
Also in allen Quardprozessoren, die ich bisher geöffnet habe (ca. 10) wurde das analog gelöst.
Frank schrieb: > Also in allen Quardprozessoren, die ich bisher geöffnet habe (ca. 10) > wurde das analog gelöst. Skalieren rein analog...? Wie geht dem? Sag misch! Gruß, Magnetus
Einfach Pixel und Spalten wegfallen lassen? Ist doch zeitgesteuert, also einfach ein paar Timer! Mit freundlichen Grüßen, Valentin Buck
Und das bei nicht-synchronen Videosignalen? Rein Analog? Nur ein paar Timer? Chapeau.
Valentin Buck schrieb: > Einfach Pixel und Spalten wegfallen lassen? > Ist doch zeitgesteuert, also einfach ein paar Timer! Ich hoffe für Dich dass das ironisch gemeint war. Anderenfalls muss ich gestehen dass ich Dir mehr zugetraut hätte. Gruß, Magnetus
Valentin Buck schrieb: > Einfach Pixel und Spalten wegfallen lassen? > Ist doch zeitgesteuert, also einfach ein paar Timer! Jopp. Und die Bildablenkung im Monitor wartet solange ... Soweit ich weiß, wurde das früher mit Eimerketten (also analoger Speicher) gelöst. Hierbei tatsächlich bei dem Bild jeden 2. 'Pixel' und die geraden (oder ungeraden) Zeilen auslassen. Abrufen der Werte dann in 'High-Speed'. Funktionierte so auch nur in s/w. Heute macht man das Digital. Gruß Jobst
Stimmt, das Timing dazwischen fehlt dann ja! OK, mein Fehler! Dann sind analoge Eimerketten wieder sinnvoll, auch wenn sie ein wenig rauschen. Das mit den 4 Bildern kann man dann aber mit Timing machen: Phase 1: Erst 1. dann 2. Bild. Phase 2: Erst 3. dann 4. Bild. Digital mit ADC ist das natürlich deutlich schöner gelöst. Müsste man vielleicht sogar mit einem AVR schaffen (bei Elektor gabs doch mal was mit Bilderkennung)... Mit freundlichen Grüßen, Valentin Buck
Die AVRs haben zu wenig RAM - also externer RAM dran. Externe Synchronisierschaltung mit S/H für jeden Kanal mit ADC im AVR gewandelt, bekommt man alle 4 Sekunden ein Bild von jeder der 4 Quellen. (Bei Standbildern ist das OK ...) Ausgabe vom RAM zum DAC benötigt alle 0,1us einen IRQ - schafft der AVR nicht. Also Hardware (Zähler) um das RAM gestrickt, welche den Inhalt über einen DAC in ein Videosignal umsetzt. Zwischendurch (Austastlücke? = 12us) schreibt der AVR die gewandelten Werte ins RAM. Dafür muß die Hardware dem AVR Schreibmöglichkeit geben. ... :-/ :-\ :-/ :-\ ... könnte klappen ... Natürlich nur in s/w Gruß Jobst
Farbe und s/w sind doch eigentlich nicht sooo unterschiedlich, oder? Wenn ich den Wikipedia-Artikel richtig gelesen habe, dann wird doch auch Farbe als Spannungswert dargestellt, eben nicht weiß bis schwarz, sondern weiß über R G B nach schwarz... Ist dann die Abtastfrequenz höher, oder wie? Mit freundlichen Grüßen, Valentin Buck
Naja, Farbe ist ein zusätzlich zum s/w-Signal hinzugefügtes Signal. (Man musste ja damals zu den s/w-Geräten kompatibel bleiben). Du mußt ein 4,43MHz Signal nicht nur in der Amplitude, sondern auch in der Phase abtasten. Digital also mit 17,7MHz Samplen, die Phase ausrechnen, mit der Phase in der vorherigen Zeile zusammenrechnen, aus diesem Vektor die Polarkoordinaten zurückrechnen. Dann hast Du YUV. Oder Du machst diesen Krempel analog, hast dann aber 3 Signale, die Du digitalisieren mußt. Du benötigst mehr Speicher. Anschliessend wieder RGB zu CVBS-Konvertierung ... Gruß Jobst
Valentin Buck schrieb: > Wenn ich den Wikipedia-Artikel richtig gelesen habe, dann wird doch auch > Farbe als Spannungswert dargestellt, eben nicht weiß bis schwarz, > sondern weiß über R G B nach schwarz... Nein, Du hast ihn wohl nicht richtig gelesen. Oder es steht dort falsch. Um ein Farb-Videosignal zu erstellen, benötigst Du zunächst einmal das s/w Signal. Dies wird zu 59% aus grün, zu 30% aus rot und zu 11% aus blau gewonnen. Dann werden U und V aus grün-rot und grün-blau gewonnen, wobei jeweils noch ein Korrekturfaktor einfliesst. U und V werden dann mit 4,43MHz Quadraturmoduliert. Dazu kommt in der Syncronphase der Burst, der dem Empfänger erlaubt, die Phasenlage zu bestimmen. Dieser liegt bei 135°/225° Einer der Träger für die QAM wird mit jeder Zeile zwischen 90° und 270° getauscht. Der andere hat 0°. Dieses Signal wird dem s/w-Signal beigefügt - und voila - fertig ist das FBAS Signal - wenn ich nichts vergessen habe ... So, und Du darfst Dir nun Gedanken darüber machen, wie Du das wieder auseinander bekommst :-) Gruß Jobst
Unglaublich. Ich bin froh, dass ich bisher nicht damit zusammengestoßen bin! Danke für die Klarstellung. VGA ist doch etwas einfacher! Mit freundlichen Grüßen, Valentin Buck
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.