Laut Wikipedia (https://de.wikipedia.org/wiki/Li-Fi) wurden da ja 2013 schon Geschwindigkeiten von 10Gbit/s erzielt, und mittlerweile angeblich sogar bis zu 224 GBit/s. Wenn ich von nur einem Kanal / Farbe ausgehe, müsste bei 10Gbit/s, die LED ja innerhalb von mindestens 1ns geschalten werden. Der Empfänger müsste ja genauso schnell sein. Und dann brauch sie noch genug Licht, damit das Signal auch stark genug ist, das ist ja nicht schön in einem Kabel geführt. Erstmal muss man da ja passende Sende und Empfangs LEDs finden. 1ns ist ja schon sehr anspruchsvoll. Spezielle LED die schneller sind gibt es wohl, aber die sind normalerweise nicht besonders hell, oder? Denn je grösser die LED, desto grösser die Kapazität. Und je stärker die Led, desto mehr Energie braucht man um sie zu betreiben, und die muss man dann ja auch schalten. Und je mehr Energie man da schalten muss, desto schwieriger wird das ja auch. Und stärkere Transistoren haben normalerweise längere Reaktionszeiten. Wie schaffen die das? Was für LEDs nutzen die, und wie steuern die sie so schnell an?
Daniel A. schrieb: > müsste bei 10Gbit/s, die > LED ja innerhalb von mindestens 1ns geschalten werden. Nein, die LED müsste in erheblich weniger als 100ps geschaltet werden.
Daniel A. schrieb: > passende Sende und Empfangs LEDs LED heißt "Licht Emitierende Diode", also die Sende-Diode. Zum Empfang nimmt man da Photo-Dioden, aber keine LEDs. Was für Teile das sind weiß ich auch nicht. Ich habe lange nach solchen LEDs für einen schnellen optischen Pulser im ps-Bereich gesucht und am Ende dann eine Laserdiode genommen (die man blöderweise auf einen bestimmen Arbeitspunkt regeln muss).
Wenn du die LED jetzt in 10 Miliarden Stufen dimmen könntest, dann müsstest du theoretisch nur 1x pro sekunde die Stufe ändern. Praktisch ist das natürlich unrealistisch und der Erfinder wird wohl eine Mischung aus beidem verwenden :D
Wenn man doppelt so viele Signallevel hat, muss doch auch das Signal doppelt so stark, oder der Detektor doppelt so gut sein. Hilft das am Ende wirklich?
Arno R. schrieb: > LED heißt "Licht Emitierende Diode", also die Sende-Diode. Ach, und ich dachte, das heisst "Licht Empfangende Diode". :-)
Max D. schrieb: > Wenn du die LED jetzt in 10 Miliarden Stufen dimmen könntest, dann > müsstest du theoretisch nur 1x pro sekunde die Stufe ändern. > Praktisch ist das natürlich unrealistisch und der Erfinder wird wohl > eine Mischung aus beidem verwenden :D Müssten das nicht 2^10GBit Stufen sein?
Daniel A. schrieb: > Wenn man doppelt so viele Signallevel hat, muss doch auch das > Signal > doppelt so stark, oder der Detektor doppelt so gut sein. Hilft das am > Ende wirklich? Wenn du hart am Limit arbeitest ja, aber normal hast du ja schon bischen Spielraum. Bei WiFi macht man das ja auch so, dass man sowohl PSK als auch ASK gleichzeitig fährt (Stichwort QAM). Paul schrieb: > Müssten das nicht 2^10GBit Stufen sein? Korrekt, das hab ich bei der Konstruktion meines Beispiel übersehen.
Diese Laserdioden sind natuerlich auf demselben Chip wie die Ansteuerung, da ist nichts mehr mit SMD und so. Allenfalls sind 5 Laserdioden nebeneinander, welche einzeln moduliert und nachher zusammengefuehrt werden. Das gibt's alles auf ein paar mm Laenge auf demselben Substrat
Purzel H. schrieb: > Diese Laserdioden sind natuerlich auf demselben Chip wie die > Ansteuerung, da ist nichts mehr mit SMD und so. Interessant, also integriert man sowas direkt in die IC die sie Ansteuern. Angenommen, ich wollte einen USB-C <-> Licht <-> USB-C Adapter machen (Drahtloses Laden ist heute ja einfach, aber für Bildschirm, Tastatur, etc. braucht man heutzutage ja immer noch ein Kabel.), dann müsste ich doch, bei den Datenraten, sowieso einen eigenen Chip designen. Es gibt ja Firmen, die die Chips für einen dann herstellen. Und ich glaube, google hat da sogar was, wo sie einem das zum Ausprobieren sogar gratis machen lassen (https://developers.google.com/silicon), ich habe gehört, sie können ihre Wafer oft nicht ganz ausnutzen, und füllen dass dann so auf. Aber Ich vermute, eine Laserdioden könnte ich so vermutlich nicht mit einbauen lassen, oder? Ist es noch machbar, diese Laserdioden separat zu haben, mit einem Transistor laser oder einem sonstigen IC, oder muss da zwingend alles auf dem selben Chip sein, wenn man die Geschwindigkeiten erreichen will? Momentan habe ich natürlich (noch) nicht die Skills, irgend was davon tatsächlich umzusetzen. Aber irgendwo muss man ja anfangen, deshalb muss ich erst mal herausfinden, wie sowas zumindest theoretisch gemacht werden könnte.
Purzel H. schrieb: > Diese Laserdioden sind natuerlich auf demselben Chip wie die > Ansteuerung, da ist nichts mehr mit SMD und so. Da frage ich mich doch glatt, wie wir das in 2005 hingekriegt haben. 10 GB/sec über einen Direktsteckverbinder und zwischen dem Lasertreiber und dem Laser ist noch ein flexibles Kapton-Bändchen weil der Laser schwimmend gelagert sein muss. Der Glasfaserstecker braucht das so. Auf der offenen Platine ist zum Betrachter hin die Sende- Seite, nach hinten ist der Empfänger. Gerhard H.
Laserdiode, da kann man auch Femtosekundenpulse rausballern, gab kürzlich Nobelpreis dafür. https://www.aerodiode.com/product/high-speed-laser-diode-driver/ Im Lidar-thread gabs Ausführungen zum Thema Beitrag "Bosch gibt Lidar-Entwicklung auf"
Beitrag #7529118 wurde von einem Moderator gelöscht.
Beitrag #7529120 wurde von einem Moderator gelöscht.
Um noch was nachzuschieben: Kaufe Dir fertige XFP- oder SFP-Glasfasertransceiver. SFP ist viel billiger. Du hast keine realistische Chance, das selber zu bauen. Das ist weniger ein Know-How-Problem (kann man lernen) als das Geld für die nötige Messtechnik. Ich habe hier zwar ein sampling scope mit 50 GHz Bandbreite. Das wäre für 10 GBit/s ganz kommod angemessen; wir mussten damals mit 20 GHz auskommen. Aber ich habe keinen optischen Einschub mehr. Der wäre aber notwendig um das Signal auf der Faser zu beurteilen. Ohne so ein Ding kannst Du nicht mal den DC-Arbeitspunkt des Lasers einstellen. Der Arbeitspunkt bestimmt ganz wesentlich die Schönheit des Augendiagramms. Und bei 10 GB/s ist eine Bitzelle 100 psec lang. Das kannst Du verteilen auf 30 ps rise time, 30 ps gewünschter Zustand, 30 ps fall time. Ok, ein bisschen günstiger, weil immer 2 Einschwing- zustände aneinanderstoßen. Aber wenn Du viele "0"-Bits gesendet hast, wird das erste '1'-bit viel zu kräftig ausfallen und das macht das Augendiagramm kaputt. Die Modulation selber ist eher easy. Current mode logic ( CML ) ist allemal schnell genug. Du brauchst einen Gleichstrom-Pfad durch die Diode für den Arbeitspunkt. Das Modulations-Signal wird da kapazitiv draufgekoppelt. Man nennt das Bias-Tee. Das bekommt man für einen Arm & ein Bein bei MCL oder PSPL. oder für €1 und 2 Tage Arbeit wenn man einen 20 GHz-Network- Analyzer hat. Der geht aber ziemlich ins Geld. Bei Vertical Cavity Lasers wird das billiger. Wegen des kleinen Gleichstroms genügt da RC. Sowas selber zu designen ist aber verlorene Liebesmüh'. Einen optischen Resonator auf den Chip zu integrieren wäre eine heroische Maßnahme. Das wäre in Google's Prozess niemals drin. Und ein DFB-Laser genauso wenig. Der optische Resonator wäre nicht auf dem Chip, und Si ist ehwieso für Laser ziemlich unbrauchbar. Es gibt auch keine Si-LEDs, und der Unterschied zwischen LED und Laser ist nun mal der optische Resonator. Ich habe gerade in einem Projekt einen tollen neuen VCSL kommen und gehen sehen. Das ist nix für einen Newcomer. Na ja, da sind noch Widerholungen möglich. Das war nicht mal was für ein Firmen-Konsortium incl. Dr.-Riege. Wennsde Fragen hast, dann frag! Ein USB-Kabel durch eine Glasfaser zu ersetzen, das finde ich nur mäßig interessant. Cheers, Gerhard
Also ich habe gestern Nachmittag ein bisschen rumrecherchiert. Als Kodierung ließt man immer wieder SIM-OFDM. OFDM ins optische übersetzt ist WDM, Wavelength-Division-Multiplex, also unterschiedliche Farben. Für die Rekordwerte vermute ich, dass wirklich viele Farben/Kanäle verwendet wurden, vielleicht sogar Laser, weil die spektral viel schmäler sind als LEDs. Und besser modulierbar sind die ja auch. Käuflich zu erwerben sind wohl Systeme mit 200 MBit. Als fertige "Sender" gibt es Deckenlampen mit Leistungs-LEDs, der Empfänger wird per USB an den Laptop angeschlossen. Die Deckenlampen nutzen angeblich normale Leistungs-LEDs. Wenn das nur RGB ist, wären das immer noch 67 MBit pro Farbe, das erscheint mir machbar. Ich vermute, dass der Rückkanal deutlich schwächer ist, und dass man zentralseitig dann Kameras nutzt. Das hätte den Vorteil, verschiedene Sender unterscheiden zu können, die sich gegenseitig auch nicht stören. Wegen der Kamera statt einem Photosensor aber eben viel weniger Bandbreite. Wenn man ein bisschen weiter schaut, findet man auch Sachen wie MIMO, Handover/Roaming und adaptive Kanalnutzung, die standardisiert werden sollen oder schon sind. Mit mehreren Deckenlampen und der Richtmöglichkeit von Licht ist das naheliegend. Obwohl ich das ganze technisch spannend finde, verstehe ich das wirtschaftliche Potenzial nicht, bzw. frage ich mich, was wären mögliche Nutzungszenarien? Auf den Werbebildern sieht man Klassenzimmer- oder Büroszenarien. Warum reicht da WLAN für mobile Geräte nicht aus? Und feste Arbeitsplätze kann man mit Kabel anbinden. Genauso wie man bei LiFi jede einzelne Deckenlampe per Kabel anbinden muss. Der Vorteil im Vergleich zu Funk: es lässt sich leichter abschirmen, vor allem aber vollständig. Aber für wie viele Anwender ist das wirklich notwendig? Was ich als Anwendungsszenario nachvollziehen kann, sind Fertigungs/Automatisierungszellen, um die zahlreichen Kommunikations-Kabelanbindung für z.B. Sensoren an Robotern zu sparen. Da ist die lokale Begrenzung von Licht, im Gegensatz zu Funk, vielleicht wirklich vorteilhaft.
Tilo R. schrieb: > Auf den Werbebildern sieht man Klassenzimmer- oder Büroszenarien. Warum > reicht da WLAN für mobile Geräte nicht aus? Und feste Arbeitsplätze kann > man mit Kabel anbinden. Genauso wie man bei LiFi jede einzelne > Deckenlampe per Kabel anbinden muss. LiFi ist sicher ein Nischenprodukt, das W-Lan nie gefährlich werden wird. Aber ich denke allgemein, Datenübertragung per Licht ohne Kabel, hat schon ein paar interessante Anwendungsmöglichkeiten. Besonders, wenn man den Standort von Sender und Empfänger kennt, oder diese nahe beieinander liegen, erscheint es mir nützlich. Man kann dann grosse Datenmengen drahtlos übertragen, und kann mehrere Sender und Empfänger haben, die sich nicht in die Quere kommen. Ich denke diese Eigenschaften wären ideal, um diese Drahtlosladegeräte mit schneller & lokalisierter Datenübertragung zu ergänzen, und so daraus vollwertige Docks zu machen. Das bringt mich zu einem anderen Punkt. Bei Lasern denkt man ja an einen geraden Strahl. Aber ich brauche eine gewisse Verteilung / Auffächerung. Was nimmt man da? Ein Spiegel? Eine Linse? Oder einen optischen Diffusor? Ich hätte eigentlich einen Aufbau wie im Anhang im Sinn.
:
Bearbeitet durch User
Daniel A. schrieb: > ich brauche eine gewisse Verteilung / Auffächerung. > Was nimmt man da? Ein Spiegel? Eine Linse? Oder einen optischen > Diffusor? Je nach Aufgabenstellung alles möglich. Wenn du aber den "geraden Strahl" länger zusammenhalten willst, musst du ihn gleich zu Anfang dicker machen. So ein Strahlaufweiter besteht im Prinzip aus einem umgekehrten Fernrohr, also Lichteintritt am Okular. P.S.: Die meisten Laserdioden erzeugen ohne Optik ein unscharf begrenztes, ovales kegelförmiges Lichtbündel mit einem Öffnungswinkel von vllt 15..30°.
:
Bearbeitet durch User
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.