Hallo, ich möchte ein analoges neuronales Netzwerk zur Ziffernerkennung bauen, und zwar wegen meinem allgemeinem Interesse an analogen Neuronalen Netzwerken, denn mir ist natürlich bewußt, daß es schon seit Jahrzehnten auch auf digitalen Systemen möglich wäre. Meine grundlegende Idee ist, daß ich eine Matrix von 8*8 LDRs mache, welche nahe aneinander sind, welche als Input dienen. Dann lege ich Transparentpapier über die LDRs und beleuchte sie innerhalb einer sonst dunklen Umgebung, wobei ich die zu erkennende Ziffer mit einer deckend schwarzen Farbe (damit nichts durchscheint) beschreibe. Die sich nun ändernde Spannung an den LDRs soll durch elektrische Widerstände geleitet werden, welche die "Hidden-Neurons" sind. anschließend werden diese Spannungen zu LEDs mit einem relativ starken Vorwiderstand geleitet, sodaß nur die LED leuchtet, die gemäß der Gewichte auch leuchten "darf". Die Formel für das Ergebnis an einem Output-Neuron (also der LED) lautet mathematisch: (Neuron1 * Gewicht1) + (Neuron2 * Gewicht2) + (NeuronN * GewichtN) wie kann ich diese Berechnung nun umsetzen. Genügen dafür Multiplikatoren mit aus Einzeltransistoren aufgebauten Operationsverstärkern? Wenn es Rückfragen gibt, antworte ich gerne jederzeit.
Hallo, irgendwie ist das ganz daneben - ein neuronales Netzwerk muss lernfähig sein, damit es trainiert werden kann. Dass der Ingenieur Gleichungen löst ist nicht Sinn der Sache. Lernfähige Widerstände habe ich übrigens noch nirgends gesehen. Georg
Georg schrieb: > Hallo, > > irgendwie ist das ganz daneben - ein neuronales Netzwerk muss lernfähig > sein, damit es trainiert werden kann. Dass der Ingenieur Gleichungen > löst ist nicht Sinn der Sache. Lernfähige Widerstände habe ich übrigens > noch nirgends gesehen. > > Georg Es braucht keine lernfähigen Widerstände... http://www.cmpe.boun.edu.tr/~ethem/files/papers/annsys.pdf "Neural Networks - A Systematic Introduction", Kapitel 18 http://page.mi.fu-berlin.de/rojas/neural/
D. R. schrieb: > wie kann ich diese Berechnung nun umsetzen. Am einfachsten in dem du die Widerstände aus leucht verkohltem Bambus Fasern machst und zum Lernen die Spannung an den LDR so erhöhst, dass die noch mehr verkohlen, also ihren Widerstandswert senken. Kein Scheiss, das Prinzip stimmt, zwar wird die Umsetzung recht ungenau, aber du fragtest nach einfach. Die Spannung der LDR wird man durch OpAmps puffern müssen, damit sie den Strom liefern können, das zu erlernende Ausgabesignal vielleicht durch Potis eingestellt ebenfalls gepuffert durch OpAmps, aber so und genau so funktionieren neuronale Netze.
>irgendwie ist das ganz daneben - ein neuronales Netzwerk muss lernfähig >sein, damit es trainiert werden kann. Soso. Wo genau hast Du das gelesen? Poste mal einen Link.
Ich hätte wohl erwähnen sollen, dass ich die Gewichte an meinem Computer berechne, und da wohl keine neuen Ziffern mehr erfunden werden, die Gewichte danach für immer feststehen.
chris_ schrieb: > Soso. Wo genau hast Du das gelesen? Poste mal einen Link. Lesen sollte man halt können, dann müsste man nicht so blödsinnige Posts schreiben. Zitat aus Wikipedia: "Daraus ergaben sich typische Eigenschaften neuronaler Netze, die gleichermaßen für natürliche, wie für künstliche „neuronale Systeme“ gelten. Dazu gehört die Eigenschaft, dass sie komplexe Muster lernen können, ohne dass eine Abstraktion über die diesen Mustern eventuell zugrunde liegenden Regeln stattfindet." Aber man muss natürlich als Ausnahme zugestehen, dass dein eingebautes neuronales Netz zu den nicht lernfähigen Ausnahmen zählt. Ich würde allerdings behaupten, dann ist es keines. Georg
Man kann ein neuronales Netz sicher mit fixen Widerständen bauen. Nur muss man vorher mal ein anderes - notfalls digital - trainiert haben, um die Widerstände zu erlernen. Es gab da früher irgendwelche Chips, wo das so gemacht wurde. Die konnten dann handschrift erkennen, mussten aber nicht trainiert werden, da sie faktisch von einem lernfähigen kopiert wurden. Aber irgendwo sollte das Lernen schn vorkommen, sonst wird die Übung schnell sinnlos. Ein Perzeptron mit 4 Neuronen kann man sich vielleicht noch von Hand ausrechnen, aber 8x8 Eingangsneurone und hidden Schicht, hehe, das wird nix mit irgendwelchen Werten aus dem Blauen. wegen meinem allgemeinem Interesse an analogen Neuronalen Netzen Faszinierend, dass Du das Interesse hast, aber offenbar nichtmal Google mit den entsprechenden Stichworten bemüht hast. Hier ist eine praktische Realisierung beschrieben: http://psych.utoronto.ca/users/reingold/courses/ai/cache/neur_net.htm
>Lesen sollte man halt können, dann müsste man nicht so blödsinnige Posts >schreiben. Ah so. >Aber man muss natürlich als Ausnahme zugestehen, dass dein eingebautes >neuronales Netz zu den nicht lernfähigen Ausnahmen zählt. Ich würde >allerdings behaupten, dann ist es keines. Probiere lieber mal, die Inkonsistenzen in deinen eigenen Posts zu lösen, bevor du schreibst. Was du behaupten würdest, ist nicht der Weisheit letzter Schluss.
Georg schrieb: > Hallo, > > irgendwie ist das ganz daneben - ein neuronales Netzwerk muss lernfähig > sein, damit es trainiert werden kann. Dass der Ingenieur Gleichungen > löst ist nicht Sinn der Sache. Lernfähige Widerstände habe ich übrigens > noch nirgends gesehen. > > Georg Lernfähige Widerstände gibt es. Die heißen Memristor. http://de.wikipedia.org/wiki/Memristor ich denke nur leider ist diese Tec hnologie für den ANwendungsbereich des TOs nicht brauchbar.
Timbuli schrieb: > mussten aber > nicht trainiert werden, da sie faktisch von einem lernfähigen kopiert > wurden. Das wäre der Traum aller Lehrer und Schüler, aber beim Menschen funktioniert das leider nicht, bisher jedenfalls. Georg
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.