Nur mal so ein Gedanke der mir gerade durch den Kopf ging... Man kann ja heute fast nichts lesen ohne das irgendeiner das KI Wort schwafelt. Alles nur noch KI als ob wir keinen Mangel an BI haben. Wenn wir es aber irgendwann wirklich schaffen wollen Autos von selber fahren zu lassen, wieso gibt es dann noch keinen total tollen KI-Autorouter? Ich meine die Eingangsdaten sind bestens Computer-lesbar, das gewuenschte Ergebnis ist klar bestimmt. Wenn KI es schon nicht schafft Platinen vernuenftig zu routen, was soll sie dann mal schaffen? Gibt es schon Router die das nutzen? Wie sind die so? Olaf
Olaf schrieb: > Wenn KI es schon nicht schafft > Platinen vernuenftig zu routen, was soll sie dann mal schaffen? Menschen mit viel Training können das meist recht vernünftig. Ene KI hat einen riesigen Haufen Nachteile. * eine black-box, nicht auditierbar, du kannst dir nur an schauen was hinten raus kommt * verstehen was die ki tut oder wieso sie es tut kann man auch nicht * du kannst nur abschätzen das du sie richtig trainiert hast, unter/übertrainieren kannst du schwer ab messen * du brauchst sowieso ein Trainings set mit richtigen daten (ah, da muss doch jemand routen können) * Bugs kannst du nicht vernünftig fixen ausser mehr trainieren * KI ist weit weg von fehlerfrei Das ist ungefähr so als würdest du, um eine Platine zu routen, ein Kind zeugen und dem das bei bringen wie man das tut. Du behebst Probleme in einer Technologie nicht damit das du noch mehr technologie drauf klatscht. KI gibts schon länger, jetzt ist einzig allein die Hardware so billig geworden das es realisierbar wär. Das ist genauso wie Virenscanner. Anstatt möglichst Fehlerfreie Produkte zu bauen klatschen die Leute einen Virenscanner oben drauf, im Endeffekt meist nur fürs gute Gefühl. Das Grundlegende Problem wird aber nicht behoben. Weitere Referenz: https://blog.fefe.de/?ts=a3721327 Kleine Referenz über KI die bescheißt um Ziele zu erfüllen (also das macht was sie nicht machen sollte): https://docs.google.com/spreadsheets/u/1/d/e/2PACX-1vRPiprOaC3HsCf5Tuum8bRfzYUiKLRqJmbOoC-32JorNdfyTiRRsR7Ea5eWtvsWzuxo8bjOxCG84dAg/pubhtml
Beitrag #6039183 wurde von einem Moderator gelöscht.
natürlich dumm schrieb im Beitrag #6039183: > Base64 U. schrieb: >> Ene KI hat einen riesigen Haufen Nachteile. > > Was für eine Sülze. Das meiste, was du beschreibst, ist nur in deiner > kleinen Welt so negativ. Eine KI hat auch viele Vorteile. Aber wer nicht > mal den Stand der Technik von KI-basierten Autoroutern recherchieren > kann, der ist einfach zu zurückgeblieben, um von der heutigen KI zu > profitieren. > > [...] > > Und noch einer weitere Referenz: > Youtube-Video "Wenn man keine Ahnung hat einfach mal die Fresse halten" Dein Name ist wohl Programm, pöbelst zwar groß rum, kannst aber kein einziges sachliches Argument bringen... Weitere Referenzen: https://blog.fefe.de/?ts=a2c8649d https://blog.fefe.de/?ts=a2ca73b7 > WELT hatte bereits am Montag bei Facebook angefragt, was der genaue Grund > für die Sperre sei. Am Dienstagmittag erklärte ein Sprecher des > Unternehmens, dass ein „Fehler in der künstlichen Intelligenz“ für die > Nutzersperrungen verantwortlich gewesen sei. Diese hätte das Foto, das > den Artikel bebildert, fälschlicherweise als IS-Propaganda ausgelegt https://blog.fefe.de/?ts=a36ddb47 https://blog.fefe.de/?ts=a3cbae5d https://blog.fefe.de/?ts=a3f5a4ec https://blog.fefe.de/?ts=a20b886d https://blog.fefe.de/?ts=a2cbeaba Leider finde ich den Artikel gerade nicht, in dem ein toller AI-Spamfilter Mails grundlos nicht durchlässt, und keiner kann es fixen, weil es ja trainiert und nicht programmiert ist...
Hallo vn nn. vn nn schrieb: > Leider finde ich den Artikel gerade nicht, in dem ein toller > AI-Spamfilter Mails grundlos nicht durchlässt, und keiner kann es fixen, > weil es ja trainiert und nicht programmiert ist... Du vergleichst ein KI Spamfilter mit einem fix definierten Spamfilter das strengen logischen Regeln folgt. Das ist genauso falsch, als wenn Du Dich selber mit einem solchen Spamfilter vergleichst. Das fixe Spamfilter macht keine Fehler, es kann nur fehlerhafte Vorgaben haben. Eine KI und Du folgen aber anderen Gesetzten. Du würdest sie für Dich je nach Charakter, Bildung und Reife als etwas zwischen "gesundem Menschenverstand", "Inuition" oder "zusäztlichen Sinn" beschreiben. Das ist aber genau das gleiche Vage wie das innere der Blackbox einer KI. ;O) Du wirst beim Spam aussortieren auch Fehler machen. Deine Sekretärin kann es Dir eh nicht recht machen beim Spam aussortieren, aber eine KI soll Fehlerfrei wie ein deterministisch parsender dummer Spamfilter sein, bei dem Du die Fehler klaglos aktzeptierst, weil sie für Dich einsichtig sind weil er nur seinen deterministischen Vorgaben folgt? Das ist eine Einstellung, die ich persönlich als Überheblich und gefährlich Leichtsinnig einschätzen würde. KI wird in den aktuellen Medien sehr auf Mustererkennung und "Deep Learning" verkürzt. Es gehört aber wesentlich mehr dazu, wie z.b. ein System das man als Motivation, Selbsterhaltung ec. beschreiben kann und dass das Selbstlernen des Systems auch nach erreichen eines Optimums selbstständig weitersuchen lässt und auch in die Breite schaut. Es ist gut 25 Jahre her, dass ich in Spektrum der Wissenschaft einen Artikel über die Spielengine von "Creatures" gelesen habe. Damals war das ein Aha-Erlebnis für mich, weil ich mich in dieser Beschreibung des Mechanismus selber wiedererkennen konnte. Nun sind 25 Jahre ins Land gegangen, und es gibt mittlerweile z.B. Ansätze, neuronale Netze in FPGA-Manier aufzubauen, was die Leistungsfähigkeit dieser Systeme erheblich steigern wird. Und was die militärischen Anwendungen dieser Technik mittlerweile können, bleibt ein Geheimnis. Den Spektrum Artikel gibt es mittlerweile im Netz: https://www.spektrum.de/magazin/kuenstliches-leben-im-pc/823339 Einen Wikipedia Artikel über Creatures gibt es auch: https://de.wikipedia.org/wiki/Creatures_(Spieleserie) Wohlgemerkt, was da steht, stellt den Stand von vor 25 Jahren dar. Ich gehe davon aus, dass es mittlerweile KIs gibt, die meine "HI" (Humane Intelligenz) weitestgehend ersetzten könnten. Nachtrag: Es gibt noch einen interessanten Artikel zu KI und dem Spiel "Go": https://www.spiegel.de/wissenschaft/technik/kuenstliche-intelligenz-gott-braucht-keine-lehrmeister-kolumne-a-1175130.html Mit freundlichem Gruß: Bernd Wiebus alias dl1eic http://www.dl0dg.de
Bitte versucht doch mal, auf eine sachliche Ebene runterzukommen! Meine 2cent dazu: Autorouter gibt es schon sehr lange, im Prinzip seit Platinen mit Computern entworfen werden. Das Prinzip ist ja auch sehr verlockend. Bisherige (nicht-KI-) Autorouter scheitern (nach meinem Verständnis) an 2 Problemen: * Das Problem wird sehr schnell zu komplex, um mit Software eine optimale Lösung zu finden. Demzufolge genügen reine Autorouter-Ergebnisse oft nicht den Qualitätsansprüchen. * Die Aufgabenstellung ist vielleicht doch nicht so klar formuliert, wie es aussieht. Beim Routing geht es ja nicht nur darum, alle Pins richtig miteinander zu verbinden, egal wie. Es gibt Nebenbedingungen, z.B. breitere Stromversorgung, kürzere Anbindungen zu Abblockkondensatoren, kurze Strecken für schnellere Signale, ungünstige benachbarte Signale etc. Nicht alle dieser Bedingungen liegen als Code vor und ein menschlicher Router tut sich bisher anscheinend leichter, diese z.T. widersprüchlichen Anforderungen gegeneinander abzuwägen. Dann kommt noch dazu, dass man dann eigentlich das Placement auch mitnehmen muss, was die Komplexität nochmal deutlich vergrößert. Selektives Autorouting, mit menschlicher Unterstützung, funktioniert dagegen seit vielen Jahren gut. Ich gehe davon aus, dass KI in dieser komplizierten Situation deutlich bessere Ergebnisse erzielen kann, als rein algorithmenbasierte Autorouter. Die Qualität der Ergebnisse wird aber sicher auch vom investierten Geld abhängen. Ich glaube nicht, dass einer der EDA-Software-Hersteller ähnlich viel Geld investieren kann wie Google oder IBM...
Hallo Tilo. Tilo R. schrieb: > Ich gehe davon aus, dass KI in dieser komplizierten Situation deutlich > bessere Ergebnisse erzielen kann, als rein algorithmenbasierte > Autorouter. Das vermute ich auch. Vermutlich wäre sie auch besser als ich. > Die Qualität der Ergebnisse wird aber sicher auch vom > investierten Geld abhängen. Ich glaube nicht, dass einer der > EDA-Software-Hersteller ähnlich viel Geld investieren kann wie Google > oder IBM... Das ist der Hauptknackpunkt. Wenn man Deine obigen Punkte mit der komplexen Aufgabenstellung nimmt, wird das ein schönes Stück Arbeit, und die EDA Branche bringt dafür nicht genug Gewinn ein, als dass sich das lohnt. Das könnte sich aber ändern, wenn KI als Tool so billig geworden ist, dass sie das selber machen kann. Mit freundlichem Gruß: Bernd Wiebus alias dl1eic http://www.dl0dg.de
Interessant wie aufregend so eine einfache Frage sein kann.... Das mit dem Geld ist sicher nicht falsch, aber wenn man ueberlegt das ein sehr gut funktionierender Autorouter auch eine Menge Leute einsparen kann? Und wenn die Layoutqualitaet dann noch besser waere? Da waere es vermutlich kein Problem dem Hersteller jedes Jahr 100 oder 200 tEuro zu ueberweisen. Was die Zuverlaessigkeit angeht: Auch menschliche Router machen manchmal Fehler. Das ist allgemein akzeptiert, einfach weil es keine Alternative gibt. Da koennte man auch einer KI zugestehen gelegentlich mal einen Fehler zu machen. Die Folgen waeren ja weniger problematisch wie beim autonomen Autofahren. Das oben angefuehrte Argument das KI lernen kann wenn sie gegen sich selbst arbeitet halte ich hier fuer Unsinn. Das mag in Spielen gehen weil die Zielvorgabe dort sehr primitiv ist. Einfach nur gewinnen. Aber auch wenn man als erfahrener Ingenieur ein Layout bewerten soll dann kann man das nicht in einer Minute. Da muss man sich auch erst reindenken und wird manchmal doch erst spaet (z.B in der EMV) auf Fehleinschaetzungen aufmerksam gemacht. .-) Aber fangen wir mal einfach an. Gibt es heute Autorouter die jede beliebige Platine immer zu 100% routen koennen wenn dies auch ein Mensch koennte ohne das man jetzt externe Masstaebe anlegt wie Signalqualitaet, Mindestabstaende, usw. ? Das sollte man doch erwarten koennen oder? Olaf
Soweit mir bekannt ist, hat/hatte der Bartels Autorouter (BAE) bereits ein neuronales Netz integriert. Ah, hier steht's auch: https://www.bartels.de/baedoc/baear_de.htm Weitere Infos dazu habe ich leider nicht finden können. Etwas Offtopic: Bernd W. schrieb: > Nun sind 25 Jahre ins Land gegangen, und es gibt mittlerweile z.B. > Ansätze, neuronale Netze in FPGA-Manier aufzubauen, was die > Leistungsfähigkeit dieser Systeme erheblich steigern wird. Das ist aber nur eine simple Skalierung: Software in Hardware gegossen - etwas Neues ist das nicht. > Und was die > militärischen Anwendungen dieser Technik mittlerweile können, bleibt ein > Geheimnis. Naja, darüber kann man natürlich immer spekulieren - das ist eine fruchtlose, wenngleich spannende Diskussion ;-) > Den Spektrum Artikel gibt es mittlerweile im Netz: > https://www.spektrum.de/magazin/kuenstliches-leben-im-pc/823339 > Einen Wikipedia Artikel über Creatures gibt es auch: > https://de.wikipedia.org/wiki/Creatures_(Spieleserie) > Wohlgemerkt, was da steht, stellt den Stand von vor 25 Jahren dar. > > Ich gehe davon aus, dass es mittlerweile KIs gibt, die meine "HI" > (Humane Intelligenz) weitestgehend ersetzten könnten. Worauf begründet sich Deine Annahme? Ich sehe im Moment bzw. schon seit Jahren nichts, das das auch nur ansatzweise leisten könnte. > Nachtrag: Es gibt noch einen interessanten Artikel zu KI und dem Spiel > "Go": > https://www.spiegel.de/wissenschaft/technik/kuenstliche-intelligenz-gott-braucht-keine-lehrmeister-kolumne-a-1175130.html Auch das ist mMn kein wirklicher Fortschritt. Auch dort wurde "nur" - mit einem irrsinnigen Rechenaufwand - ein Netz trainiert. Das ist aber weiterhin alter Wein in neuen Schläuchen. Diese Systeme versagen immer in dem Moment, wo sie etwas außerhalb ihrer (sehr engen) Regeln (Schach, Go, Mustererkennung, auch Autorouting) erfassen müssen. In den Threads zum autonomen Fahren hatte ich ja schon viele Beispiele gebracht, die von den künstliche NN heutiger Form nicht einmal ansatzweise gelöst werden, die aber entscheidend sein werden, um ein Fahrzeug 100% autonom zu bewegen. So wie autonome Fahrzeuge nicht den Zweck einer Straße kennen sondern nur einen verwaschenen optischen Filter von etwas, das ihnen millionenfach gezeigt wurde, gepaart mit noch simpleren Algorithmen zur Linienerkennung. Dementsprechend können sie auch nur das wiedererkennen. Selbst einem Kleinkind erklärt man einmal, was eine Straße ist und es wird quasi ab sofort Straßen jeglicher Form erkennen. Das hat eine ganz andere Qualität, denn das Kind hat den Zweck eines Weges/einer Straße verinnerlicht. Man kann es auch polemisch ausdrücken: Auch AlphaGo weiss nicht, dass er ein Spiel spielt. Er weiss nicht einmal, was ein Spiel ist.
:
Bearbeitet durch Moderator
natürlich dumm schrieb im Beitrag #6039183: > Was für eine Sülze. Das meiste, was du beschreibst, ist nur in deiner > kleinen Welt so negativ. Eine KI hat auch viele Vorteile. Aber wer nicht > mal den Stand der Technik von KI-basierten Autoroutern recherchieren > kann, der ist einfach zu zurückgeblieben, um von der heutigen KI zu > profitieren. Erlich ich feier dieses Forum für das Klima hier. Was hier manchmal für ein Umgangston herrscht versüßt mir den Morgen! Dafür vielen herzlichen Dank
Olaf schrieb: > das > ein sehr gut funktionierender Autorouter auch eine Menge Leute einsparen > kann? Paperlapap. Ich habe oft Autorouter probiert. Bei ganz einfachen layouts oder reinen Digitalschaltungen mag das gehen. Der Autorouter hat aber keine Problem damit mal kurz eine Leiterbahn quer durch den EMI Filter Bereich zu legen, weil es da noch passt. Er kann ja nicht wissen was das alles für Auswirkungen hat. Der Autorouter müsste eine unglaubliche Vielzahl von Dingen über die Schaltung, den Gehäuseaufbau, die Umweltbedingungen etc. pp. wissen um überhaupt die Bauteile platzieren zu können. Er muss verstehen wo schnelle Signale laufen und wo die empfindlichen Analogen. Wo der menschliche Layouter abwägungen trifft, von der Ideallinie abweicht, Pinswapping macht oder umsortiert, ist die KI überfordert, weil sie nur nach Regeln trainiert wurde, aber nicht versteht was sie tut und welche Auswirkung das haben könnte. Der menschliche Layouter bedenkt 1000 Dinge, die mit reinen Layoutregeln nichts zu tun haben.
Bimbo. schrieb: > natürlich dumm schrieb im Beitrag #6039183: >> Was für eine Sülze. Das meiste, was du beschreibst, ist nur in deiner >> kleinen Welt so negativ. Eine KI hat auch viele Vorteile. Aber wer nicht >> mal den Stand der Technik von KI-basierten Autoroutern recherchieren >> kann, der ist einfach zu zurückgeblieben, um von der heutigen KI zu >> profitieren. > > Erlich ich feier dieses Forum für das Klima hier. Was hier manchmal für > ein Umgangston herrscht versüßt mir den Morgen! > > *Dafür vielen herzlichen Dank* Ja, sorry, den nett geschriebenen und extrem wertvollen Beitrag hatte ich übersehen. Ich habe ihn nun passend verschoben.
Bernd W. schrieb: > vn nn schrieb: > >> Leider finde ich den Artikel gerade nicht, in dem ein toller >> AI-Spamfilter Mails grundlos nicht durchlässt, und keiner kann es fixen, >> weil es ja trainiert und nicht programmiert ist... > > [blahfasel] > > Du wirst beim Spam aussortieren auch Fehler machen. Deine Sekretärin > kann es Dir eh nicht recht machen beim Spam aussortieren, aber eine KI > soll Fehlerfrei wie ein deterministisch parsender dummer Spamfilter > sein, bei dem Du die Fehler klaglos aktzeptierst, weil sie für Dich > einsichtig sind weil er nur seinen deterministischen Vorgaben folgt? > > Das ist eine Einstellung, die ich persönlich als Überheblich und > gefährlich Leichtsinnig einschätzen würde. Es geht nicht darum, Fehler zu machen oder nicht zu machen, es geht darum, dass keiner nachvollziehen kann, warum ein neuronales Netz diesen und jenen Fehler macht, und demzufolge auch keiner gezielt diesen und jenen Fehler fixen kann. Man kann das Netzwerk halt weiter trainieren, und hoffen, dass der Fehler dann nicht mehr auftritt, und auch kein neuer rein rutscht. Oh, der Tesla-Autpopilot hat einen Hund angefahren? Egal, wir trainieren einfach so lange, bis er den Hund richtig erkennt. Natürlich wissen wir dann nicht, ob er jeden Hund erkennt, denn es ist ja kein Code da, den man auditieren könnte. Leider wissen wir auch nicht genau, ob er jetzt nicht vielleicht Kleinkinder verlernt hat. Alles egal. Bernd W. schrieb: > Ich gehe davon aus, dass es mittlerweile KIs gibt, die meine "HI" > (Humane Intelligenz) weitestgehend ersetzten könnten. Ja, die eines Hipsters, der offensichtlich jedem Hype bereitwillig nachläuft, ganz bestimmt. Da brauchts aber auch keine KI dafür, das schafft auch klassischer Code:
if (hypepotential > 100) { printf("Boaaaaa geil! Jeder der dem nicht bedingungslos nachläuft ist doof und überheblich!") } |
Übrigens ist auch ein klassischer Spamiflter nicht "fix definiert". Aber davon hast du halt keine Ahnung. Genauso wie von Softwarequalität und Nachvollziehbarkeit. Bernd W. schrieb: > Nachtrag: Es gibt noch einen interessanten Artikel zu KI und dem Spiel > "Go": > https://www.spiegel.de/wissenschaft/technik/kuenstliche-intelligenz-gott-braucht-keine-lehrmeister-kolumne-a-1175130.html Technisch absolut nix neues. Einziger unterschied zu vor 20 Jahren: heute ist Rechenleistung derart günstig, dass man einfach einen Haufen Rechenleistung auf ein Problem loslässt und damit ein Netzwerk trainiert.
vn n. schrieb: > Oh, der Tesla-Autpopilot hat einen Hund angefahren? Egal, wir trainieren > einfach so lange, bis er den Hund richtig erkennt. Natürlich wissen wir > dann nicht, ob er jeden Hund erkennt, denn es ist ja kein Code da, den > man auditieren könnte. Leider wissen wir auch nicht genau, ob er jetzt > nicht vielleicht Kleinkinder verlernt hat. Alles egal. Trainieren tun wir natürlich nur in der Simulation, das macht der Tierschutz sonst nicht mit. Unter Umständen fährt die KI danach in der Realität einfach alles über, weil sie nur einen kreativen Weg gefunden hat einen Fehler in der Simulation auszunutzen. Sicher kann eine KI eine Menge Dinge und kann sehr nützlich sein. Aber einen Menschen vollständig zu ersetzen... Naja, kommt auf den Menschen an ;-)
Spiel mir das Lied vom Lot schrieb: > vn n. schrieb: >> Oh, der Tesla-Autpopilot hat einen Hund angefahren? Egal, wir trainieren >> einfach so lange, bis er den Hund richtig erkennt. Natürlich wissen wir >> dann nicht, ob er jeden Hund erkennt, denn es ist ja kein Code da, den >> man auditieren könnte. Leider wissen wir auch nicht genau, ob er jetzt >> nicht vielleicht Kleinkinder verlernt hat. Alles egal. > > Trainieren tun wir natürlich nur in der Simulation, das macht der > Tierschutz sonst nicht mit. > Unter Umständen fährt die KI danach in der Realität einfach alles über, > weil sie nur einen kreativen Weg gefunden hat einen Fehler in der > Simulation auszunutzen. > > Sicher kann eine KI eine Menge Dinge und kann sehr nützlich sein. > Aber einen Menschen vollständig zu ersetzen... > Naja, kommt auf den Menschen an ;-) Ganz so viel Pessimismus ist - zumnindest was das Autorouting von Leiterplatten angeht - nicht angebracht. Ergebnisse sind ja verifizierbar. Wenn das Layout nicht funktioniert oder schlecht ist fällt das auf. In der Fertigung, beim Test oder bei der EMV-Prüfung. Und dann gibt es inzwischen ja auch tolle Simulationsmöglichkeiten, mit denen z.B. thermisch oder hinsichtlich EMV simuliert werden kann. In den Händen von (menschlichen) Profis ergibt sich damit sicher die Möglichkeit, einer KI entsprechende Trainings- und Feedbackdaten zu geben.
Ich bin auch deutlich skeptischer gegenüber KIs als der Durchschnitt im Moment es ist, aber die Autorouter-Idee finde ich als Anwendung eigentlich ziemlich gut. Wie gesagt wurde, es gibt gute Trainingsdaten, und vor allem wird das Ergebnis ja nicht 1:1 blind übernommen, sondern dient lediglich als Vorschlag für den Menschen, der das bedient. Auditierbar finde ich hier irrelevant -- das sind die momentanen Autorouter auch nicht wirklich. Auch hier muss man das Ergebnis anschauen und bewerten und kann sich nicht darauf verlassen, dass X passiert. Ich meine, keine Ahnung ob es taugt, aber versuchen könnte man es schon.
:
Bearbeitet durch User
vn n. schrieb: > Egal, wir trainieren > einfach so lange, bis er den Hund richtig erkennt. Natürlich wissen wir > dann nicht, ob er jeden Hund erkennt, denn es ist ja kein Code da, den > man auditieren könnte Und wer bringt der KI bei, dass man nach deutscher Rechtssprechung nur wegen eines Hundes bremsen darf, wenn der mehr als 500 Euro wert ist? Bei einer Strassenmischung voll draufhalten... Immerhin gibt es bei Kindern solche juristischen Spitzfindigkeiten nicht, jedenfalls noch nicht. Nichts ist so absurd dass daraus nicht ein Urteil werden kann, und dem wird keine KI jemals folgen können. Wie sollte z.B. eine KI wissen, dass Drecksfotze ein sachlicher Diskussionsbeitrag ist? Georg
Sicher ist KI momentan ein ähnliches Buzzword wie es vor einiger Zeit z.B. "Fuzzy Logic" war. Aber mit entsprechendem Aufwand funktioniert sie einigermaßen, wie Google mit seinem "GO"-Projekt vorgeführt hat. Nun besteht ein GO-Feld aus 19x19 Feldern, scheint also auf den ersten Blick recht überschaubar. Ein "ordentlich großes" Board besteht aus wesentlich mehr Elementen, die auch noch wesentlich ungleichmäßiger verteilt sind, als auf dem GO-Brett. Man führe sich mal vor Augen, was Google für einen Aufwand getrieben hat, um nur diese eine, sehr spezielle, Aufgabe zu lösen. Wie groß ist dann der Aufwand, eine KI zu bauen/programmieren die große Boards Routen kann? Womit will man solch eine KI trainieren? Mit 100000en fertig gerouteter Boards?
Georg schrieb: > Und wer bringt der KI bei, dass man nach deutscher Rechtssprechung nur > wegen eines Hundes bremsen darf, wenn der mehr als 500 Euro wert ist? > Bei einer Strassenmischung voll draufhalten... > > Immerhin gibt es bei Kindern solche juristischen Spitzfindigkeiten > nicht, jedenfalls noch nicht. Frei nach "Qualityland": wenn sich ein auonomes Fahrzeug zwischen dir und einer Gruppe Kindergartenkinder entscheiden muss, ziehst du immer den Kürzeren. Immer.
@ Mod Ich schlage vor, das Wort, beginnend mit 'D' in dem Beitrag Beitrag "Re: Autorouter mit KI" durch das Wort "Schimpfwort" zu ersetzen oder den Beitrag zu löschen. Insofern das Beispiel ein sachliches Argument enthält ist m.M.n. ein wörtliches Zitat zu seiner Gültigkeit nun wirklich nicht notwendig. Im übrigen entspricht das Argument nicht den Tatsachen. Das Berliner Gericht hat nicht behauptet, dass es sich bei dem Wort um einen "sachlicher Beitrag" handelt, sondern, dass es sich dabei um eine zulässige Meinungsäusserung handelt - das ist etwas völlig Anderes.
Beitrag #6039642 wurde vom Autor gelöscht.
Sinus T. schrieb: > Womit will man solch eine KI trainieren? Mit 100000en fertig gerouteter > Boards? Sei mal etwas kreativ! Bereits jetzt schon nutzen Autorouter Metriken, um bessere von schlechteren Designs zu unterscheiden. Diese Metriken nutzen die Anzahl der Vias, durchschnittliche Weglängen und was weiß ich nicht alles. Diese Metriken werden seit fast 40 Jahren verbessert. Dann kann man wie gesagt simulieren. Wenn es an irgendeiner Stelle zu heiß wird ist das ein Feedback, dass an der Stelle nachgebessert werden soll. Das selbe mit EMV, wenn irgendwo zu viel emittiert wird. Und dann kann ja auch ein erfahrerener Layouter drüberschauen und sagen, an der Stelle ist das und das suboptimal.
Tilo R. schrieb: > Sei mal etwas kreativ! > Bereits jetzt schon nutzen Autorouter Metriken, um bessere von > schlechteren Designs zu unterscheiden. Diese Metriken nutzen die Anzahl > der Vias, durchschnittliche Weglängen und was weiß ich nicht alles. > Diese Metriken werden seit fast 40 Jahren verbessert. Hat aber das Ergebnis meiner Meinung nach nicht besonders verbessert. Was die heutigen können unterscheidet sich wenig von den Ergebnissen auf einem Unix Rechner mit 68000er Prozessor von vor 30 Jahren. Nur das ich es nicht mehr über Nacht laufen lassen muss. Es nützt auch wenig an den Metriken zu drehen. Es gibt einfach zu viele verschiedene. Analog hat andere Anforderungen als HF, unterscheidet sich auch von Digital und Industriesteuerungen sind anders aufgebaut als eine Spielkonsole. "Trainieren" kann man auch schlecht, wo bekommt man die Millionen von Layouts her? Selbst wen man die hätte, jede Firma, jeder Layouter macht es anders. Ein BGA-escape routing kann man vermutlich seht gut dem Autorouter machen lassen, aber beim Rest wird es schwierig. Das Google jetzt bei einer Rechenaufgabe mit einer Rechenmaschine besser ist als ein Mensch hat mich auch nicht vom Hocker gehauen. Jedenfalls so lange Sie nicht bis die dem Verlierer zum Trost einen Kuchen bäckt. Mit Rumrosinen weil er die ha so gern mag. und bis Karl Klammer mit "anscheinend wolle Sie eine Lageregelung für Ihre Drohne konstruieren" rumnervt wird es wohl auch noch ein wenig dauern ;-).
Irgendwo hat wer in diesem Forum mal geschrieben, wie er den Autorouter benutzt. Nur für einzelne, kleinere Bereiche nacheinander, einzelne Netzgruppen, und dann eben vernünftig parametrisiert. Ich mache das so zwar auch nicht, denke aber dennoch daß der Autorouter so vernünftig nutzbar sein könnte. Und warum über trainierte KI nachdenken wenn die zur Verfügung stehenden Mittel nichtmal ansatzweise genutzt werden? Autorouter haben mehr als nur den Startknopf. Jedenfalls heutzutage.
Wühlhase schrieb: > Irgendwo hat wer in diesem Forum mal geschrieben, wie er den Autorouter > benutzt. Nur für einzelne, kleinere Bereiche nacheinander, einzelne > Netzgruppen, und dann eben vernünftig parametrisiert. Mache ich auch so. Bei der Platzierung ist es auch sehr praktisch. Oder ganz banal um zu sehen wo ich noch Netzklassen vergessen habe. Für kleine Adapter z.B. finde ich einen Autorouter auch super. Die routet er zu 100% in ein paar Sekunden und das sieht auch gut aus. Da hab ich den Kopf frei das Teil z.B. mechanisch zu optimieren.
Base64 U. schrieb: > Ene KI hat einen riesigen Haufen Nachteile. > > * eine black-box, nicht auditierbar, Ein Mensch ist auch nicht auditierbar.
Bernd K. schrieb: > Ein Mensch ist auch nicht auditierbar. Doch, du kannst ihn fragen, warum er das so gemacht hat. Das ist mit "auditierbar" gemeint. Natürlich nicht in beliebigem Maße (manchmal ist die Antwort "äh, ups"), aber immerhin kannst du fragen und hast eine gute Chance eine Begründung zu bekommen.
Hallo Sven. Sven B. schrieb: > Doch, du kannst ihn fragen, warum er das so gemacht hat. Das ist mit > "auditierbar" gemeint. Natürlich nicht in beliebigem Maße (manchmal ist > die Antwort "äh, ups"), aber immerhin kannst du fragen und hast eine > gute Chance eine Begründung zu bekommen. Nein, auch dann nicht wirklich. Unser "Verstand" ist in erster Linie eine "Rechtfertigungsmaschine" die uns nachträglich die vermeintlichen Gründe für unser Handeln nennt. Die eigentliche Entscheidung ist vorher unbewusst gefallen *), und ist genau so wenig durchschaubar wie eine KI. Allerdings fliesst das Wissen um unsere eigene Rechtfertigung in unsere weiteren unbewussten Entscheidungen ein. Das ist der Lernprozess, genau wie bei einer KI. *) https://de.wikipedia.org/wiki/Libet-Experiment#Interpretation_Libets Mit freundlichem Gruß: Bernd Wiebus alias dl1eic http://www.dl0dg.de
Hallo vn m. vn n. schrieb: > Es geht nicht darum, Fehler zu machen oder nicht zu machen, es geht > darum, dass keiner nachvollziehen kann, warum ein neuronales Netz diesen > und jenen Fehler macht, und demzufolge auch keiner gezielt diesen und > jenen Fehler fixen kann. Ich kann bei vielen meiner Fehler auch nicht nachvollziehen, warum ich sie gemacht habe. Ich werde sie darum auch in Zukunft nicht zuverlässig ausschliessen können. Was ist also da der Unterschied? Und was lässt Dich auf das hohe Ross steigen und behaupten, bei Dir wäre es anders? Es wird bei Dir auch nicht grundsätzlich anders sein, wenn auch vermutlich Deine Fehlerrate besser ist. > Man kann das Netzwerk halt weiter trainieren, > und hoffen, dass der Fehler dann nicht mehr auftritt, und auch kein > neuer rein rutscht. Das ist ja das gleiche Schema, wie man es bei Menschen (und Tieren) auch angeht. Üben, Üben, Üben....allerdings läuft das Ergebnis bei Mensch und Tier auch asymthotisch gegen eine wie auch immer gelagerte Grenze, wo ich sagen muss, dass hier mangelnde Begabung ein Limit setzt, wo auch weiteres Üben nichts mehr bringt. > Oh, der Tesla-Autpopilot hat einen Hund angefahren? Egal, wir trainieren > einfach so lange, bis er den Hund richtig erkennt. Natürlich wissen wir > dann nicht, ob er jeden Hund erkennt, denn es ist ja kein Code da, den > man auditieren könnte. Leider wissen wir auch nicht genau, ob er jetzt > nicht vielleicht Kleinkinder verlernt hat. Alles egal. Soso, und Menschen machen keine Fehler und überfahren keine Hunde und kleine (und große) Kinder, weil sie sie übersehen? Wo ist da der Unterschied? > Übrigens ist auch ein klassischer Spamiflter nicht "fix definiert". Aber > davon hast du halt keine Ahnung. Kein Wunder, ich benutze keinen Spamfilter, weil ich so gut wie kein Spam erhalte, und den ganzen Rest sortiere ich per Filterregel nach Absender oder Schlüsselwörtern (bei Mailinglisten). >> Nachtrag: Es gibt noch einen interessanten Artikel zu KI und dem Spiel >> "Go": >> > https://www.spiegel.de/wissenschaft/technik/kuenstliche-intelligenz-gott-braucht-keine-lehrmeister-kolumne-a-1175130.html > > Technisch absolut nix neues. Einziger unterschied zu vor 20 Jahren: > heute ist Rechenleistung derart günstig, dass man einfach einen Haufen > Rechenleistung auf ein Problem loslässt und damit ein Netzwerk > trainiert. Richtig. Gerade wenn neuronale Netztwerke per Software simuliert werden, braucht das irre Rechenleistung und Speicherkapazität. Darum hängt das ganze ja auch an der Verfügbarkeit von Rechenleistung - oder man schafft den Schritt und baut die neuronalen Netzte in großen Massen direkt als Siliziumstrukturen in ICs. Mit freundlichem Gruß: Bernd Wiebus alias dl1eic http://www.dl0dg.de
:
Bearbeitet durch User
Hallo Georg. Georg schrieb: > Und wer bringt der KI bei, dass man nach deutscher Rechtssprechung nur > wegen eines Hundes bremsen darf, wenn der mehr als 500 Euro wert ist? > Bei einer Strassenmischung voll draufhalten... Meinst du, Menschen könnten dass? Das besste was passiert, ist, dass Du aus den Augenwinkeln eine Bewegung eines Schatten warnimmst und instinktiv bremst( oder eben auch nicht). Ob es nun ein teurer, ein billiger oder sonstwie ein Hund oder Tier oder Kind oder auch Erwachsener oder eine Lokomotive ist, stellt sich dann später heraus. Im Zweifel irgendein Schatten an einer Wand, und Du hast für umsonst gebremst und bist für umsonst in den Gegenverkehr geschleudert. Woher nehmt ihr Mitmenschen nur eure idiotische Selbstsicherheit? Mit freundlichem Gruß: Bernd Wiebus alias dl1eic http://www.dl0dg.de
Sven B. schrieb: > Bernd K. schrieb: >> Ein Mensch ist auch nicht auditierbar. > > Doch, du kannst ihn fragen, warum er das so gemacht hat. Du bekommst keine sinnvolle Antwort. Nimm mal an ich route eine Platine und es gelingt mir "zufällig" (oder meinetwegen auch intuitiv oder kraft höherer Eingebung oder wie auch immer) eine ganz knifflige Stelle höchst elegant aufzulösen an der Du Dir vorher 4 Stunden lang die Zähne ausgebissen hast. Und 1 Woche später gelingt mir dieses unmöglich geglaubte Kunststück erneut, ich schaue drauf und irgendwie sehe ich etwas was Du auch nach 4 intensiven Stunden nicht gesehen hast. Und dann fragst Du mich wie ich das gemacht habe. Was soll ich da antworten? Erwartest Du dann eine Antwort die Dich befähigt beim nächsten Mal das selbe zu tun? Wie könnte so eine Antwort aussehen? Und das nächste Mal findest Du sofort eine Lösung und ich finde beim besten Willen keine. Niemand kann sagen warum und keiner von uns wird dem anderen erklären können was er hätte machen müssen um das zu tun. Es geht nicht. Die graue Masse da oben im Kopf ist eine Black Box ungeahnten Ausmaßes die Dinge tut von denen keiner weiß wie und warum.
:
Bearbeitet durch User
Hallo Olaf. Olaf schrieb: > Das oben angefuehrte Argument das KI lernen kann wenn sie gegen sich > selbst arbeitet halte ich hier fuer Unsinn. Das mag in Spielen gehen > weil die Zielvorgabe dort sehr primitiv ist. Nun, Du beurteilst ein Layout ja auch nach mehreren Kriterien, die Du gegeneinander abwägst. Wenn Du es schaffst, dass in einer Regel zu definieren, ist dass das Ziel für die KI. Ansonsten ist das ein Minimierungs/Maximierungs Problem für viele einzelne Kriterien, die Du dann irgendwie in Zahlen fassen müsstest oder Klassifizieren müsstest. > Aber > auch wenn man als erfahrener Ingenieur ein Layout bewerten soll dann > kann man das nicht in einer Minute. Da muss man sich auch erst > reindenken und wird manchmal doch erst spaet (z.B in der EMV) auf > Fehleinschaetzungen aufmerksam gemacht. .-) Ja. Und darum verlässt sich ja auch heute in größeren Unternehmen niemand mehr nur auf eine persönliche Bewertung eines Layoutes, sondern lässt eine Simmulation, und wenn auch nur für kritische Stellen, darüber laufen. Kleine Firmen können sich das nicht leisten, aber davon gibt es immer weniger, weil immer mehr in China und indien mit gleicher Qualität billiger gemacht werden kann. > > > Aber fangen wir mal einfach an. Gibt es heute Autorouter die jede > beliebige Platine immer zu 100% routen koennen wenn dies auch ein Mensch > koennte ohne das man jetzt externe Masstaebe anlegt wie Signalqualitaet, > Mindestabstaende, usw. ? > Das sollte man doch erwarten koennen oder? Womit ich mal herumgespielt habe war der Specctra-Autorouter der mit Orcad verbunden war, und dem Eagle Autorouter. Der Specctra war etwas besser als der Eagle Autorouter, aber keiner von denen hat auf Anhieb an einer etwas dichter belegten Platine mehr als 70% gebracht. Mit mehrmaligem umplazieren der Bauteile kamen sie dann irgendwann auf 99-100%. Auch wenn ich eine bereits fertig manuell geroutete Platine aufgelöst und vom Autorouter neu habe routen lassen, stoppte der bei 90-95%. Ich habe das Problem meistens durch setzten von Vias auflösen können. Vermutlich hat irgendein Algorithmus dem Autorouter gesagt, dass es nun genug von den bösen, teuren Vias auf der Platine gibt, und er gefälligst jetzt mit dem Via setzten aufhören soll. Speziell beim Eagle Autorouter von um irgendwas 2004 oder so war deutlich zu sehen, dass er lieber riesige Umwege machte, bevor er mal ein Via setzte. Das mit der Via Vermeidung hatte ganz ganz früher mal eine ernsthafte Bedeutung, weil Vias teure Bohrungen waren, und dazu bei der herstellung fehleranfällig. Das ist aber seit mindestens den 90ern nicht mehr so, und Vias mögen HF mäßig nicht toll sein, aber meistens immer besser als ein Umweg über dreiviertel der Eurokarte. HF- und Breitbanddesigns jetzt mal wieder aussen vor. Das mit den 100% ist also so eine Sache. Ich bin mir recht sicher, dass es ein guter Autorouter hinbekommen könnte. Aber ich hatte nie einen zum Testen. Umd bei reinen Algorithmen spielt auch Glück hinein. Falsch gestartet, und die 100% klappen nicht mehr. Mit freundlichem Gruß: Bernd Wiebus alias dl1eic http://www.dl0dg.de
Bernd W. schrieb: > Meinst du, Menschen könnten dass? Habe ich doch nicht behauptet. Wegen der geringen Rechengeschwindigkeit eher noch schlechter. Bernd W. schrieb: > Woher nehmt ihr Mitmenschen nur eure idiotische Selbstsicherheit? Da liegst du jetzt aber voll daneben. Ich habe keine Ahnung ob ich im Zweifelsfall den Hund juristisch korrekt überfahren würde, dann muss ich halt eine Klage in Kauf nehmen. Im realen Leben steht man eh immer mit einem Bein im Gefängnis oder verliert zumindest den Versicherungsschutz. Eine KI im autonomen Auto könnte in Millisekunden das Bild des Hundes mit einer Datenbank aller Rassen mit gespeicherten Preisen vergleichen, was ich definitiv nicht kann - aber damit du mich nicht wieder (absichtlich?) missverstehst, das wäre für mich keine bessere Lösung. Ich bekenne, dass ich auch für Tiere bremse, unabhängig vom "Wert". Georg
Bernd K. schrieb: > Nimm mal an ich route eine Platine und es gelingt mir "zufällig" (oder > meinetwegen auch intuitiv oder kraft höherer Eingebung oder wie auch > immer) eine ganz knifflige Stelle höchst elegant aufzulösen an der Du > Dir vorher 4 Stunden lang die Zähne ausgebissen hast. Und 1 Woche später > gelingt mir dieses unmöglich geglaubte Kunststück erneut, ich schaue > drauf und irgendwie sehe ich etwas was Du auch nach 4 intensiven Stunden > nicht gesehen hast. Und dann fragst Du mich wie ich das gemacht habe. > Was soll ich da antworten? Erwartest Du dann eine Antwort die Dich > befähigt beim nächsten Mal das selbe zu tun? Wie könnte so eine Antwort > aussehen? Dieses Szenario halte ich für völlig an den Haaren herbeigezogen und unwahrscheinlich. Oder anders: Wenn du nicht weißt was du da getan hast bist du in meinen Augen ein genauso schlechter Layouter als wenn du es schlicht verbockt hättest. Diese Frage ist genauso bekloppt wie dieses Gedankenexperiment, in dem man ein autonomes Auto vor die Wahl stellt welche Menschen/Menschengruppe es überfahren soll, wobei es eine Überfahren muß. Sowas denken sich Leute aus, die sich früher durch ein Philosopiestudium gelabert haben und danach ihre Daseinsberechtigung darstellen müssen. Bzw. die zum Fortschritt nichts anderes beizusteuern haben als ihre Moral.
Dieser topologische Autorouter https://www.eremex.com/products/topor/competitiveadvantages/autorouting/ hat KI, denn er ist, was das Autorouting betrifft, ähnlich intelligent wie ich selber, und er ist von Menschenhand geschaffen worden, also künstlich. Oder ist eine Voraussetzung dafür, sich mit dem Label "KI" schmücken zu dürfen, die Verwendung eines Neuronales Netzes? Dann hat er natürlich keine KI. Manchmal habe ich tatsächlich das Gefühl, dass in letzter Zeit KI von vielen gleichgesetzt wird mit Neuronalen Netzen, was in meinen Augen aber völlig falsch ist, da ein Neuronales Netz für sich gesehen keine bzw. nur eine sehr niedere Intelligenz realisiert.
Hallo Chris. Chris D. schrieb: >> Nun sind 25 Jahre ins Land gegangen, und es gibt mittlerweile z.B. >> Ansätze, neuronale Netze in FPGA-Manier aufzubauen, was die >> Leistungsfähigkeit dieser Systeme erheblich steigern wird. > > Das ist aber nur eine simple Skalierung: Software in Hardware gegossen - > etwas Neues ist das nicht. Ja. Aber gerade bei neuronalen Netzen bringt Masse wirklich was. Die Simulierung neuronaler Netze durch software ist extrem Rechenintensiv und speicherfressend. Software in Hardware giessen und das dann in großen Massen einsetzten ist schon eine Nummer. >> Ich gehe davon aus, dass es mittlerweile KIs gibt, die meine "HI" >> (Humane Intelligenz) weitestgehend ersetzten könnten. > > Worauf begründet sich Deine Annahme? Ich sehe im Moment bzw. schon seit > Jahren nichts, das das auch nur ansatzweise leisten könnte. Ich habe keinen Einblick in die zugrundeliegende Technik, aber ich war kürzlich Beifahrer in einem Fahrzeug mit Spurhalte- und Abstandsassistent. Und ich war beeindruckt . Obwohl ich selber nicht so schnell gefahren wäre und nicht so dicht aufgefahren wäre. Aber der Fahrer hat sonst selber einen Fahrstil wie eine angeschossenen Sau. Dagegen war der Abstandsassitent dann schon eine Wohltat. > So wie autonome Fahrzeuge nicht den Zweck einer Straße kennen sondern > nur einen verwaschenen optischen Filter von etwas, das ihnen > millionenfach gezeigt wurde, gepaart mit noch simpleren Algorithmen zur > Linienerkennung. Dementsprechend können sie auch nur das wiedererkennen. > > Selbst einem Kleinkind erklärt man einmal, was eine Straße ist und es > wird quasi ab sofort Straßen jeglicher Form erkennen. Was macht Dich so sicher, dass sich das Problem nicht mit massivem Einsatz hardverdrahteter neuronaler Netzte lösen lässt? > > Das hat eine ganz andere Qualität, denn das Kind hat den Zweck eines > Weges/einer Straße verinnerlicht. Das ist halt erst bei deutlicher Verfeinerung des Systems machbar. Ich mache öfters die Erfahrung, das ich auch Anfange Fehler zu machen, wenn die "Datenlage" schlecht ist. Ich laufe oft im Dunkeln durch den Wald, und laufe auch, obwohl ich den Weg gut kenne, gelegentlich in die Büsche wenn mir die Schattenwürfe des Mondlichts oder Schattierungen des Bewuchses bei den schlechten Sichtverhältnissen einen Weg vorgaukeln, wo keiner ist. Insbesonders bei Richtungsänderungen und erwarteten Abzweigungen passiert das schnell. Sooo viel besser als eine KI bin ich dann in der Situation auch nicht. Und das "prinzipielle Verständnis" eines Weges und seines Zwecks hilft auf der Ebene dann nicht. > Man kann es auch polemisch ausdrücken: Auch AlphaGo weiss nicht, dass er > ein Spiel spielt. Er weiss nicht einmal, was ein Spiel ist. Ach, so polemisch ist das nicht. Man kann es auch herumdrehen. Wissen wir wirklich, ob und was wir für ein Spiel spielen? Ein Klassiker: "Welt am Draht" https://de.wikipedia.org/wiki/Welt_am_Draht Meine Nachfolgegeneration würde vermutlich eher Matrix erwähnen. ;O) Mit freundlichem Gruß: Bernd Wiebus alias dl1eic http://www.dl0dg.de
Wühlhase schrieb: > Dieses Szenario halte ich für völlig an den Haaren herbeigezogen und > unwahrscheinlich. > Oder anders: Wenn du nicht weißt was du da getan hast bist du in meinen > Augen ein genauso schlechter Layouter als wenn du es schlicht verbockt > hättest. Hmh, ich denke man muss hier zwei Fälle unterscheiden. Das eine ist der, wo eine Lösung präsentiert wird, die offensichtlich gut ist. So wie bei der Primzahlfaktorisierung: faktorisieren ist schwer, aber wenn man das Ergebnis genannt kriegt, ist es leicht zu bestätigen dass es korrekt ist. Ich denke darum ging es in dem Szenario. Der andere ist aber der, wo die Qualität der Lösung nicht ohne Weiteres beurteilt werden kann. Da wird es schon deutlich schwieriger.
Wühlhase schrieb: > Oder anders: Wenn du nicht weißt was du da getan hast bist du in meinen > Augen ein genauso schlechter Layouter als wenn du es schlicht verbockt > hättest. Nein. Natürlich weiß ich was ich getan habe. Aber ich kann Dir nicht sagen was der Grund dafür ist daß ich das kann und jemand anders nicht oder welcher Teil der "Programmierung" in mir es zuwege bringt bestimmte Muster zu erkennen die mir vollkommen offensichtlich erscheinen, jemand anderen dagegen überhaupt nicht. Ein Vorteil der KI ist: man kann ein einmal erfolgreich trainiertes Modell speichern und beliebig duplizieren. Auch wenn man es nicht befragen kann warum es so ist wie es ist. Wenn Du nach langer Suche einen Menschen gefunden hast der ganz bestimmte Aufgaben besser lösen kann als jeder andere, versuch den mal abzuspeichern und zu duplizieren! Den kannst Du befragen und "auditieren" so lange Du willst, Du wirst nicht erfahren warum der so kreativ ist und wie der Algorithmus funktioniert mit dem er Ideen findet wo andere nichts finden und Du wirst es nicht duplizieren können. Black box!
Meine Erfahrung mit Mentor Graphics PADS Autorouter war sehr interessant. Ich hab ihn genutzt um 6 Lagen Platinen mit mehr als 3000 Netzen zu routen. Sagen wir das mal so, es ist lustig zuzuschauen, wie er das macht. Aber am Ende gibts doch immer wieder spezielle Signale, wo man sich wundert, wie er denn das überhaupt sich gedacht hat. Manchmal hat er es gar nicht geschafft. Die größte Arbeit beim Layouten ist immer die Einstellung der Regeln. Für jedes Signal oder Signalgruppe. Da gilt es dann als Autorouter so vielen Bedingungen zu entsprechen, daß es ein Wunder ist, daß es überhaupt irgendwie doch geht. Am Ende muss man händisch immer nachbessern. Mit KI wird das noch lustiger. Was sind denn die Ziele? Lasst mich mal kurz zusammenfassen: Leitungen so kurz wie möglich. Datenleitungsgruppen so gleichlang wie möglich, wenn nötig halt mit Meandern oder nach +- und Impedanz Vorgabe. Power Leitungen so kurz wie möglich und Vias meiden. Definierte Sicherheitsabstände immer einhalten! Was wäre der Wunschablauf: Bauteile definieren/importieren, Schematik erstellen, Design Rules zu jedem Signal und Gruppe definieren, Netliste erstellen. Layout Platinenrand Zeichnen, Netzliste und Bauteile importieren, Interface Bauteile richtig patzieren und fixieren (Kühlkörper, Power Teile, Stecker und Testpunkte), Verbotszonen definieren (EMI Filter etc.) KI Autorouter starten der sogar unfixierte Bauteile plazieren kann, Ergebnis begutachten, Änderungen machen. KI mit Ergebnis trainieren. Eigentlich steht nix diesem Ablauf entgegen. Will wer mitmachen sowas zu schreiben? Ich würde es gerne in KiCAD mal sehen.
Hallo Wühlhase. Wühlhase schrieb: > Dieses Szenario halte ich für völlig an den Haaren herbeigezogen und > unwahrscheinlich. > Oder anders: Wenn du nicht weißt was du da getan hast bist du in meinen > Augen ein genauso schlechter Layouter als wenn du es schlicht verbockt > hättest. Das ist aber durchaus realistisch. Geht mir genauso. Und ob ein Layouter schlechter oder besser ist als ein anderer, lässt sich sowieso nur über eine Statistik ermitteln. Der bessere Layouter liefert nur mit höherer Wahrscheinlichkeit ein besseres Ergebnis. Ein einzelnes Ergebinis kann durchaus auch einmal schlecht sein. Was ist mit dem Zeitfaktor: Schnelligkeit gegen Qualität ist nicht alles. Denke an Schach. Ein guter Schachspieler ist nicht zwangsläufig ein guter Blitzschachspieler. Ein guter Blitzschachspieler ist nicht unbedingt in normalem schach gut. > > Diese Frage ist genauso bekloppt wie dieses Gedankenexperiment, in dem > man ein autonomes Auto vor die Wahl stellt welche > Menschen/Menschengruppe es überfahren soll, wobei es eine Überfahren > muß. > Tatsächlich könnte in dem geschilderten Beispiel eine KI immer noch eine eher Anhand von "Werten" (Und wenn sie nur versucht, die Gruppengröße der Personen zu schätzen) orientierte Entscheidung treffen. Im Zweifel auch eher gegen sich selber, wärend bei realen Menschen in einer solchen Entscheidung meist zuerst die Selbsterhaltung kommt und dann Faktoren, die komplett willkürlich und auf die Schnelle gegriffen sind. Also eher Zufall. Wenn Du aber Zufall für besser hälst, warum sollte in einer KI kein Zufallsgenerator sein? > Sowas denken sich Leute aus, die sich früher durch ein Philosopiestudium > gelabert haben und danach ihre Daseinsberechtigung darstellen müssen. > Bzw. die zum Fortschritt nichts anderes beizusteuern haben als ihre > Moral. Auch Du lebst nicht ohne Moral, auch wenn Du komplett andere Wertvorstellungen hast. Aber dann sieht Deine Moral lediglich anders aus, und ist gegebenenfalls inkompatibel mit der Deiner Mitmenschen. Das führt halt zu Konflikten. Mit freundlichem Gruß: Bernd Wiebus alias dl1eic http://www.dl0dg.de
Hallo Martin. Martin G. schrieb: > Eigentlich steht nix diesem Ablauf entgegen. Erstmal sehe ich auch kein Hinderungsgrund. > > Will wer mitmachen sowas zu schreiben? Ich habe ewig nichts Programmiert, und mittlerweile bin ich zu alt. Bis ich z. B. C vernünftig gelernt habe, bin ich schon tot. Da schreibe ich lieber mal ein kleines Skriptchen in Python. > > Ich würde es gerne in KiCAD mal sehen. Oja. Jean-Pierre Charras (Der Urvater von KiCad), hat KiCad ursprünglich mal geschrieben, um ein Programm zu haben um Autorouter zu testen. Und dafür sollte das Programm sehr einfach sein und alle Parameter bekannt und zugänglich sein. KiCad hat sich dann in eine andere Richtung entwickelt, aber die offene Dateistruktur ist dafür natürlich ideal. Mit freundlichem Gruß: Bernd Wiebus alias dl1eic http://www.dl0dg.de
:
Bearbeitet durch User
Junge, Junge viele verstehen überhaupt nicht was da auf Euch zukommt. Hier einige Beispiele: https://www.youtube.com/user/keeroyz/videos Was wird passieren. Im Moment sehen wir Leiterplattenhersteller die zu Elektronikvollanbietern mit angeschlossener Bestückung und 3D-Druck-Gehäusefertigung werden. Man bietet kostenlose Leiterplatten- und Mechanikentwicklung in der Wolke an. Und so werden genau diese Firmen die ersten sein, dessen Autorouter-KI in der Wolke alle Projekte analysieren kann. Der Kunde klickt sich sein Projekt aus einem Baukasten zusammen, ändert noch paar Komponenten, gibt die Abmessungen ein und platziert wichtige Bauteile. Die KI klaut in der Wolke aus 100erten ähnlichen Projekte das Design zusammen. Sie lernt was ist ein Bus, ein DC-DC-Wandler ..... Die Verlierer werden alle die sein, die ihre Software nicht in die Wolke schaffen! Und um beim obigen Beispiel zu bleiben...das geht in rasender Geschwindigkeit: Youtube-Video "This AI Clones Your Voice After Listening for 5 Seconds 🤐" Layouter werden wie LKW oder Busfahrer keine Bedeutung mehr haben, leider :( Tomy
@Thomas Verlierer werden die sein, die alles glauben was ihnen auf youtube serviert wird.
Thomas H. schrieb: > Layouter werden wie LKW oder Busfahrer keine Bedeutung mehr haben, > leider :( Hast Du etwas genommen (nichts illegales hoffe ich) oder verwechselst Du da etwas? Hast Du schon mal eine Platine "geroutet"? Einen Bus kann "jeder Dödel" (Entschuldigung) nach einer Einarbeitungszeit fahren - aber eine Platine "routen"? Da scheint mir doch etwas komplexer - oder?
Hier ein älterer Link zu JITX: https://spectrum.ieee.org/tech-talk/computing/hardware/startup-jitx-uses-ai-to-automate-complex-circuit-board-design 100erte weitere arbeiten daran. Ich denke in China wird die erste öffentliche Autorouter-KI angeboten. Klar große Firmen wie Siemens können es auch. Wichtig ist der einfache Zugriff auf 1000ende Projekte. Alle kleinen Firmen werden nun bei den Großen in der Wolke entwickeln...denn kein Chef will noch 100erte Stunden Handentwicklung bezahlen ;) Aber noch ist genügend Zeit ! Tomy
Thomas H. schrieb: > Hier ein älterer Link zu JITX: > > https://spectrum.ieee.org/tech-talk/computing/hardware/startup-jitx-uses-ai-to-automate-complex-circuit-board-design Ja, ein "Start-Up" von vor 1 Jahr und es kam nichts weiter - warum wohl?
Thomas H. schrieb: > Ich denke in China wird die erste öffentliche Autorouter-KI angeboten. Du denkst überhaupt nicht, sondern übst dich im dreschen von wohlfeilen Phrasen. Keine Substanz - nur heiße Luft.
Bernd W. schrieb: > Das ist aber durchaus realistisch. Geht mir genauso. Und ob ein Layouter > schlechter oder besser ist als ein anderer, lässt sich sowieso nur über > eine Statistik ermitteln. Der bessere Layouter liefert nur mit höherer > Wahrscheinlichkeit ein besseres Ergebnis. Ein einzelnes Ergebinis kann > durchaus auch einmal schlecht sein. Hm...wie gesagt, ich sehe das nicht so. Es kann höchstens sein daß, weil es für "Gutes Layout" zwei oder mehr Definitionen gibt weil auf unterschiedliche Schwerpunkte geachtet wird: kostengünstige Produktion, geringe EMV-Abstrahlung, mechansich robust, usw. Den Fall, daß ich etwas besonders gut mache und hinterher nicht weiß wieso, kenne ich nicht. Ich kenne höchstens den Fall daß ich wirklich keine Ahnung und nur glücklich geraten habe, aber dann hatte ich halt Glück, bin aber nicht gut. Was ich kenne ist, daß ich mich zwischen mehreren gleich guten oder schlechten Varianten entscheiden muß, dann gehts halt nach dem ästhetischen Empfinden. Aber auch dessen bin ich mir hinterher bewußt. Aber nur nach Bauchgefühl reproduzierbar gute Ergebnisse liefern...nö, kenne ich nicht. Bernd W. schrieb: > Was ist mit dem Zeitfaktor: Schnelligkeit gegen Qualität ist nicht > alles. Der Zeitfaktor ist m.E. auch nur ein Kriterium von mehreren. Bernd W. schrieb: >> Diese Frage ist genauso bekloppt wie dieses Gedankenexperiment, in dem >> man ein autonomes Auto vor die Wahl stellt welche >> Menschen/Menschengruppe es überfahren soll, wobei es eine Überfahren >> muß. >> > > Tatsächlich könnte in dem geschilderten Beispiel eine KI immer noch eine > eher Anhand von "Werten" (Und wenn sie nur versucht, die Gruppengröße > der Personen zu schätzen) orientierte Entscheidung treffen. Im Zweifel > auch eher gegen sich selber, wärend bei realen Menschen in einer solchen > Entscheidung meist zuerst die Selbsterhaltung kommt und dann Faktoren, > die komplett willkürlich und auf die Schnelle gegriffen sind. Ich meinte mit "bekloppt" eigentlich den ganzen Denkansatz. Eine Maschine, auch eine noch so gut programmierte KI, ist eine Maschine. So etwas kennt keine Moral oder Ethik. Es ist eine Maschine, ein toter Gegenstand. Es gibt leider aber einen strunzdummen, dafür lautstarken Akademikerzweig, wo man das nicht kapiert und das nicht auseinanderhalten kann. Die sehen so etwas (ab 01:23) Youtube-Video "Atlas, The Next Generation" und fordern Menschenrechte für Roboter. Heraus kommt so etwas wie der Zeitungsartikel in diesem Video: Youtube-Video ""Ja, ich bin Feministin" - Amazon Alexa wird feministisch" Da werden tote Gegenstände vermenschlicht wie sonst etwas, ich finde es einfach pervers. Bernd W. schrieb: > Auch Du lebst nicht ohne Moral, auch wenn Du komplett andere > Wertvorstellungen hast. Aber dann sieht Deine Moral lediglich anders > aus, und ist gegebenenfalls inkompatibel mit der Deiner Mitmenschen. > Das führt halt zu Konflikten. Selbstverständlich lebe ich nicht ohne Moral, und ganz sicher habe ich andere Moralvorstellungen als vielleicht du oder andere hier. Und gerade deshalb sollte man Moral oder Ethik keineswegs in Technik einbauen, denn dort landet dann stets die Moral des Herstellers im Gerät. Meistens bestimmen dann Leute, die von Tuten und Blasen keine Ahnung haben und in früheren Epochen sang- und klanglos verhungert wären, wie Moral zu sein hat. Du kannst dir selber überlegen ob du nach der Ethik von Google oder Facebook oder Amazon leben willst-ich will das nicht. Aber wir schweifen ab, eigentlich ging es ja speziell um Autorouter. Seien wir lieber froh daß es noch keinen Autorouter gibt der sich am Ende der Arbeit verweigert, weil die EU irgendeine beknackte Richtlinie über ethische Algorythmen ausgebrütet hat und der Autorouter befindet nun, daß dein Layout irgendeinem unethischen Zweck dienen könnte.
Hallo Wühlhase. Wühlhase schrieb: > Den Fall, daß ich etwas besonders gut mache und hinterher nicht weiß > wieso, kenne ich nicht. Ich kenne höchstens den Fall daß ich wirklich > keine Ahnung und nur glücklich geraten habe, aber dann hatte ich halt > Glück, bin aber nicht gut. Wenn Du irgendwo lang gehst, überlegst Du dir explizit jeden Schritt den Du machst? Betrachtest Du Dir die Gehwegplatte und überlegst, ob deine Schrittweite dahin wohl langt? Liegt die Gehwegplatte auch fest, oder musst Du damit rechnen, dass sie kippelt? Steht da eine Kante ein paar Millimeter hoch, so dass Du aufpassen musst, dort nicht hängenzubleiben? So kannst Du natürlich herumlaufen, aber dann wirst Du beim Überqueren der Strasse von einem Auto überfahren, dass noch irgendwo geparkt war, als Du angefangen hast, die Strasse zu überqueren. ;O) Nein, dass Du das ganze wirklich Bewusst machst, ist wohl eher eine Illusion. > Aber nur nach Bauchgefühl reproduzierbar gute Ergebnisse liefern...nö, > kenne ich nicht. > > > Bernd W. schrieb: >> Was ist mit dem Zeitfaktor: Schnelligkeit gegen Qualität ist nicht >> alles. > > Der Zeitfaktor ist m.E. auch nur ein Kriterium von mehreren. Das ist ja die Krux. Mit Überlegen bin ich Schneckenlangsam. Die Schnelligkeit kommt erst, wenn ich etwas aus dem Bauch heraus machen kann. Das sehe ich auch bei anderen Leuten so. Darum ja mein Verweis auf das Libet-Experiment weiter oben. > > > Bernd W. schrieb: >>> Diese Frage ist genauso bekloppt wie dieses Gedankenexperiment, in dem >>> man ein autonomes Auto vor die Wahl stellt welche >>> Menschen/Menschengruppe es überfahren soll, wobei es eine Überfahren >>> muß. > Ich meinte mit "bekloppt" eigentlich den ganzen Denkansatz. Eine > Maschine, auch eine noch so gut programmierte KI, ist eine Maschine. So > etwas kennt keine Moral oder Ethik. Es ist eine Maschine, ein toter > Gegenstand. Nun, aber den Sicherheitsschaltungen eines (dummen) Aufzuges vertraust Du trozdem? Ober möchtest Du ein Lichtgitter an einer Presse Abschalten, weil es keine Moral und keine Ethik kennt, und nur blöde den Notaus aktiviert, wenn jemand hineingrapscht? Ich kann Deine Bedenken gut nachvollziehen, denn eine KI wäre eine Durchaus gefährliche Konkurenz für uns Menschen. Aber so ist das eben. Entweder wir müssen zurück in die Steinzeit oder weit voraus in die Zukunft. Letzteres wird nur mit KI gehen. Was jedenfalls nicht funktionieren wird, ist den status quo halten. > > Es gibt leider aber einen strunzdummen, dafür lautstarken > Akademikerzweig, wo man das nicht kapiert und das nicht > auseinanderhalten kann. Die sehen so etwas (ab 01:23) > Youtube-Video "Atlas, The Next Generation" > und fordern Menschenrechte für Roboter. Heraus kommt so etwas wie der > Zeitungsartikel in diesem Video: > Youtube-Video ""Ja, ich bin Feministin" - Amazon Alexa wird feministisch" > Da werden tote Gegenstände vermenschlicht wie sonst etwas, ich finde es > einfach pervers. Ersteres ist schon beeindruckend. Alleine das ganze dynamisch auszubalancieren. Das zweiteres eine Satire ist, ist Dir nicht aufgefallen? > Und gerade deshalb sollte man Moral oder Ethik keineswegs in Technik > einbauen, denn dort landet dann stets die Moral des Herstellers im > Gerät. Meistens bestimmen dann Leute, die von Tuten und Blasen keine > Ahnung haben und in früheren Epochen sang- und klanglos verhungert > wären, wie Moral zu sein hat. 1) Auch Deine und meine Moral liegt immer in Konflikt mit den Moralvorstellungen anderer Leute, und viele von denen haben einfach nur die tradierten Moralvorstellungen ihrer Jugend, wie aus Kirche oder irgendwelche nationalen Vorstellungen kritiklos übernommen. Der Mist ist aber nach meiner Ansicht nun leider auch nicht besser als eine "Ethik von Google oder Facebook oder Amazon" 2) Ich kann mich mit anderen Leuten über Moral unterhalten. Ich kann das Ergebnis dann gut oder nicht gut finden. Aber ich werde immer damit leben müssen, dass es zwischen mir und dem Rest der Welt Konflikte geben wird, die ich nicht wegdiskutieren kann, weil andere Leute eben auch anders empfinden. > Aber wir schweifen ab, eigentlich ging es ja speziell um Autorouter. > Seien wir lieber froh daß es noch keinen Autorouter gibt der sich am > Ende der Arbeit verweigert, weil die EU irgendeine beknackte Richtlinie > über ethische Algorythmen ausgebrütet hat und der Autorouter befindet > nun, daß dein Layout irgendeinem unethischen Zweck dienen könnte. Wenn Du Dich näher mit der EU und deren Gesetzgebungsverfahren auseinandergesetzt hättest, würdest Du erkennen, dass die meisten Entscheidungen relativ weise getroffen wurden. ;O) Wenn Du dabei gegen den Strich gebürstet worden bist, hast Du wohl einfach Pech gehabt. Ich verstehe das ganze Politikbashing sowieso nicht wirklich. Ich habe auch jede Menge Kritikpunkte und bin mit Politikern zusammengerasselt. Das Problem ist nur, dass alle Alternativen zu Politikern wesentlich schlechter sind als der jetzige Zustand. Mit freundlichem Gruß: Bernd Wiebus alias dl1eic http://www.dl0dg.de
Bernd W. schrieb: > Nein, dass Du das ganze wirklich Bewusst machst, ist wohl eher eine > Illusion. Nein...nicht beim Hardwarebau. Zugegeben, etwas Erfahrung ist da auch dabei und ich kann sofort einschätzen, daß die parasitäre Induktivität eines Pullup-Widerstands mir keine Schwierigkeiten bereiten wird-das geht sogar so schnell, daß sich die Frage bewußt gar nicht erst stellt. (So jedenfalls würde ich dein Gleichnis mit dem Gehweg auf den Platinenbau übertragen.) Aber nein...ansonsten wüßte ich nichts, was ich beim Entwickeln unbewußt mache. Was schon eher mal vorkommt: Ich mache mir vorher Gedanken, treffe eine bewußte Entscheidung, dokumentiere meinen Gedankengang nirgendwo und frage mich später, warum ich das so gemacht habe. Bernd W. schrieb: > Nun, aber den Sicherheitsschaltungen eines (dummen) Aufzuges vertraust > Du trozdem? Tja, Prägung und Erfahrung. Bisher haben sie bei mir immer funktioniert und das solche Sicherheitsschaltungen (hoffentlich) deterministisch sind, macht sie nur vertrauenswürdiger. Bernd W. schrieb: > Ober möchtest Du ein Lichtgitter an einer Presse Abschalten, weil es > keine Moral und keine Ethik kennt, und nur blöde den Notaus aktiviert, > wenn jemand hineingrapscht? Warum soll ich ein Lichtgitter abschalten wollen? Ich bin immer noch froh daß solche Schaltungen keine Moral und Ethik kennen und am Ende auf die Idee kommen, dieses eine verdammte Mal die Anlage nicht in den Notausmodus zu fahren weil es der Schaltung - warum auch immer - moralisch richtig erscheint. Es ist ja gerade ein großes Problem der heutigen Politik: Gesetze, die man sich mal bei klarem Verstand ausgedacht hat, werden heute gebrochen weil einige es moralisch richtig finden. Mit unvorhersehbaren bzw. vorhersehbar negativen Folgen. Bernd W. schrieb: > Ich kann Deine Bedenken gut nachvollziehen, denn eine KI wäre eine > Durchaus gefährliche Konkurenz für uns Menschen. Ich muß da wohl mal etwas klarstellen: Ich sehe KI als Werkzeug. Nicht als Konkurrenz. Auch wenn ich einer KI mein Leben wohl so schnell nicht anvertrauen werde (autonomes Fahren), wäre ich jetzt nicht so sehr gegen einen KI-Autorouter. Und wenn die KI ein verranztes Layout hinscheißt...na meine Güte, dann ist es halt so, und es ist nicht unbedingt schlechter als heute. Wenn sie ein gutes Layout macht-auch gut, Routen kann lästig sein und Maschinen sind dazu da daß ein Mensch diese Arbeit eben nicht mehr machen muß. Bernd W. schrieb: > Ersteres ist schon beeindruckend. Alleine das ganze dynamisch > auszubalancieren. Die erste Reaktion meiner Freundin darauf war ein mitfühlendes "Warum ärgert der denn den Roboter?". Den meisten Menschen sehe ich eine solche Reaktion darauf nach, ist ja auch nachvollziehbar. Aber nicht studierten Moralaposteln, von denen verlange ich die Trennung zwischen Lebewesen und Nichtlebewesen. Bernd W. schrieb: > Das zweiteres eine Satire ist, ist Dir nicht aufgefallen? Ja, der Kanalbetreiber macht sich darüber lustig. Der Zeit, von der dieser Artikel stammt, glaube ich nicht daß das Satire sein soll. Bernd W. schrieb: > 1) Auch Deine und meine Moral liegt immer in Konflikt mit den > Moralvorstellungen anderer Leute, ... > > 2) Ich kann mich mit anderen Leuten über Moral unterhalten. Ich kann das > Ergebnis dann gut oder nicht gut finden. Wie gesagt: Es ist in meinen Augen ein großer Unterschied, ob ein Mensch Moral hat, mit dem kann ich mich im Konfliktfall einigen oder schlagen. Es ist nicht das Gleiche wie wenn eine Maschine so tut als wäre sie ein Mensch und will mir die ihr eingebaute Moral aufzwingen. Moral und Ethik ist etwas, daß einer Maschine nicht zusteht.
> Ich muß da wohl mal etwas klarstellen: Ich sehe KI als Werkzeug. Nicht > als Konkurrenz. Auch wenn ich einer KI mein Leben wohl so schnell nicht > anvertrauen werde (autonomes Fahren), wäre ich jetzt nicht so sehr gegen > einen KI-Autorouter. Und wenn die KI ein verranztes Layout > hinscheißt...na meine Güte, dann ist es halt so, und es ist nicht > unbedingt schlechter als heute. Dem wuerde ich zu 100% zustimmen. Genauer gesagt war das eigentlich mein Gedankengang als ich den Thread gestartet habe. Macht die KI in einem Auto Fehler so gibt es schnell Tote. Das ist Gesellschaftlich nicht akzeptiert. Es waere interessanterweise noch nicht mal dann akzeptiert wenn es z.B bei flaechendeckenden Einsatz in Deutschland nur 100Tote im Jahr gaebe, was ja wesentlich weniger waere als derzeit bei BI stirbt. Es waere zwar interessant zu diskutieren wieso das so ist, aber das waer hier wohl zu OT. Vor dem Hintergrund waere doch eine KI in einem Autorouter ein interessantes Uebungsprojekt. Die Eingangsdaten sind klar definiert, das Ergebnis ist verifizierbar, es gibt bei Fehlern keine Tote und man kann zum Schluss noch Geld damit verdienen. Wenn es also nicht moeglich ist sowas auf die Beine zu stellen dann ist ein KI-Auto IMHO noch SEHR weit in der Zukunft. Ich hab sogar die Theorie das es derzeit unmoeglich ist weil da noch ein paar Grundlagen fehlen die man nicht durch fleiss und Geld bereinigen kann. Aber noch ein anderer interessanter Gedanke. Nehmen wir mal an es gaebe eine KI die in 99% der Faelle in 1min ein Layout hinbekommt das perfekt ist. Das waere doch ein Knaller oder? Wuerde vormutlich sofort eine Menge Menschen ersetzen. Jedes 100. Layout waere dann aber schlecht. Da sitzt du dann vor, erkennst das aufgrund deiner Erfahrung, fummelst da etwas dran rum, laesst die KI nochmal laufen und es ist auch perfekt. Und dann gehst du in Rente und es gibt keinen Ersatz fuer dich. Weil der Nachwuchs es ja nicht ueber Jahre gelernt hat und Erfahrung aufgebaut. Was dann? Oder noch was anderes. Es gibt ja haeufigs Layout die sind von Erfahrenen Router gemacht und die sind schon ziemlich gut. Dann stellt man in der Praxis fest, oh hier bei der EMV noch 2dB drueber, dort noch 3dB zuviel Rauschen vom Schaltregler. Du verstehst Layout, Schaltung und Anforderung, ein zusaetzlicher Kondensator, oder dort eine andere Spule, oder Spule um 90Grad drehen und alles ist okay. Aber wenn eine KI das Layout geliefert hat und die nicht mehr nachvollziehen kannst wieso es nur fast perfekt ist? Da faellt das verbessern dann schwer. Das laesst sich natuerlich aufs Auto uebertragen. Wenn dein Auto in 99% alleine fahren kann und nur selten mal die Verantwortung an dich uebergeben will wenn es nicht weiter weiss, wie gut ist dann ein Autofahrer der zwar haeufig im Auto sitzt aber so gut wie nie selber gefahren ist? > Es ist nicht das Gleiche wie wenn eine Maschine so tut als wäre sie ein > Mensch und will mir die ihr eingebaute Moral aufzwingen. Moral und Ethik > ist etwas, daß einer Maschine nicht zusteht. Doch, natuerlich. Allerdings nicht mit dem was wir derzeit als KI bezeichnen. Es wird sicherlich moeglich sein KI zu entwickeln die echte Intelligenz zeigt. Die Frage ist nur ob wir dafuer noch 50 oder 500Jahre brauchen. Die interessante moralische Frage ist eher ob wir das tun sollten. Den auf dem Weg zur perfekten KI wird man eine Menge Fehlschlaege haben. Das ist dann aehnlich wie in einem Irrenhaus fuer Menschen vor 100Jahren. Und ab einem gewissen Entwicklungslevel musst du dich dann fragen ob du die Fehlschlaege einfach loeschen darfst. Die Fehler von 1Million Jahren menschlicher Evolution wurden von Tigern gefressen, bei von uns entwickelter KI ist das schwieriger. Von anderen interessanten Fragen ganz abgesehen: Darf ein Mensch dann noch eine KI besitzen? Wie Sklaven? Wenn du eine KI gross ziehst, ist sie dannn erbberechtigt? Aber wie gesagt, das gilt nicht fuer das was derzeit aus Marketinggruenden als KI bezeichnet ist. Das ist eine technische Spielerrei deren moralische Relevanz nicht groesser ist als bei einer Schraube. Olaf
Mir gefällt die Idee vom VHDL System für Leiterplatten von den Jitx Jungs. Standard, erprobte, getestete Module in bestimmter Weise zusammenschalten mit Hilfe von VHDL ähnlichem System. Warum haben sie nicht gleich VHDL ausgeweitet und verwendet? Viel Intelligenz brauchts da nicht mehr. Ich denke aber immer noch, es stimmt nicht, daß bei einem fehlerhaften Leiterplattendesign noch keine Toten sein können. Was ist, wenn diese Leiterplatte die Neigungssensoren von Flugzeugen auswertet? zu 99% passt das ergebnis. Aber zu 0.01% kann es passieren daß das Ding vom Himmel fällt. War da nich sowas grade bei Boeing? Uppps. Shit happens.
> Was ist, wenn diese Leiterplatte die Neigungssensoren von Flugzeugen > auswertet? zu 99% passt das ergebnis. Aber zu 0.01% kann es passieren Naja, der Unterschied ist einfach. Wenn eine KI fliegt dann ist jeder Fehler sofort sehr problematisch. Wenn sie die Platine entwickelt dann wird man die Platine vor einem ernsten Einsatz gruendlich testen. Genauso wie man es in so Faellen auch mit von Menschen entwickelten Platinen macht. Vielleicht uebersieht so ein Test auch mal etwas, aber das gilt auch wenn die Platine von einem Menschen entwickelt wurde. Olaf
Hallo Wühlhase. Wühlhase schrieb: >> Nein, dass Du das ganze wirklich Bewusst machst, ist wohl eher eine >> Illusion. > > Nein...nicht beim Hardwarebau. Zugegeben, etwas Erfahrung ist da auch > dabei und ich kann sofort einschätzen, daß die parasitäre Induktivität > eines Pullup-Widerstands mir keine Schwierigkeiten bereiten wird-das > geht sogar so schnell, daß sich die Frage bewußt gar nicht erst stellt. > (So jedenfalls würde ich dein Gleichnis mit dem Gehweg auf den > Platinenbau übertragen.) > > Aber nein...ansonsten wüßte ich nichts, was ich beim Entwickeln unbewußt > mache. > Was schon eher mal vorkommt: Ich mache mir vorher Gedanken, treffe eine > bewußte Entscheidung, dokumentiere meinen Gedankengang nirgendwo und > frage mich später, warum ich das so gemacht habe. Die beiden Fälle, die Du beschreibst sind lediglich die Spitze eines Eisberges. Unbewusst heisst mit Absicht so, weil es nicht bewusst ist, was da abläuft. Aber zugegeben, ego-dystonen Persönlichkeiten fällt es meistens leichter, sich selbstreflektierend zu Betrachten. > > >> Nun, aber den Sicherheitsschaltungen eines (dummen) Aufzuges vertraust >> Du trozdem? > > Tja, Prägung und Erfahrung. Bisher haben sie bei mir immer funktioniert > und das solche Sicherheitsschaltungen (hoffentlich) deterministisch > sind, macht sie nur vertrauenswürdiger. Auch eine KI agiert deterministisch. Auch wenn die Erzeugung der Entscheidung zu komplex zum durchschauen ist. Jedenfalls hatte der Fahrdienstleiter in dem Falle unten wohl auch einen schwachen Moment, wo seine HI nicht wirklich gut funktionierte. Hätte mir aber auch passieren können. (Anmerkung, ich bin kein Fahrdienstleiter und habe, ausser das ich Zug und Strassenbahnbenutzer bin, mit Eisenbahntechnik wenig zu tun) Link: https://www.eisenbahn-unfalluntersuchung.de/SharedDocs/Downloads/EUB/Untersuchungsberichte/2019/124_Moers.pdf?__blob=publicationFile&v=3 > Warum soll ich ein Lichtgitter abschalten wollen? Ich bin immer noch > froh daß solche Schaltungen keine Moral und Ethik kennen und am Ende auf > die Idee kommen, dieses eine verdammte Mal die Anlage nicht in den > Notausmodus zu fahren weil es der Schaltung - warum auch immer - > moralisch richtig erscheint. Mal willst Du Moral und Ethik, mal nicht. Wat nu? > Es ist ja gerade ein großes Problem der heutigen Politik: Gesetze, die > man sich mal bei klarem Verstand ausgedacht hat, werden heute gebrochen > weil einige es moralisch richtig finden. Mit unvorhersehbaren bzw. > vorhersehbar negativen Folgen. Weil sich das Umfeld und die Bedingungen ändern, muss alles regelmäßig neu überdacht werden. Und, ja, es gibt viele Leute mit anderen Wertvorstellungen, die mit den für Dich geltenden Regeln und ihren Ergebnissen nicht viel anfangen können. Ich bin nicht das Maß aller Dinge, aber Du auch nicht . > Auch wenn ich einer KI mein Leben wohl so schnell nicht > anvertrauen werde (autonomes Fahren), Ich würde es vermutlich, je nach Situation, schon. Ich denke, eine KI kann vieles ermüdungsfreier und mit besseren Reaktionen erledigen als ich selber. Siehe den Stellwerksfall oben. > wäre ich jetzt nicht so sehr gegen > einen KI-Autorouter. Und wenn die KI ein verranztes Layout > hinscheißt...na meine Güte, dann ist es halt so, und es ist nicht > unbedingt schlechter als heute. Wenn sie ein gutes Layout macht-auch > gut, Routen kann lästig sein und Maschinen sind dazu da daß ein Mensch > diese Arbeit eben nicht mehr machen muß. Ja, Routen wäre eine gute Aufgabe für eine KI. > Den meisten Menschen sehe ich eine solche Reaktion darauf nach, ist ja > auch nachvollziehbar. Aber nicht studierten Moralaposteln, von denen > verlange ich die Trennung zwischen Lebewesen und Nichtlebewesen. Es geht wohl eher um eine Unterscheidung zwischen HI und KI. Ich sehe das eher als eine graduelle als eine qualitative Unterscheidung. Grundsätzlich ist Intelligenz eine Intelligenz, egal ob künstlich oder human/biologisch. Und wenn sie graduell ähnlich sind, sollten sie auch gleich behandelt werden. Ein Afrikaner oder eine Frau ist ja auch nicht grundsätzlich anders als ein Europäer oder ein Mann. Warum sollte also eine ähnlich leistungsfähige künstliche Intelligenz grundsätzlich anders behandelt werden als eine humane Intelligenz? > > Wie gesagt: Es ist in meinen Augen ein großer Unterschied, ob ein Mensch > Moral hat, mit dem kann ich mich im Konfliktfall einigen oder schlagen. > > Es ist nicht das Gleiche wie wenn eine Maschine so tut als wäre sie ein > Mensch und will mir die ihr eingebaute Moral aufzwingen. Moral und Ethik > ist etwas, daß einer Maschine nicht zusteht. Aber wenn andere Dir Ihre gewachsene Moral aufzwingen, das ist grundsätzlich besser? Keiner mag es, wenn ihm etwas aufgezwungen wird. Das wird zwar im Zusammenleben nicht ohne gehen, und sollte daher minimiert werden, aber auch da sehe ich nur graduelle und keine qualitativen Unterschiede zwischen KI und HI. Mit freundlichem Gruß: Bernd Wiebus alias dl1eic http://www.dl0dg.de
Kurz ein Dank an Bernd, dessen Ausführungen zur künstlichen Intelligenz ich für sehr intelligent (hehe) und lesenswert halte. Zurück zum Thema: Ich glaube das künstliche Intelligenz bei Layouts nicht so einfach ist. Die Bewertung ob ein Layout gut oder schlecht ist, hängt von einigen Parametern ab, die sich je nach Aufgabe unterscheiden können und häufig aufwendig zu prüfen sind. Beides führt dazu, dass man mit einem Big Data Ansatz schnell an Grenzen stößt. Beispiele dazu: Wie teuer ein Via / zusätzliche Lagen sind unterscheidet sich von Hersteller zu Hersteller. Welche EMV Norm angewendet werden muss von Produkt zu Produkt, wie viel Zeit damit zugebracht werden darf von Layout zu Layout, etc. etc. Die Bewertung ob denn dann ein Layout gut war, muss meist noch manuell vorgenommen werden (ab ins EMV Labor). Auch sollte man bedenken, dass zwar jährlich sicherlich mehrere Millionen Layouts gemacht werden, aber das gegen die Datensätze, die sonst meist zum Einsatz kommen, doch sehr überschaubar ist. (Google brauchte wohl etwa eine Million Katzenbilder um Katzen erkennen zu können)
nfet schrieb: > Auch sollte man bedenken, dass zwar jährlich sicherlich mehrere > Millionen Layouts gemacht werden, Wobei die Spannweite von millimetergroß, einseitig für die Modelleisenbahn bis Quadratmeter mit 32+ Lagen für Großforschung und "defense" gehen. Das auf die Erkennung von Katzen übertragen bedeutet das ein Floh dazu gehört und auch eine Giraffe. Das hat mit Intelligenz auch noch nichts zu tun. Wenn das bloße erkennen und ausweichen um eine Katze herum "intelligent" wäre hätte ein Maus einen IQ von 200. Sie weiß ja auch noch wo Sie wohnt und findet den Weg zum leckeren Brot. Das was Google macht KI zu nennen ist schon arg überenthusiastisch. Die schaffen es mit riesigem Aufwand Bilder zu vergleichen und jede Abweichung haut Sie raus. Auch das die Rechenmaschinen nach 50 Jahren ausprobieren besser rechnen und vergleichen als ein Schach- (8x8 Feld) oder Go- (19x19) Spieler haut mich auch nicht vom Hocker. Inzwischen machen die Billionen Operationen in der Zeit wo der Mensch nicht mal "links" ist frei sagen kann und fahren trotzdem Auto wie der letzte Anfänger (The Car tried to kill us 2 or 3 times each drive - Tesla Forum). Das noch mit einem Energieverbrauch mit dem obige Maus eine halbe Weltpopulation versorgen könnte. Mit KI eine Leiterplatte routen? Wozu braucht man da "Intelligenz"? Selbst das kreuzungsfreie Verlegen über mehrere Lagen kriegen die Dinger doch nicht vernünftig hin. Man muss ihnen das vorkauen wie einem Kleinkind. Das ist aber komplett algorithmisierbar. Dazu bracht man keine KI. Bis Karl Klammer mit "anscheinend wolle Sie eine GlückwunschkartenMelodiePlatine layouten" die Zunft nervt ist es noch ein langer Weg.