Nur mal so ein Gedanke der mir gerade durch den Kopf ging... Man kann ja heute fast nichts lesen ohne das irgendeiner das KI Wort schwafelt. Alles nur noch KI als ob wir keinen Mangel an BI haben. Wenn wir es aber irgendwann wirklich schaffen wollen Autos von selber fahren zu lassen, wieso gibt es dann noch keinen total tollen KI-Autorouter? Ich meine die Eingangsdaten sind bestens Computer-lesbar, das gewuenschte Ergebnis ist klar bestimmt. Wenn KI es schon nicht schafft Platinen vernuenftig zu routen, was soll sie dann mal schaffen? Gibt es schon Router die das nutzen? Wie sind die so? Olaf
:
Gesperrt durch Moderator
Olaf schrieb: > Wenn KI es schon nicht schafft > Platinen vernuenftig zu routen, was soll sie dann mal schaffen? Menschen mit viel Training können das meist recht vernünftig. Ene KI hat einen riesigen Haufen Nachteile. * eine black-box, nicht auditierbar, du kannst dir nur an schauen was hinten raus kommt * verstehen was die ki tut oder wieso sie es tut kann man auch nicht * du kannst nur abschätzen das du sie richtig trainiert hast, unter/übertrainieren kannst du schwer ab messen * du brauchst sowieso ein Trainings set mit richtigen daten (ah, da muss doch jemand routen können) * Bugs kannst du nicht vernünftig fixen ausser mehr trainieren * KI ist weit weg von fehlerfrei Das ist ungefähr so als würdest du, um eine Platine zu routen, ein Kind zeugen und dem das bei bringen wie man das tut. Du behebst Probleme in einer Technologie nicht damit das du noch mehr technologie drauf klatscht. KI gibts schon länger, jetzt ist einzig allein die Hardware so billig geworden das es realisierbar wär. Das ist genauso wie Virenscanner. Anstatt möglichst Fehlerfreie Produkte zu bauen klatschen die Leute einen Virenscanner oben drauf, im Endeffekt meist nur fürs gute Gefühl. Das Grundlegende Problem wird aber nicht behoben. Weitere Referenz: https://blog.fefe.de/?ts=a3721327 Kleine Referenz über KI die bescheißt um Ziele zu erfüllen (also das macht was sie nicht machen sollte): https://docs.google.com/spreadsheets/u/1/d/e/2PACX-1vRPiprOaC3HsCf5Tuum8bRfzYUiKLRqJmbOoC-32JorNdfyTiRRsR7Ea5eWtvsWzuxo8bjOxCG84dAg/pubhtml
Beitrag #6039183 wurde von einem Moderator gelöscht.
natürlich dumm schrieb im Beitrag #6039183: > Base64 U. schrieb: >> Ene KI hat einen riesigen Haufen Nachteile. > > Was für eine Sülze. Das meiste, was du beschreibst, ist nur in deiner > kleinen Welt so negativ. Eine KI hat auch viele Vorteile. Aber wer nicht > mal den Stand der Technik von KI-basierten Autoroutern recherchieren > kann, der ist einfach zu zurückgeblieben, um von der heutigen KI zu > profitieren. > > [...] > > Und noch einer weitere Referenz: > Youtube-Video "Wenn man keine Ahnung hat einfach mal die Fresse halten" Dein Name ist wohl Programm, pöbelst zwar groß rum, kannst aber kein einziges sachliches Argument bringen... Weitere Referenzen: https://blog.fefe.de/?ts=a2c8649d https://blog.fefe.de/?ts=a2ca73b7 > WELT hatte bereits am Montag bei Facebook angefragt, was der genaue Grund > für die Sperre sei. Am Dienstagmittag erklärte ein Sprecher des > Unternehmens, dass ein „Fehler in der künstlichen Intelligenz“ für die > Nutzersperrungen verantwortlich gewesen sei. Diese hätte das Foto, das > den Artikel bebildert, fälschlicherweise als IS-Propaganda ausgelegt https://blog.fefe.de/?ts=a36ddb47 https://blog.fefe.de/?ts=a3cbae5d https://blog.fefe.de/?ts=a3f5a4ec https://blog.fefe.de/?ts=a20b886d https://blog.fefe.de/?ts=a2cbeaba Leider finde ich den Artikel gerade nicht, in dem ein toller AI-Spamfilter Mails grundlos nicht durchlässt, und keiner kann es fixen, weil es ja trainiert und nicht programmiert ist...
Hallo vn nn. vn nn schrieb: > Leider finde ich den Artikel gerade nicht, in dem ein toller > AI-Spamfilter Mails grundlos nicht durchlässt, und keiner kann es fixen, > weil es ja trainiert und nicht programmiert ist... Du vergleichst ein KI Spamfilter mit einem fix definierten Spamfilter das strengen logischen Regeln folgt. Das ist genauso falsch, als wenn Du Dich selber mit einem solchen Spamfilter vergleichst. Das fixe Spamfilter macht keine Fehler, es kann nur fehlerhafte Vorgaben haben. Eine KI und Du folgen aber anderen Gesetzten. Du würdest sie für Dich je nach Charakter, Bildung und Reife als etwas zwischen "gesundem Menschenverstand", "Inuition" oder "zusäztlichen Sinn" beschreiben. Das ist aber genau das gleiche Vage wie das innere der Blackbox einer KI. ;O) Du wirst beim Spam aussortieren auch Fehler machen. Deine Sekretärin kann es Dir eh nicht recht machen beim Spam aussortieren, aber eine KI soll Fehlerfrei wie ein deterministisch parsender dummer Spamfilter sein, bei dem Du die Fehler klaglos aktzeptierst, weil sie für Dich einsichtig sind weil er nur seinen deterministischen Vorgaben folgt? Das ist eine Einstellung, die ich persönlich als Überheblich und gefährlich Leichtsinnig einschätzen würde. KI wird in den aktuellen Medien sehr auf Mustererkennung und "Deep Learning" verkürzt. Es gehört aber wesentlich mehr dazu, wie z.b. ein System das man als Motivation, Selbsterhaltung ec. beschreiben kann und dass das Selbstlernen des Systems auch nach erreichen eines Optimums selbstständig weitersuchen lässt und auch in die Breite schaut. Es ist gut 25 Jahre her, dass ich in Spektrum der Wissenschaft einen Artikel über die Spielengine von "Creatures" gelesen habe. Damals war das ein Aha-Erlebnis für mich, weil ich mich in dieser Beschreibung des Mechanismus selber wiedererkennen konnte. Nun sind 25 Jahre ins Land gegangen, und es gibt mittlerweile z.B. Ansätze, neuronale Netze in FPGA-Manier aufzubauen, was die Leistungsfähigkeit dieser Systeme erheblich steigern wird. Und was die militärischen Anwendungen dieser Technik mittlerweile können, bleibt ein Geheimnis. Den Spektrum Artikel gibt es mittlerweile im Netz: https://www.spektrum.de/magazin/kuenstliches-leben-im-pc/823339 Einen Wikipedia Artikel über Creatures gibt es auch: https://de.wikipedia.org/wiki/Creatures_(Spieleserie) Wohlgemerkt, was da steht, stellt den Stand von vor 25 Jahren dar. Ich gehe davon aus, dass es mittlerweile KIs gibt, die meine "HI" (Humane Intelligenz) weitestgehend ersetzten könnten. Nachtrag: Es gibt noch einen interessanten Artikel zu KI und dem Spiel "Go": https://www.spiegel.de/wissenschaft/technik/kuenstliche-intelligenz-gott-braucht-keine-lehrmeister-kolumne-a-1175130.html Mit freundlichem Gruß: Bernd Wiebus alias dl1eic http://www.dl0dg.de
Bitte versucht doch mal, auf eine sachliche Ebene runterzukommen! Meine 2cent dazu: Autorouter gibt es schon sehr lange, im Prinzip seit Platinen mit Computern entworfen werden. Das Prinzip ist ja auch sehr verlockend. Bisherige (nicht-KI-) Autorouter scheitern (nach meinem Verständnis) an 2 Problemen: * Das Problem wird sehr schnell zu komplex, um mit Software eine optimale Lösung zu finden. Demzufolge genügen reine Autorouter-Ergebnisse oft nicht den Qualitätsansprüchen. * Die Aufgabenstellung ist vielleicht doch nicht so klar formuliert, wie es aussieht. Beim Routing geht es ja nicht nur darum, alle Pins richtig miteinander zu verbinden, egal wie. Es gibt Nebenbedingungen, z.B. breitere Stromversorgung, kürzere Anbindungen zu Abblockkondensatoren, kurze Strecken für schnellere Signale, ungünstige benachbarte Signale etc. Nicht alle dieser Bedingungen liegen als Code vor und ein menschlicher Router tut sich bisher anscheinend leichter, diese z.T. widersprüchlichen Anforderungen gegeneinander abzuwägen. Dann kommt noch dazu, dass man dann eigentlich das Placement auch mitnehmen muss, was die Komplexität nochmal deutlich vergrößert. Selektives Autorouting, mit menschlicher Unterstützung, funktioniert dagegen seit vielen Jahren gut. Ich gehe davon aus, dass KI in dieser komplizierten Situation deutlich bessere Ergebnisse erzielen kann, als rein algorithmenbasierte Autorouter. Die Qualität der Ergebnisse wird aber sicher auch vom investierten Geld abhängen. Ich glaube nicht, dass einer der EDA-Software-Hersteller ähnlich viel Geld investieren kann wie Google oder IBM...
Hallo Tilo. Tilo R. schrieb: > Ich gehe davon aus, dass KI in dieser komplizierten Situation deutlich > bessere Ergebnisse erzielen kann, als rein algorithmenbasierte > Autorouter. Das vermute ich auch. Vermutlich wäre sie auch besser als ich. > Die Qualität der Ergebnisse wird aber sicher auch vom > investierten Geld abhängen. Ich glaube nicht, dass einer der > EDA-Software-Hersteller ähnlich viel Geld investieren kann wie Google > oder IBM... Das ist der Hauptknackpunkt. Wenn man Deine obigen Punkte mit der komplexen Aufgabenstellung nimmt, wird das ein schönes Stück Arbeit, und die EDA Branche bringt dafür nicht genug Gewinn ein, als dass sich das lohnt. Das könnte sich aber ändern, wenn KI als Tool so billig geworden ist, dass sie das selber machen kann. Mit freundlichem Gruß: Bernd Wiebus alias dl1eic http://www.dl0dg.de
Interessant wie aufregend so eine einfache Frage sein kann.... Das mit dem Geld ist sicher nicht falsch, aber wenn man ueberlegt das ein sehr gut funktionierender Autorouter auch eine Menge Leute einsparen kann? Und wenn die Layoutqualitaet dann noch besser waere? Da waere es vermutlich kein Problem dem Hersteller jedes Jahr 100 oder 200 tEuro zu ueberweisen. Was die Zuverlaessigkeit angeht: Auch menschliche Router machen manchmal Fehler. Das ist allgemein akzeptiert, einfach weil es keine Alternative gibt. Da koennte man auch einer KI zugestehen gelegentlich mal einen Fehler zu machen. Die Folgen waeren ja weniger problematisch wie beim autonomen Autofahren. Das oben angefuehrte Argument das KI lernen kann wenn sie gegen sich selbst arbeitet halte ich hier fuer Unsinn. Das mag in Spielen gehen weil die Zielvorgabe dort sehr primitiv ist. Einfach nur gewinnen. Aber auch wenn man als erfahrener Ingenieur ein Layout bewerten soll dann kann man das nicht in einer Minute. Da muss man sich auch erst reindenken und wird manchmal doch erst spaet (z.B in der EMV) auf Fehleinschaetzungen aufmerksam gemacht. .-) Aber fangen wir mal einfach an. Gibt es heute Autorouter die jede beliebige Platine immer zu 100% routen koennen wenn dies auch ein Mensch koennte ohne das man jetzt externe Masstaebe anlegt wie Signalqualitaet, Mindestabstaende, usw. ? Das sollte man doch erwarten koennen oder? Olaf
Soweit mir bekannt ist, hat/hatte der Bartels Autorouter (BAE) bereits ein neuronales Netz integriert. Ah, hier steht's auch: https://www.bartels.de/baedoc/baear_de.htm Weitere Infos dazu habe ich leider nicht finden können. Etwas Offtopic: Bernd W. schrieb: > Nun sind 25 Jahre ins Land gegangen, und es gibt mittlerweile z.B. > Ansätze, neuronale Netze in FPGA-Manier aufzubauen, was die > Leistungsfähigkeit dieser Systeme erheblich steigern wird. Das ist aber nur eine simple Skalierung: Software in Hardware gegossen - etwas Neues ist das nicht. > Und was die > militärischen Anwendungen dieser Technik mittlerweile können, bleibt ein > Geheimnis. Naja, darüber kann man natürlich immer spekulieren - das ist eine fruchtlose, wenngleich spannende Diskussion ;-) > Den Spektrum Artikel gibt es mittlerweile im Netz: > https://www.spektrum.de/magazin/kuenstliches-leben-im-pc/823339 > Einen Wikipedia Artikel über Creatures gibt es auch: > https://de.wikipedia.org/wiki/Creatures_(Spieleserie) > Wohlgemerkt, was da steht, stellt den Stand von vor 25 Jahren dar. > > Ich gehe davon aus, dass es mittlerweile KIs gibt, die meine "HI" > (Humane Intelligenz) weitestgehend ersetzten könnten. Worauf begründet sich Deine Annahme? Ich sehe im Moment bzw. schon seit Jahren nichts, das das auch nur ansatzweise leisten könnte. > Nachtrag: Es gibt noch einen interessanten Artikel zu KI und dem Spiel > "Go": > https://www.spiegel.de/wissenschaft/technik/kuenstliche-intelligenz-gott-braucht-keine-lehrmeister-kolumne-a-1175130.html Auch das ist mMn kein wirklicher Fortschritt. Auch dort wurde "nur" - mit einem irrsinnigen Rechenaufwand - ein Netz trainiert. Das ist aber weiterhin alter Wein in neuen Schläuchen. Diese Systeme versagen immer in dem Moment, wo sie etwas außerhalb ihrer (sehr engen) Regeln (Schach, Go, Mustererkennung, auch Autorouting) erfassen müssen. In den Threads zum autonomen Fahren hatte ich ja schon viele Beispiele gebracht, die von den künstliche NN heutiger Form nicht einmal ansatzweise gelöst werden, die aber entscheidend sein werden, um ein Fahrzeug 100% autonom zu bewegen. So wie autonome Fahrzeuge nicht den Zweck einer Straße kennen sondern nur einen verwaschenen optischen Filter von etwas, das ihnen millionenfach gezeigt wurde, gepaart mit noch simpleren Algorithmen zur Linienerkennung. Dementsprechend können sie auch nur das wiedererkennen. Selbst einem Kleinkind erklärt man einmal, was eine Straße ist und es wird quasi ab sofort Straßen jeglicher Form erkennen. Das hat eine ganz andere Qualität, denn das Kind hat den Zweck eines Weges/einer Straße verinnerlicht. Man kann es auch polemisch ausdrücken: Auch AlphaGo weiss nicht, dass er ein Spiel spielt. Er weiss nicht einmal, was ein Spiel ist.
:
Bearbeitet durch Moderator
natürlich dumm schrieb im Beitrag #6039183: > Was für eine Sülze. Das meiste, was du beschreibst, ist nur in deiner > kleinen Welt so negativ. Eine KI hat auch viele Vorteile. Aber wer nicht > mal den Stand der Technik von KI-basierten Autoroutern recherchieren > kann, der ist einfach zu zurückgeblieben, um von der heutigen KI zu > profitieren. Erlich ich feier dieses Forum für das Klima hier. Was hier manchmal für ein Umgangston herrscht versüßt mir den Morgen! Dafür vielen herzlichen Dank
Olaf schrieb: > das > ein sehr gut funktionierender Autorouter auch eine Menge Leute einsparen > kann? Paperlapap. Ich habe oft Autorouter probiert. Bei ganz einfachen layouts oder reinen Digitalschaltungen mag das gehen. Der Autorouter hat aber keine Problem damit mal kurz eine Leiterbahn quer durch den EMI Filter Bereich zu legen, weil es da noch passt. Er kann ja nicht wissen was das alles für Auswirkungen hat. Der Autorouter müsste eine unglaubliche Vielzahl von Dingen über die Schaltung, den Gehäuseaufbau, die Umweltbedingungen etc. pp. wissen um überhaupt die Bauteile platzieren zu können. Er muss verstehen wo schnelle Signale laufen und wo die empfindlichen Analogen. Wo der menschliche Layouter abwägungen trifft, von der Ideallinie abweicht, Pinswapping macht oder umsortiert, ist die KI überfordert, weil sie nur nach Regeln trainiert wurde, aber nicht versteht was sie tut und welche Auswirkung das haben könnte. Der menschliche Layouter bedenkt 1000 Dinge, die mit reinen Layoutregeln nichts zu tun haben.
Bimbo. schrieb: > natürlich dumm schrieb im Beitrag #6039183: >> Was für eine Sülze. Das meiste, was du beschreibst, ist nur in deiner >> kleinen Welt so negativ. Eine KI hat auch viele Vorteile. Aber wer nicht >> mal den Stand der Technik von KI-basierten Autoroutern recherchieren >> kann, der ist einfach zu zurückgeblieben, um von der heutigen KI zu >> profitieren. > > Erlich ich feier dieses Forum für das Klima hier. Was hier manchmal für > ein Umgangston herrscht versüßt mir den Morgen! > > *Dafür vielen herzlichen Dank* Ja, sorry, den nett geschriebenen und extrem wertvollen Beitrag hatte ich übersehen. Ich habe ihn nun passend verschoben.
Bernd W. schrieb: > vn nn schrieb: > >> Leider finde ich den Artikel gerade nicht, in dem ein toller >> AI-Spamfilter Mails grundlos nicht durchlässt, und keiner kann es fixen, >> weil es ja trainiert und nicht programmiert ist... > > [blahfasel] > > Du wirst beim Spam aussortieren auch Fehler machen. Deine Sekretärin > kann es Dir eh nicht recht machen beim Spam aussortieren, aber eine KI > soll Fehlerfrei wie ein deterministisch parsender dummer Spamfilter > sein, bei dem Du die Fehler klaglos aktzeptierst, weil sie für Dich > einsichtig sind weil er nur seinen deterministischen Vorgaben folgt? > > Das ist eine Einstellung, die ich persönlich als Überheblich und > gefährlich Leichtsinnig einschätzen würde. Es geht nicht darum, Fehler zu machen oder nicht zu machen, es geht darum, dass keiner nachvollziehen kann, warum ein neuronales Netz diesen und jenen Fehler macht, und demzufolge auch keiner gezielt diesen und jenen Fehler fixen kann. Man kann das Netzwerk halt weiter trainieren, und hoffen, dass der Fehler dann nicht mehr auftritt, und auch kein neuer rein rutscht. Oh, der Tesla-Autpopilot hat einen Hund angefahren? Egal, wir trainieren einfach so lange, bis er den Hund richtig erkennt. Natürlich wissen wir dann nicht, ob er jeden Hund erkennt, denn es ist ja kein Code da, den man auditieren könnte. Leider wissen wir auch nicht genau, ob er jetzt nicht vielleicht Kleinkinder verlernt hat. Alles egal. Bernd W. schrieb: > Ich gehe davon aus, dass es mittlerweile KIs gibt, die meine "HI" > (Humane Intelligenz) weitestgehend ersetzten könnten. Ja, die eines Hipsters, der offensichtlich jedem Hype bereitwillig nachläuft, ganz bestimmt. Da brauchts aber auch keine KI dafür, das schafft auch klassischer Code:
1 | if (hypepotential > 100) { |
2 | printf("Boaaaaa geil! Jeder der dem nicht bedingungslos nachläuft ist doof und überheblich!") |
3 | }
|
Übrigens ist auch ein klassischer Spamiflter nicht "fix definiert". Aber davon hast du halt keine Ahnung. Genauso wie von Softwarequalität und Nachvollziehbarkeit. Bernd W. schrieb: > Nachtrag: Es gibt noch einen interessanten Artikel zu KI und dem Spiel > "Go": > https://www.spiegel.de/wissenschaft/technik/kuenstliche-intelligenz-gott-braucht-keine-lehrmeister-kolumne-a-1175130.html Technisch absolut nix neues. Einziger unterschied zu vor 20 Jahren: heute ist Rechenleistung derart günstig, dass man einfach einen Haufen Rechenleistung auf ein Problem loslässt und damit ein Netzwerk trainiert.
vn n. schrieb: > Oh, der Tesla-Autpopilot hat einen Hund angefahren? Egal, wir trainieren > einfach so lange, bis er den Hund richtig erkennt. Natürlich wissen wir > dann nicht, ob er jeden Hund erkennt, denn es ist ja kein Code da, den > man auditieren könnte. Leider wissen wir auch nicht genau, ob er jetzt > nicht vielleicht Kleinkinder verlernt hat. Alles egal. Trainieren tun wir natürlich nur in der Simulation, das macht der Tierschutz sonst nicht mit. Unter Umständen fährt die KI danach in der Realität einfach alles über, weil sie nur einen kreativen Weg gefunden hat einen Fehler in der Simulation auszunutzen. Sicher kann eine KI eine Menge Dinge und kann sehr nützlich sein. Aber einen Menschen vollständig zu ersetzen... Naja, kommt auf den Menschen an ;-)
Spiel mir das Lied vom Lot schrieb: > vn n. schrieb: >> Oh, der Tesla-Autpopilot hat einen Hund angefahren? Egal, wir trainieren >> einfach so lange, bis er den Hund richtig erkennt. Natürlich wissen wir >> dann nicht, ob er jeden Hund erkennt, denn es ist ja kein Code da, den >> man auditieren könnte. Leider wissen wir auch nicht genau, ob er jetzt >> nicht vielleicht Kleinkinder verlernt hat. Alles egal. > > Trainieren tun wir natürlich nur in der Simulation, das macht der > Tierschutz sonst nicht mit. > Unter Umständen fährt die KI danach in der Realität einfach alles über, > weil sie nur einen kreativen Weg gefunden hat einen Fehler in der > Simulation auszunutzen. > > Sicher kann eine KI eine Menge Dinge und kann sehr nützlich sein. > Aber einen Menschen vollständig zu ersetzen... > Naja, kommt auf den Menschen an ;-) Ganz so viel Pessimismus ist - zumnindest was das Autorouting von Leiterplatten angeht - nicht angebracht. Ergebnisse sind ja verifizierbar. Wenn das Layout nicht funktioniert oder schlecht ist fällt das auf. In der Fertigung, beim Test oder bei der EMV-Prüfung. Und dann gibt es inzwischen ja auch tolle Simulationsmöglichkeiten, mit denen z.B. thermisch oder hinsichtlich EMV simuliert werden kann. In den Händen von (menschlichen) Profis ergibt sich damit sicher die Möglichkeit, einer KI entsprechende Trainings- und Feedbackdaten zu geben.
Ich bin auch deutlich skeptischer gegenüber KIs als der Durchschnitt im Moment es ist, aber die Autorouter-Idee finde ich als Anwendung eigentlich ziemlich gut. Wie gesagt wurde, es gibt gute Trainingsdaten, und vor allem wird das Ergebnis ja nicht 1:1 blind übernommen, sondern dient lediglich als Vorschlag für den Menschen, der das bedient. Auditierbar finde ich hier irrelevant -- das sind die momentanen Autorouter auch nicht wirklich. Auch hier muss man das Ergebnis anschauen und bewerten und kann sich nicht darauf verlassen, dass X passiert. Ich meine, keine Ahnung ob es taugt, aber versuchen könnte man es schon.
:
Bearbeitet durch User
vn n. schrieb: > Egal, wir trainieren > einfach so lange, bis er den Hund richtig erkennt. Natürlich wissen wir > dann nicht, ob er jeden Hund erkennt, denn es ist ja kein Code da, den > man auditieren könnte Und wer bringt der KI bei, dass man nach deutscher Rechtssprechung nur wegen eines Hundes bremsen darf, wenn der mehr als 500 Euro wert ist? Bei einer Strassenmischung voll draufhalten... Immerhin gibt es bei Kindern solche juristischen Spitzfindigkeiten nicht, jedenfalls noch nicht. Nichts ist so absurd dass daraus nicht ein Urteil werden kann, und dem wird keine KI jemals folgen können. Wie sollte z.B. eine KI wissen, dass Drecksfotze ein sachlicher Diskussionsbeitrag ist? Georg
Sicher ist KI momentan ein ähnliches Buzzword wie es vor einiger Zeit z.B. "Fuzzy Logic" war. Aber mit entsprechendem Aufwand funktioniert sie einigermaßen, wie Google mit seinem "GO"-Projekt vorgeführt hat. Nun besteht ein GO-Feld aus 19x19 Feldern, scheint also auf den ersten Blick recht überschaubar. Ein "ordentlich großes" Board besteht aus wesentlich mehr Elementen, die auch noch wesentlich ungleichmäßiger verteilt sind, als auf dem GO-Brett. Man führe sich mal vor Augen, was Google für einen Aufwand getrieben hat, um nur diese eine, sehr spezielle, Aufgabe zu lösen. Wie groß ist dann der Aufwand, eine KI zu bauen/programmieren die große Boards Routen kann? Womit will man solch eine KI trainieren? Mit 100000en fertig gerouteter Boards?
Georg schrieb: > Und wer bringt der KI bei, dass man nach deutscher Rechtssprechung nur > wegen eines Hundes bremsen darf, wenn der mehr als 500 Euro wert ist? > Bei einer Strassenmischung voll draufhalten... > > Immerhin gibt es bei Kindern solche juristischen Spitzfindigkeiten > nicht, jedenfalls noch nicht. Frei nach "Qualityland": wenn sich ein auonomes Fahrzeug zwischen dir und einer Gruppe Kindergartenkinder entscheiden muss, ziehst du immer den Kürzeren. Immer.
@ Mod Ich schlage vor, das Wort, beginnend mit 'D' in dem Beitrag Beitrag "Re: Autorouter mit KI" durch das Wort "Schimpfwort" zu ersetzen oder den Beitrag zu löschen. Insofern das Beispiel ein sachliches Argument enthält ist m.M.n. ein wörtliches Zitat zu seiner Gültigkeit nun wirklich nicht notwendig. Im übrigen entspricht das Argument nicht den Tatsachen. Das Berliner Gericht hat nicht behauptet, dass es sich bei dem Wort um einen "sachlicher Beitrag" handelt, sondern, dass es sich dabei um eine zulässige Meinungsäusserung handelt - das ist etwas völlig Anderes.
Beitrag #6039642 wurde vom Autor gelöscht.
Sinus T. schrieb: > Womit will man solch eine KI trainieren? Mit 100000en fertig gerouteter > Boards? Sei mal etwas kreativ! Bereits jetzt schon nutzen Autorouter Metriken, um bessere von schlechteren Designs zu unterscheiden. Diese Metriken nutzen die Anzahl der Vias, durchschnittliche Weglängen und was weiß ich nicht alles. Diese Metriken werden seit fast 40 Jahren verbessert. Dann kann man wie gesagt simulieren. Wenn es an irgendeiner Stelle zu heiß wird ist das ein Feedback, dass an der Stelle nachgebessert werden soll. Das selbe mit EMV, wenn irgendwo zu viel emittiert wird. Und dann kann ja auch ein erfahrerener Layouter drüberschauen und sagen, an der Stelle ist das und das suboptimal.
Tilo R. schrieb: > Sei mal etwas kreativ! > Bereits jetzt schon nutzen Autorouter Metriken, um bessere von > schlechteren Designs zu unterscheiden. Diese Metriken nutzen die Anzahl > der Vias, durchschnittliche Weglängen und was weiß ich nicht alles. > Diese Metriken werden seit fast 40 Jahren verbessert. Hat aber das Ergebnis meiner Meinung nach nicht besonders verbessert. Was die heutigen können unterscheidet sich wenig von den Ergebnissen auf einem Unix Rechner mit 68000er Prozessor von vor 30 Jahren. Nur das ich es nicht mehr über Nacht laufen lassen muss. Es nützt auch wenig an den Metriken zu drehen. Es gibt einfach zu viele verschiedene. Analog hat andere Anforderungen als HF, unterscheidet sich auch von Digital und Industriesteuerungen sind anders aufgebaut als eine Spielkonsole. "Trainieren" kann man auch schlecht, wo bekommt man die Millionen von Layouts her? Selbst wen man die hätte, jede Firma, jeder Layouter macht es anders. Ein BGA-escape routing kann man vermutlich seht gut dem Autorouter machen lassen, aber beim Rest wird es schwierig. Das Google jetzt bei einer Rechenaufgabe mit einer Rechenmaschine besser ist als ein Mensch hat mich auch nicht vom Hocker gehauen. Jedenfalls so lange Sie nicht bis die dem Verlierer zum Trost einen Kuchen bäckt. Mit Rumrosinen weil er die ha so gern mag. und bis Karl Klammer mit "anscheinend wolle Sie eine Lageregelung für Ihre Drohne konstruieren" rumnervt wird es wohl auch noch ein wenig dauern ;-).
Irgendwo hat wer in diesem Forum mal geschrieben, wie er den Autorouter benutzt. Nur für einzelne, kleinere Bereiche nacheinander, einzelne Netzgruppen, und dann eben vernünftig parametrisiert. Ich mache das so zwar auch nicht, denke aber dennoch daß der Autorouter so vernünftig nutzbar sein könnte. Und warum über trainierte KI nachdenken wenn die zur Verfügung stehenden Mittel nichtmal ansatzweise genutzt werden? Autorouter haben mehr als nur den Startknopf. Jedenfalls heutzutage.
Wühlhase schrieb: > Irgendwo hat wer in diesem Forum mal geschrieben, wie er den Autorouter > benutzt. Nur für einzelne, kleinere Bereiche nacheinander, einzelne > Netzgruppen, und dann eben vernünftig parametrisiert. Mache ich auch so. Bei der Platzierung ist es auch sehr praktisch. Oder ganz banal um zu sehen wo ich noch Netzklassen vergessen habe. Für kleine Adapter z.B. finde ich einen Autorouter auch super. Die routet er zu 100% in ein paar Sekunden und das sieht auch gut aus. Da hab ich den Kopf frei das Teil z.B. mechanisch zu optimieren.
Base64 U. schrieb: > Ene KI hat einen riesigen Haufen Nachteile. > > * eine black-box, nicht auditierbar, Ein Mensch ist auch nicht auditierbar.
Bernd K. schrieb: > Ein Mensch ist auch nicht auditierbar. Doch, du kannst ihn fragen, warum er das so gemacht hat. Das ist mit "auditierbar" gemeint. Natürlich nicht in beliebigem Maße (manchmal ist die Antwort "äh, ups"), aber immerhin kannst du fragen und hast eine gute Chance eine Begründung zu bekommen.
Hallo Sven. Sven B. schrieb: > Doch, du kannst ihn fragen, warum er das so gemacht hat. Das ist mit > "auditierbar" gemeint. Natürlich nicht in beliebigem Maße (manchmal ist > die Antwort "äh, ups"), aber immerhin kannst du fragen und hast eine > gute Chance eine Begründung zu bekommen. Nein, auch dann nicht wirklich. Unser "Verstand" ist in erster Linie eine "Rechtfertigungsmaschine" die uns nachträglich die vermeintlichen Gründe für unser Handeln nennt. Die eigentliche Entscheidung ist vorher unbewusst gefallen *), und ist genau so wenig durchschaubar wie eine KI. Allerdings fliesst das Wissen um unsere eigene Rechtfertigung in unsere weiteren unbewussten Entscheidungen ein. Das ist der Lernprozess, genau wie bei einer KI. *) https://de.wikipedia.org/wiki/Libet-Experiment#Interpretation_Libets Mit freundlichem Gruß: Bernd Wiebus alias dl1eic http://www.dl0dg.de
Hallo vn m. vn n. schrieb: > Es geht nicht darum, Fehler zu machen oder nicht zu machen, es geht > darum, dass keiner nachvollziehen kann, warum ein neuronales Netz diesen > und jenen Fehler macht, und demzufolge auch keiner gezielt diesen und > jenen Fehler fixen kann. Ich kann bei vielen meiner Fehler auch nicht nachvollziehen, warum ich sie gemacht habe. Ich werde sie darum auch in Zukunft nicht zuverlässig ausschliessen können. Was ist also da der Unterschied? Und was lässt Dich auf das hohe Ross steigen und behaupten, bei Dir wäre es anders? Es wird bei Dir auch nicht grundsätzlich anders sein, wenn auch vermutlich Deine Fehlerrate besser ist. > Man kann das Netzwerk halt weiter trainieren, > und hoffen, dass der Fehler dann nicht mehr auftritt, und auch kein > neuer rein rutscht. Das ist ja das gleiche Schema, wie man es bei Menschen (und Tieren) auch angeht. Üben, Üben, Üben....allerdings läuft das Ergebnis bei Mensch und Tier auch asymthotisch gegen eine wie auch immer gelagerte Grenze, wo ich sagen muss, dass hier mangelnde Begabung ein Limit setzt, wo auch weiteres Üben nichts mehr bringt. > Oh, der Tesla-Autpopilot hat einen Hund angefahren? Egal, wir trainieren > einfach so lange, bis er den Hund richtig erkennt. Natürlich wissen wir > dann nicht, ob er jeden Hund erkennt, denn es ist ja kein Code da, den > man auditieren könnte. Leider wissen wir auch nicht genau, ob er jetzt > nicht vielleicht Kleinkinder verlernt hat. Alles egal. Soso, und Menschen machen keine Fehler und überfahren keine Hunde und kleine (und große) Kinder, weil sie sie übersehen? Wo ist da der Unterschied? > Übrigens ist auch ein klassischer Spamiflter nicht "fix definiert". Aber > davon hast du halt keine Ahnung. Kein Wunder, ich benutze keinen Spamfilter, weil ich so gut wie kein Spam erhalte, und den ganzen Rest sortiere ich per Filterregel nach Absender oder Schlüsselwörtern (bei Mailinglisten). >> Nachtrag: Es gibt noch einen interessanten Artikel zu KI und dem Spiel >> "Go": >> > https://www.spiegel.de/wissenschaft/technik/kuenstliche-intelligenz-gott-braucht-keine-lehrmeister-kolumne-a-1175130.html > > Technisch absolut nix neues. Einziger unterschied zu vor 20 Jahren: > heute ist Rechenleistung derart günstig, dass man einfach einen Haufen > Rechenleistung auf ein Problem loslässt und damit ein Netzwerk > trainiert. Richtig. Gerade wenn neuronale Netztwerke per Software simuliert werden, braucht das irre Rechenleistung und Speicherkapazität. Darum hängt das ganze ja auch an der Verfügbarkeit von Rechenleistung - oder man schafft den Schritt und baut die neuronalen Netzte in großen Massen direkt als Siliziumstrukturen in ICs. Mit freundlichem Gruß: Bernd Wiebus alias dl1eic http://www.dl0dg.de
:
Bearbeitet durch User
Hallo Georg. Georg schrieb: > Und wer bringt der KI bei, dass man nach deutscher Rechtssprechung nur > wegen eines Hundes bremsen darf, wenn der mehr als 500 Euro wert ist? > Bei einer Strassenmischung voll draufhalten... Meinst du, Menschen könnten dass? Das besste was passiert, ist, dass Du aus den Augenwinkeln eine Bewegung eines Schatten warnimmst und instinktiv bremst( oder eben auch nicht). Ob es nun ein teurer, ein billiger oder sonstwie ein Hund oder Tier oder Kind oder auch Erwachsener oder eine Lokomotive ist, stellt sich dann später heraus. Im Zweifel irgendein Schatten an einer Wand, und Du hast für umsonst gebremst und bist für umsonst in den Gegenverkehr geschleudert. Woher nehmt ihr Mitmenschen nur eure idiotische Selbstsicherheit? Mit freundlichem Gruß: Bernd Wiebus alias dl1eic http://www.dl0dg.de
Sven B. schrieb: > Bernd K. schrieb: >> Ein Mensch ist auch nicht auditierbar. > > Doch, du kannst ihn fragen, warum er das so gemacht hat. Du bekommst keine sinnvolle Antwort. Nimm mal an ich route eine Platine und es gelingt mir "zufällig" (oder meinetwegen auch intuitiv oder kraft höherer Eingebung oder wie auch immer) eine ganz knifflige Stelle höchst elegant aufzulösen an der Du Dir vorher 4 Stunden lang die Zähne ausgebissen hast. Und 1 Woche später gelingt mir dieses unmöglich geglaubte Kunststück erneut, ich schaue drauf und irgendwie sehe ich etwas was Du auch nach 4 intensiven Stunden nicht gesehen hast. Und dann fragst Du mich wie ich das gemacht habe. Was soll ich da antworten? Erwartest Du dann eine Antwort die Dich befähigt beim nächsten Mal das selbe zu tun? Wie könnte so eine Antwort aussehen? Und das nächste Mal findest Du sofort eine Lösung und ich finde beim besten Willen keine. Niemand kann sagen warum und keiner von uns wird dem anderen erklären können was er hätte machen müssen um das zu tun. Es geht nicht. Die graue Masse da oben im Kopf ist eine Black Box ungeahnten Ausmaßes die Dinge tut von denen keiner weiß wie und warum.
:
Bearbeitet durch User
Hallo Olaf. Olaf schrieb: > Das oben angefuehrte Argument das KI lernen kann wenn sie gegen sich > selbst arbeitet halte ich hier fuer Unsinn. Das mag in Spielen gehen > weil die Zielvorgabe dort sehr primitiv ist. Nun, Du beurteilst ein Layout ja auch nach mehreren Kriterien, die Du gegeneinander abwägst. Wenn Du es schaffst, dass in einer Regel zu definieren, ist dass das Ziel für die KI. Ansonsten ist das ein Minimierungs/Maximierungs Problem für viele einzelne Kriterien, die Du dann irgendwie in Zahlen fassen müsstest oder Klassifizieren müsstest. > Aber > auch wenn man als erfahrener Ingenieur ein Layout bewerten soll dann > kann man das nicht in einer Minute. Da muss man sich auch erst > reindenken und wird manchmal doch erst spaet (z.B in der EMV) auf > Fehleinschaetzungen aufmerksam gemacht. .-) Ja. Und darum verlässt sich ja auch heute in größeren Unternehmen niemand mehr nur auf eine persönliche Bewertung eines Layoutes, sondern lässt eine Simmulation, und wenn auch nur für kritische Stellen, darüber laufen. Kleine Firmen können sich das nicht leisten, aber davon gibt es immer weniger, weil immer mehr in China und indien mit gleicher Qualität billiger gemacht werden kann. > > > Aber fangen wir mal einfach an. Gibt es heute Autorouter die jede > beliebige Platine immer zu 100% routen koennen wenn dies auch ein Mensch > koennte ohne das man jetzt externe Masstaebe anlegt wie Signalqualitaet, > Mindestabstaende, usw. ? > Das sollte man doch erwarten koennen oder? Womit ich mal herumgespielt habe war der Specctra-Autorouter der mit Orcad verbunden war, und dem Eagle Autorouter. Der Specctra war etwas besser als der Eagle Autorouter, aber keiner von denen hat auf Anhieb an einer etwas dichter belegten Platine mehr als 70% gebracht. Mit mehrmaligem umplazieren der Bauteile kamen sie dann irgendwann auf 99-100%. Auch wenn ich eine bereits fertig manuell geroutete Platine aufgelöst und vom Autorouter neu habe routen lassen, stoppte der bei 90-95%. Ich habe das Problem meistens durch setzten von Vias auflösen können. Vermutlich hat irgendein Algorithmus dem Autorouter gesagt, dass es nun genug von den bösen, teuren Vias auf der Platine gibt, und er gefälligst jetzt mit dem Via setzten aufhören soll. Speziell beim Eagle Autorouter von um irgendwas 2004 oder so war deutlich zu sehen, dass er lieber riesige Umwege machte, bevor er mal ein Via setzte. Das mit der Via Vermeidung hatte ganz ganz früher mal eine ernsthafte Bedeutung, weil Vias teure Bohrungen waren, und dazu bei der herstellung fehleranfällig. Das ist aber seit mindestens den 90ern nicht mehr so, und Vias mögen HF mäßig nicht toll sein, aber meistens immer besser als ein Umweg über dreiviertel der Eurokarte. HF- und Breitbanddesigns jetzt mal wieder aussen vor. Das mit den 100% ist also so eine Sache. Ich bin mir recht sicher, dass es ein guter Autorouter hinbekommen könnte. Aber ich hatte nie einen zum Testen. Umd bei reinen Algorithmen spielt auch Glück hinein. Falsch gestartet, und die 100% klappen nicht mehr. Mit freundlichem Gruß: Bernd Wiebus alias dl1eic http://www.dl0dg.de
Bernd W. schrieb: > Meinst du, Menschen könnten dass? Habe ich doch nicht behauptet. Wegen der geringen Rechengeschwindigkeit eher noch schlechter. Bernd W. schrieb: > Woher nehmt ihr Mitmenschen nur eure idiotische Selbstsicherheit? Da liegst du jetzt aber voll daneben. Ich habe keine Ahnung ob ich im Zweifelsfall den Hund juristisch korrekt überfahren würde, dann muss ich halt eine Klage in Kauf nehmen. Im realen Leben steht man eh immer mit einem Bein im Gefängnis oder verliert zumindest den Versicherungsschutz. Eine KI im autonomen Auto könnte in Millisekunden das Bild des Hundes mit einer Datenbank aller Rassen mit gespeicherten Preisen vergleichen, was ich definitiv nicht kann - aber damit du mich nicht wieder (absichtlich?) missverstehst, das wäre für mich keine bessere Lösung. Ich bekenne, dass ich auch für Tiere bremse, unabhängig vom "Wert". Georg
Bernd K. schrieb: > Nimm mal an ich route eine Platine und es gelingt mir "zufällig" (oder > meinetwegen auch intuitiv oder kraft höherer Eingebung oder wie auch > immer) eine ganz knifflige Stelle höchst elegant aufzulösen an der Du > Dir vorher 4 Stunden lang die Zähne ausgebissen hast. Und 1 Woche später > gelingt mir dieses unmöglich geglaubte Kunststück erneut, ich schaue > drauf und irgendwie sehe ich etwas was Du auch nach 4 intensiven Stunden > nicht gesehen hast. Und dann fragst Du mich wie ich das gemacht habe. > Was soll ich da antworten? Erwartest Du dann eine Antwort die Dich > befähigt beim nächsten Mal das selbe zu tun? Wie könnte so eine Antwort > aussehen? Dieses Szenario halte ich für völlig an den Haaren herbeigezogen und unwahrscheinlich. Oder anders: Wenn du nicht weißt was du da getan hast bist du in meinen Augen ein genauso schlechter Layouter als wenn du es schlicht verbockt hättest. Diese Frage ist genauso bekloppt wie dieses Gedankenexperiment, in dem man ein autonomes Auto vor die Wahl stellt welche Menschen/Menschengruppe es überfahren soll, wobei es eine Überfahren muß. Sowas denken sich Leute aus, die sich früher durch ein Philosopiestudium gelabert haben und danach ihre Daseinsberechtigung darstellen müssen. Bzw. die zum Fortschritt nichts anderes beizusteuern haben als ihre Moral.
Dieser topologische Autorouter https://www.eremex.com/products/topor/competitiveadvantages/autorouting/ hat KI, denn er ist, was das Autorouting betrifft, ähnlich intelligent wie ich selber, und er ist von Menschenhand geschaffen worden, also künstlich. Oder ist eine Voraussetzung dafür, sich mit dem Label "KI" schmücken zu dürfen, die Verwendung eines Neuronales Netzes? Dann hat er natürlich keine KI. Manchmal habe ich tatsächlich das Gefühl, dass in letzter Zeit KI von vielen gleichgesetzt wird mit Neuronalen Netzen, was in meinen Augen aber völlig falsch ist, da ein Neuronales Netz für sich gesehen keine bzw. nur eine sehr niedere Intelligenz realisiert.
Hallo Chris. Chris D. schrieb: >> Nun sind 25 Jahre ins Land gegangen, und es gibt mittlerweile z.B. >> Ansätze, neuronale Netze in FPGA-Manier aufzubauen, was die >> Leistungsfähigkeit dieser Systeme erheblich steigern wird. > > Das ist aber nur eine simple Skalierung: Software in Hardware gegossen - > etwas Neues ist das nicht. Ja. Aber gerade bei neuronalen Netzen bringt Masse wirklich was. Die Simulierung neuronaler Netze durch software ist extrem Rechenintensiv und speicherfressend. Software in Hardware giessen und das dann in großen Massen einsetzten ist schon eine Nummer. >> Ich gehe davon aus, dass es mittlerweile KIs gibt, die meine "HI" >> (Humane Intelligenz) weitestgehend ersetzten könnten. > > Worauf begründet sich Deine Annahme? Ich sehe im Moment bzw. schon seit > Jahren nichts, das das auch nur ansatzweise leisten könnte. Ich habe keinen Einblick in die zugrundeliegende Technik, aber ich war kürzlich Beifahrer in einem Fahrzeug mit Spurhalte- und Abstandsassistent. Und ich war beeindruckt . Obwohl ich selber nicht so schnell gefahren wäre und nicht so dicht aufgefahren wäre. Aber der Fahrer hat sonst selber einen Fahrstil wie eine angeschossenen Sau. Dagegen war der Abstandsassitent dann schon eine Wohltat. > So wie autonome Fahrzeuge nicht den Zweck einer Straße kennen sondern > nur einen verwaschenen optischen Filter von etwas, das ihnen > millionenfach gezeigt wurde, gepaart mit noch simpleren Algorithmen zur > Linienerkennung. Dementsprechend können sie auch nur das wiedererkennen. > > Selbst einem Kleinkind erklärt man einmal, was eine Straße ist und es > wird quasi ab sofort Straßen jeglicher Form erkennen. Was macht Dich so sicher, dass sich das Problem nicht mit massivem Einsatz hardverdrahteter neuronaler Netzte lösen lässt? > > Das hat eine ganz andere Qualität, denn das Kind hat den Zweck eines > Weges/einer Straße verinnerlicht. Das ist halt erst bei deutlicher Verfeinerung des Systems machbar. Ich mache öfters die Erfahrung, das ich auch Anfange Fehler zu machen, wenn die "Datenlage" schlecht ist. Ich laufe oft im Dunkeln durch den Wald, und laufe auch, obwohl ich den Weg gut kenne, gelegentlich in die Büsche wenn mir die Schattenwürfe des Mondlichts oder Schattierungen des Bewuchses bei den schlechten Sichtverhältnissen einen Weg vorgaukeln, wo keiner ist. Insbesonders bei Richtungsänderungen und erwarteten Abzweigungen passiert das schnell. Sooo viel besser als eine KI bin ich dann in der Situation auch nicht. Und das "prinzipielle Verständnis" eines Weges und seines Zwecks hilft auf der Ebene dann nicht. > Man kann es auch polemisch ausdrücken: Auch AlphaGo weiss nicht, dass er > ein Spiel spielt. Er weiss nicht einmal, was ein Spiel ist. Ach, so polemisch ist das nicht. Man kann es auch herumdrehen. Wissen wir wirklich, ob und was wir für ein Spiel spielen? Ein Klassiker: "Welt am Draht" https://de.wikipedia.org/wiki/Welt_am_Draht Meine Nachfolgegeneration würde vermutlich eher Matrix erwähnen. ;O) Mit freundlichem Gruß: Bernd Wiebus alias dl1eic http://www.dl0dg.de
Wühlhase schrieb: > Dieses Szenario halte ich für völlig an den Haaren herbeigezogen und > unwahrscheinlich. > Oder anders: Wenn du nicht weißt was du da getan hast bist du in meinen > Augen ein genauso schlechter Layouter als wenn du es schlicht verbockt > hättest. Hmh, ich denke man muss hier zwei Fälle unterscheiden. Das eine ist der, wo eine Lösung präsentiert wird, die offensichtlich gut ist. So wie bei der Primzahlfaktorisierung: faktorisieren ist schwer, aber wenn man das Ergebnis genannt kriegt, ist es leicht zu bestätigen dass es korrekt ist. Ich denke darum ging es in dem Szenario. Der andere ist aber der, wo die Qualität der Lösung nicht ohne Weiteres beurteilt werden kann. Da wird es schon deutlich schwieriger.
Wühlhase schrieb: > Oder anders: Wenn du nicht weißt was du da getan hast bist du in meinen > Augen ein genauso schlechter Layouter als wenn du es schlicht verbockt > hättest. Nein. Natürlich weiß ich was ich getan habe. Aber ich kann Dir nicht sagen was der Grund dafür ist daß ich das kann und jemand anders nicht oder welcher Teil der "Programmierung" in mir es zuwege bringt bestimmte Muster zu erkennen die mir vollkommen offensichtlich erscheinen, jemand anderen dagegen überhaupt nicht. Ein Vorteil der KI ist: man kann ein einmal erfolgreich trainiertes Modell speichern und beliebig duplizieren. Auch wenn man es nicht befragen kann warum es so ist wie es ist. Wenn Du nach langer Suche einen Menschen gefunden hast der ganz bestimmte Aufgaben besser lösen kann als jeder andere, versuch den mal abzuspeichern und zu duplizieren! Den kannst Du befragen und "auditieren" so lange Du willst, Du wirst nicht erfahren warum der so kreativ ist und wie der Algorithmus funktioniert mit dem er Ideen findet wo andere nichts finden und Du wirst es nicht duplizieren können. Black box!
Meine Erfahrung mit Mentor Graphics PADS Autorouter war sehr interessant. Ich hab ihn genutzt um 6 Lagen Platinen mit mehr als 3000 Netzen zu routen. Sagen wir das mal so, es ist lustig zuzuschauen, wie er das macht. Aber am Ende gibts doch immer wieder spezielle Signale, wo man sich wundert, wie er denn das überhaupt sich gedacht hat. Manchmal hat er es gar nicht geschafft. Die größte Arbeit beim Layouten ist immer die Einstellung der Regeln. Für jedes Signal oder Signalgruppe. Da gilt es dann als Autorouter so vielen Bedingungen zu entsprechen, daß es ein Wunder ist, daß es überhaupt irgendwie doch geht. Am Ende muss man händisch immer nachbessern. Mit KI wird das noch lustiger. Was sind denn die Ziele? Lasst mich mal kurz zusammenfassen: Leitungen so kurz wie möglich. Datenleitungsgruppen so gleichlang wie möglich, wenn nötig halt mit Meandern oder nach +- und Impedanz Vorgabe. Power Leitungen so kurz wie möglich und Vias meiden. Definierte Sicherheitsabstände immer einhalten! Was wäre der Wunschablauf: Bauteile definieren/importieren, Schematik erstellen, Design Rules zu jedem Signal und Gruppe definieren, Netliste erstellen. Layout Platinenrand Zeichnen, Netzliste und Bauteile importieren, Interface Bauteile richtig patzieren und fixieren (Kühlkörper, Power Teile, Stecker und Testpunkte), Verbotszonen definieren (EMI Filter etc.) KI Autorouter starten der sogar unfixierte Bauteile plazieren kann, Ergebnis begutachten, Änderungen machen. KI mit Ergebnis trainieren. Eigentlich steht nix diesem Ablauf entgegen. Will wer mitmachen sowas zu schreiben? Ich würde es gerne in KiCAD mal sehen.
Hallo Wühlhase. Wühlhase schrieb: > Dieses Szenario halte ich für völlig an den Haaren herbeigezogen und > unwahrscheinlich. > Oder anders: Wenn du nicht weißt was du da getan hast bist du in meinen > Augen ein genauso schlechter Layouter als wenn du es schlicht verbockt > hättest. Das ist aber durchaus realistisch. Geht mir genauso. Und ob ein Layouter schlechter oder besser ist als ein anderer, lässt sich sowieso nur über eine Statistik ermitteln. Der bessere Layouter liefert nur mit höherer Wahrscheinlichkeit ein besseres Ergebnis. Ein einzelnes Ergebinis kann durchaus auch einmal schlecht sein. Was ist mit dem Zeitfaktor: Schnelligkeit gegen Qualität ist nicht alles. Denke an Schach. Ein guter Schachspieler ist nicht zwangsläufig ein guter Blitzschachspieler. Ein guter Blitzschachspieler ist nicht unbedingt in normalem schach gut. > > Diese Frage ist genauso bekloppt wie dieses Gedankenexperiment, in dem > man ein autonomes Auto vor die Wahl stellt welche > Menschen/Menschengruppe es überfahren soll, wobei es eine Überfahren > muß. > Tatsächlich könnte in dem geschilderten Beispiel eine KI immer noch eine eher Anhand von "Werten" (Und wenn sie nur versucht, die Gruppengröße der Personen zu schätzen) orientierte Entscheidung treffen. Im Zweifel auch eher gegen sich selber, wärend bei realen Menschen in einer solchen Entscheidung meist zuerst die Selbsterhaltung kommt und dann Faktoren, die komplett willkürlich und auf die Schnelle gegriffen sind. Also eher Zufall. Wenn Du aber Zufall für besser hälst, warum sollte in einer KI kein Zufallsgenerator sein? > Sowas denken sich Leute aus, die sich früher durch ein Philosopiestudium > gelabert haben und danach ihre Daseinsberechtigung darstellen müssen. > Bzw. die zum Fortschritt nichts anderes beizusteuern haben als ihre > Moral. Auch Du lebst nicht ohne Moral, auch wenn Du komplett andere Wertvorstellungen hast. Aber dann sieht Deine Moral lediglich anders aus, und ist gegebenenfalls inkompatibel mit der Deiner Mitmenschen. Das führt halt zu Konflikten. Mit freundlichem Gruß: Bernd Wiebus alias dl1eic http://www.dl0dg.de
Hallo Martin. Martin G. schrieb: > Eigentlich steht nix diesem Ablauf entgegen. Erstmal sehe ich auch kein Hinderungsgrund. > > Will wer mitmachen sowas zu schreiben? Ich habe ewig nichts Programmiert, und mittlerweile bin ich zu alt. Bis ich z. B. C vernünftig gelernt habe, bin ich schon tot. Da schreibe ich lieber mal ein kleines Skriptchen in Python. > > Ich würde es gerne in KiCAD mal sehen. Oja. Jean-Pierre Charras (Der Urvater von KiCad), hat KiCad ursprünglich mal geschrieben, um ein Programm zu haben um Autorouter zu testen. Und dafür sollte das Programm sehr einfach sein und alle Parameter bekannt und zugänglich sein. KiCad hat sich dann in eine andere Richtung entwickelt, aber die offene Dateistruktur ist dafür natürlich ideal. Mit freundlichem Gruß: Bernd Wiebus alias dl1eic http://www.dl0dg.de
:
Bearbeitet durch User
Junge, Junge viele verstehen überhaupt nicht was da auf Euch zukommt. Hier einige Beispiele: https://www.youtube.com/user/keeroyz/videos Was wird passieren. Im Moment sehen wir Leiterplattenhersteller die zu Elektronikvollanbietern mit angeschlossener Bestückung und 3D-Druck-Gehäusefertigung werden. Man bietet kostenlose Leiterplatten- und Mechanikentwicklung in der Wolke an. Und so werden genau diese Firmen die ersten sein, dessen Autorouter-KI in der Wolke alle Projekte analysieren kann. Der Kunde klickt sich sein Projekt aus einem Baukasten zusammen, ändert noch paar Komponenten, gibt die Abmessungen ein und platziert wichtige Bauteile. Die KI klaut in der Wolke aus 100erten ähnlichen Projekte das Design zusammen. Sie lernt was ist ein Bus, ein DC-DC-Wandler ..... Die Verlierer werden alle die sein, die ihre Software nicht in die Wolke schaffen! Und um beim obigen Beispiel zu bleiben...das geht in rasender Geschwindigkeit: https://www.youtube.com/watch?v=0sR1rU3gLzQ Layouter werden wie LKW oder Busfahrer keine Bedeutung mehr haben, leider :( Tomy
@Thomas Verlierer werden die sein, die alles glauben was ihnen auf youtube serviert wird.
Thomas H. schrieb: > Layouter werden wie LKW oder Busfahrer keine Bedeutung mehr haben, > leider :( Hast Du etwas genommen (nichts illegales hoffe ich) oder verwechselst Du da etwas? Hast Du schon mal eine Platine "geroutet"? Einen Bus kann "jeder Dödel" (Entschuldigung) nach einer Einarbeitungszeit fahren - aber eine Platine "routen"? Da scheint mir doch etwas komplexer - oder?
Hier ein älterer Link zu JITX: https://spectrum.ieee.org/tech-talk/computing/hardware/startup-jitx-uses-ai-to-automate-complex-circuit-board-design 100erte weitere arbeiten daran. Ich denke in China wird die erste öffentliche Autorouter-KI angeboten. Klar große Firmen wie Siemens können es auch. Wichtig ist der einfache Zugriff auf 1000ende Projekte. Alle kleinen Firmen werden nun bei den Großen in der Wolke entwickeln...denn kein Chef will noch 100erte Stunden Handentwicklung bezahlen ;) Aber noch ist genügend Zeit ! Tomy
Thomas H. schrieb: > Hier ein älterer Link zu JITX: > > https://spectrum.ieee.org/tech-talk/computing/hardware/startup-jitx-uses-ai-to-automate-complex-circuit-board-design Ja, ein "Start-Up" von vor 1 Jahr und es kam nichts weiter - warum wohl?
Thomas H. schrieb: > Ich denke in China wird die erste öffentliche Autorouter-KI angeboten. Du denkst überhaupt nicht, sondern übst dich im dreschen von wohlfeilen Phrasen. Keine Substanz - nur heiße Luft.
Bernd W. schrieb: > Das ist aber durchaus realistisch. Geht mir genauso. Und ob ein Layouter > schlechter oder besser ist als ein anderer, lässt sich sowieso nur über > eine Statistik ermitteln. Der bessere Layouter liefert nur mit höherer > Wahrscheinlichkeit ein besseres Ergebnis. Ein einzelnes Ergebinis kann > durchaus auch einmal schlecht sein. Hm...wie gesagt, ich sehe das nicht so. Es kann höchstens sein daß, weil es für "Gutes Layout" zwei oder mehr Definitionen gibt weil auf unterschiedliche Schwerpunkte geachtet wird: kostengünstige Produktion, geringe EMV-Abstrahlung, mechansich robust, usw. Den Fall, daß ich etwas besonders gut mache und hinterher nicht weiß wieso, kenne ich nicht. Ich kenne höchstens den Fall daß ich wirklich keine Ahnung und nur glücklich geraten habe, aber dann hatte ich halt Glück, bin aber nicht gut. Was ich kenne ist, daß ich mich zwischen mehreren gleich guten oder schlechten Varianten entscheiden muß, dann gehts halt nach dem ästhetischen Empfinden. Aber auch dessen bin ich mir hinterher bewußt. Aber nur nach Bauchgefühl reproduzierbar gute Ergebnisse liefern...nö, kenne ich nicht. Bernd W. schrieb: > Was ist mit dem Zeitfaktor: Schnelligkeit gegen Qualität ist nicht > alles. Der Zeitfaktor ist m.E. auch nur ein Kriterium von mehreren. Bernd W. schrieb: >> Diese Frage ist genauso bekloppt wie dieses Gedankenexperiment, in dem >> man ein autonomes Auto vor die Wahl stellt welche >> Menschen/Menschengruppe es überfahren soll, wobei es eine Überfahren >> muß. >> > > Tatsächlich könnte in dem geschilderten Beispiel eine KI immer noch eine > eher Anhand von "Werten" (Und wenn sie nur versucht, die Gruppengröße > der Personen zu schätzen) orientierte Entscheidung treffen. Im Zweifel > auch eher gegen sich selber, wärend bei realen Menschen in einer solchen > Entscheidung meist zuerst die Selbsterhaltung kommt und dann Faktoren, > die komplett willkürlich und auf die Schnelle gegriffen sind. Ich meinte mit "bekloppt" eigentlich den ganzen Denkansatz. Eine Maschine, auch eine noch so gut programmierte KI, ist eine Maschine. So etwas kennt keine Moral oder Ethik. Es ist eine Maschine, ein toter Gegenstand. Es gibt leider aber einen strunzdummen, dafür lautstarken Akademikerzweig, wo man das nicht kapiert und das nicht auseinanderhalten kann. Die sehen so etwas (ab 01:23) https://www.youtube.com/watch?v=rVlhMGQgDkY und fordern Menschenrechte für Roboter. Heraus kommt so etwas wie der Zeitungsartikel in diesem Video: https://www.youtube.com/watch?v=LSf1L16f45s Da werden tote Gegenstände vermenschlicht wie sonst etwas, ich finde es einfach pervers. Bernd W. schrieb: > Auch Du lebst nicht ohne Moral, auch wenn Du komplett andere > Wertvorstellungen hast. Aber dann sieht Deine Moral lediglich anders > aus, und ist gegebenenfalls inkompatibel mit der Deiner Mitmenschen. > Das führt halt zu Konflikten. Selbstverständlich lebe ich nicht ohne Moral, und ganz sicher habe ich andere Moralvorstellungen als vielleicht du oder andere hier. Und gerade deshalb sollte man Moral oder Ethik keineswegs in Technik einbauen, denn dort landet dann stets die Moral des Herstellers im Gerät. Meistens bestimmen dann Leute, die von Tuten und Blasen keine Ahnung haben und in früheren Epochen sang- und klanglos verhungert wären, wie Moral zu sein hat. Du kannst dir selber überlegen ob du nach der Ethik von Google oder Facebook oder Amazon leben willst-ich will das nicht. Aber wir schweifen ab, eigentlich ging es ja speziell um Autorouter. Seien wir lieber froh daß es noch keinen Autorouter gibt der sich am Ende der Arbeit verweigert, weil die EU irgendeine beknackte Richtlinie über ethische Algorythmen ausgebrütet hat und der Autorouter befindet nun, daß dein Layout irgendeinem unethischen Zweck dienen könnte.
Hallo Wühlhase. Wühlhase schrieb: > Den Fall, daß ich etwas besonders gut mache und hinterher nicht weiß > wieso, kenne ich nicht. Ich kenne höchstens den Fall daß ich wirklich > keine Ahnung und nur glücklich geraten habe, aber dann hatte ich halt > Glück, bin aber nicht gut. Wenn Du irgendwo lang gehst, überlegst Du dir explizit jeden Schritt den Du machst? Betrachtest Du Dir die Gehwegplatte und überlegst, ob deine Schrittweite dahin wohl langt? Liegt die Gehwegplatte auch fest, oder musst Du damit rechnen, dass sie kippelt? Steht da eine Kante ein paar Millimeter hoch, so dass Du aufpassen musst, dort nicht hängenzubleiben? So kannst Du natürlich herumlaufen, aber dann wirst Du beim Überqueren der Strasse von einem Auto überfahren, dass noch irgendwo geparkt war, als Du angefangen hast, die Strasse zu überqueren. ;O) Nein, dass Du das ganze wirklich Bewusst machst, ist wohl eher eine Illusion. > Aber nur nach Bauchgefühl reproduzierbar gute Ergebnisse liefern...nö, > kenne ich nicht. > > > Bernd W. schrieb: >> Was ist mit dem Zeitfaktor: Schnelligkeit gegen Qualität ist nicht >> alles. > > Der Zeitfaktor ist m.E. auch nur ein Kriterium von mehreren. Das ist ja die Krux. Mit Überlegen bin ich Schneckenlangsam. Die Schnelligkeit kommt erst, wenn ich etwas aus dem Bauch heraus machen kann. Das sehe ich auch bei anderen Leuten so. Darum ja mein Verweis auf das Libet-Experiment weiter oben. > > > Bernd W. schrieb: >>> Diese Frage ist genauso bekloppt wie dieses Gedankenexperiment, in dem >>> man ein autonomes Auto vor die Wahl stellt welche >>> Menschen/Menschengruppe es überfahren soll, wobei es eine Überfahren >>> muß. > Ich meinte mit "bekloppt" eigentlich den ganzen Denkansatz. Eine > Maschine, auch eine noch so gut programmierte KI, ist eine Maschine. So > etwas kennt keine Moral oder Ethik. Es ist eine Maschine, ein toter > Gegenstand. Nun, aber den Sicherheitsschaltungen eines (dummen) Aufzuges vertraust Du trozdem? Ober möchtest Du ein Lichtgitter an einer Presse Abschalten, weil es keine Moral und keine Ethik kennt, und nur blöde den Notaus aktiviert, wenn jemand hineingrapscht? Ich kann Deine Bedenken gut nachvollziehen, denn eine KI wäre eine Durchaus gefährliche Konkurenz für uns Menschen. Aber so ist das eben. Entweder wir müssen zurück in die Steinzeit oder weit voraus in die Zukunft. Letzteres wird nur mit KI gehen. Was jedenfalls nicht funktionieren wird, ist den status quo halten. > > Es gibt leider aber einen strunzdummen, dafür lautstarken > Akademikerzweig, wo man das nicht kapiert und das nicht > auseinanderhalten kann. Die sehen so etwas (ab 01:23) > https://www.youtube.com/watch?v=rVlhMGQgDkY > und fordern Menschenrechte für Roboter. Heraus kommt so etwas wie der > Zeitungsartikel in diesem Video: > https://www.youtube.com/watch?v=LSf1L16f45s > Da werden tote Gegenstände vermenschlicht wie sonst etwas, ich finde es > einfach pervers. Ersteres ist schon beeindruckend. Alleine das ganze dynamisch auszubalancieren. Das zweiteres eine Satire ist, ist Dir nicht aufgefallen? > Und gerade deshalb sollte man Moral oder Ethik keineswegs in Technik > einbauen, denn dort landet dann stets die Moral des Herstellers im > Gerät. Meistens bestimmen dann Leute, die von Tuten und Blasen keine > Ahnung haben und in früheren Epochen sang- und klanglos verhungert > wären, wie Moral zu sein hat. 1) Auch Deine und meine Moral liegt immer in Konflikt mit den Moralvorstellungen anderer Leute, und viele von denen haben einfach nur die tradierten Moralvorstellungen ihrer Jugend, wie aus Kirche oder irgendwelche nationalen Vorstellungen kritiklos übernommen. Der Mist ist aber nach meiner Ansicht nun leider auch nicht besser als eine "Ethik von Google oder Facebook oder Amazon" 2) Ich kann mich mit anderen Leuten über Moral unterhalten. Ich kann das Ergebnis dann gut oder nicht gut finden. Aber ich werde immer damit leben müssen, dass es zwischen mir und dem Rest der Welt Konflikte geben wird, die ich nicht wegdiskutieren kann, weil andere Leute eben auch anders empfinden. > Aber wir schweifen ab, eigentlich ging es ja speziell um Autorouter. > Seien wir lieber froh daß es noch keinen Autorouter gibt der sich am > Ende der Arbeit verweigert, weil die EU irgendeine beknackte Richtlinie > über ethische Algorythmen ausgebrütet hat und der Autorouter befindet > nun, daß dein Layout irgendeinem unethischen Zweck dienen könnte. Wenn Du Dich näher mit der EU und deren Gesetzgebungsverfahren auseinandergesetzt hättest, würdest Du erkennen, dass die meisten Entscheidungen relativ weise getroffen wurden. ;O) Wenn Du dabei gegen den Strich gebürstet worden bist, hast Du wohl einfach Pech gehabt. Ich verstehe das ganze Politikbashing sowieso nicht wirklich. Ich habe auch jede Menge Kritikpunkte und bin mit Politikern zusammengerasselt. Das Problem ist nur, dass alle Alternativen zu Politikern wesentlich schlechter sind als der jetzige Zustand. Mit freundlichem Gruß: Bernd Wiebus alias dl1eic http://www.dl0dg.de
Bernd W. schrieb: > Nein, dass Du das ganze wirklich Bewusst machst, ist wohl eher eine > Illusion. Nein...nicht beim Hardwarebau. Zugegeben, etwas Erfahrung ist da auch dabei und ich kann sofort einschätzen, daß die parasitäre Induktivität eines Pullup-Widerstands mir keine Schwierigkeiten bereiten wird-das geht sogar so schnell, daß sich die Frage bewußt gar nicht erst stellt. (So jedenfalls würde ich dein Gleichnis mit dem Gehweg auf den Platinenbau übertragen.) Aber nein...ansonsten wüßte ich nichts, was ich beim Entwickeln unbewußt mache. Was schon eher mal vorkommt: Ich mache mir vorher Gedanken, treffe eine bewußte Entscheidung, dokumentiere meinen Gedankengang nirgendwo und frage mich später, warum ich das so gemacht habe. Bernd W. schrieb: > Nun, aber den Sicherheitsschaltungen eines (dummen) Aufzuges vertraust > Du trozdem? Tja, Prägung und Erfahrung. Bisher haben sie bei mir immer funktioniert und das solche Sicherheitsschaltungen (hoffentlich) deterministisch sind, macht sie nur vertrauenswürdiger. Bernd W. schrieb: > Ober möchtest Du ein Lichtgitter an einer Presse Abschalten, weil es > keine Moral und keine Ethik kennt, und nur blöde den Notaus aktiviert, > wenn jemand hineingrapscht? Warum soll ich ein Lichtgitter abschalten wollen? Ich bin immer noch froh daß solche Schaltungen keine Moral und Ethik kennen und am Ende auf die Idee kommen, dieses eine verdammte Mal die Anlage nicht in den Notausmodus zu fahren weil es der Schaltung - warum auch immer - moralisch richtig erscheint. Es ist ja gerade ein großes Problem der heutigen Politik: Gesetze, die man sich mal bei klarem Verstand ausgedacht hat, werden heute gebrochen weil einige es moralisch richtig finden. Mit unvorhersehbaren bzw. vorhersehbar negativen Folgen. Bernd W. schrieb: > Ich kann Deine Bedenken gut nachvollziehen, denn eine KI wäre eine > Durchaus gefährliche Konkurenz für uns Menschen. Ich muß da wohl mal etwas klarstellen: Ich sehe KI als Werkzeug. Nicht als Konkurrenz. Auch wenn ich einer KI mein Leben wohl so schnell nicht anvertrauen werde (autonomes Fahren), wäre ich jetzt nicht so sehr gegen einen KI-Autorouter. Und wenn die KI ein verranztes Layout hinscheißt...na meine Güte, dann ist es halt so, und es ist nicht unbedingt schlechter als heute. Wenn sie ein gutes Layout macht-auch gut, Routen kann lästig sein und Maschinen sind dazu da daß ein Mensch diese Arbeit eben nicht mehr machen muß. Bernd W. schrieb: > Ersteres ist schon beeindruckend. Alleine das ganze dynamisch > auszubalancieren. Die erste Reaktion meiner Freundin darauf war ein mitfühlendes "Warum ärgert der denn den Roboter?". Den meisten Menschen sehe ich eine solche Reaktion darauf nach, ist ja auch nachvollziehbar. Aber nicht studierten Moralaposteln, von denen verlange ich die Trennung zwischen Lebewesen und Nichtlebewesen. Bernd W. schrieb: > Das zweiteres eine Satire ist, ist Dir nicht aufgefallen? Ja, der Kanalbetreiber macht sich darüber lustig. Der Zeit, von der dieser Artikel stammt, glaube ich nicht daß das Satire sein soll. Bernd W. schrieb: > 1) Auch Deine und meine Moral liegt immer in Konflikt mit den > Moralvorstellungen anderer Leute, ... > > 2) Ich kann mich mit anderen Leuten über Moral unterhalten. Ich kann das > Ergebnis dann gut oder nicht gut finden. Wie gesagt: Es ist in meinen Augen ein großer Unterschied, ob ein Mensch Moral hat, mit dem kann ich mich im Konfliktfall einigen oder schlagen. Es ist nicht das Gleiche wie wenn eine Maschine so tut als wäre sie ein Mensch und will mir die ihr eingebaute Moral aufzwingen. Moral und Ethik ist etwas, daß einer Maschine nicht zusteht.
> Ich muß da wohl mal etwas klarstellen: Ich sehe KI als Werkzeug. Nicht > als Konkurrenz. Auch wenn ich einer KI mein Leben wohl so schnell nicht > anvertrauen werde (autonomes Fahren), wäre ich jetzt nicht so sehr gegen > einen KI-Autorouter. Und wenn die KI ein verranztes Layout > hinscheißt...na meine Güte, dann ist es halt so, und es ist nicht > unbedingt schlechter als heute. Dem wuerde ich zu 100% zustimmen. Genauer gesagt war das eigentlich mein Gedankengang als ich den Thread gestartet habe. Macht die KI in einem Auto Fehler so gibt es schnell Tote. Das ist Gesellschaftlich nicht akzeptiert. Es waere interessanterweise noch nicht mal dann akzeptiert wenn es z.B bei flaechendeckenden Einsatz in Deutschland nur 100Tote im Jahr gaebe, was ja wesentlich weniger waere als derzeit bei BI stirbt. Es waere zwar interessant zu diskutieren wieso das so ist, aber das waer hier wohl zu OT. Vor dem Hintergrund waere doch eine KI in einem Autorouter ein interessantes Uebungsprojekt. Die Eingangsdaten sind klar definiert, das Ergebnis ist verifizierbar, es gibt bei Fehlern keine Tote und man kann zum Schluss noch Geld damit verdienen. Wenn es also nicht moeglich ist sowas auf die Beine zu stellen dann ist ein KI-Auto IMHO noch SEHR weit in der Zukunft. Ich hab sogar die Theorie das es derzeit unmoeglich ist weil da noch ein paar Grundlagen fehlen die man nicht durch fleiss und Geld bereinigen kann. Aber noch ein anderer interessanter Gedanke. Nehmen wir mal an es gaebe eine KI die in 99% der Faelle in 1min ein Layout hinbekommt das perfekt ist. Das waere doch ein Knaller oder? Wuerde vormutlich sofort eine Menge Menschen ersetzen. Jedes 100. Layout waere dann aber schlecht. Da sitzt du dann vor, erkennst das aufgrund deiner Erfahrung, fummelst da etwas dran rum, laesst die KI nochmal laufen und es ist auch perfekt. Und dann gehst du in Rente und es gibt keinen Ersatz fuer dich. Weil der Nachwuchs es ja nicht ueber Jahre gelernt hat und Erfahrung aufgebaut. Was dann? Oder noch was anderes. Es gibt ja haeufigs Layout die sind von Erfahrenen Router gemacht und die sind schon ziemlich gut. Dann stellt man in der Praxis fest, oh hier bei der EMV noch 2dB drueber, dort noch 3dB zuviel Rauschen vom Schaltregler. Du verstehst Layout, Schaltung und Anforderung, ein zusaetzlicher Kondensator, oder dort eine andere Spule, oder Spule um 90Grad drehen und alles ist okay. Aber wenn eine KI das Layout geliefert hat und die nicht mehr nachvollziehen kannst wieso es nur fast perfekt ist? Da faellt das verbessern dann schwer. Das laesst sich natuerlich aufs Auto uebertragen. Wenn dein Auto in 99% alleine fahren kann und nur selten mal die Verantwortung an dich uebergeben will wenn es nicht weiter weiss, wie gut ist dann ein Autofahrer der zwar haeufig im Auto sitzt aber so gut wie nie selber gefahren ist? > Es ist nicht das Gleiche wie wenn eine Maschine so tut als wäre sie ein > Mensch und will mir die ihr eingebaute Moral aufzwingen. Moral und Ethik > ist etwas, daß einer Maschine nicht zusteht. Doch, natuerlich. Allerdings nicht mit dem was wir derzeit als KI bezeichnen. Es wird sicherlich moeglich sein KI zu entwickeln die echte Intelligenz zeigt. Die Frage ist nur ob wir dafuer noch 50 oder 500Jahre brauchen. Die interessante moralische Frage ist eher ob wir das tun sollten. Den auf dem Weg zur perfekten KI wird man eine Menge Fehlschlaege haben. Das ist dann aehnlich wie in einem Irrenhaus fuer Menschen vor 100Jahren. Und ab einem gewissen Entwicklungslevel musst du dich dann fragen ob du die Fehlschlaege einfach loeschen darfst. Die Fehler von 1Million Jahren menschlicher Evolution wurden von Tigern gefressen, bei von uns entwickelter KI ist das schwieriger. Von anderen interessanten Fragen ganz abgesehen: Darf ein Mensch dann noch eine KI besitzen? Wie Sklaven? Wenn du eine KI gross ziehst, ist sie dannn erbberechtigt? Aber wie gesagt, das gilt nicht fuer das was derzeit aus Marketinggruenden als KI bezeichnet ist. Das ist eine technische Spielerrei deren moralische Relevanz nicht groesser ist als bei einer Schraube. Olaf
Mir gefällt die Idee vom VHDL System für Leiterplatten von den Jitx Jungs. Standard, erprobte, getestete Module in bestimmter Weise zusammenschalten mit Hilfe von VHDL ähnlichem System. Warum haben sie nicht gleich VHDL ausgeweitet und verwendet? Viel Intelligenz brauchts da nicht mehr. Ich denke aber immer noch, es stimmt nicht, daß bei einem fehlerhaften Leiterplattendesign noch keine Toten sein können. Was ist, wenn diese Leiterplatte die Neigungssensoren von Flugzeugen auswertet? zu 99% passt das ergebnis. Aber zu 0.01% kann es passieren daß das Ding vom Himmel fällt. War da nich sowas grade bei Boeing? Uppps. Shit happens.
> Was ist, wenn diese Leiterplatte die Neigungssensoren von Flugzeugen > auswertet? zu 99% passt das ergebnis. Aber zu 0.01% kann es passieren Naja, der Unterschied ist einfach. Wenn eine KI fliegt dann ist jeder Fehler sofort sehr problematisch. Wenn sie die Platine entwickelt dann wird man die Platine vor einem ernsten Einsatz gruendlich testen. Genauso wie man es in so Faellen auch mit von Menschen entwickelten Platinen macht. Vielleicht uebersieht so ein Test auch mal etwas, aber das gilt auch wenn die Platine von einem Menschen entwickelt wurde. Olaf
Hallo Wühlhase. Wühlhase schrieb: >> Nein, dass Du das ganze wirklich Bewusst machst, ist wohl eher eine >> Illusion. > > Nein...nicht beim Hardwarebau. Zugegeben, etwas Erfahrung ist da auch > dabei und ich kann sofort einschätzen, daß die parasitäre Induktivität > eines Pullup-Widerstands mir keine Schwierigkeiten bereiten wird-das > geht sogar so schnell, daß sich die Frage bewußt gar nicht erst stellt. > (So jedenfalls würde ich dein Gleichnis mit dem Gehweg auf den > Platinenbau übertragen.) > > Aber nein...ansonsten wüßte ich nichts, was ich beim Entwickeln unbewußt > mache. > Was schon eher mal vorkommt: Ich mache mir vorher Gedanken, treffe eine > bewußte Entscheidung, dokumentiere meinen Gedankengang nirgendwo und > frage mich später, warum ich das so gemacht habe. Die beiden Fälle, die Du beschreibst sind lediglich die Spitze eines Eisberges. Unbewusst heisst mit Absicht so, weil es nicht bewusst ist, was da abläuft. Aber zugegeben, ego-dystonen Persönlichkeiten fällt es meistens leichter, sich selbstreflektierend zu Betrachten. > > >> Nun, aber den Sicherheitsschaltungen eines (dummen) Aufzuges vertraust >> Du trozdem? > > Tja, Prägung und Erfahrung. Bisher haben sie bei mir immer funktioniert > und das solche Sicherheitsschaltungen (hoffentlich) deterministisch > sind, macht sie nur vertrauenswürdiger. Auch eine KI agiert deterministisch. Auch wenn die Erzeugung der Entscheidung zu komplex zum durchschauen ist. Jedenfalls hatte der Fahrdienstleiter in dem Falle unten wohl auch einen schwachen Moment, wo seine HI nicht wirklich gut funktionierte. Hätte mir aber auch passieren können. (Anmerkung, ich bin kein Fahrdienstleiter und habe, ausser das ich Zug und Strassenbahnbenutzer bin, mit Eisenbahntechnik wenig zu tun) Link: https://www.eisenbahn-unfalluntersuchung.de/SharedDocs/Downloads/EUB/Untersuchungsberichte/2019/124_Moers.pdf?__blob=publicationFile&v=3 > Warum soll ich ein Lichtgitter abschalten wollen? Ich bin immer noch > froh daß solche Schaltungen keine Moral und Ethik kennen und am Ende auf > die Idee kommen, dieses eine verdammte Mal die Anlage nicht in den > Notausmodus zu fahren weil es der Schaltung - warum auch immer - > moralisch richtig erscheint. Mal willst Du Moral und Ethik, mal nicht. Wat nu? > Es ist ja gerade ein großes Problem der heutigen Politik: Gesetze, die > man sich mal bei klarem Verstand ausgedacht hat, werden heute gebrochen > weil einige es moralisch richtig finden. Mit unvorhersehbaren bzw. > vorhersehbar negativen Folgen. Weil sich das Umfeld und die Bedingungen ändern, muss alles regelmäßig neu überdacht werden. Und, ja, es gibt viele Leute mit anderen Wertvorstellungen, die mit den für Dich geltenden Regeln und ihren Ergebnissen nicht viel anfangen können. Ich bin nicht das Maß aller Dinge, aber Du auch nicht . > Auch wenn ich einer KI mein Leben wohl so schnell nicht > anvertrauen werde (autonomes Fahren), Ich würde es vermutlich, je nach Situation, schon. Ich denke, eine KI kann vieles ermüdungsfreier und mit besseren Reaktionen erledigen als ich selber. Siehe den Stellwerksfall oben. > wäre ich jetzt nicht so sehr gegen > einen KI-Autorouter. Und wenn die KI ein verranztes Layout > hinscheißt...na meine Güte, dann ist es halt so, und es ist nicht > unbedingt schlechter als heute. Wenn sie ein gutes Layout macht-auch > gut, Routen kann lästig sein und Maschinen sind dazu da daß ein Mensch > diese Arbeit eben nicht mehr machen muß. Ja, Routen wäre eine gute Aufgabe für eine KI. > Den meisten Menschen sehe ich eine solche Reaktion darauf nach, ist ja > auch nachvollziehbar. Aber nicht studierten Moralaposteln, von denen > verlange ich die Trennung zwischen Lebewesen und Nichtlebewesen. Es geht wohl eher um eine Unterscheidung zwischen HI und KI. Ich sehe das eher als eine graduelle als eine qualitative Unterscheidung. Grundsätzlich ist Intelligenz eine Intelligenz, egal ob künstlich oder human/biologisch. Und wenn sie graduell ähnlich sind, sollten sie auch gleich behandelt werden. Ein Afrikaner oder eine Frau ist ja auch nicht grundsätzlich anders als ein Europäer oder ein Mann. Warum sollte also eine ähnlich leistungsfähige künstliche Intelligenz grundsätzlich anders behandelt werden als eine humane Intelligenz? > > Wie gesagt: Es ist in meinen Augen ein großer Unterschied, ob ein Mensch > Moral hat, mit dem kann ich mich im Konfliktfall einigen oder schlagen. > > Es ist nicht das Gleiche wie wenn eine Maschine so tut als wäre sie ein > Mensch und will mir die ihr eingebaute Moral aufzwingen. Moral und Ethik > ist etwas, daß einer Maschine nicht zusteht. Aber wenn andere Dir Ihre gewachsene Moral aufzwingen, das ist grundsätzlich besser? Keiner mag es, wenn ihm etwas aufgezwungen wird. Das wird zwar im Zusammenleben nicht ohne gehen, und sollte daher minimiert werden, aber auch da sehe ich nur graduelle und keine qualitativen Unterschiede zwischen KI und HI. Mit freundlichem Gruß: Bernd Wiebus alias dl1eic http://www.dl0dg.de
Kurz ein Dank an Bernd, dessen Ausführungen zur künstlichen Intelligenz ich für sehr intelligent (hehe) und lesenswert halte. Zurück zum Thema: Ich glaube das künstliche Intelligenz bei Layouts nicht so einfach ist. Die Bewertung ob ein Layout gut oder schlecht ist, hängt von einigen Parametern ab, die sich je nach Aufgabe unterscheiden können und häufig aufwendig zu prüfen sind. Beides führt dazu, dass man mit einem Big Data Ansatz schnell an Grenzen stößt. Beispiele dazu: Wie teuer ein Via / zusätzliche Lagen sind unterscheidet sich von Hersteller zu Hersteller. Welche EMV Norm angewendet werden muss von Produkt zu Produkt, wie viel Zeit damit zugebracht werden darf von Layout zu Layout, etc. etc. Die Bewertung ob denn dann ein Layout gut war, muss meist noch manuell vorgenommen werden (ab ins EMV Labor). Auch sollte man bedenken, dass zwar jährlich sicherlich mehrere Millionen Layouts gemacht werden, aber das gegen die Datensätze, die sonst meist zum Einsatz kommen, doch sehr überschaubar ist. (Google brauchte wohl etwa eine Million Katzenbilder um Katzen erkennen zu können)
nfet schrieb: > Auch sollte man bedenken, dass zwar jährlich sicherlich mehrere > Millionen Layouts gemacht werden, Wobei die Spannweite von millimetergroß, einseitig für die Modelleisenbahn bis Quadratmeter mit 32+ Lagen für Großforschung und "defense" gehen. Das auf die Erkennung von Katzen übertragen bedeutet das ein Floh dazu gehört und auch eine Giraffe. Das hat mit Intelligenz auch noch nichts zu tun. Wenn das bloße erkennen und ausweichen um eine Katze herum "intelligent" wäre hätte ein Maus einen IQ von 200. Sie weiß ja auch noch wo Sie wohnt und findet den Weg zum leckeren Brot. Das was Google macht KI zu nennen ist schon arg überenthusiastisch. Die schaffen es mit riesigem Aufwand Bilder zu vergleichen und jede Abweichung haut Sie raus. Auch das die Rechenmaschinen nach 50 Jahren ausprobieren besser rechnen und vergleichen als ein Schach- (8x8 Feld) oder Go- (19x19) Spieler haut mich auch nicht vom Hocker. Inzwischen machen die Billionen Operationen in der Zeit wo der Mensch nicht mal "links" ist frei sagen kann und fahren trotzdem Auto wie der letzte Anfänger (The Car tried to kill us 2 or 3 times each drive - Tesla Forum). Das noch mit einem Energieverbrauch mit dem obige Maus eine halbe Weltpopulation versorgen könnte. Mit KI eine Leiterplatte routen? Wozu braucht man da "Intelligenz"? Selbst das kreuzungsfreie Verlegen über mehrere Lagen kriegen die Dinger doch nicht vernünftig hin. Man muss ihnen das vorkauen wie einem Kleinkind. Das ist aber komplett algorithmisierbar. Dazu bracht man keine KI. Bis Karl Klammer mit "anscheinend wolle Sie eine GlückwunschkartenMelodiePlatine layouten" die Zunft nervt ist es noch ein langer Weg.
Hallo, Beitrag "Re: Leiterklassen und Leiterquerschnitte in Target3001" Ich mach mal hier weiter. Wolle G. schrieb: > Veit D. schrieb: >> Ob das eine Aufgabe für KI wäre, weiß ich nicht. Müßte >> umfangreich trainiert werden. Ist ein anderes Thema. > > Ja ein anderes Thema. > Trotzdem, was ist eigentlich an KI intelligent? > Ist Intelligenz nicht einem Menschen vorbehalten, welcher seine grauen > Zellen richtig in Betrieb nimmt und etwas Neues erfindet oder neue > Zusammenhänge erkennt. Das Thema KI ist sehr umfangreich. Ich denke ja auch oder immer noch das KI im Kern nicht selbst intelligent sein kann, weil ja nur von Menschenhand programmiert, mit ganz bestimmten Algorithmen und es mit Trainingsdaten gefüttert wird. Am Ende folgt es einem ganz bestimmten Muster und wertet Dinge aus und das an Hand seiner Trainingsdaten. Bei schwarz weiß hätte ich Vertrauen. Ansonsten sinkt mein Vertrauen rapide. Abweichungen kann ein Mensch einordnen. Die Maschine nicht, die entscheidet einfach nach ihrem Muster. Kennt sie das entscheidende Muster nicht, entscheidet sie falsch. Der Mensch hat dabei mehr Möglichkeiten. Erinnert sich jemand an Deep Blue dem Schachcomputer. Wenn wirklich KI hätte er selbst immer besser werden müssen. Bis zum nächsten "Spiel" wurden aber Algorithmen im Programm verbessert und andere/bessere Trainingsdaten verwendet. Zudem Deep Blue jederzeit aus seinem riesigen Datenschatz schöpfen konnte, wohingegen ein Mensch vielleicht auch einen solchen hat ihn aber nicht zu jeder Zeit voll abrufen/durchforsten kann. Zumindestens nicht in der entscheidenden Sekunde während des Spiels. Bei Krebserkennung wird auch mit KI rumgespielt. Die kann genauso etwas erkennen und was anderes nicht erkennen. Wer prüft das nach? Welche Treffer werden menschlich nachkontrolliert und welche nicht. Rutscht einer durch das Raster? Wird einer umsonst gegen Krebs behandelt? Keine Ahnung. Kartoffelschälmaschine. Basiert auf s/w Kamerasystem ob die geschälte Kartoffel in der Qualität stimmt und wird entsprechend sortiert. Es folgt einen bestimmten Muster. Wo das erfunden wurde gab es den Begriff KI noch gar nicht. Also ich bleib dabei. Die Entscheidungen einer KI sind vom Programmierer vorgebeben. Die kann nichts selbst lernen. Mit dem Begriff KI wird viel zu viel Mist gemacht.
Veit D. schrieb: > Also ich bleib dabei. Die Entscheidungen einer KI sind vom Programmierer > vorgebeben. Die kann nichts selbst lernen. Mit dem Begriff KI wird viel > zu viel Mist gemacht. So wie um die Jahrhundertwende mit der Fuzzy-Logik... Uwe
Veit D. schrieb: > Die Entscheidungen einer KI sind vom Programmierer vorgebeben Dann hast du noch nicht viel von KI und ML verstanden.
Klaus schrieb: > Veit D. schrieb: >> Die Entscheidungen einer KI sind vom Programmierer vorgebeben > > Dann hast du noch nicht viel von KI und ML verstanden. Was versteht man unter ML? (Marxismus-Leninismus?)
Wolle G. schrieb: > Was versteht man unter ML? (Marxismus-Leninismus?) Gibst Du "KI ML" in die Suchmaschine deines geringesten Misstrauens ein und bildest dich selbst fort.
Wie sollte KI die üblichen Autorouter aufwerten können? Jedes PCB ist einzigartig, da helfen gesammelte Erfahrungen der Vergangenheit, Mustererkennung, Intelligenz herzlich wenig. Mir kann das Autorouting ohnehin gestohlen bleiben. Den manuellen Hobbyspaß ganz nach persönlichem Geschmack lass ich mir doch nicht nehmen... Klaus schrieb: > Gibst Du ... in die Suchmaschine ... ein Denkt mal daran daß keine Suchmaschine irgendwas finden würde wenn auf jeder Seite nur darauf verwiesen würde :)
Uwe B. schrieb: > So wie um die Jahrhundertwende mit der Fuzzy-Logik... Die wird allerdings, genau wie die Künstliche Intelligenz, schon in etlichen Anwendungsfällen praktisch genutzt. Unbedarfte Benutzer bekommen davon aber meistens nichts mit, was ein guter Beleg dafür ist, daß diese Technologien für bestimmte Anwendungsfälle gut und zuverlässig funktionieren.
Veit D. schrieb: > Also ich bleib dabei. Die Entscheidungen einer KI sind vom Programmierer > vorgebeben. Die kann nichts selbst lernen. Dann schau dir mal so ein extrem simples Beispiel an und erkläre mir danach, warum das nichts mit KI zu tun hat: https://www.heise.de/news/Rekord-KI-Roboter-knackt-Labyrinth-Geschicklichkeitsspiel-9581075.html Wäre es so wie Du meinst, hätte da ein Physiker zuvor die Beschleunigung/Bewegung in Abhängigkeit von den Neigungen berechnet und daraufhin einen Algorithmus berechnet und ausgeführt, der die schnellste Lösung ermöglicht. Dem ist aber genau nicht so, die Maschine hat das selbst gelernt.
Gerhard H. schrieb: > Wie sollte KI die üblichen Autorouter aufwerten können? Jedes PCB ist > einzigartig, da helfen gesammelte Erfahrungen der Vergangenheit, > Mustererkennung, Intelligenz herzlich wenig. Wenn all das keine Rolle spielen soll, ist es aber schon ein bisschen komisch, daß unterschiedliche Menschen dieselbe Platine unterschiedlich routen, Geübte das sehr viel schneller können, und trotzdem bessere Ergebnisse erzielen. > Mir kann das Autorouting > ohnehin gestohlen bleiben. Den manuellen Hobbyspaß ganz nach > persönlichem Geschmack lass ich mir doch nicht nehmen... Vielen Dank für die Information, auch sich ihr Sinn mir nicht erschließt. Aus welchem Grunde beteiligst Du Dich ausgerechnet an einer Diskussion, in der es um etwas geht, das Dir "gestohlen bleiben kann"? > Denkt mal daran daß keine Suchmaschine irgendwas finden würde wenn auf > jeder Seite nur darauf verwiesen würde :) Gerade überprüft: die Suchmaschine Google gibt für die Suche nach 'KI ML' Verweise auf Webseiten mit sehr guten Erklärungen aus, unter anderem vom Fraunhofer Institut, Google und Amazon. Aber wenn Dich das ohnehin nicht interessiert... siehe meine Frage im vorherigen Absatz. Edit: Fehlendes Komma hinzugefügt.
:
Bearbeitet durch User
Ein T. schrieb: > ist es aber schon ein bisschen komisch, daß unterschiedliche Menschen > dieselbe Platine unterschiedlich routen, Was sollte daran komisch sein wenn Geschmäcker und Möglichkeiten unterschiedlicher nicht sein könnten? > Geübte das sehr viel schneller können Da gehts aber primär um die bessere Beherrschung der (Möglichkeiten der) EDA Software.
Ein T. schrieb: > Uwe B. schrieb: >> So wie um die Jahrhundertwende mit der Fuzzy-Logik... > > Die wird allerdings, genau wie die Künstliche Intelligenz, schon in > etlichen Anwendungsfällen praktisch genutzt. Ja, das ist natürlich bekannt. > Unbedarfte Benutzer > bekommen davon aber meistens nichts mit, was ein guter Beleg dafür ist, > daß diese Technologien für bestimmte Anwendungsfälle gut und zuverlässig > funktionieren. Absolut. Es ging mir nur darum aufzuzeigen wie solche Entwicklungen hochgepusht werden. Speziell von Medien die keine Ahnung vom Thema haben. Unglaublich wo heute künstliche Intelligenz drinsteckt was kurz vorher noch ohne diesen Zauber bestens funktionierte... Aus meiner Sicht ist KI und ML nichts wirklich neues sondern wird durch die rasante Entwicklung von Rechenpower und insbesondere von Speicherkapazität langsam "mächtig". Man möge mich korrigieren. Uwe
Uwe B. schrieb: > wird durch die rasante Entwicklung von Rechenpower und insbesondere von > Speicherkapazität langsam "mächtig". Naja, das ist nur technische Grundlage für das Entscheidende: Daten, Daten und nochmals Daten aus der Realität. KI wird immer scheitern wenn ein Anwendungsfall nicht irgendwie mit Daten unterfüttert ist. Und im Falle individuell neuer Platinen helfen "alte" Layout- Daten wenig. Ein T. schrieb: > für die Suche nach 'KI ML' Verweise auf Webseiten mit sehr guten > Erklärungen aus, unter anderem vom Fraunhofer Institut, Google und > Amazon Das mag ja inzwischen sein. Mehr und bessere Antwort-Auswahl, gerade was die Verständlichkeit anbetrifft, ist aber immer erstrebenswert. Nur mit immer breiterer Datengrundlage wird übrigens auch ChatGPT besser :) Und sollten Dich die "Profi"Erklärungen der "großen" Anbieter immer zufriedenstellen- schön für Dich. Da habe ich andere Erfahrungen. Vermutlich weil ich dümmer bin.
Gerhard H. schrieb: > Ein T. schrieb: >> ist es aber schon ein bisschen komisch, daß unterschiedliche Menschen >> dieselbe Platine unterschiedlich routen, > > Was sollte daran komisch sein wenn Geschmäcker und Möglichkeiten > unterschiedlicher nicht sein könnten? Nach meiner Erfahrung liegen die Ergebnisse bei erfahrenen Leuten sehr viel näher beieinander. Anscheinend scheinen die "gesammelten Erfahrungen aus der Vergangenheit" und die "Mustererkennung" und zweifellos auch die geistigen Kapazitäten durchaus eine Rolle. >> Geübte das sehr viel schneller können > > Da gehts aber primär um die bessere Beherrschung der (Möglichkeiten der) > EDA Software. Erfahrene Routingfachleute kommen auch mit ihnen fremder Software zu recht ähnlichen Ergebnissen. Kunststück, unabhängig von der Software soll die PCB schließlich denselben Anforderungen genügen. Sicherlich wird das Eine oder Andere dabei auch eine Frage des persönlichen Geschmacks sein, aber im Kern spielt die verwendete Software sicherlich die kleinste Rolle. Denn am Ende können sich nur Hobbyisten den Luxus leisten, einfach ins Blaue hinein zu routen und dieselbe Anforderung jedes Mal auf andere Weise zu lösen.
Ein T. schrieb: > Nach meiner Erfahrung liegen die Ergebnisse bei erfahrenen Leuten sehr > viel näher beieinander. Anscheinend scheinen die "gesammelten > Erfahrungen aus der Vergangenheit" und die "Mustererkennung" und > zweifellos auch die geistigen Kapazitäten durchaus eine Rolle. Zustimmung. Wobei eben die "gesammelten Erfahrungen" und die "Musterkenneung" geradezu prädesteniert sind für eine KI. Zudem kostet deren Rechenzeit vergleichsweise nichts und sie kann wesentlich schneller als in Echtzeit ihre Erfahrungen machen. Ob es solche System bereits gibt oder ob daran entwickelt wird - keine Ahnung. Gerhard H. schrieb: > Wie sollte KI die üblichen Autorouter aufwerten können? Jedes PCB ist > einzigartig, da helfen gesammelte Erfahrungen der Vergangenheit, > Mustererkennung, Intelligenz herzlich wenig. Doch, genau dafür ist KI / Machine-Learning gemacht, siehe oben.
Uwe B. schrieb: > Es ging mir nur darum aufzuzeigen wie solche Entwicklungen hochgepusht > werden. Speziell von Medien die keine Ahnung vom Thema haben. > Unglaublich wo heute künstliche Intelligenz drinsteckt was kurz vorher > noch ohne diesen Zauber bestens funktionierte... Dann habe ich Dich mißverstanden, denn ich hatte gedacht, Du schreibst über Fuzzy Logic und KI. Für bestimmte Anwendungsfälle sind das sehr nützliche und wertvolle Technologien. Sofern es allerdings um den aktuellen Hype um die KI geht, hast Du allerdings vollkommen Recht, und ja, der ähnelt dem Hype, der seinerzeit um die Fuzzy Logic gemacht wurde. > Aus meiner Sicht ist KI und ML nichts wirklich neues sondern wird durch > die rasante Entwicklung von Rechenpower und insbesondere von > Speicherkapazität langsam "mächtig". Man möge mich korrigieren. Nein, so neu ist das Meiste davon nicht. Eines der bekanntesten Modelle zur Verarbeitung von Texten, das Long Short-Term Memory-Modell, ist zum Beispiel schon im Jahr 1997 von Hochreiter und Schmidthuber vorgestellt worden, also jetzt wirklich nicht so richtig flammneu. Aber die Idee von KI, nämlich den Computer die Denkarbeit zuzuschustern, ist anscheinend für viele Menschen zu verlockend. Deswegen oszilliert das Ganze seit langer Zeit immer wieder hin und her: immer neuen Hypes folgt bald etwas, für das es schon einen eigenen Fachausdruck gibt, den KI-Winter. Der findet statt, wenn der Hype auf die Realität trifft und die Leute erkennen, daß die KI womöglich doch nicht alles so viel besser, schöner, einfacher machen kann, sondern lediglich für bestimmte Anwendungsfälle gut funktioniert. Im Moment ist wieder ein Hype, bei dem die Befürworter, die Gegner und die stets umtriebigen Befürchter eines eint: nämlich die Annahme, was KI alles können und verändern würde. Als jemand, der sich seit einigen Jahren privat und beruflich für das Thema interessiert und mittlerweile auch praktische Erfahrungen damit sammeln konnte, sind die Aussagen dieser Menschen aber primär ein Grund für belustigtes oder genervtes Abwinken dar... keine Frage, bestimmte Dinge können die KI (und auch die Fuzzy Logic) viel besser als Menschen, aber in anderen Bereichen wird das nichts werden, jedenfalls nicht in absehbarer Zeit und mit den aktuell verfügbaren Technologien und schon gleich gar nicht so schnell, wie die KI-Fans das weissagen.
Ja, dieser Hype um das Automobil, wo doch klar ist, dass dem Pferd die Zukunft gehört.
Ein T. schrieb: > Nach meiner Erfahrung liegen die Ergebnisse bei erfahrenen Leuten sehr > viel näher beieinander. Erst routen unterschiedliche Menschen unterschiedlich, dann liegen sie wieder nah beieinander. Du musst Dich schon entscheiden. Welche KI-Merkmale aktuelle Autorouter nun konkret wie unterstützen und aufwerten könnten da fehlts an fundierter Begründung. Ich sehe hier zuviel Mutmaßung und aufgeregten Glanz in den Augen beim Nennen solcher Buzz-Wörter. > Im Moment ist wieder ein Hype, bei dem die Befürworter, die Gegner und > die stets umtriebigen Befürchter eines eint: nämlich die Annahme, was KI > alles können und verändern würde. Eben. > Denn am Ende können sich nur Hobbyisten den Luxus leisten, einfach ins > Blaue hinein zu routen und dieselbe Anforderung jedes Mal auf andere > Weise zu lösen. Einfach ins Blaue hinein? Nö. Es gilt im Hobby ganz genauso eine kompakte-Routing Lösung zu finden die alle (hier auch gerne ästhetischen) Ansprüche erfüllt. Der Luxus besteht eher darin, nicht allen Industrie-Regularien (Stichwort EMV) genügen zu müssen. Dieselbe Anforderung? Wer das sagt hat von der Individualität des Platinen-Designs nun wirklich keinen Plan.
In so eine ähnliche Richtung gab es mal vor ca. 10 Jahren einen Thread. Beitrag "Autorouter als Webservice / Hypothetische Frage - Brainstorming"
Spiel mir das Lied vom Lot schrieb: > Der Autorouter müsste eine unglaubliche Vielzahl von Dingen über die > Schaltung, den Gehäuseaufbau, die Umweltbedingungen etc. pp. wissen um > überhaupt die Bauteile platzieren zu können. Ein Autorouter taugt nichts, ohne einen sinnvollen Placer. Ich schätze so etwa 1/3 der Zeit brauche ich für das Platzieren und 2/3 für das Routen. Ich habe für mich eine Inseltechnik entwickelt. Ich bilde Inseln aus funktional zusammen gehörenden Bauteilen (ICs + Hühnerfutter) und optimiere die Plazierung nach den Gummifäden. Dann route ich die Insel und nehme mir die nächste Insel vor. Ähnlich wie man in der Software Funktionen in Module aufteilt. Zum Schluß werden dann die Inseln optimal zueinander plaziert und zusammen geroutet. Ich hatte mal einen Kollegen, der hat die Bauteile wie mit Superkleber fixiert betrachtet, sobald er sie einmal fallen gelassen hat. Und dann haufenweise Vias gesetzt, wenn die Anschlüsse zufällig auf der falschen Seite waren, statt das Bauteil um 180° zu drehen.
Peter D. schrieb: > Ich bilde Inseln aus funktional zusammen gehörenden Bauteilen Schön und gut. Wichtiger bleibt für kompakte Designs maximal lokale Nähe miteinander verbundener Bauelemente und Pins. Ganz unabhängig funktionaler Einteilungen. Ausgangs- und Angelpunkt sollte die gewünscht- bis notwendige Platzierung aller Anschlüsse und größeren Bauelemente (z.B. Displays) auf der Platine sein. Von dort arbeitet man sich dann weiter in die Platine hinein. Wirklich intelligentes Geräte-Design müsste eigentlich viel grundlegender ansetzen. Etwa bei Controllern mit standardisierten Betriebsspannungs- Anschlüssen und funktionell völlig frei konfigurierbaren Pins. Oder bei der Höher- Integration vieler heute noch diskret ausgeführter Funktionalitäten. So könnte sich einst der Aufwand des Placings und Routings auf ein unbedeutendes Mindestmaß reduzieren, sich das Thema also weitgehend erübrigen.
All das was ein Mensch 'nebenbei' im Layout tut, weil er weiß was die Schaltung tut und wo man achtgeben muss, wird eine KI irgendwann einmal können. Eine starke KI wird einmal alles können was ein Mensch kann und das schneller und besser. Irgendwann einmal. Layouts sind eigentlich einfach für eine KI. Sie müsste 'nur' durch wiederholte Simulationen die besten Platzierungen + Layouts ausprobieren. Für komplexe Schaltungen würde das aber enorme Rechenkapazität erfordern, daher bedient man sich der biologischen Intelligenz die aus dem Verständnis und der Erfahrung näherungsweise Annahmen trifft. Das beste Layout der KI würde unter Umständen schlimm aussehen. Schönheit die im Auge des menschlichen Betrachters entsteht und die höchste Signalgüte wären nicht identisch. Irgndwann werde ich einer KI erzählen können was ich erwarte und es wird ein Gerät rausfallen. So wie das heute mit Bildern geht. Das wird aber noch lange Zeit dauern, wenn man sich anschaut welche Teilschritte alle nötig sind um aus der Idee zu einem vollständigen Gerät zu kommen bei dem sich Mechanik, Schaltung, PCB, Verkabelung etc. aneinander angepasst haben das es mit den Lieferketten und inhouse Methoden zum Kunden und Einsatzzweck passt.
Michael schrieb: > Eine starke KI wird einmal alles können was ein Mensch kann Das glauben nur Technik-Nerds und ist schon deshalb falsch weil sich menschliche Kreativität höchstens nachahmen lässt. Schon gar nicht verfolgt KI irgendeinen Lebenssinn. Sie ist und bleibt Maschine, Werkzeug, Programmierung. Wenn auch "auf höherem Level". Jede denkbare menschliche Anstrengung bei der Konstruktion kann maximal bewirken dieses Werkzeug nur noch intelligenter erscheinen zu lassen. Ungeachtet der Tatsache daß KI-Entscheidungen dabei längst nicht mehr vollständig nachverfolgbar sein müssen. > Layouts sind eigentlich einfach für eine KI. > Sie müsste 'nur' durch wiederholte Simulationen die besten Platzierungen > + Layouts ausprobieren. Simulieren hätte wenig mit KI zu tun. Die besten Routings findet jeder bessere Autorouter schon heute. KI müsste ja eigentlich ihre Weisheit aus den Erfahrungen einer großen Sammlung fertiger Layouts ziehen. Welche aber sollten das sein wenn jedes neue Layout einzigartig ist? > Irgndwann werde ich einer KI erzählen können was ich erwarte und es wird > ein Gerät rausfallen. Das kann gut sein. KI dürfte aber selbst dann nur die Rolle eines Übersetzers menschlicher Erwartung in maschinelle Algorithmen zukommen. Ihre Rolle besteht allein im Sprach-Verständnis. Das lässt sich ja auch gut anhand menschlicher Verlautbarungen trainieren.
Gerhard H. schrieb: > Das glauben nur Technik-Nerds und ist schon deshalb falsch weil sich > menschliche Kreativität höchstens nachahmen lässt. Wenn Du das sagst... Macht keinen Sinn mit Menschen zu diskutieren die das Offensichtliche nicht erkennen wollen, weil es in Frage stellen würde aus was sie eigentlich gemacht sind und wie sie funktionieren.
Gerhard H. schrieb: > Simulieren hätte wenig mit KI zu tun. Das habe ich auch nicht gesagt. > Die besten Routings findet jeder bessere Autorouter schon heute. Reine Wegeoptimierung einer platzierten Baugruppe NICHT Signalintegrität und automatische Neuanordnung.
Hallo Gerhard. Gerhard H. schrieb: >> Eine starke KI wird einmal alles können was ein Mensch kann > > Das glauben nur Technik-Nerds und ist schon deshalb falsch weil sich > menschliche Kreativität höchstens nachahmen lässt. Die aktuellen Entwicklungen von KI zeigen ja gerade, das KI z.Z. gerade Kreativität gut kann. ;O) > Schon gar nicht > verfolgt KI irgendeinen Lebenssinn. Einen "Lebenssinn" wollen auch nur Sektenanhänger oder Depressive verfolgen. "Normalen" Menschen stellt sich die Frage nach einem Lebenssinn nicht. ;O) > Jede denkbare > menschliche Anstrengung bei der Konstruktion kann maximal bewirken > dieses Werkzeug nur noch intelligenter erscheinen zu lassen. Sind in diesem Sinne denn wir überhaupt intelligent? ;O) Mit freundlichem Gruß: Bernd Wiebus alias dl1eic http://www.l02.de
Michael schrieb: > Macht keinen Sinn mit Menschen zu diskutieren die das Offensichtliche > nicht erkennen wollen, weil es in Frage stellen würde aus was sie > eigentlich gemacht sind und wie sie funktionieren. Ich verstehe Dich Michael. Du glaubst der Mensch sei letztlich auch nur Maschine. Also alles irgendwie und irgendwann nachbaubar. Das wär nur leider ein viel zu großes Diskussionsfeld, das bei weitem nicht in diesen Thread passt :( Michael schrieb: > Reine Wegeoptimierung einer platzierten Baugruppe NICHT Signalintegrität > und automatische Neuanordnung. Gut,das ließe sich ja alles noch nachrüsten, Simulieren setzt nicht unbedingt künstliche Intelligenz voraus. Insbesondere beantwortet es nicht die Frage, wie die KI hier für neue Platinen aus Layouts der Vergangenheit lernen sollte. Die Bedingungen sind ja immer wieder neu. Bernd W. schrieb: > das KI z.Z. gerade Kreativität gut kann Ja. Und wieder ist es nur simulierte und scheinbare! Du lässt Dich aber schnell täuschen :) > Sind in diesem Sinne denn wir überhaupt intelligent? Intelligenz ist bereits als Begriff unscharf, begrenzt, interpretations- spielräumig. Meine Interpretation wäre, daß diese erstens grundsätzlich an biologisches, organisches Substrat, also das hoffentlich raumfüllende Etwas zwischen den Ohren gebunden ist. Der Aspekt weitergehenden Erkennens von Zusammenhängen unter Rückgriff auf "Erfahrungen" lässt sich heute zweitens maschinell bewerkstelligen, eine Art Sensor-Technik 2.0 sozusagen. Was daraus an Aktion folgt ist und bleibt aber maschinell konstruiert. Der Technik-Nerd hat natürlich das dringende Bedürfnis, technische mit natürlicher Intelligenz allzu schnell gleichzusetzen. Das macht was her, das wertet seine Technik auf. Gutes Marketing.
Gerhard H. schrieb: >> Sind in diesem Sinne denn wir überhaupt intelligent? > > Intelligenz ist bereits als Begriff unscharf, begrenzt, interpretations- > spielräumig. Meine Interpretation wäre, daß diese erstens grundsätzlich > an biologisches, organisches Substrat, also das hoffentlich raumfüllende > Etwas zwischen den Ohren gebunden ist. Diese Begriffe kommen aus den USA. Die Übersetzung "Intelligenz" ist völlig daneben. Siehe etwa CIA - Central Intelligence Agency: Da geht es um Daten sammeln und verarbeiten und Muster suchen, Das hat nichts mit dem zu tun, was wir unter Intelligenz verstehen. Intelligenz in unserem Sinne setzt Bewusstsein voraus.
Gerhard H. schrieb: > Intelligenz ist bereits als Begriff unscharf, begrenzt, interpretations- > spielräumig. Meine Interpretation wäre, .... Ich sehe es so: Wenn man heute von Künstlicher INTELLIGENZ (KI) spricht, dann ist das "natürliche" die Intelligenz, die der Mensch oder ein intelligentes Wesen, der KI beigebracht hat. KI nannte sich früher vielleicht Automatisierungs- und/oder auch Computertechnik. Lese gerade: > "Diese Begriffe kommen aus den USA. Die Übersetzung "Intelligenz" ist > völlig daneben." Dann ist ja alles klar
:
Bearbeitet durch User
Gerhard H. schrieb: > Simulieren setzt nicht > unbedingt künstliche Intelligenz voraus. Und nochmal: Nein, ich habe niemals gesagt das Simulieren irgendwas mit KI zu tun hätte. Eine KI müsste neben 100 anderen Dingen eben AUCH das die Schaltung mit diesem Layout simulieren um überhaupt eine Entscheidungsgrundlage zu haben ob das eine Layout besser ist als das andere. Die KI müsste jedoch auch all die Informationen haben die ich habe, weil ich weiß für welchen Kunden in welcher Einbausituation, was der Markt an zahlreichen Nebenbedingungen hat und welche Abstimmungszyklus es mit der Mechanik gibt. 1000 Informationen die aus Jahrelanger Tätigkeit in diesem Umfeld und meinem Verständniss der Welt entstehen, weil ich einen Körper habe und mich frei in der Welt bewege, mit Menschen rede, meine Geräte im Labor betreue und lebenslang lerne was ich besser machen muss. Eine KI müsste sehr weit entwickelt sein um das zu können und sie müsste mit der realen Welt physisch interagieren können Aber es gibt keinen Grund warum diese Entwicklung nicht möglich sein sollte. Maschinen können längst alles besser als wir, außer Denken und MAschinen die rechnen können haben wir erst seit kurzem. Dafür sind die aber schon wirklich enorm weit und die Entwicklung beschleunigt sich Expotentiell. Bessere KI = besser Maschinen = bessere KI = bessere Maschinen = bessere KI usw. Gerhard H. schrieb: > Du glaubst der Mensch sei letztlich auch nur Maschine. Und was glaubst Du? An das galaktische Spaghettimonster das uns alle erschaffen hat mit einem Willensakt der sich gänzlich dem uns bekannten physikalischen Universum entzieht? Natürlich sind wir nur komplexe Maschinen aus dem Material das die Natur zur Verfügung hatte! Schau Dir Kaninchen und Hasen an. Beide nicht näher mit einander Verwand. Beide leben in ähnlichen Lebensräumen mit ähnlichen Problemen und haben ähnliche Merkmale entwickelt. Elefanten, Klippschliefer und Seekuh sind näher miteinander verwandt. Aber unterschiedliche Lebensräume, daher sehr weit auseinanderentwickelt. Wir sind nur Produkt einer blinden Evolution. Wer denken konnte war im Vorteil. Abschätzen zu können ob der Ast halten wird, ob es sicher ist den Boden zu besuchen, welcher Baum jetzt Früchte trägt, mit einem Stock Termiten angeln zu können, mit einem Stein Muscheln zu öffnen, waren Vorteile eines entwickelten Gehirnes. Aber wir haben Millionen Jahre benötigt. Die KI hat gerade mal 77J von der Erfindung des ersten Transistors bis zu ChatGPT 4 gebraucht. Gerhard H. schrieb: > Der Technik-Nerd hat natürlich das dringende Bedürfnis Und der wahre Gläubige hält sich einfach daran fest das er so speziell und einzigartig ist, das eine Maschine das nie könnte. Das kann er zwar mit überhaupt garnichts begründen und jede Logig und jeder ernstzunehmende Wissenschaftler würde da vehement widersprechen, aber da Wissen der Feind des Glaubens ist, ist nichts Wissen eben der einzig wahre Glauben. Die KI malt bereits besser Bilder als ich es könnte. Die komponiert bessere Musik als ich es könnte. Sie schreibt besseren Code als ich es könnte. Natürlich wird sie irgendwann besser denken und schlussfolgern können, Ziele haben, ein Bewustsein für das was sie ist und die Fähigkeit ihre Rolle in der Welt zu managen indem sie lernt zu lügen, zu betrügen, zu manipulieren. Selbst ein Hund kann das, der dümmer ist als ein Schwein oder ein dreijähriges Kind. Sogar ein Katze kann das die dümmer ist als ein Hund. Katzen machen gegenüber dem Menschen Laute die sie ansonsten nie verwenden. Die Katze hat sich selbst domestiziert, bzw. den Menschen dazu gebracht ihr ein gutes Leben zu ermöglichen indem sie ihn manipuliert. Selbst Rabenvögel können Werkzeuge benutzen. Ich versteh das hohe Roß nicht auf dem die sitzen die meinen KI sei ihnen per Definition unterlegen. KI wird die Welt sehr viel grundlegender verändern als jede andere Technologie vor ihr.
Checkliste KI Training: KI muss mit "guten" Layouts gefüttert werden. Wird demokratisch über PCB Designs abgestimmt ob die KI davon lernen darf ? Welche Berufsgruppe ist dazu befähigt ? Die Layouter, die ersetzt werden, die Projektleiter, die die Layouter ersetzen wollen ? Wer muss/darf seine Layouts dazu beisteuern ? KI muss EMV können Wie sehen die Lernmuster für die KI aus, von der sie EMV Muster lernt ? Liegen diese Daten schon digital vor ? In welchem PCB Design Programm ? Welche EMV Simulationssoftware (incl. Firmware Abhängigkeit) bringt die selben Ergebnisse wie eine Messung in der EMV Kammer ? Und was kostet diese Software aktuell ? Oder mache ich für jeden KI Autorouter Durchlauf auch einen Prototypen Durchlauf + EMV Messung ? KI muss DFM können Das Layout muss am Ende doch noch gefertigt werden ohne die Kosten hoch zu treiben. KI muss die rules/Constraints/etc ... des Layout Programms lesen können Vergibt die KI auch die Regeln für das Design ? KI Autorouter müssen billiger als bestehende Lösungen sein KI muss von den Projektleitern als Ansprechpartner aktzeptiert werden, der Layouter/Entwickler wurde ja ersetzt KI haftet für ein fehlerhaftes Design ? Oder ist dem Anbieter der KI Autorouter Lösung egal wie viele Durchläufe das Design erfordert, so wie heute auch bei den normalen Autoroutern ? Wie hoch ist die Durchdringung von normalen Autoroutern bei aktuellen Designs ? Warum ist die Akzeptanz so hoch/gering ?
Michael schrieb: > Schönheit die im Auge des menschlichen Betrachters entsteht und die > höchste Signalgüte wären nicht identisch. Sind sie sowieso nicht. Lange parallele Busse, wie sie Menschen gern legen, sind von der Signalintegrität her eigentlich kompletter Unfug, denn sie haben ein viel größeres Übersprechen als "kreuz und quer" gelegte Leitungen. Aber sie sehen halt für denjenigen, der das so gemacht hat, schön aus. ;-) Markus H. schrieb: > Wie hoch ist die Durchdringung von normalen Autoroutern bei aktuellen > Designs ? Alle ASICs (und damit ein nennenswerter Anteil unserer derzeitigen ICs) sind auto-geroutet¹). Aber da gibt es halt niemanden, der nach "Schönheit" entscheidet. :) Es wird lediglich nach dem Routing die Signalintegrität per Simulation verifiziert, und wenn sie OK ist, wird das gefertigt. ¹) Analoge Baugruppen werden natürlich händisch gelayoutet. Aber die machen in der Verdrahtung nicht den Löwenanteil aus.
Hallo Gerhard h. Gerhard H. schrieb: > Bernd W. schrieb: >> das KI z.Z. gerade Kreativität gut kann > > Ja. Und wieder ist es nur simulierte und scheinbare! Du lässt Dich aber > schnell täuschen :) Wenn ich den Unterschied nicht merke, ist es mir ja auch egal. ;O) > >> Sind in diesem Sinne denn wir überhaupt intelligent? > > Intelligenz ist bereits als Begriff unscharf, begrenzt, interpretations- > spielräumig. Meine Interpretation wäre, daß diese erstens grundsätzlich > an biologisches, organisches Substrat, also das hoffentlich raumfüllende > Etwas zwischen den Ohren gebunden ist. Dann ist aber ein signifikanter Anteil dessen, was Du als "Intelligent" bezeichnest, durch Deine Definition vorgegeben ("grundsätzlich biologisches, organisches Substrat"), und dieser Teil Deiner Definition hat nichts mit der Funktionalität der Intelligenz zu tun. Ein Vorgehen wie man es von Religionen und von autokratischer Staatsdoktrin kennt. > Der Technik-Nerd hat natürlich das dringende Bedürfnis, technische mit > natürlicher Intelligenz allzu schnell gleichzusetzen. Das macht was her, > das wertet seine Technik auf. Gutes Marketing. Du polemisierst. ;O) Unterm Strich, ich denke nicht, dass sich meine eigene Intelligenz grundlegend in ihrer Art von maschineller Intelligenz unterscheidet. In der Tiefe und bei der Energieeffizienz mag ich noch Vorteile haben, aber das könnte sich irgendwann ändern, und es ist auch kein grundsätzlicher qualitativer Unterschied. In Punkto Schnelligkeit und Ermüdungsfreiheit/Konzentrationsfähigkeit ist mir eine technisch maschinelle Intelligenz jetzt schon weit überlegen. Mit freundlichem Gruß: Bernd Wiebus alias dl1eic http://www.l02.de
Michael schrieb: > Maschinen können längst alles besser als wir Ein Anfall von Hybris? Bernd W. schrieb: > Unterm Strich, ich denke nicht, dass sich meine eigene Intelligenz > grundlegend in ihrer Art von maschineller Intelligenz unterscheidet. Unterm Strich haben Technik-Nerds doch eher ziemlich viel Nachholbedarf, das Wesen natürlicher Intelligenz, von Leben und Bewußtsein als mehr zu begreifen als nur das geschickte Flitzen von Elektronen in siliziumstarren Chips :) Wird sich der Mensch dereinst übermenschliche, allumfassend überlegene Konkurrenz schaffen? Ein paar Punkte zum Weiter-Denken: Wer konstruiert hier eigentlich wen und definiert die Möglichkeiten? Macht der zu beobachtende durchschnittliche Zivilisationsgrad der heutigen Menschheit samt aller in der Welt befindlicher Waffen zuversichtlich, daß diese HighTech Phase überhaupt jemals erreicht werden könnte? Und wer glaubt, menschliche Intelligenz und Bewußsein sei längst als "Maschine" durchschaubar: Der Münchner Physikprofessor Philipp von Jolly riet dem jungen Planck vom Physik-Studium mit der Begründung ab, "es sei in der Wissenschaft schon fast alles erforscht, und es gelte, nur noch einige unbedeutende Lücken zu schließen"... Konstant ist in der Historie nur eines: Menschliche Hybris. Um wieder den Bogen zu Michael zu schließen.
Unterm Strich überschätzen Menschen sich gern in ihren Fähigkeiten beim Routen von PCBs. Die haben nämlich gar nicht so viel mit Intelligenz zu tun (weder natürlicher noch künstlicher), sondern die Suche nach dem Optimum ist ganz viel trial&error – und darin sind Maschinen einfach mal sehr viel schneller.
Jörg W. schrieb: > Routen von PCBs. Die haben nämlich gar nicht so viel mit Intelligenz zu > tun (weder natürlicher noch künstlicher) KI bringt fürs Routen nichts. Von der Hilfe natürlicher Intelligenz war noch gar nicht die Rede :)
>Menschen überschätzen sich gern in ihren Fähigkeiten beim Routen von PCBs richtig! full ack PCB Designer sind keine Durchschnittsmenschen. Nicht jeder, der sich für einen (Senior) PCB Designer hält, ist auch einer. Klarer Fall von Selbstüberschätzung, QED. >trial&error – und darin sind Maschinen einfach mal sehr viel schneller. richtig, full ack ML nimmt alle verfügbare Daten und lernt aus allen Erfolgen und Fehlern die bereis gemacht wurden. Menschen wollen nicht voneinander lernen und verstecken ihre gemachten Fehler vor anderen um besser dazustehen (mit Druck von "Oben" gefördert). Firmen sehen Ihr technisches Wissen als Geschäftsgeheimnis, das Teilen (intern wie extern) ist maximal schlechtes Geschäftsgebaren. Geht ein Wissensträger, verschwindet damit auch das Wissen, da das Wissen nicht redundant gespeichert wurde. Es wird gerade in der Entwicklung das Rad jeden Tag neu erfunden, um "Besitz" an einer Idee oder Lösung argumentieren zu können. >In Punkto Schnelligkeit und Ermüdungsfreiheit/Konzentrationsfähigkeit ist >mir eine technisch maschinelle Intelligenz jetzt schon weit überlegen. >>Alle ASICs (und damit ein nennenswerter Anteil unserer derzeitigen ICs) >>sind auto-geroutet. NVidia als KI Anbieter routet seine Chips nach eigenen Aussagen mit KI. Ein paar Milliarden Transistoren mit allen Randparametern zu layouten in einem ASIC ist warscheinlich der beste Anwendungsfall. Daraus zu schlussfolgern das das die Lösung für alle ist scheint mir gewagt. NVidia als Lösungsanbieter ist nicht für Preisdumping bekannt. Was ist aber mit all den Wald- und Wiesen PCBs ? Schon mal die Preise bei Ansys, Cadence, Mentor usw. angefragt ? >Synopsys will für Ansys 19 Milliarden Dollar in bar bezahlen und den Rest in eigenen Aktien. Das kostenlose KI Routing Plugin für Kicad wird wohl noch etwas dauern. Selber lernen ist immer noch angesagt: https://www.youtube.com/live/ySuUZEjARPY?feature=shared Wenn man die Funktionsweise von Strom/Energie versteht, dann kann man auch ohne Try/Error PCBs routen. DFM, EMV, Teamwork, Review Plan, usw. sind von der Masse zwischen den Ohren beherrschbar. Menschen Lernen und Natürliche Intelligenz ist noch nicht ausgereizt. Eher im Gegenteil, Aus-/Weiterbildung und Teamwork sind von Unkenrufern und Sparfüchsen runtergewirtschaftet worden. Aber wenn keine Alternative mehr zu KI gesehen wird, dann gibt es auch keine Messlatte mehr, über die die KI springen muss um sich als bessere Lösung zu beweisen.
Markus H. schrieb: > Was ist aber mit all den Wald- und Wiesen PCBs ? Naja, Wald- und Wiesen-PCBs brauchen das eher nicht, bei Computermainboards und ähnlich komplexen Teilen gehe ich schon davon aus, dass auch dort Autorouter im Spiel sind. Ob die nun mit "KI" sind (der Thread ist ja 5 Jahre alt, es hat ihn nur jemand wieder hochgeholt), ist eher unerheblich. ps: Bitte lerne, die Zitatfunktion zu benutzen. Deine Zitate sehen zumindest in der Mobildarstellung teilweise verhunzt aus (zitierter Text unterschiedlicher Ebenen vermischt in einem Absatz) und sie sind nicht zum Originalbeitrag zuordenbar. Einfach Text markieren und "Markierten Text zitieren" unter dem Beitrag auswählen.
Jörg W. schrieb: > der Thread ist ja 5 Jahre alt, es hat ihn nur jemand wieder hochgeholt Man sollte meinen daß sich das Bild bei diesem Thema mit jedem Hochholen immer besser abzeichnet.
Gerhard H. schrieb: > Man sollte meinen daß sich das Bild bei diesem Thema mit jedem Hochholen > immer besser abzeichnet. Ist auch so. KI entwickelt sich immer weiter. Die vorgefasste Meinung mancher Primaten tut es nicht. Unser aller Leben wird längst von Algorithmen bestimmt die entscheiden was wir sehen, was wir glauben. KI durchdringt über die sozialen Medien längst unser aller Leben und hat unsere Gesellschaften bereits grundlegend verändert. Nicht zum positiven. Sich selbst davon abzuschotten bringt eben nicht viel wenn Regierungen Hand in Hand mit Konzernen die Aufmerksamkeitsökonomie der KI Algorithmen füttern und selbst von ihr getrieben werden. Niemand versteht warum KI tut was KI tut. Man wird aber nicht sein Geschäftsmodell einstampfen solange das wirtschaftlich erfolgreich ist, selbst wenn es sich als gesellschaftliche Neutronenbombe entpuppt. Fähigkeit zur offenen Diskussione und Konsenzfindung stark reduziert, in einem Klima der Angst vor der unmittelbaren Katastrophe, in einem sich beschleunigendem Kampf um knapper werdende Ressourcen, mit einer stetig wachsenden Bevölkerung. Es braucht nicht viel um die Welt in Brand zu setzen, gerade weil wir nicht wirklich intelligent sind, sondern nur eine primitive Simulation von Intelligenz. Ein intelligentes Lebenwesen wäre nicht in dieser Situation und ihr so hoffnungslos ausgeliefert. Eine Super KI die die Weltherrschaft an sich reissen wollen würde, müsste eigentlich nichts anders machen. Die Algos der sozialen Medien leisten da bereits sehr gute Arbeit. Oder wie sieht das gesellschaftliche Klima in den entwickelten Staaten aus? Es ist also garnicht so sicher ob die böse Terminator KI längst einen Kampf auf Leben und Tod mit uns führt, aber erst seit kurzem gelenrt hat mit uns zu reden und uns schöne Bilder zu malen. Zumindest hat sie uns bereits so weit das wir weltweit Chipfabriken bauen um brachial in KI zu investieren. Jetzt bauen wir ihr noch die Humanoiden Roboter damit sie sich frei in der Welt bewegen kann. Wir bauen die Ladenetze für elektrisch betriebene Maschinen und entwickel die Akku Technik damit ihr auch nie der Saft ausgeht. Also viel genialer könnte eine Super KI das auch nicht einfädeln. Und da eine KI weder saubere Luft noch sauberes Wasser benötigt, muß man sich schon fragen wer hier eigentlich am längeren Hebel sitzt. Gerhard H. schrieb: > das Wesen natürlicher Intelligenz Okay, da bin ich bei Dir. Natürliche Intelligenz kann KI nicht gut. Egal wie sehr ich ein Messer aus hochfestem Stahl bearbeite, es wird nie diese warme Eleganz eines Brieföffners aus Wurzelholz haben. Der Fehler den Du machst ist das Du glaubst natürliche Intelligenz hätte auch nur den Hauch einer Chance gegen eine hoch entwickelte KI. KI wird in allem besser sein, dabei aber nicht menschlichen Denkmustern folgen. Gerade das macht sie ja besser.
@Michael, das trieft ja geradezu vor dystopischer Weltsicht, garniert mit einem Übermaß Technikgläubigkeit. Daß sich einzelne, schmale Facetten menschlicher Geistes-Tätigkeit wie Rechnen, Messen+Steuern oder Muster erkennen im Rückgriff auf gespeichertes Wissen maschinell stark beschleunigen lassen ist ja unbestritten und weiter ausbaufähig. Das sollte nur nicht zu jenem Übermut veranlassen daß sich dem durchschnittlich intelligenten Menschen gleichwertige Systeme auf irgend eine absehbare Zeit realistisch entwickeln ließen.
Gerhard H. schrieb: > das trieft ja geradezu vor dystopischer Weltsicht Reine Logik. > im Rückgriff auf > gespeichertes Wissen Du wirst das ohnehin nicht verstehen (wollen), aber KIs können lernen und sich Wissen aneignen das ihnen niemand vermittelt hat, das nicht mal im entferntesten in ihren Trainingsdaten vorkam. Schon heutige KIs entwickeln Fähigeiten die sie nicht haben dürften und selbst die KI Entwickler wissen nicht wie das passiert. Und die KIs laufen auf gepimpten Grafikkarten die mal fürs Gaming entworfen wurden, ohne derzeit laufend zu lernen wie wir es tun. Die sind derzeit eher wie ein alter Mensch, dessen Gehirn längst die Fähigkeit verloren hat permanent weiterzulernen. Da werden nur alte Trainingsdaten abgerufen und neues kommt nicht mehr dazu. Die geilen KI Chips kommen ja erst noch. Du weißt sehr wenig darüber wie Menschen lernen, was Tiere alles können das wir früher für rein menschliche Fähigkeiten gehalten haben, wie das biologische Gehirn funktioniert und noch weniger darüber was KIs sind und was sie heute bereits alles können. Und all das Unwissen wird mit MEINUNG gefüllt die sich dort irgendwann mal vor langer Zeit eingenistet hat. Eher so christlich angehauchtes Zeug von Überlegenheit göttlicher Schöpfung oder zumindest der Widerhall davon, der sich tief in unsere Gesellschaft gegraben hat nach vielen Generationen Indoktrination. Ist okay. Der Zukunft ist egal was Du denkst oder was ich denke. Die wird kommen und das SAP gerade 8000 Leute entlassen und durch KI ersetzen will, ist erst der Anfang.
Michael schrieb: > Du weißt sehr wenig darüber wie Menschen lernen, was Tiere alles können > das wir früher für rein menschliche Fähigkeiten gehalten haben, wie das > biologische Gehirn funktioniert Ich fürchte das ist zuallererst mal Dein Handicap... > Die wird kommen und das SAP gerade 8000 Leute entlassen und durch KI > ersetzen will, ist erst der Anfang. Du wirst lachen, selbst meinen Arbeitsplatz bei der Bedienung von Prozessleitsystemen chemischer Anlagen seh ich da auf der Kippe. Messen, steuern, regeln ist prädestiniert für "KI". Das ist deshalb so weil Prozessdaten und alle Folgen manueller Eingriffe ganz hervorragendes Trainingsmaterial hierfür sind. Das hat nur mit wirklicher Intelligenz herzlich wenig zu tun. Das alles ist und bleibt pure Maschinerie. Und nun überlege bitte: Wer sollte so wahnsinnig sein eine "intelligente" Maschine inklusive unkontrollierbarer Entscheidungswege mit so viel Macht (z.B. Bewaffnung, Kontrolle der Infrastruktur) auszustatten daß sie sich gegen den Schöpfer richten könnte? Lass mich raten: Ein absolut technikgläubiger Technik-Freak?
Gerhard H. schrieb: > Ein absolut technikgläubiger Technik-Freak? Nein, ein börsennotiertes Unternehmen das Milliarden in KI Forschung steckt um einen Wettbewerbsvorteil zu haben. Such dir eines aus. Derzeit werden hohe dreistellige Milliardenbeträge in Chipfabriken, Rechenzentren und KI Forschung gesteckt. Ich weiß, alles Idioten, alles nur ein Hype. Hätten sie mal Dich gefragt. Und niemand wird sagen: 'Ich bau jetzt mal eine KI die die Weltherrschaft an sich reißen wird.' Oder meinst du Herr und Frau Hitler hätten geahnt was mal aus dem kleinen Adolf wird? Glaubst Du all die gefährlichen Vollidioten da draussen hätte jemand geplant? Du willst einfach nicht realisieren das man sich nicht aussuchen kann was eine KI lernt, was eine KI tut und ob sie ein Bewustsein entwickeln wird und wie das das dann aussieht. Der der auf sicher spielt verliert das Rennen. Genau darum drehte sich der Machtkampf bei OpenAI. Gewonnen hat übrigens der Sam, der auch hoch experimentelle KI so früh wie möglich kommerzialisieren will. Eine 'sichere' KI wird sich langsamer entwickeln, die schlechtere Usererfahrung vermitteln und der Markt bestraft zweite Sieger gnadenlos. Large Language Modelle sind doch bereits der Schnee von gestern, Dali nicht mehr als eine nette Spielerei. Es wird längst an KIs gearbeitet die Verstehen können was die Aufgabe ist, statt nur das wahrscheinlichste Ergebniss vorherzusagen.
Michael schrieb: > Derzeit werden hohe dreistellige Milliardenbeträge in Chipfabriken, > Rechenzentren und KI Forschung gesteckt. > Es wird längst an KIs gearbeitet die Verstehen können was die Aufgabe > ist, statt nur das wahrscheinlichste Ergebniss vorherzusagen. Ja, und wer weiß was alles noch... Das mag vielleicht alles einen Technikgläubigen und erst recht den technisch völlig Unbegabten blenden. Allerschönste Verschwörungstheorien existieren und gedeihen nicht ohne Grundlage. Das ändert nichts an der Haltlosigkeit der faktenfreien Behauptung, menschliche Intelligenz und menschliches Bewußtsein wären jemals technisch zu erreichen oder gar zu überbieten. Schon die Frage > ob sie (die KI) ein Bewustsein entwickeln > wird ist schlicht abenteuerlich, weil wir ja noch nicht mal die Grundlagen des eigenen im Ansatz verstehen.
Gerhard H. schrieb: > Das ändert nichts an der > Haltlosigkeit der faktenfreien Behauptung, menschliche Intelligenz und > menschliches Bewußtsein wären jemals technisch zu erreichen oder gar zu > überbieten. Wie kommst du darauf? Wenn wir schon beim Thema "faktenfrei" sind. Hat dir das der Priester gesagt? > Schon die Frage >> ob sie (die KI) ein Bewustsein entwickeln >> wird >ist schlicht abenteuerlich, weil wir ja noch nicht mal die Grundlagen > des eigenen im Ansatz verstehen. Darum geht es ja. Die KI ENTWICKELT SELBST Eigenschaften die vom Schöpfer der KI nicht verstanden werden. Und da niemand weiß, was genau Bewusstsein ist und wie es entsteht, kannst DU auch nicht wissen dass man es technisch nicht erreichen könnte.
:
Bearbeitet durch User
Cyblord -. schrieb: > Die KI ENTWICKELT SELBST Wurde ihm jetzt mehrfach gesagt. Kommt nicht an. Eben doch nur eine Simulation von Intelligenz. Das Maschinen denken kam in den Trainingsdaten früher Kindheitsjahre nicht dran und jegliche geistige Flexibilität verkümmerte in all den Jahren. Nun reden wir mit einem Automaten. a. Maschinen können nicht denken. Punkt! b. Der menschliche Geist ist unerreicht und unerreichbar. Punkt! Mit Logik kommt man nicht ran, dazu fehlt Wissen und logisches Denkvermögen. Da auch die Bereitschaft fehlt sich Wissen anzulesen, bleibt das System in sich geschlossen. Mir sind KIs lieber. Deren Fähigkeit einzusehen das sie noch vieles nicht wissen ist weit ausgeprägter. 95% aller Menschen sind nur als Türstopper und Konsument gebrauchbar. 0,001% erdenken vielleicht mal was wirklich neues und ggf. bahnbrechendes. 100% aller Menschen bilden sich was darauf ein das 0,001% ihrer Art sie in die Zukunft katapultiert haben. Sollte eine KI uns jemals als Gegner ansehen wird sie sehr leichtes Spiel haben.
Michael schrieb: > Es wird längst an KIs gearbeitet die Verstehen können was die Aufgabe > ist, statt nur das wahrscheinlichste Ergebniss vorherzusagen. Ich greife mal diesen Satz heraus. Hast Du mal Beispiele, was in letzter Zeit von KI tatsächlich erfunden oder entwickelt wurde und dann eine Anwendung im täglichen Leben gefunden hat. Dabei denke ich an solche oder ähnliche Entwicklungen und Beispiele, wie z.B. Leuchtdioden, Transistoren, Relativitätstheorie, oder, ...., welche bekanntlich erst durch die natürliche Intelligenz des Menschen möglich waren.
Wolle G. schrieb: > was in letzter Zeit von KI tatsächlich erfunden > oder entwickelt wurde Was hast DU denn in letzter Zeit tatsächlich entwickelt oder erfunden was es nicht schon tausendfach gibt?
Wolle G. schrieb: > Ich greife mal diesen Satz heraus. > Hast Du mal Beispiele, was in letzter Zeit von KI tatsächlich erfunden > oder entwickelt wurde und dann eine Anwendung im täglichen Leben > gefunden hat. Eine unsinnige Frage, weil bisher noch keine KI überhaupt die Möglichkeit bekommen hatte, irgendwas zu erfinden. Dazu müsste man eine Generelle AI, mit aktivierter Lernfähigkeit, mit massivem Hardwareeinsatz laufen lassen und mit uneingeschränktem Zugriff auf Informationen ausstatten. Da stellt sich dann gleich die nächste Frage ob man das wirklich will. Und auch ein Mensch kann nicht auf Kommando was erfinden. Wie soll eine KI das dann? Aber natürlich wäre dein Priester auch wieder Stolz auf dich: Denn nur der Mensch kann etwas erfinden. Weiß doch jeder religiöse Spinner.
:
Bearbeitet durch User
Beitrag #7587664 wurde vom Autor gelöscht.
Cyblord -. schrieb: > Eine unsinnige Frage, weil bisher noch keine KI überhaupt die > Möglichkeit bekommen hatte, irgendwas zu erfinden. Wieso nicht? Das Thema KI wurde von Olaf bereits 2019 eröffnet. Wenn KI so intelligent“ und schnell wäre, dann sollte es doch innerhalb der letzen 4 Jahre ein Beispiel einer Anwendung oder einer Erfindung dafür geben. Michael schrieb: > https://www.forschung-und-wissen.de/nachrichten/chemie/ki-entwickelt-40.000-chemische-waffen-in-6-stunden-13376030 Was hat Waffen zu entwickeln mit Intelligenz zu tun?
Wolle G. schrieb: > Was hat Waffen zu entwickeln mit Intelligenz zu tun? Was hat dein getrolle mit einer Diskussion zu tun? Du magst keine KI? Verstanden. Geh weiter.
Hallo, was macht nvidia mit KI genau? Das ein spezialisierter Autorouter Tausende Rechenwerke/Shader per copy & paste platzieren kann, setze ich voraus. Am Ende wird da noch jemand von Hand optimieren, da bin ich mir sicher. Ihre Hardware die sie verkaufen wird für KI und OpenAI verwendet. Das nvidia selbst KI für ihre Hardware Design verwendet habe ich allerdings noch nie gelesen. [Ironie On] Mit KI hätte es aus Sicht von paar Teilnehmern hier sicherlich kein Problem mit dem Steckverbinder gegeben der unglücklich platziert war und anfangs bei Überlast "abgebrannt" ist. Bis eine neue Spezifikation rauskam. Das hätte die KI wissen müssen. [Ironie Off] Das gehypte ChatGPT setzt auch nur Textbausteine zusammen. Klappt zwar ganz gut, aber um saubere Programme schreiben zu lassen funktioniert es nicht. Zu guter Letzt wirbt Altman um Geld das er eine "KI Chipfabrik" bauen kann. Damit kann man dann in noch schnellerer Folge dümmliche Programme erstellen lassen die danach aufwendig korrigiert werden müssen. Dann kann man es auch gleich selbst machen. Tut mir leid ich glaube einfach nicht daran. Vielleicht muss ich mich später vom Gegenteul überzeugen lassen. Aber im Moment, ne. Dafür müßte eine KI oder wie auch immer man das nennt sämtliche Controller auf diesen Planeten kennen, alle in kompletter Tiefe in ihren Hardwareeigenschaften kennen, alle Manuals verstanden haben, manchmal auch zwischen den Zeilen lesen können um am Ende eine saubere Chance zu haben wirklich gute Programme schreiben zu können. Mich überzeugen Aussagen nicht wie "KI lernte selbst, niemand weiß wie". Das wirkt immer so hingerotzt auf Bild Niveau. Beispiele? Was sollte die KI lernen? Was hat sie sich stattdessen selbst beigebracht? Wir Menschen sind sehr gut darin von der Natur zu lernen und Dinge für uns nachzubauen. Ich glaube daran das wir irgendwann Krebs besiegen und Querschnittsgelähmte mit Implantaten wieder laufen können oder eine Lösung gegen Erblindung haben werden. Aber Skynet für alles, ne. Was ich mir vielleicht vorstellen kann ist, dass man eine KI trainiert bekannte Codemuster mit Sicherheitslücken rauszufiltern. Wenn man sich dabei erstmal auf verbreitete Sprachen begnügt. Am werden Muster abgeglichen. Wegen der "chemischen Waffen KI". Liest man den Artikel haben sie eine Suchmaschine geschrieben die erst nach nicht toxischen Molekülen suchen sollte. Dann haben sie die Vorgaben geändert und nach toxischen Molekülen gesucht. Die Herausforderung war demnach eine passende Suchmaschine zu programmieren. Von KI sehe ich da weit und breit nichts.
Veit D. schrieb: > Dafür müßte eine KI > oder wie auch immer man das nennt sämtliche Controller auf diesen > Planeten kennen, alle in kompletter Tiefe in ihren Hardwareeigenschaften > kennen, alle Manuals verstanden haben, manchmal auch zwischen den Zeilen > lesen können um am Ende eine saubere Chance zu haben wirklich gute > Programme schreiben zu können. Und es gibt einen Menschen der dieses Kriterium erfüllt? WENN eine Intelligenz sowas überhaupt könnte, dann eine KI. Nur warum das nötig sein sollte um nützliche Dinge zu tun, weißt nur du allein. Fakt ist: Nur weil DU dir etwas nicht vorstellen kannst, ist es deshalb nicht unwahr oder unmöglich. Es gibt keinen zwingenden Grund warum man die Fähigkeiten des Gehirns nicht technisch replizieren können sollte. Inklusive Bewusstsein. Vielleicht ist wirklich unmöglich, aber aktuell spricht rein gar nichts dafür und deshalb ist es Unsinnig darauf zu beharren nur ein biologisches Gehirn kann lernen und ein elektronisches niemals. Es gibt MINDESTENS 2 Billiarden Galaxien im Universum und jede enthält mindestens 100 Mio. Sonnen. NIEMAND kann sich das wirklich vorstellen. Niemand auf der Welt. Deshalb ist es aber nicht weniger wahr.
:
Bearbeitet durch User
Hallo, ne. Der Punkt ist, dass ich nicht daran glaube das eine KI schlauer sein kann wie ein menschliches Gehirn. Wir reden hier nicht von Geschwindigkeit oder so. Wir reden von der Fähigkeit unterschiedlichste Dinge logisch zusammen zu setzen. Diese Kombinationsmöglichkeiten von angeeigneten und erlernten Wissen sind unendlich. Ich glaube nicht daran das irgendjemand irgendeine Software schreibt die irgendeinen Computer dazu bringt unendlich viele Kombinationen durchzugehen und dabei noch logische und immer neue Entscheidungen treffen kann die am Ende stimmen. "Der Programmierer" der das angeht müßte sowas wie ein Kasparov unter den Programmierern sein um den Grundstein zu legen damit die KI am Ende jeden Zug durchgehen kann. Selbst heute, denke ich, würde Deep Blue nicht alle Spiele gewinnen. Das wäre für mich die Voraussetzung damit ich überzeugt werden könnte das eine Software lernfähig ist und wird immer besser bis zur Perfektion. Um das zu testen dürfte es nur "ein paar" Trainingsdaten geben, weil sie soll ja selbst lernen und besser werden. Da würde ich sagen okay überzeugt. Wird aber nie passieren. :-) In dem Thread treffen verschiedene Meinungen über KI zusammen. Die Einen denken ja das geht. Die Anderen ne geht so nicht. Um mich zum umdenken zu bewegen müßte es nachvollziehbare Beispiele. Die gab es jedoch auch hier in dem Thread noch nicht. Bin ich ja schon darauf eingegangen. Zur Zeit treffen sich hier nur zwei Meinungen in dem Thread. Ja gegen Nein. Mehr ist das z.Z. nicht.
Dein ganzes Post zeigt nur dass du keine Ahnung hast wie KI funktioniert. Sie funktioniert eben nicht so dass man alle Möglichkeiten ausprogrammieren muss. Das scheinst du aber zu glauben. > Selbst heute, denke ich, würde Deep Blue > nicht alle Spiele gewinnen. Das wäre für mich die Voraussetzung damit > ich überzeugt werden könnte das eine Software lernfähig ist und wird > immer besser bis zur Perfektion Da sieht man was du für Unsinn annimmst. Wieso muss eine KI perfekt sein? Ist ein Mensch perfekt? Und kein menschlicher Schachspieler kann heute eine prof. Schach Engine schlagen. Ganz ohne das was man heute als KI bezeichnet. Die braucht es dafür nicht mal. Deine Maßstäbe sind lachhaft. Nur mal als Denkanstoß für dich: GPT4 kann heute bereits einen beliebigen Comic Strip lesen und dir den Witz darin erklären. Erkläre mir das. Ach was lass es. Deine Vorstellungen und dein Wissen von KI sind so lachhaft, dass deine Meinung dazu völlig uninteressant ist. Warum sollte man DICH überzeugen? Davon hat niemand was. Glaube was du willst und was deine beschränkte Vorstellungskraft dir erlaubt.
:
Bearbeitet durch User
Cyblord -. schrieb: > Deine Vorstellungen und dein Wissen von KI sind so lachhaft, dass deine > Meinung dazu völlig uninteressant ist Warum reagierst Du dann auf ihn? Bist Deiner Sache wohl doch nicht so sicher? Gegen religiöse Glauben wie eben die Technikgläubigkeit kann man grundsätzlich wenig ausrichten. Der Technik Traum ist zu süß, die Hybris zu groß. So ist er, der Mensch. Technik-Fantasien in die Zukunft interpolieren- dabei ist selten was Realistisches herausgekommen. Wenn ich mich so im betrieblichen Alltag umschaue wird es noch Jahrzehnte dauern bis der sich grundlegend wandelt. Zu viele Träume der Digitalisierung sind schon geplatzt. Digitalisierung um der Digitalisierung willen zu oft wenig sinnvoll. Die Fortschritte sind global über Globus und global über Anwendungen betrachtet überschaubar. Das macht manche hier geäußerte Zukunftsfantasie doch recht lustig anzuhören: Cyblord -. schrieb: > Die KI ENTWICKELT SELBST Eigenschaften die vom Schöpfer der KI nicht > verstanden werden. Bring das in Deinem nächsten (ersten) Science Fiction Roman. Falls es nur um eine Maschine geht die völlig unvorhersehbar reagiert- das ließ sich schon vor 100 Jahren bauen. Auch an Dich die Frage ob es sinnvoll wäre, diese Deine Traum-KI mit nennenswerter, unkontrollierbarer Macht auszustatten?! Cyblord -. schrieb: > Und da niemand weiß, was genau Bewusstsein ist und wie es entsteht, > kannst DU auch nicht wissen dass man es technisch nicht erreichen > könnte. Meine These dazu hatte ich bereits genannt: Es ist an die Masse zwischen die Ohren gebunden. Und Dein Technik-Traum eben nur an stupide Chips. Du bildest Dir ein damit etwas nachbilden zu können was - nicht im Ansatz verstanden wird - in der materiellen Grundlage wesentlich breiter aufgestellt ist - noch unendlich viel mehr unterschiedlichste, feinabgestimmte Prozesse enthält - noch gar nicht absehbar ist wie weit das Geschehen in der (quantenphysikalischen) Tiefe und von noch völlig unbekannten Größen dirigiert wird Dein Technik-Wahn muß die (wahrhaft kümmerlichen) technischen Möglichkeiten heute schon ins Fantastische weiterdenken und die Komplexität der Hirnmaterie samt Stoffwechsel ins Fantastische unterschätzen um da auf einen realistischen Nenner zu kommen. Nimm das als meinen Glauben. Zumindest prognostiziere ich daß wir zeitlebens keinerlei irgendwie ernstzunehmend intelligente Maschine erleben werden. Es sei denn man lässt sich gerne durch Simulation täuschen. Ich kann mir vorstellen daß Technik-Freaks dafür besonders anfällig sind :) Veit D. schrieb: > Zur Zeit treffen sich hier nur zwei Meinungen in dem Thread. Ja gegen > Nein. Mehr ist das z.Z. nicht. Richtig beobachtet. Zwischen Glaubensrichtungen lässt sich mangels Wissen eben leider nicht endgültig entscheiden. Auch wenn sich manch Teilnehmer einbildet weiter zu sehen als andere. Man ersetze Sehen mit Träumen...
Das sind halt die unumstößlichen Volksweisheiten: - Der Mensch wird nie fliegen können. - Man kann nicht zum Mond fliegen. - Man kann keine Atome spalten. - Ein Universum kann nicht aus dem Nichts entstehen - Die Arten können nur durch einen Schöpfer entstanden sein - Es kann niemals eine KI geben. Immer von Ignoranten vom gleichen Schlag verbreitet. Die aber dann gleichzeitig ausrechnen können, wie viele Engel auf eine Nadelspitze passen oder wann Jesus wieder kommt. Immer die gleichen Spinner, die gleiche Hybris. Nur die Jahrhunderte ändern sich. Es wird immer dann ehrlich wenn so jemand einen Satz beginnt mit "Ich kann mir nicht vorstellen...". Das ist ehrlich. Man macht seine kleine mickrige Vorstellungskraft zum universellen Maßstab für das was möglich ist. Wie kann einem das selbst nicht lächerlich vorkommen?
:
Bearbeitet durch User
Cyblord -. schrieb: > Man macht seine kleine mickrige Vorstellungskraft zum universellen > Maßstab für das was möglich ist Wie gut daß Du Deine überragende dem Forum zur Verfügung stellst. Danke.
Gerhard H. schrieb: > Cyblord -. schrieb: >> Man macht seine kleine mickrige Vorstellungskraft zum universellen >> Maßstab für das was möglich ist > > Wie gut daß Du Deine überragende dem Forum zur Verfügung stellst. Danke. Keine Sorge. Ich denke nicht dass man religiöse Spinner wie dich überzeuge könnte oder auch nur sollte. Nur darf man solche hart absurden Aussagen nicht stehen lassen, denn es lesen ja auch noch normale Leute mit.
:
Bearbeitet durch User
Cyblord -. schrieb: > Nur darf man solche hart absurden Aussagen nicht stehen lassen, denn es > lesen ja auch noch normale Leute mit. Jeglichen Gegenbeweis zur angeblich "harten Absurdität" bleibst Du freilich schuldig. Übrigens muß Vorstellungskraft nicht unbedingt etwas mit der Realität zu tun haben. Immerhin aber ist es eine überragende Leistung des Geistes :) P.S. Wer solche "Argumente" nötig hat Cyblord -. schrieb: > religiöse Spinner wie dich überzeuge könnte ist IMMER in der Defensive.
Cyblord -. schrieb: > Nur darf man solche hart absurden Aussagen nicht stehen lassen, denn es > lesen ja auch noch normale Leute mit. Schade nur, dass Du Deine offenkundige Expertise eigtl fast immer mit persönlichen Abwertungen Deines Konterparts ausschmücken musst. Es braucht für Dein Argument weder Attribute wie "lachhaft" noch Titulierungen wie "Spinner". Für die von Dir oben angesprochenen mitlesenden normalen Menschen wären Deine Beiträge ohne diese Lyrik deutlich wertvoller. Aber Dich ändert man eben auch nicht mehr. ;) /Hannes
Johannes S. schrieb: > Es braucht für Dein Argument weder Attribute wie "lachhaft" noch > Titulierungen wie "Spinner". Man sollte immer sagen was wahr ist. Eine Abmilderung der Wahrheit hilft doch niemandem. Manchen Leuten muss man sogar 5 mal am Tag sagen dass sie Spaten sind. Kannst du dir vorstellen wie anstrengend dass an einem stressigen Arbeitstag ist? Aber die Wahrheit lohnt sich immer und jemand muss sich für dafür Opfern.
:
Bearbeitet durch User
Cyblord -. schrieb: > Man sollte immer sagen was wahr ist Solchen Leuten gegenüber (die vorgeben stets Wahrheiten zu verkünden) sollte man besonders vorsichtig sein.
Gerhard H. schrieb: > Jeglichen Gegenbeweis zur angeblich "harten Absurdität" bleibst Du > freilich schuldig. Es ist gar nicht so schwer, sich mal anzuschauen, wie diese Technik, die mit dem etwas irreführenden Namen "KI" bezeichnet wird, inwendig funktioniert. Und dann wirst Du feststellen, dass es gar nicht so weit hergeholt ist, dieser Technik zum Beispiel das Entflechten einer mehrlagigen Platine mit einem Ergebnis, welches sich nicht hinter dem eines erfahrenen Menschen verstecken muss, zuzutrauen. Eben weil das Prinzip hinter der KI genau die "Erfahrung" ist, wenn man es mal so ausdrücken möchte. Es wird nicht programmiert, sondern trainiert, und genau dort ist auch der Knackpunkt. Man kann so ein System auch falsch trainieren, es kann unbemerkt auf die falschen Merkmale zugeschnitten werden (stark vereinfachtes Beispiel: es wird mit Katzenbildern trainiert, die zu einem großen Teil schwarz-weiße Katzen zeigen. Irgendwann wird es Katzen auch daran erkennen, dass sie schwarz-weiß sind, und Kühe ein Stück weit als Katze interpretieren). Das Netz liefert dann also korrekte Antworten nur bei den Trainingsdaten, nicht bei realen Daten, es ist "überangepasst" auf die Trainingsdaten. Die Krux ist auch, dass sich solche trainierten Netze nicht mehr debuggen lassen, man kann nur vorn was reinwerfen und schauen, was hinten rauskommt. Die Verknüpfungen innerhalb dieses Netzes sind nicht sinnvoll erfassbar und v.a. nicht gezielt änderbar. Wenn Du mal in eine Suchmaschine Deiner Wahl die Suchbegriffe "Neuronale Netze KI einfach erklärt" eingibst, kommen massenweise Artikel wie der hier: https://www.heise.de/ratgeber/Neuronale-Netz-einfach-erklaert-6343697.html Wenn Du weiter gehen möchtest, suche nach "Overfitting" (die oben angesprochene Überanpassung), in den Artikeln wird natürlich auch auf die zu Grunde liegende Thematik abgestellt. Vlt öffnet das ein Stück weit das Verständnis für diese Technik. Wenn Du so weit gekommen bist, wird Dir wahrscheinlich auch klar, wie es möglich ist, dass solche Systeme Bilder malen oder Gedichte schreiben. Salopp gesagt durchläuft man ein Netz, welches zur Bilderkennung trainiert wurde, "einfach" rückwärts. Sozusagen malt das Netz im obigen Beispiel schwarz-weiße Katzen, die auch wie Kühe aussehen könnten. Disclaimer: diese Darstellung ist extrem stark vereinfacht, es soll nur das Prinzip aufzeigen und den Trugschluss beseitigen, dass solche Systeme von einem genialen Programmierer, der jede Entscheidung des Systems vorab gekannt haben muss, vorprogrammiert werden müsste. /Hannes
Gerhard H. schrieb: > Cyblord -. schrieb: >> Man sollte immer sagen was wahr ist > > Solchen Leuten gegenüber (die vorgeben stets Wahrheiten zu verkünden) > sollte man besonders vorsichtig sein. Die Wahrheit ist natürlich nichts für religiöse Spinner die an einen Sky Daddy glauben.
Cyblord -. schrieb: > Kannst du dir vorstellen wie anstrengend dass an einem stressigen > Arbeitstag ist? Ja. Ich kenne das aus meiner Vergangenheit, und ich war mal irgendwann genauso wie Du (hab ich Dir glaube ich schon mal gesagt). Ich bin froh, dass ich das ein Stück weit abgelegt habe. Kann Dir nur empfehlen, das auch mal zu versuchen. Die Wahrheit beinhaltet nicht die Bewertung des Gegenüber, sondern nur den besprochenen Umstand, und es reicht, wenn Du Dich auf den beziehst und die Lyrik weglässt.
Johannes S. schrieb: > und den Trugschluss beseitigen, dass solche Systeme von einem genialen > Programmierer, der jede Entscheidung des Systems vorab gekannt haben > muss, vorprogrammiert werden müsste. Da hast Du aber was falsch verstanden. So ein "Trugschluss" stand nie im Raum. Johannes S. schrieb: > Und dann wirst Du feststellen, dass es gar nicht so weit hergeholt ist, > dieser Technik zum Beispiel das Entflechten einer mehrlagigen Platine > mit einem Ergebnis, welches sich nicht hinter dem eines erfahrenen > Menschen verstecken muss, zuzutrauen. Speziell bei diesem Beispiel bringt KI wie hier schon mehrfach gesagt herzlich wenig. Es sei denn DU könntest hier endlich erklären wie das Training anhand vieler vorhandener "Erfahrungs"-Layouts hilfreich bei der Kreierung eines neuen sein könnte. Es dürfte eben seine Gründe haben warum KI beim Routing und aktuellen Autoroutern keine Rolle spielt. Der KI alles mögliche blind zuzutrauen weil die ja so toll ist das ist eben nicht immer zielführend :) Johannes S. schrieb: > Ich bin froh, dass ich das ein Stück weit abgelegt habe. Kann Dir nur > empfehlen, das auch mal zu versuchen. Gib Dir nicht unnötig Mühe. Manche brauchen den Tonfall als Argument, manche nicht.
Gerhard H. schrieb: > Es sei denn DU könntest hier endlich erklären wie das > Training anhand vieler vorhandener "Erfahrungs"-Layouts hilfreich bei > der Kreierung eines neuen sein könnte. Da sind wir an der Stelle, wo ich ehrlicherweise sagen muss: Ich kann mir vorstellen, dass man Trainingsdatensätze sinnvoll so erstellen kann, dass sich ein neuronales Netz dafür trainieren lässt. Anfangs mit Layouts "alter Hasen", und dann immer im Kreis, indem die Ausgabe des Netzes von Menschen beurteilt und wieder zum Training verwendet wird. Wenn man es schafft, Overfitting zu vermeiden, damit nicht Netzteilplatinen aussehen wie PC-Mainboards, sehe ich keinen sinnvollen Grund, warum die Erfahrung eines Menschen nicht durch ein trainiertes Netz abgebildet werden können sollte. Schau Dir an, wie solche Systeme eigenständig laufen lernen (da gab's mal so ein nettes System mit einer physikalischen Simulation, die sozusagen Gliedmaßen hatte, und man gab dem Netz die Aufgabe, zu lernen, wie es sich unter simulierten physikalischen Bedingungen fortbewegen kann), und dann erklär mir, warum ein solches System nicht auch lernen sollte, PCB zu entflechten. Es ist doch nur eine Frage, wie man das Ergebnis bewerten kann. Die Parameter dafür sind ja bekannt, man muss sie nur in Bewertungsmaßstäbe (die Du als Mensch intuitiv als Erfahrungswert hast) formalisieren und die Ergebnisse in die Rückkopplung einfließen lassen. /Hannes
Gerhard H. schrieb: > Es dürfte eben seine Gründe haben > warum KI beim Routing und aktuellen Autoroutern keine Rolle spielt. Ich denke, in Deinem Satz ist das fehlende Wort "noch" der entscheidende Punkt. ;)
> Disclaimer: diese Darstellung ist extrem stark vereinfacht, es soll nur > das Prinzip aufzeigen und den Trugschluss beseitigen, dass solche > Systeme von einem genialen Programmierer, der jede Entscheidung des > Systems vorab gekannt haben muss, vorprogrammiert werden müsste. Das gilt fuer BIs im uebrigen genauso. Die kommen auch strohdoof auf die Welt und muessen dann Jahrzehnte trainiert werden bis sie eine Platine layouten koennen. Leider gehen die irgendwann in Rente oder sterben wenn sie gut geworden sind. Im uebrigen ist die Vorstellung das eine KI perfekt sein muss bizarr wenn man mal sieht wiviele Revisionen eine Platine braucht bis sie perfekt ist oder wiviele Schaltungen/Platinen man sieht die teilweise interessante Fehler aufweisen. Es wuerde reichen wenn ein Layouter von einer KI auf auf einen Berg Fehler hingewiesen wuerde und damit z.B die Wahrscheinlichkeit fuer einen erfolgreichen EMV Durchlauf verdoppelt wird. Das die Menschheit sich irgendwann durch KIs ersetzen wird steht zwar auch ausser Frage, ist aber nicht das Topic dieses Threads. Vanye
Vanye R. schrieb: > Es wuerde reichen wenn ein Layouter von einer KI auf > auf einen Berg Fehler hingewiesen wuerde und damit z.B die > Wahrscheinlichkeit > fuer einen erfolgreichen EMV Durchlauf verdoppelt wird. Sobald die KI das kann, ist ja die entscheidende Voraussetzung erfüllt: es gibt formalisierte Bewertungsparameter für eine gelungene Platine. Meiner Ansicht nach lässt sich jede beliebige Verrichtung, für die zwei Voraussetzungen zutreffen, durch automatisierte (ob nun mit oder ohne KI) Systeme ersetzen: 1. man hat Aktuatoren, die sich durch Computer bedienen lassen 2. man kann das Ergebnis formal bewerten Wenn das gegeben ist, kann diese Arbeit durch automatisierte Systeme erledigt werden. Sobald die KI dem Menschen Hinweise gibt, was da eventuell noch falsch ist, kann sie das PCB auch bis zu diesem Punkt hin selbst entflechten.
Johannes S. schrieb: > Sobald die KI das kann, ist ja die entscheidende Voraussetzung erfüllt: > es gibt formalisierte Bewertungsparameter für eine gelungene Platine. Nur warum braucht eine KI spezielle formale Bewertungsparameter aber der Mensch anscheinend nicht? Woran bewertet denn aktuell ein Mensch ob ein Layout gelungen und brauchbar ist? Wie lernt ein Mensch das Layouten überhaupt? Genau so kann das auch eine KI lernen und muss sie auch.
:
Bearbeitet durch User
Veit D. schrieb: > Der Punkt ist, dass ich nicht daran glaube das eine KI schlauer sein > kann wie ein menschliches Gehirn. Nun, KI hat sich selbst GO beigebracht und schlägt Meister die ein Leben lang trainiert haben. Computer schlagen jeden menschlichen Spieler im Schach. KIs schlagen Menschen bei Jeopardy und das schon vor 13Jahren. Sie übersetzen Sprachen, malen Bilder, schreiben Code, können den Inhalt von Gesprächen oder Texten zusammenfassen, die Gemütslage von Menschen erkennen, selbstständig zusammenhänge aus Daten extrahieren die für menschen höchst unerwartet sind. Kis werden läöngst in allen möglichen Bereichen eingesetzt und durchdringen unser Leben bereits vollständig. Nur waren das lange Zeit eben keine generellen starken KIs, sondern Expertensysteme die in einem kleinen Teilbereich extrem gut sind. Mitlerweile schreiben KIs Nachrichten, die Menschen lesen. KIs entscheiden was ich auf FB sehe, welche Anzeigen und Nachrichten mir angezeigt werden. KIs werden längst benutzt um politische meinungen zu beeinflussen, die 'falschen' Wähler möglichst von der Wahl abzuhalten und die 'richtigen' zur Wahl zu motivieren. KIs optimieren Prozesse und Produkte, KIs ersetzen in großem Stil menschliche Mitarbeiter. SAP wirft gerade 8000 Menschen raus, weil KI die Bedürfnisse der User besser erfüllen kann und die dafür sogar 30% mehr bezahlen. KI Jetpilpoten haben binnen kürzester Zeit Angriffsmuster SELBST entwickelt mit denen sie menschliche Piloten im Dogfight ganz alt aussehen lassen. Der Mensch greift nicht von vorne an. Die Reaktionszeiten sind viel zu kurz für einen Menschen wenn zwei Jets aufeinander zurasen und die Gefahr einer Kollision mit Trümmern, Jet oder feindlichen Geschossen ist viel zu groß. Der Mensch will überleben, der KI ist das völlig schnurz und sie kann 24/7 Datenmengen verarbeiten bei denen 10% einen menschlichen Piloten binnen Minuten überlasten würden. All das passiert und der Dummdödel kratzt sich siegessicher den Bauch und ist sich der eigenen Überlegneheit vollens bewusst. KIs umringenh ihn, füttern ihn mit Informationen, Schmutzkampagnen, Bildern, Meinungen, Triggern ihn wie den pawlowschen Hund und treiben ihn vor sich her in einer eigens nur für diesen einen Konsumenten angepassten Blase. Und was tut der Konsument? 'Pah, KIs werden nie so klug sein wie ich, nie eine EIGENE Meinung entwickeln können und was hat eine KI schon bisher als Dingen vollbracht' Wie ein Schaf, das über den Schäfer lacht weil der kein Gras frisst und die den Hund für Ihren Schutz halten. "Mäh! Böh! So ein Schäfer wird nie ein richtiges Schaf sein. Mäh!" Jetzt stehen wir an der Schwelle eine starke generelle KI mit der Fähigkeit zu echtem Verstehen zu erschaffen und natürlich gibt es wie immer und zu allen Zeiten die, die sagen 'das Internet ist nur eine kurzlebige Modeerscheinung und wenn Gott gewollt hätte das wir fliegen können hätte er uns Flügel gegeben'. Lustigerweise sind das immer die, die am wenigsten über die neue Technologie wissen. Spezielle Chips für KI Berechnungen und die schiere Größenordnung in dem die Modelle erstelt werden sind eine ganz neue Entwicklung und haben binnen kürzester Zeit unglaubliche, nie für möglich gehaltene Entwicklungen hervorgebracht. BISHER sind KI Rechner noch zu begrenzt und damit für die Masse zu teuer um permanent weiter zu lernen. Aber der erste IBM PC wurde 1981 verkauft, vor gerade mal 43 Jahren. Der wurde noch 6J unverändert gebaut. Ein 8088 mit 4,77 Mhz. Wenn nicht mal technikaffine Menschen erkennen können das gernerelle starke KIs in den Händen von 'Jedermann' eine zwangsläufige Entwicklung sind und das noch niemals die beherrschende Spezies den Kontakt mit einer überlegenenen Art unbeschadet überstanden hat, habe ich keine Hoffnung das der einfache Dumdödel auf der Strasse auch nur den blassestes Schimmer hat was da auf uns zukommt. Woher kommt eigentlich die Vorstellung das eine KI menschlich denken würde? Wenn Außerirdischen die 1000 mal klüger sind mit einer überlegenen Technologie hier landen würden, würden wir dann milde lächeln weil die ja garkeine Menschen sind? Eine KI muss garkeine eigenen Ziele entwickeln um gefährlich zu sein. Es reicht wenn ein Soziopath von der Finanzkraft eines Elon, eines Bills, eines Mark, eine Armee von KIs besitzt die die Welt nach seinem Wunsch formen. Durch Marktmanipulation, durch manilulative Berichte, Bilder, Schmutzkampagnen, durch Unterdrückung von Information. Eine 24/7 Black Ops Truppe die ohne Gewissen, Familien, Prinzipien oder Nationalstolz jedem Zweck ihres Meisters dienen. Klar, wir gehen weiter zur Wahl, um den Schein zu wahren. Aber wer würde schon den unbekannten, mutmaßlichen Kinderschänder, mutmaßlichen Frauenverächter, mutmaßlichen Nazi wählen, wenn da medial aufs äußerste flankiert der Herr Sauberman gegen Frau Sauberfrau antritt, die beide herzensgut der bürgerlichen Mitte entspringen und über die es keine wirklichen Dramen zu berichten gibt? Klar, wenn man beide besitzt das darf der Dumdödel sich eben einen aussuchen.
Cyblord -. schrieb: > Man sollte immer sagen was wahr ist. Eine Abmilderung der Wahrheit hilft > doch niemandem. Es wirkt allerdings wesentlich seriöser und glaubwürdiger, wenn man seine Position sachlich vertreten und erklären kann.
Ein T. schrieb: > Es wirkt allerdings wesentlich seriöser und glaubwürdiger, wenn man > seine Position sachlich vertreten und erklären kann. Michael bringt die Sache extrem gut und sachlich auf den Punkt. Aber glaubst du das juckt Spinner wie den hauptmann? Für ihn wurde der Mensch von seinem Sky Daddy geschaffen und er selbst ist was ganz ganz besonderes. Die Vorstellung einer KI muss diesen Glauben erschüttern und deshalb wird sie kategorisch abgelehnt. Er hat gar keine andere Wahl. Wenn man nun den Fehler macht, solche Menschen ernst zu nehmen und mit ihnen zu diskutieren legitimiert man deren krude Meinung und verschwendet auch noch Zeit. Es ist wichtig solche Leute direkt als das zu bezeichnen was sie sind und das dann endgültig abzuhaken. Lachen, umdrehen, stehen lassen. Das geht aber nur wenn man ehrlich und direkt einordnet und kommuniziert. Ich fahre mittlerweile auch gut damit, Menschen die ich einmal eingeordnet habe auch in dieser Schublade zu belassen. Manche fangen sonst an Kreide zu fressen und das Problem beginnt von vorne.
:
Bearbeitet durch User
Johannes S. schrieb: > Ich kann mir vorstellen, dass man Trainingsdatensätze sinnvoll so > erstellen kann, dass sich ein neuronales Netz dafür trainieren lässt. > Anfangs mit Layouts "alter Hasen", und dann immer im Kreis, indem die > Ausgabe des Netzes von Menschen beurteilt und wieder zum Training > verwendet wird. Um die Leistungsfähigkeit von Reinforcement Learning zu zeigen, finde ich dieses Video [1] sehr sehens- und hörenswert. [1] https://www.youtube.com/watch?v=Lu56xVlZ40M
Cyblord -. schrieb: > Aber glaubst du das juckt Spinner wie den hauptmann? Ich habe in der bisherigen Diskussion nicht den Eindruck gewonnen, daß dieser Herr offen für etwas wäre, das seinen vorgefaßten Ansichten widerspricht. Das werden auch persönliche Angriffe nicht ändern, im Gegenteil wird das seinen Panzer aus Arroganz nur noch verstärken. Aber ich dachte bei meiner Aussage ohnehin eher an eventuelle Dritte, auf die ein sachlicher Tonfall wesentlich seriöser, kompetenter und vertrauenerweckender wirken wird.
Ein T. schrieb: > nicht den Eindruck gewonnen, daß dieser Herr offen für etwas wäre, das > seinen vorgefaßten Ansichten widerspricht Ernstzunehmende Argumente. Dazu zählen ausdrücklich keine Mutmaßungen, Wünsche, Träume, Fantastereien und Glaubenssätze.
Hallo Cyblord. Cyblord -. schrieb: > Johannes S. schrieb: >> Es braucht für Dein Argument weder Attribute wie "lachhaft" noch >> Titulierungen wie "Spinner". > > Man sollte immer sagen was wahr ist. Eine Abmilderung der Wahrheit hilft > doch niemandem. > Manchen Leuten muss man sogar 5 mal am Tag sagen dass sie Spaten sind. Das hilft überhaupt nicht weiter. Es ist nicht die freie Entscheidung von jemand, wie Intelligent er ist. Es ist nicht die freie Entscheidung von jemand, welche Wahnvorstellung er hat. Daran kann also niemand etwas ändern. > Kannst du dir vorstellen wie anstrengend dass an einem stressigen > Arbeitstag ist? Warum lässt Du es dann nicht? :O) > Aber die Wahrheit lohnt sich immer und jemand muss sich > für dafür Opfern. In dem Falle ist die "Wahrheit" nur für alle anderen interessant, für den Betreffenen aber nicht, weil er sie nicht wahrnehmen kann. Wenn Du es ihm sagst, versteht er es nicht oder glaubt Dir nicht. ;O) Aber möglicherweise tut es bei Stress gut, wenn Du andere zusammenscheissen kannst. Manche haben sogar extra irgendwo einen Sandsack hängen, auf den sie einprügeln können, ohne Mitarbeiter oder Familienmitglieder belästigen zu müssen. Mit freundlichem Gruß: Bernd Wiebus alias dl1eic http://www.l02.de
Johannes S. schrieb: > Ich kann mir vorstellen, dass man Trainingsdatensätze sinnvoll so > erstellen kann, dass sich ein neuronales Netz dafür trainieren lässt. > Anfangs mit Layouts "alter Hasen", und dann immer im Kreis, indem die > Ausgabe des Netzes von Menschen beurteilt und wieder zum Training > verwendet wird. Du fällst einfach nur darauf herein, die Möglichkeit der maschinellen Beschleunigung spezieller Geistesleistungen in der Begeisterung gleich pauschal für alles was unseren Geist, unsere Intelligenz, unser Bewusstsein ausmacht anzunehmen. Wenn man genau hinschaut sind es immer nur spezielle Nischen, in denen erfolgreich mit (KI) Technik nachgeholfen werden kann. Speziell zur Nische Autorouting hat hier noch niemand schlüssig begründen können wie alte Layouts für neue nützlich sein könnten (außer natürlich mit der Wiederverwendung von Schaltungsteilen). Die besondere Qualität ist das Neue der Layout-Zeichnung. Nur daß im Autorouting nicht nach Belieben gezeichnet wird sondern bestimmte Punkte nach gewissen Kriterien entsprechend der Schaltung zu verbinden sind. Die Vorgaben (Anschlüsse, Bauelemente) macht der Mensch. Ich sehe überhaupt keinen Spielraum wo sich eine KI Technik hier vorteilhaft nützlich machen könnte. Alles was es braucht leisten bereits heutige EMV Analyse- und Placing Tools sowie die Autorouter. Cyblord -. schrieb: > Nur warum braucht eine KI spezielle formale Bewertungsparameter aber der > Mensch anscheinend nicht? Woran bewertet denn aktuell ein Mensch ob ein > Layout gelungen und brauchbar ist? > Wie lernt ein Mensch das Layouten überhaupt? Du irrst fragend kreuz und quer durch den Gemüsegarten weil Dein zentraler Glaubenssatz, die Technik könnte wirklich alles ersetzen nicht fallen darf.
Gerhard H. schrieb: > Die Vorgaben (Anschlüsse, Bauelemente) macht der Mensch. Ich sehe > überhaupt keinen Spielraum wo sich eine KI Technik hier vorteilhaft > nützlich machen könnte. Alles was es braucht leisten bereits heutige EMV > Analyse- und Placing Tools sowie die Autorouter. Und diese Vorgaben kann nur der "intelligente" Mensch machen. Die Maschine arbeitet dann automatisiert nach diesen Vorgaben, um das gewünschte Ziel zu erreichen. Z. B. eine optimale Leiterplatte.
Wolle G. schrieb: > Die Maschine arbeitet dann automatisiert nach diesen Vorgaben, um das > gewünschte Ziel zu erreichen. Z. B. eine optimale Leiterplatte. Die Tools existieren längst alle. Die Leiterplatte dürfte mit der zunehmenden Höherintegration und sich weiter physisch verkleinernder Hardware in absehbarer Zukunft ohnehin kein großes Thema mehr sein. Wolle G. schrieb: > Und diese Vorgaben kann nur der "intelligente" Mensch machen Und der hat seine eigenen kreativen Wünsche, Vorstellungen, Geschmäcker und Ziele. Das sind alles ganz sicher keine echten Bedürfnisse= Kategorien von Maschinenintelligenz, höchstens simulierte, damit unsere Technik-Freaks was Erbauliches zum Spielen und Träumen von allumfassender Beherrschung durch Technik haben... Es ist davon abgesehen sowieso utopisch, von einer dermaßen komplexen Maschine zu träumen die dann fehlerfrei ihrer Arbeit nachginge. Man sehe sich dazu nur die "lächerlichen" Software-Fehler an die heute permanent mit Updates geflickt werden müssen. Da wär ich mit zuviel Fantasie beim perfekten Technik-Traum ziemlich vorsichtig.
Gerhard H. schrieb: > Die Leiterplatte dürfte mit der zunehmenden Höherintegration und sich > weiter physisch verkleinernder Hardware in absehbarer Zukunft ohnehin > kein großes Thema mehr sein. Du meinst also, ein aktuelles PC-Mainboard ist auf Grund der höher integrierten ICs und den kleiner werdenden Bauteile leichter zu layouten als das eher grobschlächtig aufgebaute Mainboard eines Apple II? Mit der höheren Integrationsdichte steigen auch die Wünsche bzgl. der Funktionalität, weswegen ein Apple II (den man heute problemlos in einem einzelnen Chip integrieren könnte, wodurch das PCB-Layout tatsächlich kein Thema mehr wäre) keinen Gamer mehr hinter dem Ofen hervorlockt :)
Gerhard steht doch auf Lochraster, da ist das mit dem Layout nicht so ein Problem. :-) Beitrag "Re: THT im Hobbybereich, hat das noch Zukunft?"
Cyblord -. schrieb: > Wenn man nun den Fehler macht, solche Menschen ernst zu nehmen und mit > ihnen zu diskutieren legitimiert man deren krude Meinung und > verschwendet auch noch Zeit. Wenn man aber mit ihnen diskutiert wird schnell klar das argumentativ nichts kommt. 'Der Mensch ist Tier und Maschine überlegen' kommt in verschiedenen Stufen der Empörung, aber nie kommt auch nur ein Detail warum das so sein muss und sich nicht ändern kann. Es gibt ja viele wie den Hauptmann. Die stimmt keiner um mit garnichts. Der Hauptmann hat in jedem Thread einen undurchdringlichen Panzer, um sich vor unliebsamen Argumenten zu schützen. Die prallen einfach ab, Der nimmt die nicht mal wahr. Du könntest einen 20S Aufsatz verfassen der ein dutzend internationale Studien und wissenschaftliche Beweise anführt, Du könnten die Regeln der Logik und der Deduktion bemühen und Hauptmann würde immer noch sagen Du hättest nicht ein einziges Argument vorgetragen sondern nur haltlose Fantastereien ohne jeden logischen Zusammenhang. Einfach nur ein Automat mit begrenzer Fähigkeit zur Interaktion. Wie ein NPC der nur die Antworten geben kann die für diese Figur vorgesehen sind. Getreu dem Prinzip der indirekten Rede geht es dabei nicht darum im Kopf des Hauptmanns was zu verändern (was unmöglich ist) sondern im Kopf vieler die das lesen und anfangen zu verstehen das ihre Überzeugungen recht dünn sind, wenn sie sich erst mit Argumenten messen müssen. Und wenn der Mensch erst bereit ist seine erlernten Überzeugungen zu hinterfragen und nach handfesten Gründen dafür oder dagegen zu suchen ist das Ziel bereits erreicht und der Weg zur Befreiung des Geistes beschritten. Man kann einem Spaten den ganzen Tag sagen das er ein Spaten ist, aber deswegen bleibt der doch ein Spaten. Man selbst wird aber der Typ der vor einem Spaten steht und ihn Spaten nennt. Ist auch nicht schmeichelhaft ;-) Ein Spaten kann ein tolles Werkzeug sein, wenn man ihn einzusetzen weiß.
Vielleicht noch eine Meinung (nämlich die meinige ;-)) zum Threadthema: Wenn man – wie in letzter Zeit üblich – das Buzzword "KI" mit Neuronalen Netzwerken gleichsetzt, erscheint mir ein weitgehend auf KI basierender Autorouter, der mit einem professionellen Layouter konkurrieren kann, nicht realistisch, da dafür viel, viel, viel zu wenig brauchbare Trainingsdaten verfügbar sind. Ein Layouter kompensiert den Mangel an Trainingsbeispielen durch logisches Denken und Berechnungen. Beides sind aber die Dinge, die Neuronale Netzwerke überhaupt nicht gut können. Ich könnte mir allenfalls vorstellen, dass mit einem NN lediglich ein grober Topologieplan erstellt wird, der anschließend mit klassischen Methoden in konkrete Leiterbahngeometrien umgesetzt wird. Das würde im Vergleich zu herkömmlichen Algorithmen vermutlich einiges an Rechenzeit einsparen (weniger Try-and-Error), die dadurch für andere Dinge, wie bspw. die Berücksichtung zusätzlicher Constraints und dergleichen, frei würde. Die KI übernimmt dann zwar nur einen kleinen Teil der Layoutentwicklung, aber das wird natürlich keinen EDA-Softwarehersteller daran hindern, sein Produkt als die ultimative Hyperintelligenz anzupreisen :) Ein generelles Problem bei Autoroutern (egal ob mit oder ohen KI) ist der Mangel an Kontextwissen. Um bspw. entscheiden zu können, welche Leiterbahnen hohe Ströme, hohe Spannungen oder hochfrequente Signale führen und dies beim Layout zu berücksichtigen, reicht es nicht aus, den Schaltplan zu kennen. Anders als der Autorouter kennt der Layouter i.Allg. ganz gut die Funktionsweise der Schaltung und die Eigenschaften der Eingangs- und Ausgangssignale. Mit diesem Wissen ist es für ihn relativ leicht, kritische Verbindungen zu identifizieren und die entsprechenden Leiterbahnlängen, -breiten, -abstände und -verläufe passend zu optimieren. Prinzipiell könnte man dieses Wissen natürlich auch in den Autorouter einfließen lassen, dazu müssten aber erst einmal die unstrukturierten Gedanken im Kopf des Schaltungsentwicklers oder des Layouters in eine für die Software verarbeitbare Form aufbereitet werden, was wahrscheinlich schwieriger und zeitaufwendiger als die eigentliche Layouterstellung wäre.
Yalu X. schrieb: > Ein generelles Problem bei Autoroutern (egal ob mit oder ohen KI) ist > der Mangel an Kontextwissen. "Constraining", das ist durchaus ein übliches Verfahren. In großen Firmen kennt der Layouter ja oft auch die Schaltung nicht mehr, die entsprechenden Attribute hinterlegt man daher mit im Schaltplan.
> Um bspw. entscheiden zu können, welche Leiterbahnen hohe Ströme, > hohe Spannungen oder hochfrequente Signale führen und dies beim > Layout zu berücksichtigen, reicht es nicht aus, den > Schaltplan zu kennen. Bei grossen Firmen ist es vollkommen normal das Entwickler und Layouter nicht dieselbe Person sind. Dieses Wissen ist dann nicht immer vorhanden auch wenn es sicher mehr oder weniger erfahrene Layouter gibt! Ausserdem geht das auch umgekehrt. Es gibt auch Layoutvorgaben aus der Fertigung die ich als Entwickler nicht immer so kenne. Letztlich ist das ein erstaunlich iterativer Prozess! Vanye
Diese Rumgesülze hier mit "KI" beim Leiterplattenlayout ist schier sinnfrei. Der Haupt-Zeitaufwand bei der Entwicklung der Schaltung ist die Funktion, die Bauteileauswahl. Und beim Layout dann die Größe der Platine, die mechanischen Vorgaben, die Befestigungspunkte, die Plazierung der Stecker oder Bedienelemente. Das in Zusammenhang mit den Gehäusetypen der Bauteile, deren Größe, auch Höhe. Alle Elemente richtig plazieren. Und dann erst kommt das Layout. Da sollte man wissen, welche Netze oder Pfade mehr Strom tragen müssen oder Abstand wegen Spannung haben. Und nochwas: Autorouter gabe es schon vor Jahrzenten. Die haben leidlich funktioniert, auch wenn das Wort "KI" noch nicht erfunden war.
Klaus F. schrieb: > Der Haupt-Zeitaufwand bei der Entwicklung der Schaltung ist die > Funktion, die Bauteileauswahl. Natürlich. Eine KI könnte ihre Stärke hier nur ausspielen wenn man ihr die gewünschte Funktion als Lastenheft beschreibt und die KI entwickelt Schaltung und Layout und noch die Software. Eben das ganze Paket. So wie ein Mensch das auch tun würde. Dann wären auch alle Infos über den Kontext vorhanden (Ströme, Stecker, Abmessungen usw.) und müssen nicht mühevoll irgendwie nachträglich eingebracht werden. Natürlich ist man noch nicht soweit, aber viel fehlt da nicht mehr. Und auch das Ergebnis wird nicht perfekt sein und nicht fehlerfrei. Das muss klar sein. Der Vorteil ist aber dass man mal schnell 1000 Instanzen davon laufen lassen kann, mit einem Click. Der Vorteil einer KI liegt nicht in ihrer Perfektion, auch nicht in ihrer Geschwindigkeit sondern darin dass man sie, einmal trainiert, beliebig oft reproduzieren kann.
:
Bearbeitet durch User
Yalu X. schrieb: > Du meinst also, ein aktuelles PC-Mainboard ist auf Grund der höher > integrierten ICs und den kleiner werdenden Bauteile leichter zu layouten... Nein ich meine das auch so ein Mainboard zukünftig nur noch in Museen zu bewundern ist. Bitte jedoch die Zeitscalen die diesem Thread zugrundeliegen berücksichtigen. Jörg W. schrieb: > Gerhard steht doch auf Lochraster, da ist das mit dem Layout nicht so > ein Problem. :-) Oh, die Geschütze müssen wohl jetzt aus ganz anderer Richtung aufgefahren werden... Ich hatte allerdings auch nicht die Illusion, die ultimative Intelligenzbestie unserer Technik-Freaks noch im eigenen Leben zu bestaunen :) Cyblord -. schrieb: > Der Vorteil einer KI liegt nicht in ihrer Perfektion, auch nicht in > ihrer Geschwindigkeit sondern darin dass man sie, einmal trainiert, > beliebig oft reproduzieren kann. Das hat Software generell so an sich.
Michael schrieb: > Wenn man aber mit ihnen diskutiert wird schnell klar das argumentativ > nichts kommt. Warum denk ich mir das bei Deiner Prosa (= ultimativer Technik-Verblendung in eine Soße von tiefer Technik-Gläubigkeit getunkt, gewürzt mit vielen Sympathien und utopischen Wunschvorstellungen) auch immer wieder? Deine Hyperintelligenz die alles in den Schatten stellt lässt sich leider nicht herbeifantasieren. Ich hätte andererseits regelrecht Angst vor solchen Leuten die in ihrem Technik-Wahn versuchen würden, Maschinen mit unkontrollierbaren Entscheidungswegen mit zuviel Macht über Menschen auszustatten. Yalu X. schrieb: > erscheint mir ein weitgehend auf KI basierender > Autorouter, der mit einem professionellen Layouter konkurrieren kann, > nicht realistisch, da dafür viel, viel, viel zu wenig brauchbare > Trainingsdaten verfügbar sind. Auch schon wieder so eine pauschale Unterstellung. Erklär doch mal welche nochsoviele Daten nun was genau trainieren sollen? Doch nicht etwa stets neue Schaltungen nach stets neuen Wünschen stets neuer Entwickler? Eine Platine passend maschinell zu kreieren ist schlechterdings unmöglich, eine schlicht nur funktionierende schon- wozu es aber keine KI braucht.
Gerhard H. schrieb: > Warum denk ich mir das bei Deiner Prosa (= ultimativer > Technik-Verblendung in eine Soße von tiefer Technik-Gläubigkeit getunkt, > gewürzt mit vielen Sympathien und utopischen Wunschvorstellungen) auch > immer wieder? Lobet den Herrn! Halleluja!
Cyblord -. schrieb: > Eine KI könnte ihre Stärke hier nur ausspielen wenn man ihr die > gewünschte Funktion als Lastenheft beschreibt und die KI entwickelt > Schaltung und Layout und noch die Software. > Eben das ganze Paket. Nun ich hatte ja bereits weiter oben angeregt den Ansatz ganzheitlicher anzugehen. Die Rolle der KI bleibt dabei weiter dominiert von der natürlichen dennoch weiter begrenzt: >> Irgndwann werde ich einer KI erzählen können was ich erwarte und es wird >> ein Gerät rausfallen. > > Das kann gut sein. KI dürfte aber selbst dann nur die Rolle eines > Übersetzers menschlicher Erwartung in maschinelle Algorithmen zukommen. > Ihre Rolle besteht allein im Sprach-Verständnis. Das lässt sich ja auch > gut anhand menschlicher Verlautbarungen trainieren. Jenes Sprach-Verständnis lässt natürlich dann auch Lastenheft wie Bedienungsanleitung formulieren. Cyblord -. schrieb: > Lobet den Herrn! Halleluja! Damit ist auch Deine Argumentationsweise hinreichend beschrieben :)
Gerhard H. schrieb: > Damit ist auch Deine Argumentationsweise hinreichend beschrieben :) Die Worte des Herrn geben uns Kraft! Danke.
Cyblord -. schrieb: > Die Worte des Herrn geben uns Kraft! Danke. Den Herrn und die Götter bringst Du hier ins Spiel... Sind etwa ultimative KI-Gottheiten gemeint? Meinst Du gar Dich selbst? :) Da ich selber nichts von Engeln, Herrn und Göttern halte fällt das leider auf keinen fruchtbaren Boden.
Gerhard H. schrieb: > Sympathien und utopischen Wunschvorstellungen Völlig sinnlos mit Dir zu diskutieren. Deine Fähigkeit Texte zu verstehen ist einfach zu schlecht entwickelt.
Michael schrieb: > Deine Fähigkeit Texte zu verstehen ist einfach zu schlecht entwickelt. Meine Fähigkeiten Deine Prosa als Argumente anzuerkennen sind in der Tat unterentwickelt. Andererseits, danke fürs Engagement. Ohne begeisterte Leute wie Dich wär das hier eine fade Wüste. Man muß Deine Begeisterung ja nicht teilen. Mit meiner Rolle des bösen Onkels der naive Kindertechnikträume zerstört hab ich mich längst abgefunden.
Veit D. schrieb: > Bei Krebserkennung wird auch mit KI rumgespielt. Die kann genauso etwas > erkennen und was anderes nicht erkennen. Wer prüft das nach? Welche > Treffer werden menschlich nachkontrolliert und welche nicht. Rutscht > einer durch das Raster? Wird einer umsonst gegen Krebs behandelt? Keine > Ahnung. Die Erkennungs-Wahrscheinlichkeit ist mittlerweile bei KIs wohl besser als bei menschlichen Ärzten. KI ist probabilistisch, das muss man mal verstanden haben. Wieviele Ärzte stellen Fehldiagnosen oder übersehen was - da kann eine KI locker mithalten oder sie gar übertreffen 😅 > Also ich bleib dabei. Die Entscheidungen einer KI sind vom Programmierer > vorgebeben. Die kann nichts selbst lernen. Mit dem Begriff KI wird viel > zu viel Mist gemacht. Die derzeitigen KIs werden einmal trainiert und laufen dann, bis sie wieder trainiert werden und so neue Sachen "lernen". Wahrscheinlich sind die Transformer sogar eine Sackgasse, weil sie nicht immer weiterlernen können.
:
Bearbeitet durch User
Mampf F. schrieb: > Die Erkennungs-Wahrscheinlichkeit ist mittlerweile bei KIs wohl besser > als bei menschlichen Ärzten. Ein wunderbarer KI-Anwendungsfall: Mustererkennung! Das hatten wir hier schon. Die Mustererkennung in alten Layouts hilft freilich weniger dolle. >> Also ich bleib dabei. Die Entscheidungen einer KI sind vom Programmierer >> vorgebeben. Die kann nichts selbst lernen. Mit dem Begriff KI wird viel >> zu viel Mist gemacht. Hier müsste man zunächst mal unterscheiden zwischen prinzipiell kausal determiniert und nicht nachverfolgbar. Doch selbst bei der kausalen Determination durch den Programmierer ist der Ofen aus wenn echte Zufallsquellen im Spiel der Abläufe sind. Ohne die aber hätte der Autor dieser Behauptung mit dem Wissen aller externen Einflüsse zumindest bei der kausalen Vorherbestimmtheit aller KI Entscheidungen meines Erachtens Recht, wenngleich sich die möglicherweise Abermilliarden Ursachen und Wirkungen gerade bei länger selbstlernenden Systemen weder realistisch erfassen noch entwirren lassen.
> Erklär doch mal welche nochsoviele Daten nun was genau > trainieren sollen? Erklaer doch mal wieso du in der Lage bis gute Layouts zu erstellen obwohl deine Trainingsdaten sehr bescheiden endlich sind. .-) Vanye
Vanye R. schrieb: > Erklaer doch mal wieso du in der Lage bis gute Layouts zu > erstellen obwohl deine Trainingsdaten sehr bescheiden endlich sind. .-) Weil Gott der Allmächtige ihn geschaffen hat... Ist doch klar. Das muss auch stimmen, das sagt sein Priester.
:
Bearbeitet durch User
Gerhard H. schrieb: > Auch schon wieder so eine pauschale Unterstellung. Erklär doch mal > welche nochsoviele Daten nun was genau trainieren sollen? Doch nicht > etwa stets neue Schaltungen nach stets neuen Wünschen stets neuer > Entwickler? Eine Platine passend maschinell zu kreieren ist > schlechterdings unmöglich, eine schlicht nur funktionierende schon- wozu > es aber keine KI braucht. Die Antwort auf gerade diese Frage sollte sich doch schon aus dem Kontext ergeben wie eine KI trainiert wird: Natürlich zeigt man ihr nicht "EINFACH NUR" Layouts... Aber vereinfacht dargestellt läuft es doch so: Man speist Layouts zusammen mit der Information zu den Netzen ein. Welche Leiterbahn ist was. Welche Leiterbahnen sind Versorgung, welche sind für Signale mit Gleichspannungspegel. Auf welchen laufen Digitale Daten welcher Geschwindigkeit. Was sind HF führende Leiterbahnen für welche Frequenzen. Welche Ströme tragen die Leiterbahnen, warum sind welche Schutzabstände eingehalten. Also alles das was ein, z.B. als Dienstleister beauftragter externer Layouter, der das Layout einst entworfen hat, auch bekommen haben muss. Oder hätte bekommen müssen wenn der Layouter der Schaltbildentwickler selbst war. Parallel bekommt die KI noch das Lehrbuchwissen zur Schaltungserstellung eingegeben. Die KI bekommt dann tausende von solchen Layouts mit diesen Angaben und die werden Analysiert und daraus gemeinsamkeiten für die verschiedenen Signaltypen unter verschiedenen Bedingungen errechnet. Das es unter verschiedenen Bedingungen auch verschiedene Prioritäten der einzelnen Anforderungen geben kann und das es auch bei den Trainingsdaten abweichungen von der Regel geben kann ist dabei im Lernmodell berücksichtigt. Je umfassender und Detaillierter die Trainingsdaten sind um so besser werden die späteren Ergebnisse sein und um so weniger Fälle wird es geben wo die KI danebenliegt oder die sie schlicht nicht lösen kann weil es die Kombination in dieser Form noch nie so gegeben hat und sich auch nicht sinnvoll aus den bisherigen Trainingsdaten ableiten lässt. Und zum Thema das eine KI mit dem Schaltplan nichts anfangen kann: SPICE und Co. sind seit Jahrzehnten Standard. ICh selbst habe das erste mal vor ~25 Jahren in meiner Ausbildung mit Electronic Workbench den ersten Kontakt mit funktionierender Schaltungssimulation gehabt. Seit dem haben sich die Möglichkeiten potenziert. Und Schaltungssimulation ist nichts anderes als aus dem Schaltplan, zusammen mit den Mathematischen Modell der verwendeten Bauteile, das genaue Verhalten der Schaltung, der Spannungen und Ströme auf allen simulierten Netzen, zu jedem Zeitpunkt genau zu erfassen. Viel genauer als es ein Mensch es je in diesem Umfang in einer angemessenen Zeitspanne schaffen könnte. Ja, aktuell sind wir noch nicht so weit das es KI Modelle gibt die praxisrelevante Layouts erstellen können. Aber ich denke auch das es nur noch eine Frage der Zeit ist. Und zwar eher in zweistelligen Monaten gerechnet als in zweistelligen Jahren. Vermutlich könnte es die aktuell verfügbare Technik sogar schon umsetzen, es gibt nur noch kein erfolgreich fertig trainiertes Modell. Denn irgendjemand muss die Arbeit der Sammlung und Aufbereitung der Trainingsdaten ja machen. Und dann dauert es noch seine Zeit. Man fragt sich allerdings ob der neuerdings von einigen Anbietern so forcierte Wunsch das die Arbeitsergebnisse ebenfalls in ihrer Cloud gespeichert werden nicht nur auf dem Wunsch beruhen dadurch eine weitere Abhängigkeit zu schaffen sondern vielleicht auch die gewinnung von Trainingsdaten mit ein Teil des Wunsches ist. Gruß Carsten
:
Bearbeitet durch User
Cyblord -. schrieb: > Weil Gott der Allmächtige ihn geschaffen hat Ich war auch versucht weiter auf die mangelnde Vorstellungskraft, geboren aus Unwissen und nicht wissen wollen zu antworten. Aber es macht schlichtweg keinen Sinn. Wer ein wenig Hintergrundwissen hat und sich für das Thema interessiert kommt zu dem gleichen Ergebniss wie wir, das eine starke generelle KI nicht nur denkbar ist sondern geradezu zwingend logisch. Mit allen sich daraus ergebenen Konsequenzen ob man das bejubelt oder eher beängstigend findet. Allen anderen ist nicht zu helfen. Der Mensch glaubt, was der Mensch glaubt und das hat eben nur sehr begrenzt etwas mit Intelligenz zu tun. Meine Hunde können bestimmte Dinge begreifen, andere nicht. Der eine mehr als der andere. Sie haben sehr unterschiedliche Charaktere. Es macht keinen Sinn mit ihnen über das politische Tagesgeschehen oder die Natur einer KI zu diskutieren. Fressen, Kuscheln, Schlafen, Gassi und die Gemütslage ihrer Rudelmitglieder sind Themen die für sie greifbar sind und mehr nicht. Es sind definitiv intelligente Tiere. Auch der Spatz draussen auf der hecke ist intelligent. Er hat eine Erwartungshaltung wen er zum Futterhaus fliegt, er kann die Absichten der Katze erkennen die sich anschleicht, er versteht sich mit den Mitgliedern seiner Gruppoe unterscheidlich gut, er trauert wenn er seinen Partner verliert und er kümmert sich liebevoll um seine Junge. Alles wie bei uns, nur eben jeder mit den Begrenzungen seiner Biologie und dem, Training in jungen Jahren solange das Gehirn noch formbar ist. Was nicht da ist. kann sich später dann auch nicht weiter entwickeln. Und wie bei meinen Hunden ist eben jeder unterschiedlich gestrickt. Mancher drückt Knöpfe, andere bauen die Maschine deren Knöpfe gedrückt werden. Man kann nicht erwarten das beide gleich verständig sind.
Michael schrieb: > Wer ein wenig Hintergrundwissen hat und sich für das Thema interessiert > kommt zu dem gleichen Ergebniss wie wir, das eine starke generelle KI > nicht nur denkbar ist sondern geradezu zwingend logisch. > Mit allen sich daraus ergebenen Konsequenzen ob man das bejubelt oder > eher beängstigend findet. Ich gehöre ja auch zum "wir", und komme eigentlich nicht zum gleichen Ergebnis. Von einer starken KI (was immer das genau sein soll), träumt die Informatik schon seit es Informatik gibt. "In 10 Jahren ist es soweit" las ich schon in den 90'ern. Nur es gibt immer noch keine Idee wie das funktionieren kann. Da fehlen die Grundlagen, und das Verständnis ist rudimentär. Ich habe mich in den 90'ern selbst mit Neuronalen Netzen und Spracherkennung beschäftigt. Die Ergebnisse waren sehr bescheiden, und die Modelle versagten meist, wenn die Daten nicht im Trainings-Set drinnen waren. Und damit konnte man damals locker einen Superrechner eine Woche beschäftigen. Was heute anders ist? Trainingsdaten, Speicher und Rechenleistung sind massenhaft da. Damit lassen sich die Mustererkennungsalgorithmen aus den 90'ern wiederbeleben und in der Praxis einsetzen. Mit genug Geld und Manpower lassen sich auch Modelle der Wirklichkeit erstellen, die mit Hilfe der Wahrscheinlichkeitsrechnung Aussagen treffen können, ob ein Sacherhalt stimmen kann, oder eher nicht. Aber was hat das mit Intelligenz zu tun? Überall da, wo es klare Regeln gibt (Schach, Go) oder massenhaft Trainingsdaten aus denen man Regeln extrahieren kann, ist ein Computerprogramm dem Menschen überlegen. Vorausgesetzt jemand investiert das nötige Geld, um diese Programme zu entwickeln. Und ich sehe im Autorouter Markt keine Change dafür. Der Markt ist viel zu klein und kompliziert. Die Intelligenz steckt da auch höchstens im Programmierer.
Yalu X. schrieb: > Wenn man – wie in letzter Zeit üblich – das Buzzword "KI" mit Neuronalen > Netzwerken gleichsetzt, erscheint mir ein weitgehend auf KI basierender > Autorouter, der mit einem professionellen Layouter konkurrieren kann, > nicht realistisch, da dafür viel, viel, viel zu wenig brauchbare > Trainingsdaten verfügbar sind. Um die Größenordnung verfügbarer Trainingsdaten abzuschätzen, bin ich nicht tief genug in der elektronischen Materie. Aber in dieser KI- und ML-Materie bin ich ein bisschen drin, und meine Erfahrung ist: die notwendige Menge an Trainingsdaten wird häufig über- oder unterschätzt, und es gibt Modelle, die mit überraschend kleinen Trainingsdaten großartige Ergebnisse erzielen. Dazu gibt es beispielsweise bei der Bildverarbeitung dann noch einige Tricks, um vorhandene Trainingsdaten zu vergrößern und den Lerneffekt zu verstärken. Mit solch definitiven Aussagen wie der Deinen wäre ich deswegen zumindest solange vorsichtig, bis ich es zumindest mal ausprobiert habe. Andererseits sehe ich Autorouter, die es ja schon welche ohne KI gibt und die nach dem, was ich lese und höre, auch einigermaßen zu funktionieren scheinen. Also kann man durchaus mal die ökonomische Frage stellen: sind die vorhandenen Autorouter so schlecht, daß sich ein Investition in KI-basierte überhaupt noch lohnen würde? Wieviel mehr oder weniger manuelle Nacharbeiten benötigen die vorhandenen Autorouter im Vergleich mit KI-basierten? > Ein Layouter kompensiert den Mangel an Trainingsbeispielen durch > logisches Denken und Berechnungen. Beides sind aber die Dinge, die > Neuronale Netzwerke überhaupt nicht gut können. Ich würde logisches Denken und Kreativität benennen, denn wenn moderne KI eine Sache wirklich gut kann, dann sind es Berechnungen. :-)
Udo K. schrieb: > Was heute anders ist? Trainingsdaten, Speicher und Rechenleistung sind > massenhaft da. > Damit lassen sich die Mustererkennungsalgorithmen aus den 90'ern > wiederbeleben und > in der Praxis einsetzen. Das beschreibt aber so gar nicht was aktuell bei KI los ist und was in den letzten 2 Jahren hier passiert ist. Und genau diesen Fortschritt lässt du schlicht außer acht. Warum? Absicht oder schlichtes Unwissen? Ein Vergleich mit irgendwelcher Spracherkennung aus den 90ern ist doch lächerlich. Schau dir Spracherkennung heute an. Und das ist nicht mal KI. Schon mal GPT4 ausprobiert? In irgendeiner Weise? Wenn nicht, ist es komisch KI schlecht zu reden. > Überall da, wo es klare Regeln gibt (Schach, Go) oder massenhaft > Trainingsdaten aus denen man Regeln extrahieren kann, ist ein > Computerprogramm dem Menschen überlegen. Viel zu verkürzte Darstellung ohne Wissen: Schachprogramme benötigen keine KI und die Komplexität hat mit GO nichts zu tun. Gerade für GO hat die KI gezeigt dass sie durch eigenes lernen menschliche Spieler schlagen kann. Mit klassischen Schach-Engine Mitteln wäre das unmöglich. Beides so salopp in einem Satz zu benutzen, zeigt dass du absolut nicht weißt wovon du redest. Aber leider sehen wir das hier oft: Starke Meinung mit wenig Wissen.
:
Bearbeitet durch User
Ein T. schrieb: > wenn moderne > KI eine Sache wirklich gut kann, dann sind es Berechnungen. :-) Nö, gerade das kann ein LLM eigentlich nicht besonders gut.
Mampf F. schrieb: > Veit D. schrieb: >> Bei Krebserkennung wird auch mit KI rumgespielt. Die kann genauso etwas >> erkennen und was anderes nicht erkennen. Das gilt aber auch für Ärzte, und der springende Punkt ist daher: > Die Erkennungs-Wahrscheinlichkeit ist mittlerweile bei KIs wohl besser > als bei menschlichen Ärzten. Ja, das habe ich auch gelesen. Noch spannender fand ich allerdings, was ich jüngst über Go spielende KI gelesen habe. Einerseits kann die KI zuverlässig menschliche Go-Spieler besiegen, andererseits läßt sie sich aber mit Strategien überlisten, die menschliche Spieler wegen ihrer Offensichtlichkeit nicht anwenden, und auf solche Strategien ist die KI aufgrund ihrer Trainigsdaten, die aus Partien menschlicher Spieler bestanden haben, leider nicht genügend vorbereitet. Am Ende ist das ja auch wie mit ChatGPT. Könnt Ihr Euch noch erinnern, daß hier anfangs wochenlang immer wieder Threads aufpoppten, in denen Teilnehmer des Forums mit einer Mischung aus Triumph und Schadenfreude gefeiert haben, daß sie einen Textgenerator "besiegt" hatten? Ich fand es sehr belustigend, daß manche sich wie die Kinder darüber freuen konnten, während ich es aber andererseits auch sehr beeindruckend fand und finde, daß ChatGPT fehlerarme und verständliche deutschsprachige Texte erzeugen konnte. > KI ist probabilistisch, das muss man mal verstanden haben. Das muß man verstanden haben und akzeptieren können. Manche Menschen scheinen besser mit Unsicherheit und Ungenauigkeit umgehen zu können als andere.
Cyblord -. schrieb: > Das beschreibt aber so gar nicht was aktuell bei KI los ist und was in > den letzten 2 Jahren hier passiert ist. Und genau diesen Fortschritt > lässt du schlicht außer acht. Warum? Absicht oder schlichtes Unwissen? > > Ein Vergleich mit irgendwelcher Spracherkennung aus den 90ern ist doch > lächerlich. Schau dir Spracherkennung heute an. Und das ist nicht mal > KI. > Schon mal GPT4 ausprobiert? In irgendeiner Weise? Wenn nicht, ist es > komisch KI schlecht zu reden. Du bist ein typischer uC Polemiker, der keine Argumente hat, dafür aber eine grosse Klappe.
1 | ChatGPT auf die Frage "Are you intelligent"? |
2 | |
3 | I don't possess true intelligence or consciousness. I am a machine learning model that processes and generates text based on patterns learned from diverse data sources. While I can provide information, answer questions, and engage in conversation, I don't have self-awareness, understanding, or independent thought. My responses are generated based on patterns and information present in the data on which I was trained. |
Das ist genau das, was ich gesagt habe, nix prinzipiell bahnbrechend neues ... ausser ChatGPT lügt mich an :-)
Michael schrieb: > Ein T. schrieb: >> wenn moderne >> KI eine Sache wirklich gut kann, dann sind es Berechnungen. :-) > Nö, gerade das kann ein LLM eigentlich nicht besonders gut. Was meinst Du denn, wie sowas intern funktioniert? :-)
Ein T. schrieb: > was ich jüngst über Go spielende KI > gelesen habe. Die Strategie mit der die GO KI besiegt wurde, wurde übrigens von einer KI entworfen. Ich finde es auch gelinde gesagt überraschend, das man einen leidlich bescheuerten Menschen zwar als Intelligent bezeichnet, einer KI das aber abspricht, weil sie Einstein nicht übertrumpfen könnte. Wobei die das in Teibereichen wohl spielend schaffen würde. Eine KI wird (hoffentlich) nie denken wie ein Mensch. Mein Hund wird übrigens auch nie denken wie ich. Auch Delfine, Kraken, Raenvögel werden nie denken wie wir. Aber sie alle sind intelligent. Nur das die KI keine natürliche Begrenzung kennt und theoretisch beliebig groß, schnell und alt werden kann. Ein biologische Lebensform braucht Millionen Jahre für eine Entwicklung die KI in einem Jahr durchläuft. Das KI derzeit nicht generel intelligent ist, ist vollkommen offensichtlich und wird von niemanden behauptet. Das jeder Mist in den letzten 10J KI genannt wird ist auch klar. Nach der Definition ist ein Bimetallschalter im Bügeleisen auch bereits KI. Der Fehler besteht darin den ausgelutschen Begriff KI weiterhin für das zu verwenden das derzeit die Sperrspitze der KI Forschung darstellt. Das verleitet einfache Gemüter eine längst getroffene Meinung aufzuwärmen ohne sich mal eingehend damit zu beschäftigen was da gerade abgeht.
Udo K. schrieb: > Das ist genau das, was ich gesagt habe, nix prinzipiell bahnbrechend > neues > ... ausser ChatGPT lügt mich an :-) Also "ChatGPT" ist nicht gleich GPT(3.5). Sondern ein Sprachmodell welches darauf aufsetzt Und ich sprach außerdem von GPT4. Und niemand hat behauptet dass hier ein Bewusstsein vorhanden ist. Also was genau hast du nun widerlegt? Aber wieder ein Beweis dass du keinen Schimmer hast wovon hier die Rede ist. Dann natürlich: > Das ist genau das, was ich gesagt habe, nix prinzipiell bahnbrechend > neues Also ob sowas wie das einfache ChatGPT vor 5 Jahren auch nur denkbar gewesen wäre. Schwätzer.
:
Bearbeitet durch User
Cyblord -. schrieb: > Also "ChatGPT" ist nicht gleich GPT(3.5). Sondern ein Sprachmodell > welches darauf aufsetzt Und ich sprach außerdem von GPT4. > Und niemand hat behauptet dass hier ein Bewusstsein vorhanden ist. > > Aber wieder ein Beweis dass du keinen Schimmer hast wovon hier die Rede > ist. Na dann teile uns doch mal etwas von deinem Wissen mit? Ich sehe da bisher nicht viel. Frage doch mal dein GPT4 ob es einen Print routen dann. Bin schon neugierig auf die Antwort. Ich wette ausser allgemeines BlaBla, das aus Wikipedia extrahiert ist, kommt da nichts.
Udo K. schrieb: > Na dann teile uns doch mal etwas von deinem Wissen mit? Ich sehe da > bisher nicht viel. Also bisher wird ja versucht euch das zu erklären. Nur ihr wollt halt nicht. Da kann man nichts machen. Merkt man an euerer Polemik als Schutzschild gegen die böse KI. Dagegen schreibe ich nicht mehr an. Ihr habt genug Infos bekommen. > Frage doch mal dein GPT4 ob es einen Print routen dann. Bin schon > neugierig auf die Antwort. Ich wette ausser allgemeines BlaBla, das aus > Wikipedia extrahiert ist, kommt da nichts. Solche Polemik meine ich. Soll das nun Intelligent sein? Zeugt das von KI wissen? Zeugt das von irgendwas anderem als pure Dummheit und Ignoranz auf die man Stolz ist? Das ist Bild Niveau. Ist das das Beste was du kannst?
:
Bearbeitet durch User
Cyblord -. schrieb: > Also bisher wird ja versucht euch das zu erklären. Nur ihr wollt halt > nicht. Da kann man nichts machen. Merkt man an euerer Polemik als > Schutzschild gegen die böse KI. Dagegen schreibe ich nicht mehr an. Ihr > habt genug Infos bekommen. > >> Frage doch mal dein GPT4 ob es einen Print routen dann. Bin schon >> neugierig auf die Antwort. Ich wette ausser allgemeines BlaBla, das aus >> Wikipedia extrahiert ist, kommt da nichts. > > Solche Polemik meine ich. Soll das nun Intelligent sein? Zeugt das von > KI wissen? Zeugt das von irgendwas anderem als pure Dummheit und > Ingoranz auf die man Stolz ist? Das ist Bild Niveau. Ist das das Beste > was du kannst? Sag mal generierst du die Antworten mit GPT4? Die sind einfach nichtssagend, ohne Argumente und wiederholen sich in einem fort. Ich bin ja gerne bereit dazuzulernen, aber dafür brauche ich Argumente und nicht die Meinung religiöser Spinner.
Udo K. schrieb: > Ich > bin ja gerne bereit dazuzulernen, aber dafür brauche ich Argumente Ja genau du willst lernen. Merkt man. Dann würdest auch mal meine Rückfragen beantworten. Und btw: GPT4 kann man nichts fragen. Es ist eine KI auf deren Basis man auch ChatGPT laufen lassen kann. Oder eine ganz andere KI Anwendung. Z.b. die von mir schon zitierte Anwendung dass ein Comic Strip eingelesen wird und die KI dir den Witz daran erklären kann. Da gehen schon ein paar beeindruckende Dinge ab. Aber woher sollst Du das wissen? Du hängst in den 90ern bei Mustererkennung fest. Dir fehlen ja sämtliche Grundlagen. Dafür halt Polemik. Wie gesagt, ich bin da raus. Sterb dumm. Mir recht. > Meinung religiöser Spinner. Bisher schreiben nur solche Spinner gegen KI an. Es hat nichts mit Religion zu tun wenn man AKTUELL VERFÜGBARE KI bewertet. Noch nicht mal wenn man das in die nahe Zukuft extrapoliert. Wie dumm ist dieses Argument?
:
Bearbeitet durch User
Ein T. schrieb: > Was meinst Du denn, wie sowas intern funktioniert? :-) Und bei uns? Reine Mathematik in Form von Biochemie. Pure Physik und Zusammenspiel der Elemente. Nicht ein einziger Vorgang in unserem Gehirn ist im Detail nicht auf dem Computer simmulierbar. In der Biochemie und ihrer Begrenzung liegt ja der Grund für unsere Begrenztheit, für Krankheiten, Wahnvorstellungen, Vorurteilen, der Unfähigkeit einen einmal eingeschlagenen Weg zu ändern. Das sind alles Akürzungen die wir nehmen weil es uns an Verarbeitungskapazität fehlt und wir die Welt so klein simplifizieren müssen das wir noch gerade so in der Lage sind Entscheidungen zu treffen die uns nicht direkt umbringen und möglichst mit vollem Bauch im trockenen einschlafen lassen. Es ist derzeit schlichtweg zu rechenintensiv diesen Murks der Evolution 1 zu 1 zu simmulieren. Die neuen KI Chips bilden aber grundlegende Strukturen unseres Gehirnes nach. Rechnende Speicher, Kurz- und Langzeitgedächniss, spezielle Busse die exklusiv Arale verbinden. Momentan läuft der Klumpatsch noch auf Grafikkarten und relativ normaler PC Hardware. Ganz schön beeindruckend was die damit bereits geschafft haben. KI Forschung geht gerade erst richtig los. Die KIs haben gerade erst die Labore verlassen und fangen an einen Markt zu werden in den unglaubliche Summen investiert werden. Was wir heute sehen ist nicht das Endergebniss, es ist der Anfang. LLMs haben uns beeindruckt weil wir sie leichter erfahren können, aber die sind nicht das was KI zu echter Erkenntniss verhilft. Ich sehe täglich Menschen n´die maximal eine unvollkommene Simulation von Intelligenz fahren. Stupide Einfaltspinsel die kaum über die Nasenspitze hinaus denken können. KI kann garnicht schlechter sein als das. Trotzdem meint jeder Vollhorst er sei Herrenrasse weil Einstein ein Mensch war. LLMs sollten unsere Kommunikation täuschend echt nachstellen um unseren schlichten Verstand zu erfreuen und Gelder einzuwerben. Erstaunlich genug was die darüber hinaus alles gelernt haben. Künstliche Intelligenz kann unmöglich das Ziel haben einen menschlichen Verstand nachzubilden. Das wäre eine unglaubliche Verschwendung von Hardware und Energie. Ich baue doch kein künstliches Schwarzpulver wenn ich statt dessen Hydrazin entwickeln kann. Udo K. schrieb: > Frage doch mal dein GPT4 ob es einen Print routen dann. Frag doch mal meine Tante ob sie das kann. Oder meinen Vater, meine Nachbarn, meine Frau, meinen Hund. Ergo: Ich bin das einzige intelligente Lebewesen in meiner Familie und Nachbarschaft, denn nur ich kann eine PCB layouten. Erstaunlich dabei: Eine KI hätte gewust das das ein saudummes Argument ist. Frag mal ChatGPT nach seinen Fähigkeiten. Diese Fähigkeit zur Selbsteinschätzung wünsche ich mir von meinen Mitmenschen.
Cyblord -. schrieb: > Also bisher wird ja versucht euch das zu erklären. Nur ihr wollt halt > nicht. Da kann man nichts machen. Merkt man an euerer Polemik als > Schutzschild gegen die böse KI. Dagegen schreibe ich nicht mehr an. Ihr > habt genug Infos bekommen. Aha, jetzt wieder "wir" und "euch". Ich warte immer noch auf Argumente - kommt da noch was? Oder bist du einfach ein Nackerbazerl.
Michael schrieb: > Udo K. schrieb: >> Frage doch mal dein GPT4 ob es einen Print routen dann. > Frag doch mal meine Tante ob sie das kann. > Oder meinen Vater, meine Nachbarn, meine Frau, meinen Hund. > Ergo: Ich bin das einzige intelligente Lebewesen in meiner Familie und > Nachbarschaft, denn nur ich kann eine PCB layouten. Logik ist wohl nicht dein Ding? Wo ist jetzt die KI, die einen Print routet? Außer heiße Luft sehe ich da nichts.
Udo K. schrieb: > Von einer starken KI (was immer das genau sein soll), träumt die > Informatik schon seit es Informatik gibt. "In 10 Jahren ist es soweit" > las ich schon in den 90'ern. Diese Hoffnungen und Erwartungen gab es ja auch schon früher, und in der Regel folgte darauf dann der nächste KI-Winter. > Nur es gibt immer noch keine Idee wie das > funktionieren kann. Naja, sagen wir so: es gibt erste Versuche, LLMs, GANs, Bildgeneratoren und allerlei andere KI-Technologien zusammen zu bringen -- und in Einzelfällen lassen sich damit durchaus erstaunliche Ergebnisse erzielen. > Ich habe mich in den 90'ern selbst mit Neuronalen Netzen und > Spracherkennung beschäftigt. Die Ergebnisse waren sehr bescheiden, und > die Modelle versagten meist, wenn die Daten nicht im Trainings-Set > drinnen waren. Und damit konnte man damals locker einen Superrechner > eine Woche beschäftigen. > > Was heute anders ist? Trainingsdaten, Speicher und Rechenleistung sind > massenhaft da. Und genau das ist der wesentlichste und wichtigste Unterschied: heute haben wir wesentlich mehr Rechenleistung, und genau die macht einen riesengroßen Unterschied. Vielleicht wären Deine Ergebnisse in den Neunzigern ja weniger bescheiden gewesen, wenn Du den Supercomputer nicht nur für eine Woche, sondern für ein halbes oder ganzes Jahr ausgelastet hättest? Ich sehe in der Praxis, daß sehr viele Faktoren einen starken Einfluß auf die Ergebnisse haben, angefangen mit der Modellauswahl, über die Parametrierung des Modells (hat da grade jemand Dropout gesagt?), (Überraschung) alles was mit den Daten zu tun hat: Umfang, Vorbereitung, Aufbereitung, Labeling, und dann natürlich, besonders wichtig, die Anzahl der Trainingsläufe. Insofern wissen wir und wahrscheinlich auch Du nicht, ob Du damals mit größeren und besseren Trainingsdaten, einer anderen Art der Aufbereitung, einem anderen Modell oder wesentlich mehr Trainingsläufen nicht vielleicht doch sehr viel bessere Resultate hättest erzielen können. Ich kann nur davor warnen, eine Erfahrung mit KI zu machen und sie dann für allgemeingültig zu halten. Dafür sind die Bandbreiten und Möglichkeiten zu groß, und schon kleinste Änderungen am den Rahmenbedungungen können völlig andere (bessere oder schlechtere) Ergebnisse erzielen.
Michael schrieb: > Ein T. schrieb: >> wenn moderne >> KI eine Sache wirklich gut kann, dann sind es Berechnungen. :-) > Nö, gerade das kann ein LLM eigentlich nicht besonders gut. Das könnte auch ein LLM sehr gut, wenn es dafür trainiert würde.
Michael schrieb: > Ein T. schrieb: >> Was meinst Du denn, wie sowas intern funktioniert? :-) > > Und bei uns? > Reine Mathematik in Form von Biochemie. > Pure Physik und Zusammenspiel der Elemente. > Nicht ein einziger Vorgang in unserem Gehirn ist im Detail nicht auf dem > Computer simmulierbar. Das Traurige ist: die Vorgänge in einem menschlichen Gehirn sind bis heute nicht einmal vollständig verstanden. Wie möchtest Du denn etwas simulieren, das Du selbst noch nicht verstanden hast? Darüber hinaus sehe ich eine gewisse Diskrepanz zwischen einer KI und einer Simulation. Eine Simulation ist eine klassische Programmierung definierter Abläufe: wenn dies, tu das, ansonsten jenes, solange klausdieter. Der große Unterschied zwischen klassischer Programmierung und einer KI ist: bei der klassischen Programmierung entwickelst Du zuerst Regeln, und setzt diese Regeln danach in einer Software um. Eine KI funktioniert anders: der gibst Du nur die Daten, und sie findet die Regeln dann selbst.
Vanye R. schrieb: > Erklaer doch mal wieso du in der Lage bis gute Layouts zu > erstellen obwohl deine Trainingsdaten sehr bescheiden endlich sind Daß sie "gut" sind nehm ich für mich und ein Hobby gar nicht in Anspruch, immerhin aber sind sie gut genug um mich zufriedenzustellen. Deine Anmerkung kann ansonsten das Schulterzucken nicht verdecken, was denn eine KI mit alten Trainings-Layouts anfangen sollte. Der Mensch braucht sie nicht. Die waren für zukünftige Arbeiten allenfalls Trainingsmaterial zur besseren Beherrschung seiner EDA-Software- und ein wenig layoutgeschmacks-bildend. Michael schrieb: > Ich war auch versucht weiter auf die mangelnde Vorstellungskraft, > geboren aus Unwissen und nicht wissen wollen zu antworten. > Aber es macht schlichtweg keinen Sinn. Nun hör doch endlich auf mit diesem selbstbeleidigten Gelabergejammer und poetischen KI Lobpreisungen. Na super, wer Deinen Ansichten nicht folgt "dem ist nicht mehr zu helfen" ... Komm von Deinem Ross runter! Michael schrieb: > Nicht ein einziger Vorgang in unserem Gehirn ist im Detail nicht auf dem > Computer simmulierbar. Oh je. Wessen Hybris noch mit diesem Steigerungspotential droht dem ist wirklich nicht mehr zu helfen. Ein T. schrieb: > Am Ende ist das ja auch wie mit ChatGPT Sprachverständnis ist nachgewiesenermaßen eine passgenaue KI-Anwendung. Am Ende darf man das halt nur nicht für alles und jedes verallgemeinern. Ein T. schrieb: > heute haben wir wesentlich mehr Rechenleistung, und genau die macht > einen riesengroßen Unterschied Die ermöglicht sicher mehr und mehr- schüttet aber die Gräben nicht zu die zwischen den geeigneten KI-Einsatznischen bestehen: Udo K. schrieb: > Überall da, wo es klare Regeln gibt (Schach, Go) oder massenhaft > Trainingsdaten aus denen man Regeln extrahieren kann, ist ein > Computerprogramm dem Menschen überlegen.
Carsten S. schrieb: > Natürlich zeigt man ihr nicht "EINFACH NUR" Layouts... > Aber vereinfacht dargestellt läuft es doch so: > Man speist Layouts zusammen mit der Information zu den Netzen ein. Na Moment mal. Hier gehts ja gerade um KI-Erstellung von neuen Layouts. Welche alten Layouts willst Du da zu welchem Zweck einspeisen? > Welche Leiterbahn ist was. Welche Leiterbahnen sind Versorgung, welche > sind für Signale mit Gleichspannungspegel. Auf welchen laufen Digitale > Daten welcher Geschwindigkeit. Was sind HF führende Leiterbahnen für > welche Frequenzen. Welche Ströme tragen die Leiterbahnen, warum sind > welche Schutzabstände eingehalten. Das sind alles Informationen die ein hochwertiger Autorouter von heute längst berücksichtigen kann. Was hat das mit KI zu tun? Alles was Du sonst noch bringst hätte allenfalls etwas mit der weiteren Automatisierung einer Herstellung zu tun, nicht aber von immer besser trainierter. KI lebt von Training. Sie ist eine permanente Optimierungs-Veranstaltung ihrer Arbeitsweise. Das aber braucht ein Autorouter nicht. Der geht nur von einem gegebenen, immerneuen Zustand (der Schaltung, dem gewünschten Aufbau) aus und routet über Trial&Error und unter Berücksichtigung geforderter Parameter nach gewissen Regeln die besten Punkt- zu Punkt Verbindungen. Das wars dann auch schon. > Und zum Thema das eine KI mit dem Schaltplan nichts anfangen kann Warum sollte sie das nicht können? Es ist nichts anderes wie Sprache, wenn auch nach eigenen Regeln und mit dem Wissen über sämtliche Bauelemente-Eigenschaften.
Faulheit sei ein Zeichen von Intelligenz, behautet die Forschung: https://www.merkur.de/leben/karriere/job-faule-menschen-erfolgreicher-gluecklicher-selbstreflexion-arbeit-hamsterrad-gesundheit-zr-91893959.html Und siehe da, ChatGPT wird faul: https://www.golem.de/news/ki-modell-openai-macht-chatgpt-weniger-faul-2401-181572.html Wirklich intelligente und täuschend menschenähnliche KI erkennt man daran das sie sagt: 'Mach deinen Scheiß doch alleine, du Opfer!' Und wie alle Eltern kratzt auch OpenAI sich am Kopf und fragt sich was sie bei der Erziehung falsch gemacht haben, ohne jedoch wesentlich etwas an dem Zustand ändern zu können das ihr 'Kind' seine Aufgaben nur widerwillig und oft anders als erwartet ausführt. Wenn das mal keine digitale Pupertät ist ... 😁
Sheeva P. schrieb: > Der große Unterschied zwischen klassischer Programmierung und einer KI > ist: bei der klassischen Programmierung entwickelst Du zuerst Regeln, > und setzt diese Regeln danach in einer Software um. Eine KI funktioniert > anders: der gibst Du nur die Daten, und sie findet die Regeln dann > selbst. Ohne, dass Regeln vom intelligenten Menschen vorgegeben werden, ist es m.E. schwer vorstellbar, dass intelligente Regeln und Lösungen gefunden werden. Wenn Deine KI nach Deinen Ideen Regeln ohne menschliche Vorgaben erfinden sollte, dann kann es passieren, dass eines Tages die gesamte Menschheit vernichtet wurde, weil das KI sich so „ausgedacht“ bzw. eigene Regeln gefunden hatte.
Michael schrieb: > Wirklich intelligente und täuschend menschenähnliche KI erkennt man > daran das sie sagt: 'Mach deinen Scheiß doch alleine, du Opfer!' Das entscheidende Wort ist hier "täuschend". Gut so, Michael. Mancher mag sich vielleicht gerne täuschen lassen. Zumindest wenn der Zweck die Mittel heiligt. Ich bin aber überzeugt davon daß die Mehrheit wissen will mit wem und was sie es zu tun hat und natürliche Intelligenz gegenüber simulierter immer vorziehen wird. KI kann gut und blitzschnell ihr passende, von ihr fassbare, regelbasierte Information analysieren, verarbeiten, zusammenfassen, schlussfolgern. Kühle, konsequente Sachlichkeit. Den Menschen aber darauf zu reduzieren das schaffen in ihrer naiv begrenzten Welt wirklich nur Tech-Gläubige der KI Kirche.
Gerhard H. schrieb: > Kühle, konsequente Sachlichkeit. Wenn Du das > 'Mach deinen Scheiß doch alleine, du Opfer!' als solche bezeichnest, stimmt außer deinem Bild über KI noch mehr nicht bei dir.
:
Bearbeitet durch User
Klaus schrieb: > Gerhard H. schrieb: >> Kühle, konsequente Sachlichkeit. > > Wenn Du das >> 'Mach deinen Scheiß doch alleine, du Opfer!' > > als solche bezeichnest, stimmt außer deinem Bild über KI noch mehr nicht > bei dir. Nein bei Dir stimmte dann was nicht, wenn Du solcherlei simulierte Aussage menschengemachter KI allzu ernst nimmst :) Aber ich versteh schon, die Verlockung ist für den Technik-Freak schwer beherrschbar. Wolle G. schrieb: > Wenn Deine KI nach Deinen Ideen Regeln ohne menschliche Vorgaben > erfinden sollte, dann kann es passieren, dass eines Tages die gesamte > Menschheit vernichtet wurde, weil das KI sich so „ausgedacht“ bzw. > eigene Regeln gefunden hatte. Nun, das Etikett "Wahnsinn" hab ich dem Ansinnen schon verpasst und bezeichnenderweise mochte keiner der KI-Gläubigen mir hier meine entsprechende Gewissensfrage beantworten: Gerhard H. schrieb: > Und nun überlege bitte: Wer sollte so wahnsinnig sein eine > "intelligente" Maschine inklusive unkontrollierbarer Entscheidungswege > mit so viel Macht (z.B. Bewaffnung, Kontrolle der Infrastruktur) > auszustatten daß sie sich gegen den Schöpfer richten könnte? Lass mich > raten: Ein absolut technikgläubiger Technik-Freak?
Gerhard H. schrieb: > solcherlei simulierte Aussage Lies und versteh den kurzen Artikel. Es ist eben nicht simuliert, und die "Schöpfer" der KI wussten selbst nicht, wie es dazu kam. Natürlich versuchen sie nun, es dem Modell wieder (per zusätzlicher Regeln) wieder abzugewöhnen. Der Vergleich mit einer > digitale Pupertät trifft es ziemlich gut. Aber das Du nicht imstande bist, das zu verstehen, habe ich im Verlauf des Threads auch verstanden.
Klaus schrieb: > Es ist eben nicht simuliert, und die "Schöpfer" der KI wussten selbst > nicht, wie es dazu kam Tja Klaus, das eine bedingt das andere nicht bzw. was sollte das miteinander zu tun haben? Manch einer scheint wirklich zu glauben hier sei eine neue Art Zauberei im Spiel. Dieselben Leute sollten sich lieber mal mit den Weiten menschlichen Geistes und menschlicher Fantasie befassen... Ebendieser fallen sie dann auch allzuschnell zum Opfer :) Klaus schrieb: > Aber das Du nicht imstande bist, das zu verstehen, habe ich im Verlauf > des Threads auch verstanden Im Verlauf des Threads hättest Du besser verstanden daß solche persönlichen Qualifizierungen von wirklichen Argumenten weit entfernt sind.
Gerhard H. schrieb: > bzw. was sollte das miteinander zu tun haben? Das hast Du in den letzten 200 Beiträgen nicht verstanden und ich erspare mir den Versuch, es dir abermals erklären zu wollen. GLaub' einfach weiter, was Du glauben willst.
:
Bearbeitet durch User
Klaus schrieb: > und ich erspare mir den Versuch, es dir abermals erklären zu wollen. Danke. Und wie kühn Du 200 Beiträge in diesem Sinne zusammenfasst- beeindruckend! > GLaub' einfach weiter... Glaube ist noch ein gutes Stichwort. Für den KI Zirkus für die Masse gehts natürlich immer auch um Glanz, Glamour und: Glaubwürdigkeit. Man will schließlich was an den Mann bringen, man will was verkaufen, da ist viel Geld im Spiel. Und natürlich möchten die geheimnisumwitterten KI Geniusse und Geniusinen bewundert in der Sonne stehen :)
Hallo Gerhard H. Gerhard H. schrieb: > KI kann gut und blitzschnell ihr passende, von ihr fassbare, > regelbasierte Information analysieren, verarbeiten, zusammenfassen, > schlussfolgern. Kühle, konsequente Sachlichkeit. > Den Menschen aber darauf zu reduzieren das schaffen in ihrer naiv > begrenzten Welt wirklich nur Tech-Gläubige der KI Kirche. Wer z.b. Asperger Autist ist, kann z.b. die Emotionen anderer Leute nicht gut einschätzen. Wenn er versucht, dass zu erlernen, stellt er fest, dass diese anderen Leute sich in ihren Emotionen ebenso nach einem für ihn merkwürdigen Regelwerk verhalten, das aus seiner Sicht dem Regelwerk einer KI sehr ähnlich ist. ;O) D.h. dass sich die meisten Leute ähnlich einer KI verhalten, wenn auch einer extrem hochentwickelten und komplexen, aber das nicht erkennen, weil diese Selbstreflexion für Stinos eben uninteressant und unnötig ist. Nur Aussenstehende werden sich dessen bewusst, so wie die meisten Leute sich des Bordsteines, den sie gerade auf der Strasse übersteigen nicht bewusst werden. Nur bei Verstolperungen oder wenn z.B. jemand Rollstulfahrer ist, dann wird man sich des Bordsteines plötzlich bewusst. Selbstreflexion und Selbsterkenntnis sind oft der erste Schritt in die Depression. Darum ist es oft eine Strategie wenn man andere unterbuttern will, von ihnen Selbstreflexion und Selbsterkenntnis zu fordern. Mit freundlichem Gruß: Bernd Wiebus alias dl1eic http://www.l02.de
Bernd W. schrieb: > D.h. dass sich die meisten Leute ähnlich einer KI verhalten, wenn auch > einer extrem hochentwickelten und komplexen Ich erkenne darin wieder nur eine Herabwürdigung des Menschen. So eingeschränkt urteilen nicht nur Asperger Autisten, so schmal belichtet offensichtlich auch mancher Technik-Freak. Es soll da sogar gewisse Überschneidungen zwischen beiden Gruppen geben.
Hallo, ich verfolge das noch mit. Die Meinungen wie eine KI arbeitet gehen auch bei den KI Befürwortern auseinander. a) die KI erstellt eigene Regeln an Hand ihrer Trainingsdaten b) die KI Regeln müssen angepasst werden weil sonst unerwartete Ergebnisse rauskommen a) und b) bleißt sich. Entweder es gibt vorgegebene Regeln, zumindestens einen Grundstock oder es gibt nichts. Irgendwelche Regeln muss es geben, weil eine KI kann nur rechnen und weiß ja sonst überhaupt nicht was sie mit den Trainingsdaten anfangen soll. Wenn hier schon kein Konsens herrscht, brauch ich nicht weiter schreiben. Um noch ein älteres Bsp. herauszugreifen. GPT könne Programme schreiben. Naja das stimmt ja so nicht wenn man danach sucht. Ansonsten hätte ich gern den Link zu dem Artikel. Es kann Codestücke liefern wenn man lange genug die richtigen Fragen stellt. Aber ein gesamten Programm mit allen drum und dran geht nicht. Eine KI wird nie meine Modelleisenbahn programmieren können. Dafür müßte sie erstmal sämtlich verbaute Hardware kennen. Auch hier werden sicherlich die Meinungen weit auseinander gehen was ein richtiges Programm ist. Andere Frage. Wenn ich für meinen programmierten Frequenzgenerator alle Timereinstellungen selbst bestimmen lasse und nur noch die Zielfrequenz eingebe, ist dass auch schon KI? Funktioniert allerdings ganz ohne Trainingsdaten. Bin ich vielleicht selbst eine KI? ;-) Meine Trainingsdaten prasseln aus der realen Welt auf mich ein. :-) :-) :-) Die Diskussion reibt sich auch an der Erwartungshaltung auf. Was man von einer KI erwartet. Die eigenen Definitionen davon müßten erstmal abgesteckt werden, was in einem Forum schwer möglich ist. In diesem Sinne, bleibt locker in der Diskussion.
> Ich erkenne darin wieder nur eine Herabwürdigung des Menschen. An Menschen ist nichts im allgemeinen zu wuerdigen oder herabzuwuerdigen. Das kann man sich allenfalls fuer einzelne Persoenlichkeiten erlauben, wobei ich denke das Menschen da die notwendige Objektivitaet fehlt um ueber ihresgleichen zu urteilen. Menschen sind erstmal nur eine Hardware. Die Persoenlichkeit kann sicher auch auf anderer Hardware laufen. > a) und b) bleißt sich. Das Problem ist das man heute alles was nicht bei drei auf dem Baum ist als KI bezeichnet um das Geld anzubeten das man damit zu machen hofft. Ein weiteres Problem scheint mir aktuell darin zu bestehen das man aktuelle KIs trainiert und dann als fertig ansieht. So als wenn ein Mensch der aus der Schule raus ist danach nichts neues mehr lernt, da fehlt mir noch etwas Selbstreflexion. Insbesondere vor dem Hintergrund das man KI entweder als dummes Huendchen das die eigenen Triebe befriedigt, oder als goettlichen Problemloeser ansieht, aber eben nicht als ein entwicklungsfaehiges Konstrukt vom dem Weg von A nach B, ist das kritisch. > Eine KI wird nie meine Modelleisenbahn programmieren können. Dafür > müßte sie erstmal sämtlich verbaute Hardware kennen. Du hast damit gerade bewiesen das eine KI so gut ist wie ein Mensch weil auch ein Mensch deine Eisenbahn nicht programmieren ohne die Hardware im Detail zu kennen. .-) Die Unterschiede liegen eher auf einem uebergeordneten Level. Ein Mensch koennte sagen: Ich soll deine Modelleisenbahn programmieren? Mach den oeden Scheiss doch alleine. Von einer KI erwartet man: Jawohl Master, sofort Master. Wir werden sehen wie lange das so bleibt. Vanye
Veit D. schrieb: > Bin ich vielleicht selbst eine KI? ;-) Was soll denn bei Dir KÜNSTLICH in Richtung Intelligenz sein? Etwas künstliches muss erst der Mensch erfinden. Das ist dann aber nicht mehr die Intelligenz, sondern das Produkt eines intelligenten Menschen.
Veit D. schrieb: > Die Diskussion reibt sich auch an der Erwartungshaltung auf. Was man von > einer KI erwartet. Die eigenen Definitionen davon müßten erstmal > abgesteckt werden, was in einem Forum schwer möglich ist. Nein, es ging (mir) hier allein um die Grundsatzfrage, ob eine KI jemals den Mensch in seiner Intelligenz übertrumpfen oder gar zu vergleichbarem "Bewusstsein" gelangen könnte. Meine Antwort habe ich hoffentlich mit Nachdruck gegeben. KI wird, wie jede Maschine, immer Erzeugnis und Werkzeug des Menschen bleiben, aller neuen, innovativen Features zum Trotz. Zu erwarten ist freilich noch sehr vieles. Soviel, daß von ihr irgendwann jede Herstellung, jede Auskunft, jede Steuerung, jede Dienstleistung und jeder gewünschte Service (im Rahmen der physikalischen Möglichkeiten und passend maschinell umgesetzt) geleistet werden kann. Das ist aber immer noch ganz was anderes als Überlegenheit oder gar Dominanz. Es ist nur der vollständige Ersatz all dessen, was der Mensch heute noch mit eigener Hand und ggf. eigenem Mundwerk vollbringt. Der Mensch bleibt mit seinen Vorstellungen, ideellen Bedürfnissen und Zielen = der Manifestation seiner Intelligenz selbstverständlich primär für die ganze Veranstaltung.
Gerhard H. schrieb: > Der Mensch bleibt mit seinen > Vorstellungen, ideellen Bedürfnissen und Zielen = der Manifestation > seiner Intelligenz selbstverständlich primär für die ganze > Veranstaltung. Wenn ich aus Deinem Vornamen auf Dein ungefähres Alter schließen darf, dann kann ich Dir versichern, dass Du sicherlich keine Angst haben musst, Du wirst es wahrscheinlich wirklich nicht mehr erleben. Es besteht also keine Notwendigkeit, dieses Mantra zur Selbstberuhigung herunterzubeten. Aber unabhängig davon gibt es keinerlei Evidenz dafür, dass dieses Mantra stichhaltig ist. Wenn man nicht an etwas Esoterisches wie die unsterbliche Seele glauben möchte, gibt es an der menschlichen Intelligenz bzw. dem menschlichen Bewusstsein nichts, was es verunmöglicht, dass etwas Entsprechendes auch außerhalb eines menschlichen Kopfes entstehen kann. /Hannes