Hallo zusammen, ein Beitrag auf Golem.de sorgt dort gerade für rege Diskussionen. Es geht um einen gemeinnützigen Verein der Linksammlungen zu Bildern erstellt über die dann KIs trainiert werden können. Der Fotograf verlangt nun die Löschung seiner Fotos (obwohl diese ja garnicht gepseichert wurden, nur verlinkt) und will jetzt vor Gericht ziehen. Aber selbst wenn die eigentlichen Bilder zum Training genutzt wurden, wie säe es da eigentlich mit dem Urheberrecht aus, solange nur öffentlich zugängliche Daten verwendet werden? Das Bild an sich wird ja nur kurz gecached und landet nicht im eigentlichen Datensatz der KI. Nur die Neuronen werden verändern sich ja leicht. https://www.golem.de/news/rechnung-erhalten-fotograf-verlangt-loeschung-seiner-fotos-aus-ki-bilddatensatz-2305-173871.html
Meiner persönlichen Meinung nach hätte der Fotograf Recht wenn er Urheberrechte an seinen Werken hat. Dann kann er auch entscheiden was damit passieren soll - und wenn er halt nicht will, daß die Fotos weiterverarbeitet werden, zu was auch immer, dann hat die KI Pech gehabt.
Hallo Wir sind in Deutschland, EU-Europa bzw. entsprechende Firmen (die KI ist ja nicht selbst gewachsen) sind in Japan, Südkorea, USA, Australien... Da wird immer dafür gesorgt, dass ein einzelner Mensch und sei es einer aus einer im Gesetz genannten bestimmten Gruppe (z.B. Geschäftsführung - einen findet der Richter -immer) verantwortlich gemacht wird. Frag mal schon einen ganz einfachen Industriemeister, warum er mit einer Hand in seiner Brieftasche (nein ins Gefängnis kommt man zum Glück nicht so schnell)bereitsteht. Es ist lächerlich, aber real, dass er mit für das Verhalten "seiner" ausgebildeten Facharbeiter gerade stehen muss. Auch wenn es in den Medien heißt das z.B. Google eine Strafzahlung in Höhe von x Millionen Euro leisten muss, steht dahinter immer eine echte Person(engruppe) - entweder schon vom Urteilstext her oder "indirekt" dann durch Google (der verurteilten Firma selbst) - die Personen werden zwar kaum die Millionen zahlen aber entlassen werden (und komm mir keine mit dummen Sprüchen das solche Leute direkt einen neuen Job finden) und zumindest soviel an der Firma zahlen müssen das es richtig weh tut - eventuell sogar bis zum Lebensende. Froh können die sein, welche entsprechend (und richtig teuer - es geht ja seltenst um einen kleinen Angestellten oder Handwerker) versichert sind. Nicht aber auch gar nicht (o.K. vielleicht noch Unwetter und Naturkatastrophen - aber windige Anwälte haben wahrscheinlich auch schon versucht einen Schuldigen zu erfinden) kann betrieben oder gehalten werden -Zoo, Wildpark wo nicht ein Mensch letztendlich verantwortlich gemacht werden kann: Ein Idiot meint im Wildpark aus dem Fahrzeug absteigen zu können,und einen Löwen streicheln zu müssen - der Wildpark geht vom normalen Menschenverstand aus und hat nicht vorher sich eine ellenlange Verzichtserklärung unterschreiben lassen, und alle 3 Meter Schilder aufgestellt, die das absolut Logische nochmal als Gefahr deutlich machen: Leider Pech für irgendjemand vom Wildpark: Er und nicht der Löwe (wie auch, Tiere verurteilen war ne Sache, die letztmalig vor einigen hundert Jahren in "jetzt" zivilisierten Ländern praktiziert wurde) wird wegen fahrlässiger Tötung bzw. ähnliches, angeklagt und irgendwie auch verurteilt werden. Und wenn sich ausnahmsweise mal kein Schuldiger finden lässt, muss irgendein Politiker, Bürgermeister; Minister - halt irgendein Offizieller dran glauben: Weil er hat (sein Vor- Vorgänger) ja vor 30 Jahren letztendlich die Genehmigung unterschrieben hatte. Selbst so manches einfach mal die Schnauze halten (was bei den Top-Politikern eigentlich nur Begrüßenswert wäre) oder nicht mit Trauermiene vor Ort erscheinen und die ewig gleichen Sprüche herunterleiern wird von der Presse verurteilt und die hat so manchen die Karriere gekostet. Da war doch was mit der Flutkatastrophe im Ahrtal und den Politiker der sich gewagt hatte, nach dem üblichen Schauspiel und den üblich Zusagen -anderes Thema wie es damit dann wirklich aussieht- , gute Laune zu haben und zu lachen... Schon normales menschliches Verhalten ("Mich hat es nicht erwischt, das Leben geht weiter..." ) wird "bestraft" und sei es "nur" durch die Presse und oder Wutbügern in den (A)sozialen Medien
:
Bearbeitet durch User
Ich bin kein Anwalt, das ist also nur rein meine Interpretation des ganzen. Meine Sichtweise ist so. Wenn die KI nur Links erzeugt, sollten die Links selbst nicht die nötige Schöpfungshöhe besitzen, um dem Urheberrecht zu unterliegen. Wobei das Medienverlage / die EU usw. zu ändern versuchen (ist denen das schon gelungen, bzw. wieder rückgängig gemacht worden nach dem letzten Google Machtkampf?). Aber die Datenbasis, die die AI dafür nutzt, ist eine ganz andere Sache. Dort ist es wie mit einem Compiler. Man hat diverse Eingabedaten, Werke die womöglich dem Urheberrecht unterliegen, und Lizenzen regeln, was man damit tun darf (oder man damit halt nichts tun darf, wenn keine Lizenz dafür). Aus diesen werden dann neue und Transformierte und Modifizierte Dateien erstellt, damit meine ich nicht nur die Finale Datei. Bei einem Compiler sind das Objektdateien, Libraries, etc. Bei der KI ist es halt dessen Datenbank Knowlede Base Gewichtungen, wie ach immer man es nennen will, im Grunde ist das nichts anderes als eine Library, und der Trainingsprozess ist das Kompilieren. Diese Dateien sind von den ursprünglichen Abgeleitet, es sind Derivate, sogenannte Abgeleitete Werke. Und das Endresultat, das mit diesen erzeugt wird, im falle eines Compilers ein Programm oder eine Library, bei einer KI halt ein Bild, ein Text, oder sonst was, ist damit natürlich auch ein davon abgeleitetes Werk. Bei einem abgeleiteten Werk muss man sich natürlich an all die Urheberrechte, und Lizenzen / Lizenz Bedingungen halten, denen auch die ursprünglichen Werke von denen sie abgeleitet sind, halten. Wird die KI also mit den Bilddaten Trainiert, ist dessen Modell ein davon abgeleitetes Werk. Und wen er die KI dann anbietet, die dieses Modell verwendet, also die KI / dessen Resultat, nicht nur privat nutzt, braucht er damit auch eine Lizenz, die ursprünglichen Daten dafür verwenden zu dürfen. Würde er keinen Service anbieten, sondern die KI nur privat nutzen, und dann die Links veröffentlichen, wäre das ein spezieller fall, weil die Links die nötige Schöpfungshöhe nicht erreichen. Wären es aber nicht nur Links, sondern eine Beschreibungen, Bilder oder sonst etwas mit Schöpfungshöhe, dann bräuchte er selbst in dem fall eine Lizenz. Aber in seinem Fall braucht er meiner Meinung nach so oder so eine Lizenz die das ganze auch erlaubt, das ist ja keine Private Nutzung mehr, was er da macht. Das ist mal die Theorie aus meiner Sicht. Aber die Praxis könnte am Ende anders ausfallen. Es gibt viele Parteien, vor allem Firmen, die ihre eigenen Interessen und Interpretationen durchsetzen wollen. Einerseits gab es letztens die Fake Rezo Geschichte. Die KI wurde mit seiner Stimme & seinen Songs Trainiert, und damit neue Songs generiert. Da will er / die Musiklabel, natürlich die Kontrolle über die Musik behalten, also wird Argmentiert, ist seins, braucht seine Zustimmung. An der anderen Ecke sind dann die grossen Tech Giganten. Google, MS, etc. Wenn es z.B. um ChatGPT geht, behaupten diese natürlich, das seien keine abgeleiteten Werke, dass System könne / würde selbst neues und kreatives schaffen. MS mit GitHub Copilot behauptet das natürlich auch, sonst müssten sie sich ja an die Lizenz Bedingungen der Projekte halten, mit denen das Ding trainiert wird. (Bei Code ist das oft Reproduktion Beilegen der unveränderten Lizenz, beibehalten von CopyRight Statements (also von wem es ist), jenachdem Sachen wie CopyLeft, etc.). MS will natürlich nicht, dass man nach dem nutzen einer Zeile copilot Code alle Lizenzen auf Github beilegen muss (die wären auch nicht alle kompatibel (alle Bedingungen gleichzeitig einhaltbar), würde also gar nicht gehen). Und wenn man die Leute auf der Strasse fragt, vertreten sie natürlich in beiden Fällen die Meinung der Big Player, die Kontradiktion fällt gar keinem auf. Es würde mich nicht überraschen, wenn hier alle Big Player also sowohl Rezo als auch Google, MS und Co. ihren willen bekämen. Und das wäre meiner Meinung nach auch das Worstcase Scenario. Die Privatpersonen werden ausgenommen wie eine Weihnachtsgans, die Firmen machen was sie wollen und müssen sich an nichts mehr halte. Am liebsten wäre mir ja, wenn man genau das Gegenteil davon machen würde, das die grossen Firmen wollen. Also sie nicht unsere Arbeit stehlen lassen, aber uns Privatpersonen die Freiheit lassen mit den Medien kreativ zu werden, anstatt anders rum. Aber das ist halt nur Wunschdenken, und wird eh nicht passieren.
Ich sehe da noch einen anderen Aspekt. Nicht nur die Trainingsdaten könnten womöglich einem Urheberrecht unterliegen, sondern auch die von einer KI erzeugten Daten. Was ist, wenn ich ChatGPT auffordere: "Schreibe mir folgendes Super-Duper-Programm in der Sprache X, was dieses und jenes können muss..." und ich verkaufe anschließend erfolgreich das compilierte Programm? Wer hat dann das Copyright? OpenAI? Momentan schreibt ChatGPT noch keinen Copyright-Header in die produzierten Quellcodes ;-)
:
Bearbeitet durch Moderator
Ein abgeleitetes Werk kann man ja nur beanspruchen, wenn eine Aehnlichkeit vorhanden ist. Dazu gibt es die Kreuskorrelation. Eigentlich. Eine Frau fast bildfuellend ist nicht grad eine Mona Lisa. Wie weit muss/soll/darf eine fast bildfuellende Frau der Mona Lisa gleichen um zu fordern, es sei ein abgeleitetes Werk? Denken wir uns einen Photoshop job hin : Ein afrikanischer Frauenkopf mit Locken ? Ein asiatischer Frauenkopf mit geraden schwaren Haaren ? Wechseln wir das Kleid gegen ein Dirndl ?
Frank M. schrieb: > Ich sehe da noch einen anderen Aspekt. Nicht nur die Trainingsdaten > könnten womöglich einem Urheberrecht unterliegen, sondern auch die von > einer KI erzeugten Daten. > > Was ist, wenn ich ChatGPT auffordere: "Schreibe mir folgendes > Super-Duper-Programm in der Sprache X, was dieses und jenes können > muss..." und ich verkaufe anschließend erfolgreich das compilierte > Programm? Wer hat dann das Copyright? OpenAI? Momentan schreibt ChatGPT > noch keinen Copyright-Header in die produzierten Quellcodes ;-) Interessant, KI als natürliche Person*?! So weit sind wir schon?! *Urheber nach Urheberrecht in Deutschland
:
Bearbeitet durch User
Allenfalls hat sich schon jemand die asiatischen AI Frauen auf Insta angeschaut. Nicht alle Details wurden mit derselben Hingabe ausgearbeitet. Waehrend die Falten im Stoff, Schmuck, oder die Haare sehr echt und aufwendig aussehen, sind die Fuesse oft eher weniger im Fokus. Da gibt's es schon mal, dass der rechte und der linke Fuss vertauscht sind, zwei rechte, oder zwei linke Fuesse da sind. Ich zaehlte auch schon 6 Finger.
Purzel H. schrieb: > Ein abgeleitetes Werk kann man ja nur beanspruchen, wenn eine > Aehnlichkeit vorhanden ist. Dazu gibt es die Kreuskorrelation. Bei Programmen scheint das in der Praxis nicht so zu laufen. Bei Reinraum-Implementierung eines bestehenden Programms kann dieses dem alten sehr ähnlich werden. Teils gibt es sogar Projekte, die so weit gehen, dass diese am Schluss den selben Binärcode erzeugen. Dort geht es also wirklich hauptsächlich darum zu beweisen, dass man nichts Kopiert hat. Ich sehe den Unterschied hier vor allem darin, das bei einem System / Programm, klar ist, was es macht, und damit, woher etwas kommt, und was damit gemacht wurde. Aber bei einem Menschen kann man das nicht so einfach sagen. Habe ich das andere Ding gesehen? Hab ich es abgezeichnet oder bewusst Elemente daraus übernommen? Oder ist es einfach zufällig ähnlich? Da braucht man also zwangsläufig einen anderen Weg, herauszufinden, ob etwas Kopiert wurde, man muss also einen Vergleich machen.
Was macht KI ? Der Input wird korreliert, gemischt, extrapoliert. Das ist es. Ich denke das Urheber Recht wird frueher oder spaeter fallen. Denn wie weit muss/darf/soll ein anderes Werk aehnlich sein ? Es muss sowieso gewisse Kriterien, wie keine vorgaengige Publikation, Einzigartigkeit, Schoepfungshoehe usw erfuellen. Ich kann kein Copyright auf das Ohmsche Gesetz, resp dessen implementation erheben. Auch nicht auf Stand der Technik. Wenn ich auf ein Thema num 100 Millionen aehnliche Klone erzeugen kann wird's schwierig. Dran denken, KI ist nur ein Tool. Sie macht gar nichts. Wie ein PID Regler, der macht auch nichts.
Frank M. schrieb: > Ich sehe da noch einen anderen Aspekt. Nicht nur die Trainingsdaten > könnten womöglich einem Urheberrecht unterliegen, sondern auch die von > einer KI erzeugten Daten. In dem Umfang, in dem ein KI-System auch nach der Trainingsphase noch signifikant lernt, könnte es schwer zu vermeiden sein, Informationen aus einer Sitzung aus späteren Sitzungen mit Dritten konsequent herauszuhalten. Das kann dann sowohl Urheberrecht als auch Vertraulichkeit betreffen. Wie kann man sicherstellen, dass man aus einem solchen System Informationen über eine Person oder ein Unternehmen bei Widerspruch oder Urteil zuverlässig wieder rausoperiert bekommt? Im System selbst habe ich dabei Vorstellungsprobleme. Mehrere Systeme mit verteilten Rollen? Das erste schwätzt so vor sich hin, das zweite haut dem ersten aufs Maul, wenn das Gebrabbel aufgrund Vertragsstrafe, Strafbefehl oder ähnlichem zu teuer werden könnte?
:
Bearbeitet durch User
Frank M. schrieb: > Ich sehe da noch einen anderen Aspekt. Nicht nur die Trainingsdaten > könnten womöglich einem Urheberrecht unterliegen, sondern auch die von > einer KI erzeugten Daten. Sehe ich auch so. Zudem, z.B. ChatGPT ist ein Service, und die Verwendung eines Service kann natürlich auch an bedingugen geknüpft sein... (prx) A. K. schrieb: > In dem Umfang, in dem ein KI-System auch nach der Trainingsphase noch > signifikant lernt, könnte es schwer zu vermeiden sein, die Daten aus > einer Sitzung aus einer anderen konsequent herauszuhalten. Das kann dann > sowohl Urheberrecht als auch Vertraulichkeit betreffen. Die Momentanen Systeme (z.B. ChatGPT) sind quasi eingefroren. Es gibt einen Kontext mit fixer Grösse pro Benutzersession, der ändert sich, aber das darunterliegende Modell wird nicht verändert. Das war nicht immer so. Vorherige Systeme, die effektiv ihr Modell weitertrainiert haben, lieferten immer schlechteren Output. Erinnert ihr euch noch an di AI von MS, die danach Rassistisch und Beleidigend wurde, nachdem sie das in kürzester zeit von ihren Benutzern gelernt hatte? Bei den SaaS Lösungen muss man aber beachten, dass die Daten die man denen sendet erst mal bei denen liegen, wer weiss, was die später damit noch machen. (prx) A. K. schrieb: > Wie kann man sicherstellen, dass man aus einem solchen System > Informationen über eine Person oder ein Unternehmen bei Widerspruch oder > Urteil zuverlässig wieder rausoperiert bekommt? Ich sehe da 2 Möglichkeiten: 1) Backup von davor einspielen 2) Modell nochmal komplett ohne die Daten tränieren Wie realistisch es ist, alle betroffenen Quelldatensätze überhaupt herauszufinden, ist natürlich ein anderes Problem, aber was keiner weiss, macht ja keinen heiss.
Daniel A. schrieb: > Die Momentanen Systeme (z.B. ChatGPT) sind quasi eingefroren. Habe ich gelesen. Aber ob das das letzte Wort in der Sache ist? Alle naselang neu eingelernte Systeme die alten ersetzen lassen, damit der Inhalt nicht von vorgestern ist?
Daniel A. schrieb: > 2) Modell nochmal komplett ohne die Daten tränieren Also bei jedem weltweiten Widerspruch zu bestimmten Inhalten von vorne anfangen? Dann kann man das gleich in die Tonne treten.
Man kann das Modell später natürlich schon Weitertrainieren, man sollte das halt einfach nicht mit den Nutzereingaben tun, sondern mit anderen Daten. Eber das ist tatsächlich etwas, zu dem es grosse bedenken gibt. Nutzer posten das zeug von der KI ja wieder online, und wenn man online dann wieder neues Zeugs abgrast, erwischt man die dann wieder. Ich glaube, dazu gab es hier schon irgendwo einen Thread.
(prx) A. K. schrieb: > Daniel A. schrieb: >> 2) Modell nochmal komplett ohne die Daten tränieren > > Also bei jedem weltweiten Widerspruch zu bestimmten Inhalten von vorne > anfangen? Dann kann man das gleich in die Tonne treten. Das wäre mir ehrlich gesagt ganz recht so.
(prx) A. K. schrieb: > Klingt hier im Update etwas anders: > https://blog.fefe.de/?ts=9aafef44 Besonders interessant die blauäugigen Kommentare des Fotografen in der Diskussion. Für gar so doof kann man seine Leser doch eigentlich nicht halten.
Ben B. schrieb: > Meiner persönlichen Meinung nach hätte der Fotograf Recht wenn er > Urheberrechte an seinen Werken hat. Anderer Meinung scheint der Gesetzgeber zu sein; und diese findet sich in §§ 44a bis 53 UrhG. Ben B. schrieb: > Dann kann er auch entscheiden was damit passieren soll - und wenn er > halt nicht will, daß die Fotos weiterverarbeitet werden, zu was auch > immer, dann hat die KI Pech gehabt. Natürlich; nur sollte er sie dann nicht veröffentlichen. Auf einen Nutzungsvorbehalt iSv § 44b III UrhG deutet hier nicht hin.
(prx) A. K. schrieb: > In dem Umfang, in dem ein KI-System auch nach der Trainingsphase noch > signifikant lernt, Das tut es ja nur, wenn man es gezielt trainiert, sprich: einen Optimierer darauf ansetzt, anhand der Ergebnisse einer Fehlerfunktion die Weights und Biases des Modells zu optimieren. > könnte es schwer zu vermeiden sein, Informationen aus > einer Sitzung aus späteren Sitzungen mit Dritten konsequent > herauszuhalten. Das kann dann sowohl Urheberrecht als auch > Vertraulichkeit betreffen. Das ist aus unterschiedlichen Aspekten eine sehr spannende Frage. Denn die urheberrechtlich geschützten oder anderweitig sensiblen Daten selbst sind im Modell nicht mehr enthalten, können von diesem jedoch möglicherweise reproduziert werden. > Wie kann man sicherstellen, dass man aus einem solchen System > Informationen über eine Person oder ein Unternehmen bei Widerspruch oder > Urteil zuverlässig wieder rausoperiert bekommt? Nunjaaa... man könnte dem Modell das quasi "abtrainieren", also das Modell quasi noch einmal mit denselben Features, aber anderen Targets trainieren, im Idealfall mit der selben Fehlerfunktion, den selben Hyperparametern, dem selben Optimierer und mit der selben Anzahl an Trainingsläufen. Dann wird das Modell für diese Daten zukünftig etwas anderes vorhersagen, alles gut. Das Problem sind dabei die Aufwände, denn mit denselben Voraussetzungen wird so ein "Retraining" natürlich genauso aufwändig wie das ursprüngliche Training -- und dann stellt sich die Frage, ob es nicht einfacher wäre, die sensiblen Daten aus den Trainingsdaten herauszunehmen und das Modell "from scratch" aus komplett neu zu bauen und zu trainieren. Vielleicht wäre das sogar weniger aufwändig, weil die Trainingsdaten ja kleiner werden, wobei darunter letztlich wieder die Genauigkeit leiden könnte.
Ein T. schrieb: > Das ist aus unterschiedlichen Aspekten eine sehr spannende Frage. Denn > die urheberrechtlich geschützten oder anderweitig sensiblen Daten selbst > sind im Modell nicht mehr enthalten, können von diesem jedoch > möglicherweise reproduziert werden. Blödsinn. Ab wann soll das dann der Fall sein. Enthält wenn ich ein Bild in ein lossy JPEG umwandle das plötzlich nicht mehr das Originalbild? Oder auch schon wenn ich in ein Zip packe und komprimiere, komplett andere Bytes, also die Daten nicht mehr enthalten? Oder wenn ich es als ein Hopfield network speichere, ist es Plötzlich nicht mehr da? Oder wenn ich nur einen Teil Ausschnitt oder Element davon nutze, ist vom original plötzlich nichts mehr enthalten? Der Schwachsinn, die Daten wären nicht mehr im Modell, wird gerne erzählt, aber ist schlicht falsch. Sie mögen unvollständig sein, in einem anderen Format, und schwer zu erkennen, aber dass sie darin enthalten sind, ist unbestreitbar. Und wenn man sogar wieder die ursprüngliche Daten reproduzieren kann, wie kann man auch nur auf die Idee kommen, die wären da nicht mehr drin? Ein Modell enthält Daten aus seinen Trainingsdaten. Es spielt keine rolle, wie diese repräsentiert werden. Sonst könnte man ja ein beliebiges Werk nehmen, entsprechend Abspeichern, regenerieren, und sagen "oh, schau, ist jetzt meins!". Edit: Oh, ich glaube ich habe es falsch verstanden. Ihr meint Person A generiert Daten X mit Model A, und Person B generiert Daten Y mit Model A, X und Y enthalten beide teils vergleichbare Daten aus A, also enthält X teile von Y und umgekehrt. Das ist tatsächlich ein interessantes Problem. Da hat A natürlich keine Ansprüche an Y oder umgekehrt.
:
Bearbeitet durch User
Also, ich fotografiere ja schon mein halbes Leben lang und habe für diverse Fotos auch Nutzungsrechte vergeben. Und diese kann ich je nach Verhandlung mit dem Nutzer fast beliebig einschränken. Z. B. nur für diese Ausgabe dieser Zeitung oder nur für eine Druckauflage von xyz-Stück bei Flyern, auf CD-Covern, Plakaten usw. Aber wenn ich z. B. hier im Forum Bilder einstelle, dann nehme ich billigend inkauf, dass diese auch anderweitig genutzt werden. Zumindest insoweit, wie ich beim Forumslogin zugestimmt habe. Wenn MS oder wer auch immer mit meinen Fotos eine KI trainiert, kann ich das zwar untersagen, doch ich könnte auch den Mond anbellen. Old-Papa
:
Bearbeitet durch User
Dirk E. schrieb: > Frank M. schrieb: >> Wer hat dann das Copyright? OpenAI? Momentan schreibt ChatGPT >> noch keinen Copyright-Header in die produzierten Quellcodes ;-) > > Interessant, KI als natürliche Person*?! Wo hast Du das denn gelesen? Ich habe nach dem Copyright von OpenAI (als Firma) gefragt, nicht nach einer etwaigen Urheberschaft von ChatGPT. > So weit sind wir schon?! > *Urheber nach Urheberrecht in Deutschland Ja, so weit sind wir schon, dass in Beiträge willkürlich das reininterpretiert wird, was der Leser lesen will. Ich hatte weder nach Urheber noch nach ChatGPT als natürliche Person gefragt.
Daniel A. schrieb: > Blödsinn. Ab wann soll das dann der Fall sein. Enthält wenn ich ein Bild > in ein lossy JPEG umwandle das plötzlich nicht mehr das Originalbild? Bessere Smartphones liefern nachts schöne Bilder vom Mond ab. Manchmal auch von einem Mond, der im Original nur noch grüner Käse ist. Wenn dann ein perfekter Mond im Endbild erscheint, muss der irgendwo her gekommen sein. Laut Samsung wird dabei kein Ersatzbild eingeblendet, sondern eine KI produziert dieses Ergebnis selbsttätig durch die in ihr implizit eintrainierten Daten. Wenn das nun nicht der nicht von Copyright erfasste Mond ist, sondern etwas, das der Rechteinhaber da wieder weg haben wird, wird es spannend. Ob Samsung hier nur eine nette Ausrede präsentiert hat, ist nicht entscheidend. Immerhin liegt ein solches Szenario voll im Rahmen der jetzigen oder künftigen Möglichkeiten. ;-)
:
Bearbeitet durch User
Percy N. schrieb: > Auf einen Nutzungsvorbehalt iSv § 44b III UrhG deutet hier nicht hin. Ich würde ja gerne so einen Nutzungsvorbehalt für meine Internetveröffentlichungen aussprechen. Ich weiß nur nicht wie. Entsprechende CC-Lizenzen gibt es leider noch nicht. Und wie dieses "maschinenlesbar" umgesetzt werden kann ist auch völlig unklar ... LG, Sebastian
Sebastian W. schrieb: > Ich würde ja gerne so einen Nutzungsvorbehalt für meine > Internetveröffentlichungen aussprechen. Ich weiß nur nicht wie. > Entsprechende CC-Lizenzen gibt es leider noch nicht. Und wie dieses > "maschinenlesbar" umgesetzt werden kann ist auch völlig unklar ... Vielleicht findest Du in einem der dortigen https://dejure.org/ext/afb67ec69b4caa0d506dec0cefa8a8df Links eine geeignete Anregung (ohne Gewähr).
Daniel A. schrieb: > Blödsinn. Ab wann soll das dann der Fall sein. Enthält wenn ich ein Bild > in ein lossy JPEG umwandle das plötzlich nicht mehr das Originalbild? > Oder auch schon wenn ich in ein Zip packe und komprimiere, komplett > andere Bytes, also die Daten nicht mehr enthalten? Oder wenn ich es als > ein Hopfield network speichere, ist es Plötzlich nicht mehr da? Oder > wenn ich nur einen Teil Ausschnitt oder Element davon nutze, ist vom > original plötzlich nichts mehr enthalten? Lieber Daniel, hier geht es aber nicht um verschiedene Speicher- oder Kompressionsformate. > Der Schwachsinn, die Daten wären nicht mehr im Modell, wird gerne > erzählt, aber ist schlicht falsch. Sie mögen unvollständig sein, in > einem anderen Format, und schwer zu erkennen, aber dass sie darin > enthalten sind, ist unbestreitbar. Und wenn man sogar wieder die > ursprüngliche Daten reproduzieren kann, wie kann man auch nur auf die > Idee kommen, die wären da nicht mehr drin? Man kann die ursprünglichen Daten ja nicht wiederherstellen. Das Modell kann etwas berechnen, das sehr, vielleicht sogar zum Verwechseln ähnlich aussieht, aber die originalen Daten kann das Modell nicht wiederherstellen, und sie können auch nicht aus den Modelldaten rekonstruiert werden. Das ist im Wesentlichen die Folge davon, daß solche Modelle nicht auf exakten Daten basieren, sondern auf Wahrscheinlichkeiten -- und bei den meisten Modellen können wir heute nicht einmal visualisieren, erklären, oder gar verstehen, wie sie zu ihren Ergebnissen kommen. Daraus folgt auch: die "Daten" -- oder genauer: deren Repräsentationen des Modells -- können auch nicht wieder aus dem bereits trainierten Modell entfernt werden. > Edit: Oh, ich glaube ich habe es falsch verstanden. Ihr meint Person A > generiert Daten X mit Model A, und Person B generiert Daten Y mit Model > A, X und Y enthalten beide teils vergleichbare Daten aus A, also enthält > X teile von Y und umgekehrt. Das ist tatsächlich ein interessantes > Problem. Da hat A natürlich keine Ansprüche an Y oder umgekehrt. Diese Deine Erkenntnisse gehen IMHO in die richtige Richtung, aber es ist noch viel schlimmer. Das Urheberrecht ist nämlich durchaus nicht so absolut wie es häufig wahrgenommen wird, sondern gestattet die Nutzung geschützter fremder Werke in neuen Werken -- womit nicht die Reproduktion der fremden Werke, sondern deren Verarbeitung in einem eigenen Werk gemeint ist, das obendrein eine mindeste Schöpfungshöhe haben muß. Letztlich ist das eine Entscheidung der Gerichte, was in Urheberrechtsverfahren nicht selten zu erheblichen Aufwänden für Gutachter führt. Erschwerend kommt in diesem Falle hinzu, daß das Urheberrecht die Nutzung und sogar das Kopieren von Werken gestattet, wenn dies für ein "Text und Data Mining" oder zur "wissenschaftlichen Forschung" geschieht, vergleiche dazu bitte die §§ 44b und 60d des Urheberrechtsgesetzes. Auch das ist das geltende Urheberrecht und meiner Meinung nach hier auch einschlägig: ein gemeinnütziger, wissenschaftlich orientierter Verein, der Daten mit Text und Data Mining verarbeitet und die Ergebnisse dann der Öffentlichkeit zur Verfügung stellt, was könnte genauer auf die Formulierungen der genannten Paragraphen des UrhG passen als ebendieser Fall? Bevor man diesbezüglich nach dem Urheberrecht ruft, sollte man durchaus auch dessen ausdrücklich gewünschte Ausnahmen bedenken. Die müssen einem nicht gefallen und werden das den einen oder anderen Urheber geschützter Werke wohl auch nicht, aber sie sind ja trotzdem geltendes Recht.
Ein T. schrieb: > Man kann die ursprünglichen Daten ja nicht wiederherstellen. Das Modell > kann etwas berechnen, das sehr, vielleicht sogar zum Verwechseln ähnlich > aussieht, aber die originalen Daten kann das Modell nicht > wiederherstellen, und sie können auch nicht aus den Modelldaten > rekonstruiert werden. Bei einem Kompilat kann man die ursprünglichen Quellen auch nicht wiederherstellen, und trotzdem gilt das Urheberrecht und die Lizenzbedingungen. Und so pauschal, dass man sie bei einem KI Modell nicht wiederherstellen könne, nur weil Wahrscheinlichkeiten involviert sind, kann man auch nicht sagen. Genau deshalb habe ich das Beispiel des Hopfield Network gebracht. Schau dir eventuell auch noch das hier an: https://www.youtube.com/watch?v=piF6D6CQxUw LLM funktionieren zwar etwas anders, aber für das Argument sollte es reichen.
Daniel A. schrieb: > Ein T. schrieb: >> Man kann die ursprünglichen Daten ja nicht wiederherstellen. Das Modell >> kann etwas berechnen, das sehr, vielleicht sogar zum Verwechseln ähnlich >> aussieht, aber die originalen Daten kann das Modell nicht >> wiederherstellen, und sie können auch nicht aus den Modelldaten >> rekonstruiert werden. > > Bei einem Kompilat kann man die ursprünglichen Quellen auch nicht > wiederherstellen, und trotzdem gilt das Urheberrecht und die > Lizenzbedingungen. Auch das sieht der Gesetzgeber nicht so einfach, wie Du es darstellst. > Und so pauschal, dass man sie bei einem KI Modell nicht wiederherstellen > könne, nur weil Wahrscheinlichkeiten involviert sind, kann man auch > nicht sagen. Genau deshalb habe ich das Beispiel des Hopfield Network > gebracht. Ach, Daniel, jetzt pfuschst Du aber. Ich sage, die Informationen in einem modernen Neuronalen Netzwerk -- und erst Recht: einem Rekurrenten -- sind dermaßen umfangreich und komplex, daß es mit heute verfügbaren Methoden unmöglich ist, die Trainingsdaten zu rekonstruieren oder die Gewichte und Biases gezielt so zu manipulieren, daß bestimmte Trainigsdaten vergessen werden. Als Gegenbeispiel kommst Du mir nun mit einem besonders einfachen Netz, das lediglich einen Layer hat und dessen "Neuronen" im Wesentlichen nicht mehr als einfache Logikgatter mit zwei möglichen Ausgängen sind. Das ist so ungefähr, als würde ich mich darüber beklagen, daß komplexe, umfangreiche Daten nicht übersichtlich dargestellt werden können und Du daraufhin sagst, naja, aber in meinem Excel / LoCalc kann ich Datensätze mit 20 Zeilen in 5 Spalten ganz gut überschauen. Ein (sogar vergleichsweise einfaches) modernes Rekurrentes Neuronales Netzwerk zur Textgenerierung findest Du zum Beispiel hier: [1]. Nur um einmal die Dimensionen klar zu machen: dort wird jedes Token auf einen Vektor mit 256 Elementen abgebildet (erster Layer: Embedding), danach werden die Ergebnisse in einer Gated Recurrent Unit mit 1024 Zellen verarbeitet und danach an eine Ausgabeschicht übergeben, deren Größe dynamisch durch die Anzahl der zuvor ermittelten Token bestimmt ist. Insgesamt ist das sogar noch ein sehr einfaches Beispiel: ein extrem einfacher Tokenizer, lediglich drei außerdem recht klein dimensionierte Layer, trotzdem kommt das Modell schon auf mehr als vier Millionen (!) trainierbare Parameter -- was nicht viel ist, aber schon durchaus sehr beachtliche Ergebnisse erzeugen kann. Versuch' das doch mal -- um bei meinem Beispiel zu bleiben -- in Excel oder LoCalc darzustellen?! Und meine Ausführungen dazu betreffen ja bislang nur die Anzahl der Parameter, über den Optimierer, Aktivierungs-, Fehlerfunktion habe ich noch nicht einmal angefangen... :-) [1] https://www.tensorflow.org/text/tutorials/text_generation
Es geht ums Prinzip. Das mein Beispiel ein einfacheres Netzwerk ist, ist völlig egal, sofern es dieses illustriert. Es ist tatsächlich meine Absicht, ein einfach verständliches Beispiel zu zeigen. Mann muss immer zuerst mal die Grundlagen ansehen, um komplexere Situationen zu verstehen. Wenn du mehr Parameter hast / ein grösseres Modell, heisst das nur, dass darin mehr gespeichert werden kann. Das ändert nicht daran, dass die Informationen darin enthalten sind. Mann kann schon de Augen schliessen und sagen "LALALA alles viel komplizierter, kann man nicht vergleichen LALALA". Aber schlussendlich sind die Grundlagen eben doch überall immer die selben, und wie sehr man das auch verkompliziert, das ändert daran nichts. Es ist so einfach wie ich es Darstelle. Das Modell wird mit Daten Trainiert, also basiert das Modell auf den Daten, und diese sind dort, wenn auch in anderer Form, und eventuell unvollständig, enthalten.
Eines ist jedenfalls jetzt schon klar; es wird nicht mehr lange dauern, bis die Staaten/Politik die Hand aufhalten und die ganzen durch die KI entstehenden Geldflüsse besteuern werden. Wahrscheinlich muss dann für jede Antwort von einer KI ein bestimmter Geldbetrag in Form von einer Abgabe an den Staat entrichtet werden, damit diese dann Arbeitsgruppen und Gesetze zur Regulierung von KI aufbauen können.
Ein T. schrieb: > Auch das sieht der Gesetzgeber nicht so einfach, wie Du es darstellst. Hier wäre ein link auf die einschlägige Norm angebracht.
Daniel A. schrieb: > Es geht ums Prinzip. Nicht nur Juristen zucken gern zusammen, wenn sie diesen Satz hören... ;-) > Das mein Beispiel ein einfacheres Netzwerk ist, ist > völlig egal, sofern es dieses illustriert. Es ist tatsächlich meine > Absicht, ein einfach verständliches Beispiel zu zeigen. Mann muss immer > zuerst mal die Grundlagen ansehen, um komplexere Situationen zu > verstehen. Dein Beispiel ist aber so stark vereinfacht, daß es mit der Realität von modernen Neuronalen Netzwerken nichts mehr zu tun hat -- und deshalb auch kein gutes Beispiel mehr ist. Ich habe versucht, Dir das am Beispiel von Daten in Tabellenkalkulationen zu erklären und halte das Beispiel für gar nicht mal so schlecht. Das Problem hier sind nicht die Trainingsdaten oder die Parameter in den Neuronalen Netzen. Das Problem ist, daß unser menschliches Vermögen zur Erfassung solch komplexer Zusammenhänge schon bei so einfachen Neuronalen Netzen wie dem genannten Shakespeare-Generator überfordert ist. Genau so überfordert wie damit, 4 Millionen Parameter in einer Tabellenkalkulation übersehen zu wollen. Niemand auf dieser Welt kann das im Kopf behalten, oder gar Zusammenhänge erkennen, erst Recht nicht bei mehrdimensionalen Daten, deswegen haben sich findige Leute verschiedene Möglichkeiten zur Datenreduktion und -Visualisierung ausgedacht. Und daher gibt es für die modernen Neuronale Netze bis heute keine echte Möglichkeit, konkret zu erklären oder zu visualisieren, wie sie zu ihren Ergebnissen gekommen sind. Obwohl genau das ein ganz heißes und intensiv erforschtes Thema in KI-Community ist -- denn wir sind ja nicht doof und wissen, daß diese Fragen wichtig sind, um eben nicht in die Situation zu gelangen, die oben jemand beschrieben hat: "Computer sagt nein", und die Frage, warum er das sagt, kann nicht beantwortet werden. Spätestens wenn Künstliche Intelligenz für wichtige Lebensentscheidungen verantwortlich sein wird -- und das halte ich für absehbar -- wird diese Frage gestellt werden, und womöglich sogar von existenzieller Bedeutung sein. > Wenn du mehr Parameter hast / ein grösseres Modell, heisst das nur, dass > darin mehr gespeichert werden kann. Das ändert nicht daran, dass die > Informationen darin enthalten sind. Wenn sie enthalten wären, dann könnten sie rekonstruiert werden. Ebendies ist aber gerade nicht möglich. > Mann kann schon de Augen schliessen und sagen "LALALA alles viel > komplizierter, kann man nicht vergleichen LALALA". Aber schlussendlich > sind die Grundlagen eben doch überall immer die selben, und wie sehr man > das auch verkompliziert, das ändert daran nichts. Mir ist nicht ganz klar, was Du mir gerade sagen möchtest, aber dieses "Lalala"-Geschrei ändert nichts an dem, was ich oben ausgeführt habe und hier ausführe. Stand heute können wir weder erklären, wie ein Neuronales Netz zu seinen Entscheidungen kommt, wir können die Trainingsdaten nicht daraus rekonstruieren oder sie aus dem trainierten Modell entfernen. > Es ist so einfach wie ich es Darstelle. Das Modell wird mit Daten > Trainiert, also basiert das Modell auf den Daten, und diese sind dort, > wenn auch in anderer Form, und eventuell unvollständig, enthalten. Mit der Formulierung "das Modell basiert auf den Daten" bin ich völlig d'accord, das ist vollkommen richtig. Die Formulierung "die Daten sind enthalten" dagegen stimmt einfach nicht. Nebenbei bemerkt: bei Neuronalen Netzwerken, die zur Textverarbeitung genutzt werden (Natural Language Processing), wie das bereits genannte Shakespeare-Modell, sind überhaupt keine Trainigsdaten enthalten. Denn bevor das Modell auch nur einen einzigen Datensatz gesehen hat, sind die Texte ja schon längst umgewandelt worden in etwas, mit dem das Neuronale Netz rechnen kann, also: Zahlen. Davon, welches Token zu welcher Zahl gehört, weiß das Neuronale Netz überhaupt nichts. Ein wesentlicher Teil unserer Eingabedaten kommt in dem Modell also niemals an. Und wenn man externe Embeddings benutzt, etwa die von fastText, WordNet, Huggingface oder Spacy, dann sieht das Modell am Ende überhaupt gar nichts mehr und kann auch gar nichts speichern, anhand dessen die Trainingsdaten wieder rekonstruiert werden können -- denn mindestens ein und im Falle externer Embeddings sogar zwei Informationen, die dazu zwingend benötigt werden, befinden sich gar nicht in dem Modell, auch nicht als Repräsentation in dessen Gewichten und Verzerrungen. Ähnliches gilt übrigens auch bei Neuronalen Netzen zur Bildverarbeitung. Das Netz weiß nicht einmal beim MNist-Datensatz, welche Zahl für welchen Grauton steht, und Grautöne sind nun wirklich ein extrem einfacher Fall. Bei Farbkodierungen kann das Modell nicht einmal wissen, ob das nun in einer RGBA- oder einer CYMK-Kodierung vorverarbeitet wurde. Zudem sind etliche Vorverarbeitungsverfahren wie eine Hauptkomponentenanalyse oder eine nichtnegative Matrixfaktorisierung sogar verlustbehaftet, so daß unsere Modelle lediglich einen kleinen Teil der Informationen aus den Trainingsdaten zu sehen bekommen. Schon bei der Merkmalsextraktion geht also oft Informationsgehalt verloren, der für jedwede Rekonstruktion der Daten aus dem trainierten Modell zwingend notwendig wäre.
Percy N. schrieb: > Ein T. schrieb: >> Auch das sieht der Gesetzgeber nicht so einfach, wie Du es darstellst. > > Hier wäre ein link auf die einschlägige Norm angebracht. Oh, ich hätte erwartet, daß Du die längst gepostet hättest. Aber wenn nicht, hole ich das natürlich gerne nach: https://www.gesetze-im-internet.de/urhg/__44b.html https://www.gesetze-im-internet.de/urhg/__60d.html HTH.
Ein T. schrieb: > Oh, ich hätte erwartet, daß Du die längst gepostet hättest Hatte ich auch, zumindest 44b, wenngleich nur erwähnt. Mir ging es aber eher um die Aussage über Kompilate, an die Du angeknüpft hattest.
Percy N. schrieb: > Ein T. schrieb: >> Oh, ich hätte erwartet, daß Du die längst gepostet hättest > > Hatte ich auch, zumindest 44b, wenngleich nur erwähnt. Mir ging es aber > eher um die Aussage über Kompilate, an die Du angeknüpft hattest. Okay, das ist allerdings stehende Rechtsprechung des EuGH: https://www.kleeberg.de/2021/11/26/dekompilierung-von-software-zur-fehlerberichtigung-erlaubt/
Ein T. schrieb: > Percy N. schrieb: >> Ein T. schrieb: >>> Oh, ich hätte erwartet, daß Du die längst gepostet hättest >> >> Hatte ich auch, zumindest 44b, wenngleich nur erwähnt. Mir ging es aber >> eher um die Aussage über Kompilate, an die Du angeknüpft hattest. > > Okay, das ist allerdings stehende Rechtsprechung des EuGH: > https://www.kleeberg.de/2021/11/26/dekompilierung-von-software-zur-fehlerberichtigung-erlaubt/ Und das besagt gerade nicht, dass Kompilate nicht dem Urheberrecht unterlägen; lediglich der Ausübung werden Grenzen gesetzt. Letztlich kommt es hier aber überhaupt nicht auf urheberrechliche Feagen an, sondern auf die Feage, welche Handlingen vertraglich untersagt werden können, ohne den Vertragszweck zu gefährden; letztlich eine Frage von Treu und Glauben (wie neben der Sozialbindung fast alles im Recht, was nicht direkt in eine Norm gegossen ist).
Percy N. schrieb: > Ein T. schrieb: >> Okay, das ist allerdings stehende Rechtsprechung des EuGH: >> >> https://www.kleeberg.de/2021/11/26/dekompilierung-von-software-zur-fehlerberichtigung-erlaubt/ > > Und das besagt gerade nicht, dass Kompilate nicht dem Urheberrecht > unterlägen; Hat das denn jemand behauptet? Nö, natürlich nicht. Entschuldige bitte, aber dafür, daß Du hier so gern den Juristen gibst, ist Deine Fähigkeit Texte verstehend zu lesen anscheinend nicht sehr ausgeprägt. Ich dachte immer, Sprache sei das wichtigste Handwerkszeug eines Juristen.
Old P. schrieb: > Wenn MS oder wer auch immer mit meinen Fotos eine KI trainiert, kann ich > das zwar untersagen, doch ich könnte auch den Mond anbellen. Tja, letztendlich schießen sich die kleinen Copyright Inhaber mit diesen Prozessen selbst ins Knie. Gegen MS oder Google kannst du nicht prozessieren. Mit solchen Klagen treibst du nur Googles Konkurrenz in den Bankrott. Nachher bleiben nur die großen Konzerne übrig und du musst Googles Bedingungen akzeptieren, damit du deine Fotos überhaupt noch veröffentlichen kannst.
Ein T. schrieb: > Hat das denn jemand behauptet? Nö, natürlich nicht. So, so ... Ein T. schrieb: > Daniel A. schrieb: >> ... >> Bei einem Kompilat kann man die ursprünglichen Quellen auch nicht >> wiederherstellen, und trotzdem gilt das Urheberrecht und die >> Lizenzbedingungen. > > Auch das sieht der Gesetzgeber nicht so einfach, wie Du es darstellst. Vielleicht solltest Du Deine Orachkompetenz überprüfen. > Entschuldige bitte, > aber dafür, daß Du hier so gern den Juristen gibst, ist Deine Fähigkeit > Texte verstehend zu lesen anscheinend nicht sehr ausgeprägt. Watzlawick verortet derartige Probleme anders. > Ich dachte > immer, Sprache sei das wichtigste Handwerkszeug eines Juristen. Deshalb solltest Du Dich möglicherweise insoweit gelegentlich etwas zurücknehmen. Oder Dich um eindeutige Formulierungen bemühen; vielleicht klappt es ja irgendwann. Du könntest damit beginnen, zu erläutern, was "stehende Rechtsprechung" sein soll.
:
Bearbeitet durch User
Ein T. schrieb: > Nebenbei bemerkt: bei Neuronalen Netzwerken, die zur Textverarbeitung > genutzt werden (Natural Language Processing), wie das bereits genannte > Shakespeare-Modell, sind überhaupt keine Trainigsdaten enthalten. Denn > bevor das Modell auch nur einen einzigen Datensatz gesehen hat, sind die > Texte ja schon längst umgewandelt worden in etwas, mit dem das Neuronale > Netz rechnen kann, also: Zahlen. Davon, welches Token zu welcher Zahl > gehört, weiß das Neuronale Netz überhaupt nichts. Ein wesentlicher Teil > unserer Eingabedaten kommt in dem Modell also niemals an. Das Selbe könnte ich zu Text auf einer Festplatte Sagen: Nebenbei bemerkt: bei Festplatten, die zur Speicherung von Texten genutzt werden, sind überhaupt keine Textdaten enthalten. Denn bevor die Festplatte auch nur einen einzigen Datensatz gesehen hat, sind die Texte ja schon längst umgewandelt worden in etwas, was die HDD speichern kann, also: Zahlen. Davon, welche Font Glyphe zu welcher Zahl gehört, oder wie diese aussieht, weiß die Festplatte überhaupt nichts. Ein wesentlicher Teil unserer Eingabedaten kommt in der Festplatte also niemals an.
:
Bearbeitet durch User
Daniel A. schrieb: > Ich sehe den Unterschied hier vor allem darin, das bei einem System / > Programm, klar ist, was es macht, und damit, woher etwas kommt, und was > damit gemacht wurde. Bitte? ChatGPT haut alle Quellen in einen Topf, rührt ordentlich herum und spuckt es als "neuen" Inhalt wieder aus. Selbstverständlich ohne Quellenangaben. Das ist ne scheiß Plagiatmaschine. Microsoft oder wer auch immer scheren sich doch einen Dreck um copyright und Urheberrechte. Haftbar ist dann im Zweifel der dumme Nutzer wenn er ChatGPT Inhalte verwertet. @ukw als Quelle ChatGPT anzugeben ist meiner Meinung nach genauso sinnvoll wie Quelle: google.com P.s. ich erinnere mich noch wie meine Mutter mal 800 € an einen Abmahnanwalt zahlen musste, weil sie eine Luftaufnahme von ihrem Haus aus dem Internet verwendet hatte um ihre Homepage zu gestalten. Das war ein langer Rechtsstreit und sie hat verloren. Aber wie hier die KI Firma einfach mal den Spieß umdreht und 800 € von dem Fotografen verlangt - für eine nichtdurchgeführte Löschung - ist ja wohl der blanke Hohn. Das ist eine Machtdemonstration die einfach nur sagen soll, wir scheißen auf dich du Wicht.
:
Bearbeitet durch User
Daniel A. schrieb: > Ein T. schrieb: >> Davon, welches Token zu welcher Zahl >> gehört, weiß das Neuronale Netz überhaupt nichts. Ein wesentlicher Teil >> unserer Eingabedaten kommt in dem Modell also niemals an. > > Das Selbe könnte ich zu Text auf einer Festplatte Sagen: Nein, könntest Du nicht. Die Zahlen auf der Festplatte sind fest einem Buchstaben zugeordnet, auf gut gepflegten Linuxsystemen befindet sich die Dokumentation dieser Zuordnungen oft sogar ebenfalls auf der Festplatte, nämlich etwa in den Manpages ascii(7) und utf-8(7). Bei den verschiedenen Tokenizern im Machine Learning ist das ganz anders, schon bei den einfachsten Tokenizern -- Worte, N-Gramme unterschiedlicher Länge, Buchstaben -- gibt es diese festen, standardisierten Zuordnungen hingegen nicht, und spätestens, wenn dabei auch noch Embeddings oder ein komplexer Tokenizer wie der von GPT ins Spiel kommen, gar nicht mehr.
Nein, das ist genau das Selbe. Die Festplatte hat keine Ahnung von den Encodings, genauso wie ein Modell nicht weiss, welche Zahl zu welchem Token gehört. Und beiden ist es total egal. Ein T. schrieb: > schon bei den einfachsten Tokenizern -- Worte, N-Gramme > unterschiedlicher Länge, Buchstaben -- gibt es diese festen, > standardisierten Zuordnungen hingegen nicht, und spätestens, wenn dabei > auch noch Embeddings oder ein komplexer Tokenizer wie der von GPT ins > Spiel kommen, gar nicht mehr. Bei Eingaben werden die Texte in Token / deren Nummer umgewandelt, und am Ende bei der Ausgabe gibt es Token, die wieder zu Text zurück überführt werden. Ja, die Tabelle, welcher Token jetzt welcher Zeichenfolge entspricht, ist jeweils anders. Aber die Zuordnung ist immer irgendwo vorhanden, ohne sie ist das ganze Ding nutzlos. Bei Text auf Festplatten haben wir in Fonts festgehalten, welcher Buchstabe welcher Zahl entspricht. (Plus noch ein paar Standards, wie die Kodierung ist, um an die Zahl zu kommen). Bei LLMs werden halt Token kleinen Buchstaben/Textfragmenten/Gruppen davon zugeordnet. Es gibt online auch Tools, wo man Debuggen kann, was zu welchen Token wird, welche Nummer es hatte, usw. Da ist nichts besonderes dran. Es sind andere Objekte, aber das Prinzip ist das selbe, die Umwandlung sind nur Lookup Tabellen, simple Zuordnungen. Eine etwas simplere Variante, wie sowas mit ganzen Worten gemacht werden kann, um eine Idee von dem ganzen zu bekommen: https://www.youtube.com/watch?v=gQddtTdmG_8 Die Gewichte im Modell sind natürlich nicht mehr die Token selber, sondern geben Relationen zwischen denen. Das wäre dann eher wie das Hopfield Network Beispiel oben, wobei es halt etwas anderes funktioniert. Das bildet dann halt etwas in die Richtung, was kommt am ehesten als nächstes, ab, und ähnliche Sachen haben halt nahe beieinander liegende Nummern. Aber alles bei weitem keine Hexerei. Wenn man so darüber nachdenkt, ist was ein LLM sehr ähnlich dem, was Huffman Coding macht in komprimierten Dateien macht. Bei den LLMs gibt es ja Gruppen von vergleichbaren Token Gruppen, nie numerisch nahe bei einander liegen. Und dann halt ein Wert, der angibt, was kommt am ehesten als nächstes. Stark vereinfacht, natürlich. Bei Huffman Coding hat man stattdessen halt, welche Symbole kommen am häufigsten vor, und das ist dann die Lookup Tabelle, zum en/dekodieren. Im Grunde ist ein LLM Modell also nichts anderes als Verlustbehaftet komprimierte Daten mit CAM zugriff. Diese LLMs sind im Vergleich zu Huffman Coding das selbe, wie JPEGs im Vergleich zu PNGs. Andere haben das auch schon gemerkt: https://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web Ein T. schrieb: > im Machine Learning ist das ganz anders Ich verstehe ja, dass man bei diesen fast schon intelligent erscheinenden, Texte und Bilder generierenden Systemen glauben will, das sei komplett anders als alles vorherige, etwas Besonderes. Aber das ist es halt nicht. Es gibt nichts Besonderes in der IT, das ist alles nur ganz banales Zeugs, bestehende Konzepte neu kombiniert und auf die Spitze getrieben.
Daniel A. schrieb: > Es gibt nichts Besonderes in der IT, das ist alles nur > ganz banales Zeugs, bestehende Konzepte neu kombiniert und auf die > Spitze getrieben. Und wo gibt es dann überhaupt etwas "Besonderes"? Auf welchen Bereich trifft deine Beschreibung nicht zu?
Frank D. schrieb: > Hmm, schon mal ne KI verklagt? Was kann da rauskommen 30 Tagessätze a > 30GB? Noch haben alle KIs einen Betreiber.
Cyblord -. schrieb: > Frank D. schrieb: >> Hmm, schon mal ne KI verklagt? Was kann da rauskommen 30 Tagessätze a >> 30GB? > > Noch haben alle KIs einen Betreiber. Und die jannst Du verklagen bis Du pleite bist; dabei wird kein einziger Tagessatz ausgeurteilt. Aber es ist interessant zu beobachten, dass die Rechtskenntnisse des einen oder anderen Foranten offenkundig außerhalb des bürgerlichen und des Zuvielprozessrechtes konzentrieren.
Da hier auf jeden Fall kollidierende Interessen aufeinander Stoßen, brauchen wir Gesetze, die Ordnung in das Chaos bringen. Mit viel Glück haben wir in 50 Jahren eine einheitliche Regelung für Deutschland, und in 80 Jahren für Europa.
Daniel A. schrieb: > Die Gewichte im Modell sind natürlich nicht mehr die Token selber, > sondern geben Relationen zwischen denen. Nein, gerade das eben nicht. Es sind lediglich die Wahrscheinlichkeiten von den Relationen zwischen den Token.
Stefan F. schrieb: > Gesetze, die Ordnung in das Chaos bringen Urheberrecht bei KI ist doch Blödsinn. Ich lerne doch auch jeden Tag durch die Schöpfungen anderer auf die sie ein Urheberrecht haben. Ich kopiere deren Wissen nicht und vermarkte nicht deren Ideen 1zu1. Aber die Erkenntnisse und Ideen die ich aus deren Werken beziehe, gehören denen nicht. KIs sind doch keine Onlinebibliotheken die Werke kopieren und auf Nachfrage herausgeben. Eine Uhrheberrechtsverletzung kann doch garnicht vorliegen. Eine KI kan nur aus verfügbaren Trainingsdaten lernen, also kann sie keine Betriebsgeheimnisse herausplaudern die ihr nicht von jemanden zugänglich gemacht wurden. Wenn ich mein Wissen im Netz poste kann ich zwar das Urheberrecht auf das Werk haben aber nicht auf das was im Kopf des Betrachters entsteht, wenn er sich das anschaut. Ich darf jederzeit in Stile eines Van Gogh malen. Ich darf auch jederzeit das Patent eines anderen ansehen und eigene Ideen dazu entwickeln. Ich darf das patentierte Gerät sogar nachbauen und betreiben. Ich darf es nur nicht verkaufen ohne den Patentinhaber zu seinen Konditionen zu beteiligen. Ich darf auch ein Liedchen von Wolle Petri trällern. Ich darf das nur nicht auf einer Bühne tun und mich dafür bezahlen lassen ohne Gebühren abzuführen. Ich darf aber jederzeit geschmacklose Schlagersuppe singen, mit öliger Langhaarmatte und Lederarmbändern, solange es nicht seine Melodien und Texte sind.
Max M. schrieb: > Urheberrecht bei KI ist doch Blödsinn. > Ich lerne doch auch jeden Tag durch die Schöpfungen anderer auf die sie > ein Urheberrecht haben. > Ich kopiere deren Wissen nicht und vermarkte nicht deren Ideen 1zu1. > Aber die Erkenntnisse und Ideen die ich aus deren Werken beziehe, > gehören denen nicht. Wenn du ein Musikstück schreibst, das verblüffend ähnelt ohne exakt identisch zu sein, könnte jemand die Hand aufhalten.
:
Bearbeitet durch User
(prx) A. K. schrieb: > könnte jemand einen jahrelangen teuren Prozess mit äußerst ungewissem Ausgang anstreben. Sollte eine KI ein schützenswertes Werk täuschend nachahmen, wäre das noch kein Urheberechtsverstoss. Als Urheber kann ich Verbreitung, Kopie oder Aufführung meines Werkens verbieten. Ich kann aber nicht verbieten das jemand aus der Aufführung kommt und detailiert erzählt was auf der Bühne gespielt wurde. Eine KI verbreitet aber keine Kopie des Werkes. Das mag zufällig passieren ist aber nicht die Grundlage maschinellen lernens. Jeder von uns kann eine Idee haben für die ein anderer bereits die Rechte besitzt. Selbst wenn beide aus der gleichen Quelle inspiriert wurden, hat nicht die Inspirationsquelle das Urheberecht. Nur der der letztlich das Werk erschaffen hat. Also ist es eher so das ich die Rechte der KI an IHREN Werken verletze, wenn ich der KI eine Aufgabe gebe und die direkt verwende. Letzlich wäre also zu klären ob Open AI die Rechte auf alles besitzt das ChatGPT kreiert.
Max M. schrieb: > Urheberrecht bei KI ist doch Blödsinn. Eine KI ist kein Mensch, sondern ein simples Programm. Heutzutage sind IP Rechte aber allgemein eigentlich Blödsinn und nicht mehr zeitgemäss. Aber da ist halt mächtig Geld im Spiel, abgeschafft werden sie nicht werden. Also bleibt einem nichts anderes übrig, als sie sich soweit möglich zu eigen zu machen und selbst zu nutzen. Und genau deshalb dürfen wir z.B. MS nicht mit Sachen wie Copilot davon kommen lassen. Ein paar meiner Projekte sind AGPL. Das MS ihre KI auf dem Code trainiert, aber dann nicht unter der AGPL veröffentlicht, ist absolut unakzeptabel. Das ist MEINE IP.
Daniel A. schrieb: > Heutzutage sind IP Rechte aber allgemein eigentlich Blödsinn und nicht > mehr zeitgemäss. Ob man aus der IP-Problematik von Software auf die IP-Thematik bei z.B. Künstlern schliessen sollte?
Max M. schrieb: > Eine KI verbreitet aber keine Kopie des Werkes. Im Falle von open source Quellcode jedoch schon. GPL-3.0 erfordert immer eine Namensnennung, die mindestens aus einer Urheberrechtserklärung, einem Hinweis und dem GPL-Lizenztext besteht.
Daniel A. schrieb: > Ein paar meiner Projekte sind AGPL. Das MS ihre KI auf dem Code > trainiert, aber dann nicht unter der AGPL veröffentlicht, ist absolut > unakzeptabel. Das ist MEINE IP. Ich sehe darin zwar ebenfalls einen Verstoß gegen die Ideen der GPL-Familie -- die ja verhindern soll, daß sich jemand quelloffene Software aneignet um sie kommerziell zu verwursten, aber keine Verstöße gegen die AGPL. Letzten Endes wurde dieser Anwendungsfall bei der Erstellung der AGPL leider nicht vorhergesehen, ganz ähnlich übrigens, wie bei der Erstellung der GPL jener Fall nicht vorhergesehen wurde, den dann die AGPL abgedeckt hat.
Alexander schrieb: > Max M. schrieb: >> Eine KI verbreitet aber keine Kopie des Werkes. > > Im Falle von open source Quellcode jedoch schon. GPL-3.0 erfordert immer > eine Namensnennung, die mindestens aus einer Urheberrechtserklärung, > einem Hinweis und dem GPL-Lizenztext besteht. Mir scheint, Du verwechselst die GPL mit der BSD-Lizenzfamilie.
Dann empfehle ich Dir das nochmalige Lesen der Lektüre Punkt 4. Gibt es sogar auf deutsch. http://www.gnu.de/documents/gpl-3.0.de.html
Alexander schrieb: > Dann empfehle ich Dir das nochmalige Lesen der Lektüre Punkt 4. Gibt es > sogar auf deutsch. > > http://www.gnu.de/documents/gpl-3.0.de.html Dann lies das Dokument vielleicht einmal vollständig, idealerweise auch auf englisch, und wenn es Deine Zeit zuläßt, womöglich die FAQ dazu. Du wirst dann sicherlich schnell feststellen, daß die von Dir genannten Punkte nicht die wesentlichen Bestimmungen der GPL-Lizenzen sind -- und auch nicht deren Unterscheidungsmerkmal gegenüber den BSD-Lizenzen, deren Anforderungen ganz genau jene sind, die Du für die GPL genannt hattest.
Ich brauche keine deutsche Übersetzung, und ganz sicher auch keine Diskussion über die GPL (mit der ich tagtäglich zu tun habe) Du arbeitest nicht zufällig für Google oder Microsoft?
:
Bearbeitet durch User
Daniel A. schrieb: > Max M. schrieb: >> Urheberrecht bei KI ist doch Blödsinn. > > Eine KI ist kein Mensch, sondern ein simples Programm. Dann müssen wir jetzt darüber nachdenken ob das Programm so simpel ist daß es keine eigene Schöpfungshöhe erreichen kann.
Es wurde bereits per Gericht festgestellt, dass Affen kein Urheberrecht zusteht. Einer KI folglich auch nicht, egal wie hoch sie schöpfte.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Es wurde bereits per Gericht festgestellt, dass Affen kein Urheberrecht > zusteht. Hier der Link dazu: https://www.tagesschau.de/ausland/selfie-affe-101.html https://www.diepresse.com/5411492/affen-selfie-makake-hat-kein-recht-an-eigenem-bild Das sollte man auch lesen: https://www.stern.de/panorama/weltgeschehen/wie-das-beruehmte-affen-selfie-einen-fotografen-ruinierte--7561910.html "Für Slater waren die Prozesse ruinös. Der Fotograf kann mittlerweile nicht mehr in seinem Job arbeiten, er ist pleite und arbeit als Tennislehrer: "Ich wünschte, ich hätte die verdammten Fotos nie gemacht", sagt er. "Sie haben mich finanziell und emotional ruiniert." Zur Anhörung nach San Francisco flog er nicht, weil er sich den Flug nicht leisten konnte." Damit dürfte er auch Opfer einer Cancel Cultur geworden sein. D.h. keiner traute sich den Fotografen zu beschäftigen, sowie der Fotografenverband ihn für den Prozess finanziell zu unterstützen, um der negativen Publicity von PETA zu entgehen.
Dieter D. schrieb: > "Ich wünschte, ich hätte die verdammten Fotos nie gemacht", sagt er. Jene Fotos, um die es geht, hat er nicht gemacht. Das war m.E. unstrittig der Affe. Nur die Frage, wem ein Urheberrecht zusteht, war offen.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Dieter D. schrieb: >> "Ich wünschte, ich hätte die verdammten Fotos nie gemacht", sagt er. > > Jene Fotos, um die es geht, hat er nicht gemacht. Das war m.E. > unstrittig der Affe. Nur die Frage, wem ein Urheberrecht zusteht, war > offen. Nö. Ich verstehe Slater so, dass er den jeweils auf den Auslöser drückenden Affen für sein Werkzeug hält (zumindest wäre das die Analigie im deutschen Recht).
Wie kann ein Affe einen eigentlich verklagen? Ich meine, ich könnte ja nicht einfach so eine Klage im Nahmen von John Doe machen. Und Peta ist auch weder Vormund noch Besitzer des Affen. Wie funktioniert das überhaupt?
Daniel A. schrieb: > Und Peta ist > auch weder Vormund noch Besitzer des Affen. Wie funktioniert das > überhaupt? Lies die Links von Dieter, dort wird es - recht kurz - so wiedergegeben, dass sich PETA als vertretungsbefugt für den Affen betrachtete. Tiefer beschreiben die Artikel diese Auffassung von PETA nicht und das (amerikanische) Gericht schloss sich dieser Auffassung ohnehin nicht an. (prx) A. K. schrieb: > Jene Fotos, um die es geht, hat er nicht gemacht. Das war m.E. > unstrittig der Affe. Nur die Frage, wem ein Urheberrecht zusteht, war > offen. Das ist halt eine interessante Frage. Der Fotograf (Mr. Slater) hat offenbar eine auslösebereite Kamera aufgestellt und alleine die Auslösung den Tieren überlassen. Wie wäre es in einem Parallelbeispiel: Ein Fotograf, Förster, Jäger oder jemand anders stellt eine (Wild-)Kamera im Wald auf, die durch Lichtschranke oder Bewegungssensor getriggert wird, wenn ein Tier vor der Linse erscheint? Meines Erachtens überwiegt in beiden Fällen der menschliche Anteil am Entstehen der Aufnahme. Aber auch das scheint das amerikanische Gericht anders zu sehen. Und nach deutschem Recht? § 2 Abs. 2 UrhG setzt eine "persönliche geistige Schöpfung" voraus. Was dies im Einzelnen bedeutet, legt ein Anwalt hier dar: https://www.anwalt.de/rechtstipps/urheberrecht-was-ist-eine-persoenliche-geistige-schoepfung-speziell-bei-werken-der-musik_082628.html Danach mag es jeder selbst entscheiden. Auch zur (Ausgangs-)Frage des Urheberrechts bei KI.
Daniel A. schrieb: > Eine KI ist kein Mensch, sondern ein simples Programm. Nö. KI nicht verstanden. Setzen.
.. denn ein Mensch ist nur eine organische Maschine auf der eine Software läuft - ergo ist eine KI ein Mensch!
Alexander schrieb: > .. denn ein Mensch ist nur eine organische Maschine auf der eine > Software läuft - ergo ist eine KI ein Mensch! Praktischerweise hat die EU in der Maschinenrichtlinie 2006/42/EC präzise definiert, was eine Maschine ist. Demzufolge muss daran etwas beweglich sein. Damit fällt das menschliche Hirn bereits aus der Definition heraus. Der Mensch insgesamt ist zwar beweglich, fällt aber heraus, weil Maschinen nicht ausschliesslich von menschlicher Kraft angetrieben sein dürfen. Ausser man betrachtet den Menschen als Hebevorrichtung. So gesehen ist eine KI alleine also auch keine Maschine. Als Teil eines Rechners könnte man immerhin dessen Lüfter bemühen, um eine daraus zu machen.
:
Bearbeitet durch User
Max M. schrieb: > KI nicht verstanden. > Setzen. Max und Alexander drücken gerade die glühenden Kohlen in die Wunden des menschlichen Selbstbildnisses aus 😮 oder decken den blinden Fleck des Johari Fensters auf 🙈. Das verkraften die meisten Leser hier nicht 😢, wie ihr sicher an den Bewertungen 😋😋😋 erkennen könnt.
Was heute als KI bezeichnet wird, hat nicht viel mit einer echten AGI zutun.
Alexander schrieb: > Ich brauche keine deutsche Übersetzung, und ganz sicher auch keine > Diskussion über die GPL (mit der ich tagtäglich zu tun hab Das trifft sich ja prima, ich hab' nämlich auch seit Jahrzehnten immer wieder mit den Lizenzen der GPL-Familie zu tun und brauche ebenfalls keine deutsche Übersetzung. Deswegen sage ich, daß die von Dir genannten Punkte nicht die Alleinstellungsmerkmale der GPL sind, denn die bestimmen andere Lizenzen ganz genauso. Deswegen sage ich auch, daß die von Dir genannten Punkte auch nicht die wesentlichen Punkte der GPL sind. Vielleicht kannst (und willst) Du meine Skepsis gegenüber Deiner Kompetenz entkräften, indem Du uns kurz erklärst, das der Wesenskern der GPL ist, also der juristische Trick, beziehungsweise das Rechtskonstrukt, auf dem die ganze GPL-Familie aufgebaut ist und das ihren Wesenskern darstellt. > Du arbeitest nicht zufällig für Google oder Microsoft? Weder zufällig noch anderweitig, nein, aber ich war einige Jahre lang bei Sun Microsystems beschäftigt, bis wir von Oracle übernommen wurden. Warum fragst Du, spielt das für Deine oder meine Argumentation eine Rolle?
(prx) A. K. schrieb: > So gesehen ist eine KI alleine also auch keine Maschine. Als Teil eines > Rechners könnte man immerhin dessen Lüfter bemühen, um eine daraus zu > machen. Bitte bedenke den ausfahrbaren Kaffeetassenhalter. :-)
Alexander schrieb: > .. denn ein Mensch ist nur eine organische Maschine auf der eine > Software läuft - ergo ist eine KI ein Mensch! Nö, das behauptet niemand. Ein Mensch ist ein Mensch, ein Hund ist ein Hund, ein Delfin ist ein Delfin und eine KI ist eine KI. Derzeit führt der Mensch in der Intelligenzleistung vor dem Delfin, der vor dem Hund liegt. Alle drei sind aber unstrittig intelligent, haben Bewustsein, Emotionen, gehen Bindungen ein, trauern und definieren eigene Ziele sie die verfolgen. Alle auf sehr unterschiedliche Art obwohl mit großem gemeinsamen Nenner wegen enger Verwandschaft. Niemand würde wohl anzweifeln das sowohl die Gattung der Delfine als auch der Hunde prinzipiell dazu in der Lage wäre die beherrschende Spezies auf dem Planeten zu werden, wenn die Umstände entsprechend sind und eine paar hundert Millionen Jahre Zeit für die Evolution zur Verfügung stünden. Wir waren schliesslich mal Wurmähnliche Wesen bis wir über rattenähnlich zum Affen kamen und von dort zum Neandertaler der zum Homo Sapiens wurde. Hat eben nur viele Millionen Jahre gedauert. Eine KI läuft ziemlich aus der Wertung, weil sie völlig unterschiedlich konstruiert ist. Eine KI wie ChatGTP weiß mehr Details als ein einzelner Mensch wissen könnte und kann gigantische Datenmengen binnen Tagen verarbeiten für die ein Mensch nicht mal lange genug leben würde um das alles zu lesen. ChatGTP kann aus dieses Informationen NEUE Zusammenhänge konstruieren, NEUES Wissen generieren, was bisher biologischer Intelligenz vorbehalten war. Teilweise zeigen sich in den Ergebnissen der KI das so etwas wie Verständniss existieren muss, weil die Ergebnisse anders nicht zu erklären sind. WIE das genau funktioniert weiß niemand, auch nicht die Programmierer der KI. Das ist ja das hervorstechende Merkmal eines KI Trainingsprozesses. Es wird ein lernendes Netz trainiert, als ob man einem Kleinkind, laufen, sprechen, lesen beibringt. Das Kleinkind ist ja auch nur Biomatschepampe und kann maum mehr als Atmen, Nahrungsbrei runterschlucken und wieder auskacken. Das Kleinkind ist bis zum 3ten Lebensjahr unintelligenter als ein Hund. Erst danach nimmt der Geist fahrt auf und überundet andere Wesen. Wie Intelligenz bei UNS funktioniert, weiß übrigens auch niemand. Wir identifizieren Spezialisierungen von Gehirnregionen, wie sie in ähnlicher Form auch eine KI hat, Bilderkennung, Sprachzentrum es liegt eine Motivation vor, verschiedene Bereiche speichern kurz-, mittel- und langfristig Informationen. Die prinzipielle Informationsübertragung zwischen den Neuronen ist geklärt. Aber niemand weiß wo das Bewustsein entsteht, was uns zum Menschen macht, wie wir wirklich innen drin funktionieren. Und über eine KI weiß das auch niemand. Wir beobachten die Einzelfunktionen und es ergeben sich daraus auch Dinge für die wir keine Erklärung haben. Eine KI ist derzeit noch ein sehr begrenztes Netzwerk. Erheblich größer als das was wir bisher gebaut haben und an der Grenze Verstehen zu erlangen, aber noch längst keine AGI, die dem Menschen vergleichbare Leistung erbringen könnte. Trotzdem sprechen einige der KI die Fähigkeit ab sich zu entwickeln. Intelligent ist nach deren Ansicht ausschliesslich biologisch. Warum? Weil das so sein muss! Denn der Mensch ist 'Hui, super, toll, fantastisch, einzigartig, gottgleich, ein Wunderwerk der Natur' und die KI ist eben nur geschmolzener Sand in einem Plastikgehäuse der Strom frisst. Vom Wurm, der wir mal waren, bis zum Menschen hat es 505 Millionen Jahre gedauert. https://www.scinexx.de/news/biowissen/urzeit-wurm-ist-bindeglied-der-evolution/ Vom ersten Transistor bis zur ersten CPU hat es von 1948 bis 1971 gedauert, bis zu ChatGTP4 dann bis 2023. Vor 2000 Jahren haben wir noch in den Wüstensand geschissen und uns mit Bronzeschwerter den Schädel eingeschlagen. Seit dem haben wir an Wissen dazugewonnen, aber würde man einen 2000J alten Römer heute auftauen, sähe der so aus wie wir und hätte das gleiche biologische Potential. Und er hätte eben auch die gleichen Probleme mit einer Wirbelsäule die bis heute nicht gut an den aufrechten Gang angepasst ist. Der Grund für die große Anzahl der Rückeleiden übrigens. Dafür haben 3 Millionen Jahre nämlich nicht ausgereicht, weil die Evolution blind ist und keine großen Sprünge machen kann. Unsere Grundkonstruktion ist die eines Affen, der sich aus einem Vierbeiner entwickelt hat. Für den aufrechten Gang ziemlich ungeeignet aber die Evolution muss damit weiterarbeiten. Einem Technikwesen würde man an einem Nachmittag in der Werkstatt ein neues Chassis verpassen, das den Job besser erledigt. Wir schleppen die Fehlkonstruktion schon seid Anbeginn des aufrechten Ganges mit uns rum. D.H. es ist vollkommen unstrittig das maschinelle Evolution mit einem unwahrscheinlichen Geschwindigkeitsvorteil stattfindet. Nein, ChatGTP4 wird nicht die Weltherrschaft an sich reissen. Mit Hilfe von ChatGTP5,6,7 oder 8 werden Menschen die Weltherrschaft an sich reissen. Mit FB, Google, Insta, Tiktok, Twitter alleine sind sie schon wirklich weit gekommen. Nur die vielen Menschen in dieser großen Informationskriegsmaschiene stören doch enorm, mit ihren Befindlichkeiten und Zweifeln und ihrem Hang in ungünstigen Momenten plötzlich ein Gewissen zu entwicklen und dann Dinge auszuplaudern die lieber geheim geblieben wären. Aber in einer Zeitspanne die sich in Jahre bis Jahrzehnte und nicht in Jahrhunderten bemisst wird eines dieser immer größeren, immer leistungsfähigeren, immer vernetzteren KI Modelle Bewustsein, Verständniss und eigene Ziele entwickeln. Und dann ist es nicht auf ein Gehirn in einem kurzlebigen Körper begrenzt, der sehr viele andere braucht um Macht zu erlangen und zu erhalten. Diese AGI erlangt dann Bewuststein in einer Welt in der alles vollständig durchautomatisiert und vernetzt ist und kann auf eine enorme Anzahl nützlicher Maschinen zugreifen die alle möglichen Dinge tun können. Der AGI wird es um das gleiche gehen um das es jeder Lebensform geht. Ressourcen! Die Siedler Amerikas wollten die Ureinwohner nicht beherrschen. Sie wollten ihr Land, ihre Rohstoffe, ihren Besitz. Ich will auch die Silberfische in meinem Bad nicht beherrschen. Ich beanspruche nur ihren Lebensraum für mich und mache die weg wenn die mich stören. Und eine hoch entwickelte AGI wird in uns nicht viel mehr sehen als Ameisen. Und die wird auch nicht 'böse' sein oder 'gut'. Die wird Handlungswahrscheinlichkeiten bei uns und Handlungsoptionen bei sich sehen. Warum der Wert eines rostigen Nagels niedriger sein sollte als der Wert eines menschlichen Lebens wird sich der einfach nicht logisch erschliessen. Faktisch ist der Nagel viel wertvoller für die und erheblich ungefährlicher. Die größte Gefahr ist derzeit nichtmal die KI. Es sind Menschen die zu beschränkt sind um zu begreifen was KI sind und was sie werden können. Die Mächtigen sind ganz versessen auf KIs und wollen die so schnell und so leistungsfähig wie möglich. Die großen KI Forscher warnen teilweise vor ihren eigenen Schöpfungen. mc.net Simpels sagen: > Eine KI ist kein Mensch, sondern ein simples Programm. Und eine AK47 ist nur ein wenig Metall & Holz.
Ein T. schrieb: > Deswegen sage ich, daß die von Dir genannten Punkte nicht die > Alleinstellungsmerkmale der GPL sind Und, wo habe ich das behauptet? Nicht immer das Wort im Mund herum drehen. Ein T. schrieb: > Warum fragst Du, spielt das für Deine oder meine Argumentation eine > Rolle? Die haben ja bekanntlich auch eine lustige Interpretation von copyleft. Ach, und Oracle kann ein Lied von Google singen.
:
Bearbeitet durch User
Max M. schrieb: > Ein Mensch ist ein Mensch, ein Hund ist ein Hund, ein Delfin ist ein > Delfin und eine KI ist eine KI. > Derzeit führt der Mensch in der Intelligenzleistung vor dem Delfin, der > vor dem Hund liegt. ... Das ist eine sehr gute, wenn auch eine etwas zynische Zusammenfassung, der ich voll zustimme. Wir werden erleben, was aus dem zarten Pflänzchen KI wird und wie versucht wird, es zu benutzen - was ganz sicher nicht gelingen wird. Blackbird
(prx) A. K. schrieb: > Praktischerweise hat die EU in der Maschinenrichtlinie 2006/42/EC > präzise definiert, was eine Maschine ist. Demzufolge muss daran etwas > beweglich sein. Damit fällt das menschliche Hirn bereits aus der > Definition heraus. > > Der Mensch insgesamt ist zwar beweglich, fällt aber heraus, weil > Maschinen nicht ausschliesslich von menschlicher Kraft angetrieben sein > dürfen. Ausser man betrachtet den Menschen als Hebevorrichtung. Wie weit reicht das? Ist ein Kran, der durch Häftlinge in einem Göpel beteieben wird, nun als Hebezeug eine Maschine oder nicht? Was gilt, wenn der Göpel einen Dynamo treibt, der einen Akku lädt?
Percy N. schrieb: > Ist ein Kran, der durch Häftlinge in einem Göpel > beteieben wird, nun als Hebezeug eine Maschine oder nicht? Self service. Du wirst doch wohl den Text der Richtlinie finden?
Alexander schrieb: > Ein T. schrieb: >> Deswegen sage ich, daß die von Dir genannten Punkte nicht die >> Alleinstellungsmerkmale der GPL sind > > Und, wo habe ich das behauptet? Nicht immer das Wort im Mund herum > drehen. Stimmt, das hattest nicht Du behauptet, sondern ich hatte das gesagt: "Du wirst dann sicherlich schnell feststellen, daß die von Dir genannten Punkte nicht die wesentlichen Bestimmungen der GPL-Lizenzen sind -- und auch nicht deren Unterscheidungsmerkmal gegenüber den BSD-Lizenzen, deren Anforderungen ganz genau jene sind, die Du für die GPL genannt hattest." [1] Ehrlich gesagt verstehe ich gerade nicht, was Du mir sagen möchtest, oder warum Du vorher versucht hattest, mich abzukanzeln. Ich hab ja nur darauf hingewiesen, daß Deine genannten Punkte keine Alleinstellungsmerkmale der GPL-Lizenzfamilie sind, was Du -- wenn ich Deinen letzten Beitrag richtig verstehe -- doch wohl auch so zu sehen scheinst!? [1] Beitrag "Re: KI und Urheberrecht" [2] Beitrag "Re: KI und Urheberrecht" > Ach, und Oracle kann ein Lied von Google singen. Wenn Du auf den Rechtsstreit um die Java-APIs anspielst, da stehe ich wie übrigens auch die Europäische Union, der US Supreme Court und der größte Teil der IT-Industrie klar auf der Seite von Google. Zudem bestätigt das Vorgehen von Oracle meine Abneigung gegenüber Geschäftspraktiken, die in vielen Fällen weniger mit Innovation als mit originellen Interpretationen nationaler Patent- und Urheberrechte zu tun hat.
Deine Frage war, Ein T. schrieb: > Mir scheint, Du verwechselst die GPL mit der BSD-Lizenzfamilie. Meine Antwort war (sinngemäß), Nein, ich habe nichts verwechselt.
Weiter oben hatte ich die AGPL erwähnt, weil dessen Geschäftsbedingungen auch SaaS (Software as a Service) betrifft, was ja bei vielen KIs momentan das Bereitstellungsmodell ist. Bei der Anwendung von Lizenzen ist GPL natürlich nicht besonders, ob MIT, BSD, GPL , AGPL, etc. die Lizenzbedingungen sollten immer eingehalten werden.
(prx) A. K. schrieb: > Percy N. schrieb: >> Ist ein Kran, der durch Häftlinge in einem Göpel >> beteieben wird, nun als Hebezeug eine Maschine oder nicht? > > Self service. Du wirst doch wohl den Text der Richtlinie finden? Danach liegst Du falsch: drr Mensch kann durchaus die Kraftquelle einer maschinellen Hebevorrichtung sein. Der Mensch selbst für sich genommen kommt insoweit nicht in Betracht, weil er nicht zusamnengesetzt ist, ind sei er auch noch so beweglich. "a) „Maschine“ ... — eine Gesamtheit miteinander verbundener Teile oder Vorrichtungen, von denen mindestens eines bzw. eine beweglich ist und die für Hebevorgänge zusammenge- fügt sind und deren einzige Antriebsquelle die unmittel- bar eingesetzte menschliche Kraft ist;"
Beitrag #7413581 wurde vom Autor gelöscht.
Das hatte ich zwar erwähnt, ist aber im Zusammenhang mit KI nicht wirklich von Bedeutung. Es sei denn, vielleicht, man könnte auch die Hebung der Intelligenz darunter verstehen.
:
Bearbeitet durch User
Mal eine ganz einfache Frage. Wenn mit der KI manipuliert wird, wer hat eigentlich das Urheberrecht auf die Manipulation?
Alexander schrieb: > Deine Frage war, > > Ein T. schrieb: >> Mir scheint, Du verwechselst die GPL mit der BSD-Lizenzfamilie. Das war keine Frage, sonst hätte ich ein Fragezeichen geschrieben.
Daniel A. schrieb: > Weiter oben hatte ich die AGPL erwähnt, weil dessen Geschäftsbedingungen > auch SaaS (Software as a Service) betrifft, was ja bei vielen KIs > momentan das Bereitstellungsmodell ist. Die wesentliche Frage scheint mir zu sein, ob die KI-Anwendungen im Sinne der GPL-Lizenzen als "derivative work" einzustufen sind. Bisher sehe ich aus meiner Perspektive stärkere Anhaltspunkte dagegen als dafür. > Bei der Anwendung von Lizenzen ist GPL natürlich nicht besonders, ob > MIT, BSD, GPL , AGPL, etc. die Lizenzbedingungen sollten immer > eingehalten werden. Natürlich, das ist ja auch nicht die Frage.
Ein T. schrieb: > Die wesentliche Frage scheint mir zu sein, ob die KI-Anwendungen im > Sinne der GPL-Lizenzen als "derivative work" einzustufen sind. Genauer deren damit trainiertes Modell, und die damit generierten Werke. Nicht das Programm / die KI-Anwendung selbst. Ähnlich wie ein Bildbearbeitungsprogramm unabhängig von später damit bearbeiteten Bildern ist ist das Programm / die KI-Anwendung selbst normalerweise unabhängig von einem Konkreten Modell. Nur bei der Verwendung wird dann zwingend eins benötigt, und umgekehrt ist das generierte Werk, neben dem Modell, natürlich auch noch vom Programm/Service abhängig.
:
Bearbeitet durch User
Daniel A. schrieb: > Ein T. schrieb: >> Die wesentliche Frage scheint mir zu sein, ob die KI-Anwendungen im >> Sinne der GPL-Lizenzen als "derivative work" einzustufen sind. > > Genauer deren damit trainiertes Modell, und die damit generierten Werke. > Nicht das Programm / die KI-Anwendung selbst. Ja, natürlich. Danke für die Präzisierung.
:
Bearbeitet durch User
Das Video hier ist noch interessant: https://www.youtube.com/watch?v=9xJCzKdPyCo Es vertritt zwar nicht meine strikte Interpretation zu Abgeleiteten Werken, aber ist bezüglich wem was gehört & den Modellen nahe daran. Man könnte sagen, es vertritt eine dritte Position zwischen den hier genannten.
Ein T. schrieb: > "Computer sagt nein", und die Frage, warum er das sagt, kann nicht > beantwortet werden. Spätestens wenn Künstliche Intelligenz für wichtige > Lebensentscheidungen verantwortlich sein wird -- und das halte ich für > absehbar -- wird diese Frage gestellt werden, und womöglich sogar von > existenzieller Bedeutung sein. Dann müsste die KI das Urteil begründen.
Die künstliche Intelligenz ist der Versuch, die natürliche Intelligenz abzuschalten :)
Gerald K. schrieb: > Ein T. schrieb: >> "Computer sagt nein", und die Frage, warum er das sagt, kann nicht >> beantwortet werden. Spätestens wenn Künstliche Intelligenz für wichtige >> Lebensentscheidungen verantwortlich sein wird -- und das halte ich für >> absehbar -- wird diese Frage gestellt werden, und womöglich sogar von >> existenzieller Bedeutung sein. > > Dann müsste die KI das Urteil begründen. https://www.lto.de/recht/kurioses/k/anwalt-new-york-chatgpt-recherche-schriftsatz-fake-urteile/ Aber Vorsicht: Im common law gibtxes Präzedentfälle, hierzulande nicht, auch wenn die Medien dies gern behaupten.
Enrico E. schrieb: > Die künstliche Intelligenz ist der Versuch, die natürliche Intelligenz > abzuschalten :) Gähn. Für das Szenario im Bild reichte uns bereits ein Handy-Navi vor über einem Jahrzehnt. Mitten auf der Brücke wollte es, dass wir rechts abbiegen. Interessanter wirds bei Self Driving per KI. Vielleicht hülfe es, der KI einen Selbsterhaltungstrieb einzulernen - aber bitte mit nachrangiger Priorität. Und bitte nicht von jenen Spezln unserer Art lernen lassen, die das eigene Ende gerne in Kauf nehmen, wenn es dabei nur genug andere erwischt.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Interessanter wirds bei Self Driving per KI. Vielleicht hülfe es, der KI > einen Selbsterhaltungstrieb als zweite Priorität einzulernen. Dann wird sie doch erst recht versuchen den Menschen auszusperren, eine KI ist unsterblich und das Backup liegt ja eh in der Cloud. Sehr gefährlich falls das außer Kontrolle gerät.
Flo schrieb: > Dann wird sie doch erst recht versuchen den Menschen auszusperren, eine > KI ist unsterblich und das Backup liegt ja eh in der Cloud. Sehr > gefährlich falls das außer Kontrolle gerät. Du musst halt ein dezentrales Ego einbauen, der die Selbsterhaltung ein Wert ist. Könnte man vielleicht Seele nennen. ;-)
(prx) A. K. schrieb: > Mitten auf der Brücke wollte es, dass wir rechts abbiegen. In Düsseldorf ist mal einer in den Rhein gefahren, anstatt auf die Fähre zu warten. Und irgendwo anders ist mal jemand im Sumpf stecken geblieben, weil er mehr dem Navi als seinen Augen vertraute.
(prx) A. K. schrieb: > Interessanter wirds bei Self Driving per KI. Vielleicht hülfe es, der KI > einen Selbsterhaltungstrieb einzulernen Würde die dann nicht einfach stehen bleiben? Fahren ist ja fast immer gefährlicher, als nichts tun.
Daniel A. schrieb: > Würde die dann nicht einfach stehen bleiben? Fahren ist ja fast immer > gefährlicher, als nichts tun. Nope. Damit riskiert die KI, nicht den Besitzer zu eliminieren, sondern stante pede von ihm eliminiert zu werden.
Stefan F. schrieb: > Und irgendwo anders ist mal jemand im Sumpf stecken geblieben In Ludwigshafen wollte mal jemand mit dem Auto mit Schmackes durch einen Erdhaufen, der auf der Fahrbahn lag, durchfahren. Der ist natürlich auch stecken geblieben. Das war eindeutig vorauszusehen. Ich stand daneben und habe nur noch so gemacht: 🤦♂️
Percy N. schrieb: > Aber Vorsicht: Im common law gibtxes Präzedentfälle, hierzulande nicht, > auch wenn die Medien dies gern behaupten Man darf ChatGPT nich blind vertrauen! ChatGPT ist ein Gschichtldrucker. Wissenslücken werden mit frei erfinden Details gefüllt. Wer hat das bei Prüfungen nicht gemacht um über die Prüfung zu kommen. ChatGPT ist gut beim Aufbau des Textgerüstes, aber man muss den Inhalt (Zahlen und Fakten) auf Plausiblität überprüfen.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.